Transformada de Fourier

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 82

Transformada de Fourier

Transformada Inversa de Fourier

Estas ecuaciones existen si 𝑓(𝑥) es continua e integrable y si 𝐹(𝑢) es


integrable (casi siempre se cumplen en la práctica).
Espectro de Fourier

La Trasformada de Fourier de una función real 𝑓(𝑥) es generalmente compleja


Potencia Espectral

Fórmula de Euler
Ejemplo:

2 2
Se multiplica el lado derecho por 𝑒 −𝜋𝑢 ∙ 𝑒 𝜋𝑢 = 1
Ejemplo:
Transformada de Fourier en 2D

Transformada Inversa de Fourier en 2D


Transformada Discreta de Fourier
Funciones de una Variable
Transformada Discreta Inversa
DFT en 2D

DFT Inversa en 2D

u y v son las Variables de Frecuencia


x y y son las Variables Espaciales o de la Imagen
Espectro de Fourier

Potencia Espectral
Inversión del Espectro de Fourier
 Es común multiplicar la imagen de entrada por (-1)x+y antes del
cálculo de la transformada de Fourier. Debido a las a las
propiedades de los exponenciales se puede demostrar que:

 Haciendo esta multiplicación se logra que el origen de la


Transformada de Fourier de f(x,y)·(-1)(x+y) , que es F(0,0), este
localizada en u=M⁄2 y v=N⁄2.

DFT 2D crea un rectángulo de área MxN al cual se le llama “Rectángulo


de Frecuencia”.
Propiedades de la Transformada de Fourier
 Simetría

Una función que no tiene simetría par o impar se puede descomponer en


componentes par e impar por medio de:

donde
Si se expresa f(x) como una suma de componentes pares e
impares

El segundo y tercer término son integrales infinitas del


producto de una función par por un impar, lo que da
cero como resultado, entonces:
1. Un componente par de una función produce un componente
par en la transformada.
2. Un componente impar de una función produce un
componente impar en la transformada.
3. Un componente impar de una función introduce el
coeficiente –j.
4. Un componente par de una función no introduce el
coeficiente –j.
Una función real (ej. una imagen) produce una
transformada que contiene una parte real par y una parte
imaginaria impar, a esto se le llama función “Hermitiana”,
la cual posee la propiedad del “conjugado simétrico”
 Linealidad
 Desplazamiento en el Tiempo
 Convolución

Por la propiedad de desplazamiento en el tiempo


 Similaridad – Escalamiento
Teorema de Rayleigh

La integral existe para señales transitorias y la energía es


un parámetro que refleja el “tamaño” total de la función.

El teorema de Rayleigh dice que

Lo que significa que la transformada tiene la misma


energía que la función.
Propiedades de la Transformada de
Fourier en 2D
 Linealidad

 Similaridad - Escalamiento

 Desplazamiento en el Tiempo
 Convolución

 Diferenciación

 Laplaciano
 Rotación

 Teorema de Rayleigh

 Separabilidad
Filtrado en el Dominio de la Frecuencia
La multiplicación se hace elemento por elemento. Los filtros
más comunes son reales, en este caso la parte real de H
multiplica a la parte real e imaginaria de F.
A esto se le llama “Filtro de Cero Desplazamiento de Fase”
(Zero-Phase-Shift), es decir, no alteran la fase de la
transformada.
La transformada Inversa es generalmente compleja, por lo que
se toma solo la parte real.
Los valores de magnitud obtenidos en el Espectro de
Fourier se encuentran dispersos sobre un rango muy
amplio, para visualizar este espectro se requiere
realizar una cuantificación para representarlos en una
escala de 0 a 255.

Otra forma de visualizar el espectro de magnitud es


tomando el logaritmo base 10 y luego realizar la
cuantificación.
Filtro Pasa Bajas
 Ideal (ILPF)
 Butterworth (BLPF) orden n
 Gaussiano (GLPF)
Filtro Pasa Altas

 Ideal (IHPF)
 Butterworth (BHPF) orden n
 Gaussiano (GHPF)
Laplaciano
Transformada Rápida de Fourier
FFT – Fast Fourier Transform
DFT- NxM multiplicaciones y NxM sumas
FFT se aplica a imágenes cuadradas de tamaño N donde N=2P

La función exponencial es periódica en el producto nxi. La


matriz ω puede ser factorizada en un producto de NxN
matrices que contienen valores repetidos incluyendo muchos
ceros y unos.
Si N=2P entonces ω se puede factorizar en p matrices de
manera que el total de operaciones es
TRANSFORMADA DISCRETA LINEALES DE 1D

X es un vector de Nx1.
T es una matriz de transformación de NxN (Matriz Kernel)

para i=0,…, N-1.


Ejemplo: Rotación de un vector X de dos dimensiones por un ángulo ѳ

Transformada Inversa
Transformada Unitaria

T debe ser una matriz unitaria.

* - Complejo conjugado de T
t - Transpuesta de T

Si T solo tiene componentes reales entonces se le denomina “Matriz ortogonal”.

Las filas de T son un conjunto de vectores ortogonales.


Ejemplo:
DFT – 1D es una transformada unitaria

Donde ω es una matriz unitaria (pero no ortogonal) con elementos complejos


 Normalmente la matriz de transformación es no-
singular (rango (T)=N) para hacer la transformada
invertible.
 Las filas de T forman un conjunto de vectores base
ortonormales o vectores unitarios del espacio de
vectores N-dimensionales de todos los vectores de
Nx1.
 Cualquier secuencia de Nx1 puede ser interpretada
como un vector del origen a un punto en el espacio
N-dimensional.
TRANSFORMADAS DISCRETAS LINEALES EN 2D

F – matriz original de NxN


G - matriz transformada de NxN
𝐽 𝑖, 𝑘, 𝑚, 𝑛 - matriz Kernel

Si se puede separar en el producto de funciones componentes


por renglones y columnas, entonces se le llama “Transformada
Separable”.
Por lo tanto, la operación de transformación se puede realizar
en dos partes

Además si las funciones componente son iguales, la


transformada es “simétrica”

y la operación de transformación se expresa como

o simplemente
Si T es una matriz unitaria la transformada inversa se escribe
como:

Ejemplo: DFT 2D es una transformada unitaria, simétrica y


separable:

Si T es ortogonal entonces 𝐹 = 𝑇 𝑡 𝐺𝑇 𝑡 y si T es simétrica


entonces 𝐺 = 𝑇𝐹𝑇 y F= 𝑇𝐺𝑇. Esto sucede generalmente
cuando T es real.
FUNCIONES BASE
Los renglones de la matriz kernel forman un conjunto de vectores base
para un espacio de vectores N-dimensional. Los renglones son
ortonormales.

donde 𝜕(𝑗, 𝑘) es la función Delta de Kronecker (función impulso


discreto).
Cualquier vector en el espacio transformado se puede expresar como la
sumatoria de vectores base de longitud unitaria con diferentes pesos.
Cualquier transformada unitaria unidimensional corresponde entonces
a la rotación de un vector en un espacio de vectores N-dimensional.
Cualquier transformada unitaria, separable y simétrica en 2
dimensiones corresponde a la rotación de un vector en el espacio de N2
dimensiones.
IMÁGENES BASE
La transformada inversa 2D puede interpretarse como la reconstrucción de la imagen
por la sumatoria de un conjunto de imágenes base con pesos apropiados.
Cada elemento en la matriz transformada G es el coeficiente por el cual la imagen base
correspondiente es multiplicada en la sumatoria.
Una imagen base puede generarse transformando inversamente una matriz de
coeficientes que contenga solo un elemento diferente de cero, el cual se hace igual a 1.
Existen N2 de esas matrices y estas producen N2 imágenes base, una de estas matrices
de coeficientes sería:

donde (i, j) son los índices de las columnas y (p, q) indican la posición específica
del elemento diferente de cero.
La transformada inversa es:
TRANSFORMADAS SENUSOIDALES
Transformada Discreta de Fourier (DFT)

donde F es una matriz de una imagen y G es la matriz espectro.


TRANSFORMADA DISCRETA DE COSENO (DCT)

1 2 2
Los coeficientes son: 𝛼 0 = ; 𝛼 𝑚 = para 1 < 𝑚 ≤ 𝑁 y 𝛼 𝑛 = .
𝑁 𝑁 𝑁

La Transformada Discreta del Coseno (DCT) puede expresarse como:

donde:

DCT consiste de solo valores reales se usa en compresión de imágenes.


TRANSFORMADA DISCRETA DEL SENO (DST)

La Transformada Discreta del Seno (DST) puede expresarse como:

donde:

DST es más eficientemente si es calculada para N=2p-1.


TRANSFORMADA DE HARTLEY (DHT)

𝜋
Función base 𝑐𝑎𝑠𝜃 = 𝑐𝑜𝑠𝜃 + 𝑠𝑒𝑛𝜃 = 2 cos 𝜃 +
4
𝑐𝑜𝑠𝑒𝑛𝑜 𝑡𝑟𝑎𝑠𝑙𝑎𝑑𝑎𝑑𝑜
45° 𝑎 𝑙𝑎 𝑑𝑒𝑟𝑒𝑐ℎ𝑎
Elementos de la matriz kernel de DHT

DHT solo tiene elementos reales.


TRANSFORMADAS DE ONDA RECTANGULAR
TRANSFORMADA DE HADAMARD
Es una transformada unitaria, separable y simétrica que solo
tiene +1 y -1 en su matriz kernel. Existe para N=2n. En el caso
de una matriz de 2x2

y para matrices mayores de tamaño N


La columna de la derecha indica el número de cambios de
signo de la fila y es llamada la “secuencia” de la fila. La matriz
se puede reordenar de forma que la secuencia sea
ascendente.
TRANSFORMADA DE WALSH

Las funciones base de la transformada de Hadamard son


realmente funciones de Walsh, por lo que la transformada de
Hadamard se le conoce también como transformada de
Walsh.
TRANSFORMADA DE SLANT

Diseñada para tener una primera función base constante y


una segunda función base lineal. Esta segunda función base
corresponde a los cambios graduales del fondo de muchas
imágenes.
La matriz kernel unitaria para la transformada Slant se
obtiene a partir de la matriz kernel de Hadamard y Haar de
2x2:
Y se itera de acuerdo al siguiente esquema:

I es la matriz identidad de tamaño 𝑁 2− 2


TRANSFORMADA DE HAAR

La transformada de Haar es unitaria, separable y simétrica y


usa funciones Haar como funciones base. Existe para 𝑁 = 2𝑛 .
Las funciones base de DFT varían solo en frecuencia, las
funciones de Haar varían en escala (ancho) y posición. Esto le
da a la transformada de Haar una naturaleza dual de posición
y escala. Esta característica la distingue de las otras
transformadas y es el punto de inicio para la Transformada
Wavelet.

Transformada Wavelet  Análisis de Multiresolución


TRANSFORMADAS BASADAS EN
EIGENVALORES Y EIGENVECTORES
Eigenvalores y Eigenvectores→Valores y vectores propios→Valores y vectores
característicos
Eigenanálisis.- Cálculo de Eigenvalores y Eigenvectores
Eigenvalores: Para una matriz A de N por N existen N escalares λk donde k=1,
…, N, tal que 𝐴 − 𝜆𝑘 𝐼 = 0. Estos escalares 𝜆𝑘 son un conjunto único de
eigenvalores o valores característicos de la matriz A.
Cada eigenvalor puede ser visto como una cantidad la cual al ser sustituida en
cada elemento de la diagonal principal hace que la matriz A sea singular.
Por definición, no existe un orden para los eigenvalores, pero es común
ordenarlos de mayor a menor, esto es, 𝜆𝑘 ≥ 𝜆𝑘+1 . Si la matriz es singular,
entonces cuando menos uno de sus N eigenvalores será cero.
El rango de la matriz A (rank(A)) es el número de eigenvalores
diferentes de cero. El “número de condición” de la matriz A es la
diferencia que existe entre su mayor y menor eigenvalor, si este
número es grande, pero finito, entonces la matriz A tiene “mala
condición” (ill conditioned) y tratar de encontrar su inversa puede ser
un proceso numéricamente muy difícil.

𝐴𝑥 = 𝐵 𝑥 = 𝐴−1 ∙ 𝐵

Eigenvectores: Existen N vectores 𝑉𝑘 de Nx1 tal que 𝐴𝑉𝑘 = 𝜆𝑘 𝑉𝑘 los


vectores 𝑉𝑘 son llamados eigenvectores o vectores característicos
de la matriz A. Cada eigenvector corresponde a un eigenvalor. Si A
es real y simétrica, entonces los 𝜆𝑘 eigenvalores son reales.
ANALISIS DE COMPONENTES PRINCIPALES (PCA)

Harold Hotelling desarrolló una transformación lineal que remueve la


correlación entre los elementos de un vector aleatorio y la llamó
“Método de Componentes Principales”.
Karhunen y Loéve desarrollaron una transformada similar para
señales continuas, la cual se denomina “K-L Transform”.
Sea X un vector aleatorio de Nx1, esto es, cada elemento 𝑋𝑖 de 𝑋 es
una variable aleatoria. El vector medio de X se puede estimar de una
muestra de L de esos vectores por medio de:
𝐿
1
𝑚𝑥 ≈ 𝑋𝑙
𝐿
𝑙=1
y su matriz de covarianza por
𝐿
1
𝐶𝑋 = ℰ (𝑋 − 𝑚𝑋 ) ∙ (𝑋 − 𝑚𝑋 )𝑡 = 𝑋𝑙 𝑋𝑙𝑡 − 𝑚𝑋 𝑚𝑋𝑡
𝐿
𝑙=1
La matriz de covarianza 𝐶𝑋 es real y simétrica de tamaño NxN. Sus
elementos diagonales son las varianzas de las variables aleatorias
individuales, mientras que los demás elementos son covarianzas.
Vector promedio:

Matriz de Covarianza:
Considere que la matriz A define una Transformación Lineal que
genera un vector Y a partir de cualquier vector X por medio de la
ecuación:

𝑌 = 𝐴(𝑋 − 𝑚𝑥 )

donde A es construida a partir de los eigenvectores de 𝐶𝑥 . Por


conveniencia se ordenan los renglones de A en forma descendiente
de acuerdo a la magnitud de sus eigenvalores correspondientes.

El vector transformado Y es un vector aleatorio con media cero y su


matriz de covarianza se relaciona con la de X por:

𝐶𝑌 = 𝐴𝐶𝑋 𝐴𝑡
Ya que los renglones de A son eigenvectores de 𝐶𝑋 ,𝐶𝑌 será una
matriz diagonal que tiene los eigenvalores de 𝐶𝑋 a lo largo de su
diagonal

𝜆1 0
𝐶𝑌 =
0 𝜆𝑁

Y los 𝜆𝑘 son también los eigenvalores de 𝐶𝑌 .

Note que la transformada 𝑌 = 𝐴 𝑋 − 𝑚𝑋 es invertible, esto es, se


puede reconstruir un vector X a partir de su vector transformado Y por:

𝑋 = 𝐴−1 (𝑌 + 𝑚𝑋 ) = 𝐴𝑡 (𝑌 + 𝑚𝑋 )

Ya que la matriz A es unitaria y real (ortogonal).


REDUCCIÓN DE DIMENSIONES
Se puede reducir la dimensionalidad de un vector ignorando uno o más de
sus eigenvectores que tengan valores pequeños.
Sea B una matriz de MxN, donde M<N, formada al descartar los (N-M)
renglones más bajos de A, asumiendo que mX=0 (media cero) para
simplificar, entonces los vectores transformados son más pequeños (Mx1) y
están dados por:

Aun así, los vectores x se pueden reconstruir (aproximadamente) por


medio de:

El error cuadrático medio de esta aproximación esta dado por

que equivale a la suma de los eigenvalores descartados.


TRANSFORMADA WAVELET
La transformada de Fourier utiliza ondas senusoidales como funciones base.
Estas funciones base se extienden hacia el infinito en ambas direcciones y
solo varían en frecuencia. La transformada Wavelet usa funciones base con
duración limitada. Estas funciones base varían tanto en posición como en
frecuencia y son llamadas Wavelets u Onduletas.
La transformada Haar tiene vectores base generados por translaciones y
escalamientos de una sola función. La función de Haar que es un par de
pulsos rectangulares impares, es la onduleta más antigua y simple.

Funciones base de la Trasformada Haar.


TRANSFORMADA WAVELET CONTINUA
(GROSSMAN Y MORLET)
Definición
Si 𝜓 𝑥 es una función de valores reales con espectro de Fourier 𝜓 𝑠 ,
satisface el “criterio de admisibilidad”

Entonces 𝜓 𝑥 es llamada “onduleta básica” o “basic wavelet”.


Note que debido al denominador s de la integral será necesario que

Además, ya que 𝜓 ∞ = 0, podemos observar que el espectro de amplitud


de una onduleta admisible es similar a la función de transferencia de un filtro
pasa bandas.
Un conjunto de funciones onduleta base (wavelet basic
functions) 𝜓𝑎,𝑏 (𝑥) , se puede generar trasladando y escalando
la función onduleta base, 𝜓 𝑥 , de la siguiente forma:

donde a>0 y b son números reales. La variable a refleja la escala


(ancho) de una función base particular, mientras b especifica su
posición de traslación a lo largo del eje x.
Normalmente 𝜓 𝑥 está centrada en el origen, de manera que
𝜓𝑎,𝑏 𝑥 estará centrada en x=b.
La transformada wavelet continúa de f(x) con respecto a 𝜓 𝑥
es:

Transformada directa (CWT)


Los coeficientes de la transformada wavelet están dados por
los productos internos de la función a transformar con cada
una de las funciones básicas.
La transformada wavelet inversa para funciones continuas es:

Transformada inversa (iCWT)


TRANSFORMADA WAVELET CONTINUA EN 2D (CWT)

Si f(x,y) es una función continua en 2D, su transformada wavelet es:

donde bx y by especifican las traslaciones en 2D.


La CWT inversa en 2D es:

donde:

y 𝜓 𝑥, 𝑦 es una onduleta base en 2D.


TRANSFORMADA WAVELET DISCRETA (DWT)

Existen 3 técnicas básicas para el desarrollo de la Transformada


Wavelet Discreta (DWT):
1. Teoría de banco de filtros
2. Análisis Multi-resolución o análisis tiempo-escala
(pirámides de imágenes)
3. Codificación por sub–bandas
DISEÑO DE LA TRASFORMADA WAVELET
𝐹 𝑠 = 2 1 2 𝐺0 𝑠 𝐻0 𝑠 + 1 2 𝐺1 𝑠 𝐻1 𝑠
= 2 1 2 𝐹 𝑠 𝐻0 𝑆 𝐻0 𝑠 + 1 2 𝐹 𝑠 𝐻1 𝑠 𝐻1 𝑠

esto significa que:


𝐹(𝑠) = 𝐹 𝑠 𝐻02 𝑠 + 𝐻12 𝑠
y las funciones de transferencia de los dos filtros deben cumplir la condición:
𝐻02 𝑠 + 𝐻12 𝑠 = 1
para 0 ≤ 𝑠 ≤ 𝑆𝑁 .
Suponga que H0(s) es una función de transferencia pasa bajas con bordes
suavizados que se desea usar en una transformada wavelet. Claramente, la
función H1(s) correspondiente está dada por
𝐻12 = 1 − 𝐻02 𝑠
Por lo tanto, para el diseño de una transformada wavelet discreta se requiere
hacer una buena selección de un filtro pasa bajas.
VECTOR DE ESCALAMIENTO - ℎ𝑜 (𝑘)

ℎ𝑜 𝑘 = 2
𝑘

ℎ𝑜 𝑘 ℎ𝑜 𝑘 + 2𝓁 = 𝜕(𝓁)
𝑘

Con el Vector de Escalamiento se obtiene la Función de Escalamiento:

𝜙 𝑡 = ℎ𝑜 𝑘 𝜙 2𝑡 + 𝑘
𝑘

Si se tiene la Función de Escalamiento, entonces se obtiene el Vector de


Escalamiento:
ℎ𝑜 𝑘 = 𝜙1,0 𝑡 , 𝜙0,𝑘 𝑡
𝑗
𝜙𝑗.𝑛 𝑡 = 22 𝜙(2𝑖 𝑡 − 𝑘)

para j=0,1,… y k= 0, 1 , … 2j-1.


VECTOR WAVELET

ℎ1 𝑘 = −1 𝑘 ℎ0 −𝑘 + 1

Onduleta básica:

𝜓 𝑡 = ℎ1 𝑘 𝜙 2𝑡 − 𝑘
𝑘

Conjunto de onduletas ortonormales:


𝑗
𝜓𝑗,𝑘 𝑡 = 22 𝜙 2𝑗 𝑡 + 𝑘
CÁLCULO DE LA TRASFORMADA WAVELET

La Trasformada Wavelet de una función continua f(t) es:



𝐶𝑗,𝑘 = 𝑓 𝑡 𝜓𝑗,𝑘 𝑡 𝑑𝑡
−∞

𝑓 𝑡 = 𝐶𝑗,𝑘 𝜓𝑗,𝑘 𝑡
𝑗,𝑘

La Trasformada Wavelet Discreta de una función muestreada es:


𝐶𝑗,𝑘 = 𝑓 𝑖∆𝑡 𝜓𝑗,𝑘 𝑖∆𝑡
𝑖

𝑓 𝑖∆𝑡 = 𝐶𝑗,𝑘 𝜙𝑗,𝑘 𝑖∆𝑡


𝑗,𝑘
Ejemplo 1: Construcción de DWT usando filtros ideales pasabajas y pasabandas

Esto nos da una trasformada wavelet discreta basada onduletas tipo sinc (sinc
wavelets).

Ejemplo 2: Si hacemos

Entonces 𝜓 𝑡 es la función Haar, esto nos llevaría a la trasformada Haar.


Transformada Wavelet Discreta (DWT) en 2D
Tiene una función de escalamiento en 2 dimensiones que es separable, como
en cualquier transformada unitaria
𝜙 𝑥, 𝑦 = 𝜙 𝑥 𝜙 𝑦

𝜓1 𝑥, 𝑦 = 𝜙 𝑥 𝜓 𝑦 𝜓 2 𝑥, 𝑦 = 𝜓 𝑥 𝜙 𝑦 𝜓 3 𝑥, 𝑦 = 𝜓 𝑥 𝜓 𝑦
𝑖𝑛𝑑𝑖𝑐𝑒
𝑛𝑜
𝑒𝑥𝑝.

𝜓 𝓁 𝑗,𝑚,𝑛 𝑥, 𝑦 = 2𝑗 𝜓 𝓁 (𝑥 − 2𝑗 𝑚, 𝑦 − 2𝑗 𝑛 𝑗 ≥ 0 , 𝓁 = 1,2,3

donde 𝑗, 𝓁, 𝑚, 𝑛 son enteros.

𝜓 𝓁 𝑗,𝑚,𝑛 𝑥, 𝑦 es un conjunto base ortonormal para 𝐿2 (𝑅2 ).


TRANSFORMADA DIRECTA
Se inicia con una imagen de 𝑁𝑥𝑁, 𝑓1 (𝑥, 𝑦), con 𝑁 = 2𝑛 , 𝑗 = 0,
la escala es 2𝑗 = 20 = 1 que es la escala de la imagen original.
Cada valor mayor de 𝑗 dobla la escala y reduce la resolución a la
mitad.
La imagen puede ser expandida en términos de onduletas en
2D de la siguiente manera:
1) En cada etapa de la transformada la imagen se descompone
en 4 imágenes de un cuarto de tamaño.
2) Cada una de las 4 imágenes es formada por productos
internos con una de las imágenes de onduletas base.
3) Se realiza un submuestreo de columnas y reglones por un
factor de 2.
TRANSFORMADA DIRECTA
Para la primera etapa 𝑗 = 1
𝑓20 𝑚, 𝑛 = 𝑓1 𝑥, 𝑦 , 𝜙 𝑥 − 2𝑚, 𝑦 − 2𝑛
𝑓21 𝑚, 𝑛 = 𝑓1 𝑥, 𝑦 , 𝜓1 𝑥 − 2𝑚, 𝑦 − 2𝑛
𝑓22 𝑚, 𝑛 = 𝑓1 𝑥, 𝑦 , 𝜓 2 𝑥 − 2𝑚, 𝑦 − 2𝑛
𝑓23 𝑚, 𝑛 = 𝑓1 𝑥, 𝑦 , 𝜓 3 (𝑥 − 2𝑚, 𝑦 − 2𝑛)

Para las etapas subsecuentes 𝑗 > 1 , 𝑓20𝑗 (𝑥, 𝑦) es descompuesta de la misma


forma para generar 4 imágenes más pequeñas a una escala 2𝑗+1 .
Los productos internos se pueden escribir como convoluciones:

𝑓20𝑗+1 𝑚, 𝑛 = 𝑓2𝑗 𝑥, 𝑦 ∗ 𝜙 −𝑥, −𝑦 2𝑚, 2𝑛


𝑓21𝑗+1 𝑚, 𝑛 = 𝑓2𝑗 𝑥, 𝑦 ∗ 𝜓1 (−𝑥, −𝑦) 2𝑚, 2𝑛
𝑓22𝑗+1 𝑚, 𝑛 = 𝑓2𝑗 𝑥, 𝑦 ∗ 𝜓 2 (−𝑥, −𝑦) 2𝑚, 2𝑛
𝑓23𝑗+1 𝑚, 𝑛 = 𝑓2𝑗 𝑥, 𝑦 ∗ 𝜓 3 (−𝑥, −𝑦) 2𝑚, 2𝑛

Además se requieren las cuatro operaciones de submuestreo en cada etapa.


Tanto las funciones de escalamiento como las onduletas base son separables,
entonces cada convolución se puede dividir en convoluciones por columnas y
renglones de 𝑓20𝑗 (𝑥, 𝑦).
Si se utilizan Sinc Wavelets, en cada escala 𝑓20𝑗 (𝑥, 𝑦) contendrá la información
de baja frecuencia de la etapa previa, mientras que 𝑓21𝑗 (𝑥, 𝑦) ,𝑓22𝑗 (𝑥, 𝑦),
𝑓23𝑗 (𝑥, 𝑦) contendrán la información de los bordes horizontales, verticales y
diagonales respectivamente. La descomposición de DWT en el dominio de la
frecuencia sería:
TRANSFORMADA INVERSA
APLICACIONES DE LA TRANSFORMADA WAVELET

Compresión de Imágenes.- DWT descompone una imagen en un


conjunto sucesivo de imágenes ortonormales más pequeñas. Es
posible cuantificar o eliminar los coeficientes que tienen valores
pequeños y reconstruir la imagen con el resto de los
coeficientes.
Mejoramiento de Imágenes.- DWT descompone la imagen en
componentes de diferentes tamaños, posiciones y orientaciones.
Así como el filtrado lineal en el dominio de la frecuencia, se
puede manipular la amplitud de los coeficientes en el dominio
de la trasformada wavelet antes de obtener la transformada
inversa. De esta forma se pueden acentuar componentes
interesantes de forma selectiva.

También podría gustarte