introducción al análisis de Fourier experimental

Anuncio
Curso: 2005-06
Universidad de La Laguna
NOTAS de
ANÁLISIS
ESPECTRAL DE
DATOS
Jesús J. Fuensalida
Instituto de Astrofísica de Canarias
Una introducción al análisis de Fourier experimental
Universidad de La Laguna
2/48
Curso: 2005-06
ADVERTENCIA
Estas “Notas” no deben considerarse como la materia única del
curso. De hecho, su contenido es parcial respecto al programa de
la asignatura, aunque refleja una parte considerable del temario.
Ha de entenderse como una herramienta de aclaración y consulta,
ya que en algunos apartados extiende conceptos (muy
especialmente en el Cap. 6), además del soporte de las figuras.
Universidad de La Laguna
3/48
Curso: 2005-06
ÍNDICE
1.- INTRODUCCIÓN
2.- SERIES DE FOURIER
2.1.- Descomposición de Fourier de una función
periódica
2.2.- Representación en frecuencias
2.3.- Aplicación a una onda cuadrada
2.4.- Ortogonalidad
2.5.- Representación módulo y fase
2.6.- Potencia media de una función
5/48
5/48
6/48
6/48
11/48
12/48
15/48
3.- INTEGRAL DE FOURIER
3.1.- Anotación compleja
3.2.- Descomposición de Fourier de una función noperiódica
3.3.- Transformada de Fourier
3.4.- Propiedades de simetría
3.5.- Teorema de escalado
3.6.- Teorema de desplazamiento
3.7.- Teorema de la derivada
3.8.- Catálogo de transformadas de funciones
relevantes
18/48
18/48
4.- CONVOLUCIÓN Y CORRELACIÓN
4.1.- Convolución y deconvolución (sin ruido)
4.2.- Propiedades de la convolución
4.3.- Correlación cruzada
4.4.- Teorema de Parseval
27/48
27/48
28/48
29/48
31/48
19/48
20/48
23/48
24/48
24/48
24/48
25/48
Universidad de La Laguna
4/48
Curso: 2005-06
4.5.- Función de autocorrelación
5.- TRANSFORMADA DISCRETA DE FOURIER
5.1.- Muestreo de una señal
5.2.- Transformada de Fourier discreta (DFT)
5.3.- Transformada rápida de Fourier (FFT)
5.4.- Efecto de píxel
6.- ESTADÍSTICA CON TRANSFORMADA DE
FOURIER. RUIDO
6.1.- Probabilidad y parámetros (introducción)
6.2.- Esperanza estadística
6.3.- Función característica y momentos
6.4.- Momentos centrales
6.5.- Probabilidad condicional e independencia
estadística
6.6.- Distribución de una suma de variables aleatorias
independientes
6.7.- Teorema del límite central
32/48
34/48
34/48
38/48
39/48
40/48
42/48
42/48
42/48
43/48
45/48
46/48
46/48
48/48
Análisis Espectral de Datos
Jesús J. Fuensalida
5/48
Instituto de Astrofísica de Canarias
Universidad de La Laguna
2.- SERIES DE FOURIER
2.1.- Descomposición de Fourier de una función periódica.
Sea f(x) una función periódica de periodo T. Ésta se puede desarrollar en base a cosenos
y senos de la siguiente forma:
∞
f (t ) = a 0 + ∑ (a n cos nω b t + bn sen nω b t )
si ω b ≡
n =1
2π
T
(2.1)
en donde
π
a0 =
∫ f ( χ ) ⋅ 1 ⋅ dχ
−π
π
∫ 1 ⋅ dχ
1
=
2π
π
∫ f ( χ ) ⋅ dχ
siendo χ ≡ ω b t
(2.2)
−π
−π
π
an =
∫ f (χ ) cos nχ ⋅ dχ
−π
π
∫ cos
=
nχ ⋅ d χ
2
1
π
π
∫ f (χ ) cos nχ ⋅ dχ
(2.3)
−π
−π
π
bn =
∫ f (χ )sen nχ ⋅ dχ
−π
π
∫ sen
2
nχ ⋅ d χ
=
1
π
π
∫ f (χ )sen nχ ⋅ dχ
(2.4)
−π
−π
Al término ao se le denomina componente continua o d.c. (direct current)
habitualmente en ingeniería.
Un desarrollo expresado de esta forma se conoce como desarrollo en serie de Fourier.
Se puede apreciar que los sucesivos términos del desarrollo están fijados por frecuencias
múltiplos de ω b, que se denominan harmónicos de ω b y a los términos de orden n=1, es
decir los de ω b se llama harmónico fundamental.
Las expresiones anteriores pueden también escribirse de forma más general como
2πnx
2πnx 

f ( x) = a0 + ∑  a n cos
+ bn sen

T
T 
n =1 
∞
+T
1 2
a0 =
f ( x ) ⋅ dx
T −T∫
2
Análisis Espectral de Datos
6/48
Universidad de La Laguna
+T 2
1
2πnx
an =
f ( x ) cos
⋅ dx
∫
T −T 2
T
2
+T 2
1
2πnx
bn =
f ( x ) sen
⋅ dx
∫
T −T 2
T
2
donde x puede representar la variable espacio o tiempo.
Este desarrollo en serie converge a f(x) si se cumplen las condiciones de Dirichlet:
a) f(x) esté definida y sea uniforme excepto, como mucho, en un número finito de
puntos en ]-T/2,T/2[.
b) f(x) sea periódica fuera de ]-T/2,T/2[ con periodo T.
c) f(x) y f '(x) son cuasicontinuas en ]-T/2,T/2[.
Las condiciones (a), (b) y (c) exigidas a f(x) son suficientes, pero no necesarias, aunque
generalmente se cumplen en la práctica.
2.2.- Representación en frecuencias.
Una vez expresada la función f(t) como serie de Fourier según el apartado anterior,
dicha función puede quedar absolutamente representada con los coeficientes an y bn.
Éstos pueden ser considerados como una función discreta respecto a la variable ω=nωb.
Es decir, los coeficientes an pueden ser representados por la función a(nωb) y los bn
como b(nωb). Por tanto, f(t) quedaría representada por estas funciones expresadas de la
siguiente forma:
∞
a (ω ) = ∑ a nδ (ω − nω b )
0
∞
b(ω ) = ∑ bnδ (ω − nω b )
1
Es decir, un conjunto de deltas de Dirac equidistantes con un intervalo ωb.
2.3.- Aplicación a una onda cuadrada.
Una onda cuadrada es una función periódica respecto al tiempo o espacio
unidimensional que toma dos valores diferentes alternativamente y de igual duración.
En la fig. 2.3.1, se representa una onda cuadrada de amplitud la unidad, es decir, alterna
entre los valores 1 y -1, respecto a χ=ωbt de modo que el periodo es 2π rad.
Jesús J. Fuensalida
7/48
Instituto de Astrofísica de Canarias
f
c u a
1
−π
π
i
ii
χ
iii
Fig. 2.3.1.- Onda cuadrada de amplitud 1 y periodo 2π rad.
Para expresar esta función como serie de Fourier, aplicaríamos las expresiones 2.2, 2.3
y 2.4. Dado que la función se repite cada periodo, extendemos las integrales entre +π y π:
π
∫ f ( χ ) ⋅ 1 ⋅ dχ
−π
a0 =
π
∫ 1 ⋅ dχ
1
=
2π
π
∫ f ( χ ) ⋅ dχ = 0
−π
−π
ya que en un periodo, la parte positiva es idéntica que la negativa. Es decir, la
componente d.c. es nula, porque oscila alrededor de y=0. Si lo hiciera para y=c, ∀c∈ R
constante, sería a0=c.
π
an =
∫ f (χ ) cos nχ ⋅ dχ
−π
π
∫ cos
2
nχ ⋅ d χ
=
1
π
π
∫ f (χ ) cos nχ ⋅ dχ
−π
−π


+π 2
+π

−π 2
1

= π ∫ − 1⋅ cosnχ ⋅ dχ + ∫ + 1⋅ cosnχ ⋅ dχ + ∫ − 1⋅ cosnχ ⋅ dχ 

1
π
π
−π
2
443 −1
442443 +12 442443
 442
i
ii
iii

siendo cada término i, ii, y iii correspondiente a las partes indicadas en la fig. 2.3.1.
{−
=
π
=
2
nπ
1
1
n
[sen nχ ]−−π
π
2
+
1
n
[sen nχ ]+−
π
π
2
2
− 1n [sen nχ ]+π 2
{− sen(− n π2 ) + sen n π2 } = n2π {2 sen n π2 }
+π
}
8/48
Análisis Espectral de Datos
Universidad de La Laguna
Por tanto, los primeros valores son
a 0 = 0, a1 = π4 , a 2 = 0, a3 = − 13 π4 , a 4 = 0, a5 =
1 4
5 π
, ...
Para los coeficientes bn,
π
bn =
∫ f (χ )sen nχ ⋅ dχ
−π
π
∫ sen
2
nχ ⋅ d χ
=
1
π
π
∫ f (χ )sen nχ ⋅ dχ
−π
−π


+π 2
+π
 −π 2

= π1  ∫ − 1 ⋅ sen nχ ⋅ dχ + ∫ + 1 ⋅ sen nχ ⋅ dχ + ∫ − 1 ⋅ sen nχ ⋅ dχ 
1

π
−π
−π 2
443 1
442443 +12 442443 
 442
i
ii
iii

{−
=
π
=
2
nπ
1
1
n
[cos nχ ]−−π
π
2
+
1
n
[cos nχ ]+−
π
π
2
2
− 1n [cos nχ ]+π 2
+π
}
{− cos(− n π2 ) + cos n π2 } = 0
Es decir, bn = 0.
Luego,
fcua= 4/π (cos ωbt - 1/3 cos 3ωbt + 1/5 cos 5ωbt - 1/7 cos 7ωbt + 1/9 cos 9ωbt - ...)
En las figuras 2.3.2a y 2.3.2b, se muestran los resultados con diferentes harmónicos. Se
puede apreciar que las amplitudes de los harmónicos de mayor orden son menores y sin
embargo son las encargadas de ajustar los saltos bruscos, es decir, cuanto más saltos
bruscos tenga la señal, mayor composición en altas frecuencias tendrá.
Serie de Fourier de Onda Cuadrada (f=10 Hz)
Cuadrada
Sum(1..5)
1,5
Cos1
1
Cos3
0,5
Cos5
0
-0,5
0
0,05
0,1
0,15
-1
-1,5
tiem po (s)
Fig. 2.3.2a.- Comparación de una onda cuadrada con el desarrollo de Fourier hasta el
harmónico 5.
Jesús J. Fuensalida
9/48
Instituto de Astrofísica de Canarias
Serie de Fourier de Onda Cuadrada (f=10 Hz)
Cuadrada
Sum(1..9)
1,5
Cos1
1
Cos3
0,5
Cos5
Cos7
0
-0,5
0
0,05
0,1
0,15
Cos9
-1
-1,5
tiem po (s)
Fig. 2.3.2b.- Comparación de una onda cuadrada con el desarrollo de Fourier hasta el
harmónico 9.
Composición en Frecuencias de Onda
Cuadrada
Amplitud
1,5
1
0,5
0
0
10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160
-0,5
Frecuencia (Hz)
Fig. 2.3.3.- Composición en frecuencias de un onda cuadrada.
Sin embargo, si tratamos el caso de la misma función pero desplazada respecto al Y
(Fig. 2.3.4), podemos advertir que los valores de los coeficientes de la serie de Fourier
cambian.
10/48
Análisis Espectral de Datos
Universidad de La Laguna
f
c u a
1
−π
π
i
χ
ii
Fig.2.3.4.- Onda cuadrada desplazada respecto al eje Y
Siguiendo la fig. 2.3.4,
π
an =
∫ f (χ ) cos nχ ⋅ dχ
−π
π
∫π cos
2
=
nχ ⋅ dχ
1
π
π
∫π f (χ ) cos nχ ⋅ dχ
−
−
+π


= π  ∫ − 1 ⋅ cos nχ ⋅ dχ + ∫ + 1 ⋅ cos nχ ⋅ dχ 
0
 −π

0
1
{−
=
π
=
1
nπ
1
[sen nχ ]0−π
1
n
+
1
n
[sen nχ ]0+π }
{− sen 0 + sen (− nπ ) + sen nπ − sen 0} = 0
Es decir, an = 0.
Para los coeficientes bn,
π
bn =
∫ f (χ )sen nχ ⋅ dχ
−π
π
∫ sen
2
nχ ⋅ dχ
=
1
π
π
∫ f (χ )sen nχ ⋅ dχ
−π
−π
+π
0

= π1  ∫ − 1 ⋅ sen nχ ⋅ dχ + ∫ + 1 ⋅ sen nχ ⋅ dχ 
0
 −π

{+
=
π
=
1
nπ
1
1
n
[cos nχ ]0−π
− 1n [cos nχ ]0
+π
}
{cos 0 − cos(− nπ ) − cos nπ + cos 0} = n2π {1 − cos nπ }
Instituto de Astrofísica de Canarias
11/48
Por tanto, los primeros valores son
b1 = π4 , b2 = 0, b3 = 13 π4 , b4 = 0, b5 =
1 4
5 π
Jesús J. Fuensalida
, ...
Hay que resaltar que no son iguales a los an del caso par.
Se puede generalizar de este ejemplo que si la función es par, el desarrollo de Fourier
no contendrá componentes impares, es decir, los términos de senos serán nulos,
como es el caso de la fig. 2.3.1. Y, si la función es impar, el desarrollo de Fourier no
contendrá componentes pares, es decir, los términos de cosenos serán nulos, como
es el caso de la fig. 2.3.4. Además, se aprecia que para una función determinada
expresada como par, los coeficientes an no son iguales a los bn de la función expresada
como impar.
2.4.- Ortogonalidad.
Se dice que 2 funciones, f(χ) y g(χ) son ortogonales si y solo si
χ2
∫ f ( χ ) ⋅ g ( χ ) ⋅ dχ = 0
en el intervalo (χ1, χ2)
χ1
Esto quiere decir que f(χ) no contiene componentes de g(χ), y viceversa.
Las funciones sinusoidales de diferentes frecuencias pueden formar una base ortogonal
en ∀ intervalo (χ1, χ1+Χ).
¿Son ortogonales cos nχ y sen mχ?
+T / 2
∫ cos ω t ⋅ sen ω t ⋅ dt = ?
b
b
−T / 2
+π
+π
−π
−
∫ cos χ ⋅ sen χ ⋅ dχ =
∫π
sen 2 χ
1
+π
⋅ dχ = − [cos 2 χ ]−π = 0
2
4
sen 2 χ = 2 sen χ cos χ
+π
+π
∫π sen χ ⋅ sen 2 χ ⋅ dχ = 2 ⋅ ∫π sen
−
−
2
χ ⋅ cos χ ⋅ dχ =
[
2
sen 3 χ
3
]
cos 2 χ = cos 2 χ − sen 2 χ
⇒ cos 2 χ = 1 − 2 sen 2 χ
cos 2 χ = 1 − sen 2 χ
+π
−π
=0
12/48
Análisis Espectral de Datos
+π
+π
+π
∫π cos χ ⋅ cos 2 χ ⋅ dχ = ∫π cos χ ⋅ dχ − 2 ∫π sen
−
−
= [sen χ ]−π −
+π
[
2
sen 3 χ
3
2
Universidad de La Laguna
χ ⋅ cos χ ⋅ dχ
−
]
+π
−π
=0
Es decir, senχ y cosχ son ortogonales así como senχ y sen2χ y también cosχ y cos2χ. Y
así se puede extender entre sen nχ y cos mχ y sen kχ y cos lχ ∀n,m,k,l∈ N.
NOTA: Dos funciones f(χ) y g(χ) son ortonormales si y solo si, además de ser
ortogonales, cumplen:
χ2
χ2
∫ [ f ( χ )] dχ = χ∫ [g ( χ )] dχ = 1
χ
2
1
2
1
sen nχ y cos mχ no son ortonormales porque,
+T
∫ cos
−T
+T
nω b x ⋅ dx =
T
2
2
nω b x ⋅ dx =
T
2
2
2
∫ sen
−T
2
2
2
(Ver apartado 2.6)
2.5.- Representación módulo y fase.
Como hemos visto en el apartado 2.4 que cos nωbt y sen nωbt son ortogonales, podemos
representar an cos nωbt + bn sen nωbt a modo de vectores.
Por lo tanto,
bn = c n sen φ n
bn
a n = c n cos φ n
cn
θn
φn
y entonces, la suma de cada orden,
a n cos nω b t + bn sen nω b t = c n cos nω b t cos φ n + c n sen nω b t sen φ n
= c n cos(nω b t − φ n )
an
Instituto de Astrofísica de Canarias
13/48
Jesús J. Fuensalida
Y del gráfico obtenemos,
c n = a n2 + bn2
tg φ n =
bn
b
, , φ n = arctg n
an
an
Con lo que, el desarrollo de Fourier podemos expresarlo,
∞
f (t ) = a0 + ∑ c n cos(nω b t − φ n )
n =1
De forma similar, podemos obtener una expresión respecto a θn.
bn = c n cosθ n
a n = c n sen θ n
a n cos nω b t + bn sen nω b t = c n sen θ n cos nω b t + c n cosθ n sen nω b t
= c n sen(nω b t + θ n )
Y, como más arriba,
c n = a n2 + bn2
tg θ n =
an
a
, ,θ n = arctg n
bn
bn
De esta forma, el desarrollo de Fourier queda,
∞
f (t ) = a 0 + ∑ c n sen(nω b t + θ n )
n =1
En las figuras 2.5.1a y b mostramos las representaciones para dos casos de valores an y
bn.
14/48
Análisis Espectral de Datos
Universidad de La Laguna
Desfase de coseno + seno (f=10 Hz)
1*Seno
1*Cos
1,5
1*Cos + 1*Seno
1
0,5
0
-0,5
0
0,05
0,1
0,15
-1
-1,5
tiem po (s)
Fig. 2.5.1a.- Resultante de una cierta componente con φn=θn=π/4.
Ocurre cuando an = bn.
Desfase de coseno + seno (f=10 Hz)
0,4142*Seno
1*Cos
1,5
1*Cos + 0,4142*Seno
1
0,5
0
-0,5
0
0,05
0,1
0,15
-1
-1,5
tiem po (s)
Fig. 2.5.1b.- Resultante de una componente con φn=π/8 y θn=3π/8.
En las gráficas 2.5.1 obtenemos la suma a partir de un coseno y seno con diferentes
amplitudes. Podemos apreciar φ como la distancia en radianes desde el máximo de la
resultante al máximo de la componente coseno y θ la distancia de la resultante al
máximo de la componente seno.
Para el caso mostrado en 2.5.1a, calculamos,
φ n = arctg
bn
1 π
= arctg = rad
1 4
an
θ n = arctg
an
1 π
= arctg = rad
1 4
bn
Jesús J. Fuensalida
15/48
Instituto de Astrofísica de Canarias
c n = a n2 + bn2 = 2
que se puede comprobar en la gráfica.
Para el caso mostrado en 2.5.1b, calculamos,
φ n = arctg
bn
0.4142 π
= arctg
= rad
1
8
an
θ n = arctg
an
1
3π
= arctg
=
rad
0.4142
8
bn
c n = a n2 + bn2 = 1 + 0.4142 2 = 1.0824
que se puede comprobar en la gráfica.
2.6.- Potencia media de una función
La potencia media que desarrolla la función f(x) (recordamos que a lo largo del curso
utilizaremos indistintamente la variable x y t como variable independiente, excepto en
ejemplos específicos) a lo largo de un periodo se define,
1
Pf =
T
+T
2
2
∫ [ f ( x)] dx
−T
2
Si usamos el desarrollo en an y bn,
1
Pf =
T
2


∞
a 0 + ∑ (a n cos nω b x + bn sen nω b x) dx
∫
14444244443 
−T 
n =1
2
Ξn

+T
2
+T
2
+T
+T
∞
1 2
1 2 ∞
1 2

= ∫ a 02 dx + ∫ ∑ (Ξ n ) dx + ∫ 2a 0 ∑ (Ξ n )dx
T −T 2
T −T  n =1
T −T
n =1

142
4
3 142 4
42444
3 142 4
42444
3
i
a02
ii
iii
De desarrollar ii aparecerán términos del tipo:
+T
(I)
2
1
a n bm ∫ cos nω b x ⋅ sen mω b x ⋅ dx
T
−T
2
0
Análisis Espectral de Datos
16/48
Universidad de La Laguna
+T
(II)
2
1
a n a m ∫ cos nω b x ⋅ cos mω b x ⋅ dx
T
−T
2
+T
(III)
2
1
bn bm ∫ sen nω b x ⋅ sen mω b x ⋅ dx
T
−T
2
Calculemos cada uno de estos términos,
(I)
Si tenemos en cuenta que
sen α cos β =
1
[sen(α − β ) + sen(α + β )]
2
entonces,
+T
1
1 2
= a n bm ∫ [sen(m − n)ω b x + sen(m + n)ω b x ] ⋅ dx = 0
T
2 −T 2
cada integral de los senos es =0, tanto para m≠n
como para m=n.
(II)
Si tenemos en cuenta que
cos α cos β =
1
[cos(α − β ) + cos(α + β )]
2
entonces,
+T
1
1 2
= a n a m ∫ [cos(n − m)ω b x + cos(n + m)ω b x ] ⋅ dx
T
2 −T 2
=0
Si m≠n (ortogonales)
+T
1
1 2
1 a n2
= a n2 ∫ [1 + cos 2nω b x ] ⋅ dx =
T
T
T 2
2 −T 2
(III)
Si m=n
Si tenemos en cuenta que
sen α sen β =
+T
1
[cos(α − β ) − cos(α + β )]
2
entonces,
1
1 2
= bn bm ∫ [cos(n − m)ω b x − cos(n + m)ω b x ] ⋅ dx
T
2 −T 2
Jesús J. Fuensalida
17/48
Instituto de Astrofísica de Canarias
=0
Si m≠n (ortogonales)
+T
1 21 2
1 bn2
= bn ∫ [1 − cos 2nω b x ] ⋅ dx =
T
T
T 2
2 −T 2
Si m=n
Por lo tanto, la POTENCIA MEDIA:
∞
 a2 b2 
1 ∞
1 ∞
Pf = a 02 + ∑  n + n  = a 02 + ∑ a n2 + bn2 = a 02 + ∑ c n2
2 
2 n =1
2 n =1
n =1  2
(
)
Como hemos visto en el apartado 2.4 y en éste más arriba, la potencia media de cada
componente con amplitud 1 es 1/2. Por lo tanto, la potencia media de f(x) es la suma
de la potencia de cada componente, más la potencia de la componente continua
(TEOREMA DE PARSEVAL de series de Fourier).
De este resultado, podemos atisbar el interés de una representación de la potencia en
función de la frecuencia con lo que apreciaremos fácilmente la contribución de cada
harmónico a la potencia de la función completa. A esta representación se denomina
ESPECTRO DE POTENCIAS, que se tratará con más detalle en el próximo capítulo.
Análisis Espectral de Datos
18/48
Jesús J. Fuensalida
Instituto de Astrofísica de Canarias
Universidad de La Laguna
3.- INTEGRAL DE FOURIER
3.1.- Anotación compleja
Sabemos que,
cos α =
1
2
[e
iα
+ e − iα
[
]
sen α = −i 12 e iα − e −iα
]
luego,
a n cos nω b x =
a n i n ω b x a n −i n ω b x
e
+
e
2
2
bn sen nω b x = −i
bn i n ω b x
b −i n ω b x
e
+i n e
2
2
Por lo tanto,
∞
a n − ibn i n ω b x ∞ a n + ibn −i n ω b x
inω x
e
+∑
e
= ∑ dne b
2
2
n =1
n =1
n = −∞
∞
f (x ) = a 0 + ∑
siendo,
d 0 = a0
dn =
a n − ibn
2
d −n =
a n + ibn
= d n* (* conjugada)
2
Entonces, podemos expresar estos coeficientes:
dn =
a n − ibn
2
+T / 2
+T / 2

11
1
= 
−
f
(
x
)
cos
n
ω
x
dx
i
f
(
x
)
sen
n
ω
x
dx

b
b
∫
T
2  T 2 −T∫/ 2
2 −T / 2

(3.1)
Instituto de Astrofísica de Canarias
1
=
T
+T / 2
1
T
+T / 2
=
∫ f ( x) [cos nω
b
Jesús J. Fuensalida
19/48
x − i sen nω b x ] dx
−T / 2
∫ f ( x)
e
−i n ω b x
(3.2)
dx
−T / 2
Expresión que es válida para ∀ valor entero n, es decir, positivo, negativo o cero.
Queda claro, por tanto, que los coeficientes dn son complejos, por lo que,
dn =
1
a n2 + bn2
2
arg(d n ) = − arctg
bn
an
Los dn se pueden relacionar con la representación módulo y fase:
cn = 2 d n
φ n = − arg(d n )
3.2.- Descomposición de Fourier de una función no-periódica
En el desarrollo de Fourier de una función periódica, el intervalo de frecuencias entre
términos consecutivos es,
∆ω = (n + 1)ω b − nω b
Es decir,
∆ω = ω b =
2π
T
Pero, podemos considerar una función no-periódicas como una periódica con un T = ∞.
Luego, si T → ∞ ⇒ ∆ω → 0.
(3.3)
Por lo tanto, ya no tiene sentido hablar de una distribución discreta de componentes
sino continua.
Sustituyendo (3.2) en (3.1), es decir,
20/48
Análisis Espectral de Datos
1
dn =
T
+T / 2
f (x ) =
∞
∫ f ( x)
e
−i n ω b x
Universidad de La Laguna
en
dx
−T / 2
∑ dn e
i n ωb x
=
n = −∞
∞
1
∑
n = −∞T
+T / 2
∫ f ( x)
e
−i n ω b x
dx e
i n ωb x
−T / 2
pero, como hemos visto antes,
1 ωb
1
=
=
∆ω
T 2π 2π
Luego, la expresión anterior quedaría,
f (x ) =
1
2π
∞ +T / 2
∑ ∫ f ( x)
e
−i n ω b x
dx e
i n ωb x
∆ω
(3.4)
n = −∞−T / 2
Si ahora, como mencionamos al principio, consideramos que ω es una variable
continua, es decir, ∆ω → 0 , ⇒
nωb → ω , es decir, una variable continua. Y,
Σ→∫
∆ω → dω
Con esto, (3.4) quedaría como,
f (x ) =
1
2π
+∞
+∞
−i ω x
∫ ∫ f ( x)
−∞
e
dx e
−∞
1442443
iω x
dω
≡ F (ω )
1
f ( x) =
2π
+∞
∫ F (ω )
e
iω x
dω
−∞
3.3.- Transformada de Fourier.
Las expresiones obtenidas en el apartado anterior,
F (ω ) =
+∞
∫ f ( x)
−∞
e
−i ω x
dx
21/48
Instituto de Astrofísica de Canarias
1
f ( x) =
2π
+∞
∫ F (ω )
e
iω x
Jesús J. Fuensalida
dω
−∞
se denominan ecuaciones integrales de Fourier.
F(ω) es la transformada de Fourier de f(x),
y f(x) es la transformada inversa de Fourier de F(ω).
Las condiciones suficientes (no necesarias) para que las integrales se cumplan son:
a) f(x) esté definida y sea uniforme excepto, como mucho, en un número finito de
puntos.
b) f(x) y f '(x) son cuasicontinuas.
1
c) f(x) se reemplace por [ f ( x + 0) + f ( x − 0)] , si x es un punto de discontinuidad.
2
+∞
d)
∫
f ( x) dx converja. Es decir, f(x) sea absolutamente integrable en (-∞, +∞).
−∞
En la definición de las integrales, existe una controversia, o falta de acuerdo, en la
elección de la constante. Está claro que, al aplicar sucesivamente la Transformada de
Fourier y la transformada inversa de Fourier, debería resultar la función original f(x). Es
decir,
1
2π
f (x ) =
+∞
+∞
−i ω x
∫ ∫ f ( x)
−∞
e
dx e
−∞
1442443
iω x
dω
≡ F (ω )
Pero, dependiendo de las variables utilizadas, la constante a multiplicar será diferente
para que resultado vuelva a ser f(x). Veamos TRES posibles formas:
I)
La utilizada hasta ahora.
F (ω ) =
+∞
∫ f ( x)
e
−i ω x
dx
−∞
1
f ( x) =
2π
+∞
∫ F (ω )
−∞
e
iω x
dω
22/48
Análisis Espectral de Datos
II)
Si utilizamos la frecuencia, ω = 2 π u ⇒ dω = 2 π du. NOTA: utilizaremos la
letra u para indicar la variable conjugada de x, es decir la frecuencia
espacial. Recordad que la variable conjugada de t es ν.
+∞
F (u ) =
Universidad de La Laguna
∫ f ( x)
e
− i 2π u x
dx
−∞
+∞
f ( x) =
∫ F (u)
e
i 2π u x
du
−∞
III)
A partir de la opción (I), algunos autores (Mathews & Walker, 1970, p.102), por
razones de simetría en las expresiones, definen,
1
F (ω ) =
2π
f ( x) =
1
2π
+∞
∫ f ( x)
e
−i ω x
dx
e
iω x
dω
−∞
+∞
∫ F (ω )
−∞
Realmente, en cada campo de la Ciencia se han venido utilizando definiciones de la
Transformada de Fourier con ligeras diferencias, lo que provoca algunos inconvenientes
al consultar textos de distintas disciplinas. Obliga, indudablemente, a una atención más
vigilante. Englobando las distintas convenciones, y si suponemos que r es la variable
conjugada de la variable s en dominio de medida, se pueden expresar como,
12
κ2
F (r ) =
(2π )(1−κ1) 2
12
κ2
f (s ) =
(2π )(1+κ1) 2
+∞
∫
−∞
− iκ 2 r s
f (s ) e
+∞
iκ 2 r s
∫ F (r )e
ds
ds
−∞
donde,
κ1
κ2
0
1
1
-1
0
-1
1
-1
-1
2π
Campo
Física Cuántica
Matemáticas e Ingeniería de Sistemas
Estadística
Física Clásica
Procesamiento de Señal y Óptica
Instituto de Astrofísica de Canarias
Jesús J. Fuensalida
23/48
La elección (I) corresponde a κ1 =1 y κ2 =1. La (II) se obtiene con κ1 =0 y κ2 =2π, y
será la que usaremos habitualmente desde ahora para la transformada de Fourier y
la transformada inversa.
3.4.- Propiedades de simetría.
Como hemos visto,
+∞
F (u ) =
∫
f ( x) e
− i 2π u x
−∞
+∞
dx =
∫
f ( x) cos 2π u x dx − i
−∞
+∞
∫ f ( x)
sen 2π u x dx
−∞
el término del coseno transforma la parte par de la función, mientras que el término del
seno transforma la parte impar de la función.
f(x)
F(u)
Real y Par
Real e Impar
Imaginario y Par
Complejo y Par
Complejo e Impar
Real y Asimétrico
Imaginario y Asimétrico
Real y Par + Imaginario e Impar
Real e Impar + Imaginario y Par
Par
Impar
Real y Par
Imaginario e Impar
Imaginario y Par
Complejo y Par
Complejo e Impar
Complejo y Hermítico
Complejo y Antihermítico
Real
Imaginario
Par
Impar
ATENCIÓN: La relación que se indica en la tabla también se cumple de la columna
derecha hacia la izquierda. Es decir que, por ejemplo, si f(x) (DOMINIO DE MEDIDA)
es imaginaria e impar, entonces F(u) (DOMINIO DE FRECUENCIAS) será real e
impar.
NOTA:
Hermítico
(C ≡ función compleja):
24/48
Análisis Espectral de Datos
Universidad de La Laguna
C(-u) = C* (u) ⇒
a) Parte real par, Re[C(-u)] = Re[C(u)]
b) Parte imaginaria impar, Im[C(-u)] = -Im[C(u)]
(C ≡ función compleja):
Antihermítico
C(-u) = - C* (u) ⇒
a) Parte real impar, Re[C(-u)] = - Re[C(u)]
b) Parte imaginaria par, Im[C(-u)] = Im[C(u)]
Por otra parte, F(u) será, generalmente, una función compleja. Como hemos visto en el
apartado 3.1, la potencia que contribuye cada frecuencia es el módulo cuadrado. Por
tanto, llamaremos ESPECTRO DE POTENCIAS de f(x) a |F(u)|2 . Es decir, como ya
vimos en los apartados 2.5 y 2.6, la fase no desarrolla potencia.
3.5.- Teorema de escalado.
Si
F(ν) = F [f(t)]
⇒
[
]
−1
F f (a t ) = a F (ν / a )
∀a ∈ ú
Es decir, si estiramos una función en un dominio, se encoge en el otro. Y viceversa.
3.6.- Teorema de desplazamiento.
Si
F(u) = F [f(x)]
⇒
F [ f ( x − a )] = e
i 2π ( − a ) u
F (u )
Es decir, una traslación de la función (desplazamiento) en un dominio, conlleva la
existencia de una fase lineal en la transformada de la función.
3.7.- Teorema de la derivada.
Si
F(u) = F [f(x)]
Instituto de Astrofísica de Canarias
⇒
Jesús J. Fuensalida
25/48
F [ f ′( x)] = i 2π u F (u )
Es decir, la derivada de la función en el dominio transformado correspondiente, además
de multiplicar por una recta con pendiente 2π, produce un intercambio de las partes real
e imaginaria.
Aplicando dos veces este teorema, obtenemos,
2
2
F [ f ′′( x ) ] = − 4π u F (u )
Y consecuentemente,
F
[f
(n
( x) ] = (i 2π u )
n
F (u )
3.8.- Catálogo de transformadas de funciones relevantes
F(u) = F [f (x)]
f(x)
δ (x)
1
Delta en el origen
A cos 2πuox
Constante
A
2
[δ (u − u o ) + δ (u + u o )]
Coseno
A sen 2πuox
Seno
Dos deltas reales (par)
A
2
i[δ (u + u o ) − δ (u − u o )]
Dos deltas imaginarias (impar)
A ⋅ ei 2π ⋅uo x
A[δ (u − u o )]
Seno + coseno
Una delta en la frecuencia
 0 , , x < −L

A ∏ 2 L (x ) =  A , , − L < x < L
 0 ,, x > L

2AL sinc(2π uL)
Función pulso centrado en el origen y ancho 2L
Sinc (1er cero en 1/2L)
26/48
Análisis Espectral de Datos
A
e
σ 2π
−
1
2
x2
σ2
, ,σ =
Universidad de La Laguna
Γ
2.345
A⋅e
−
1 u2
2 σ u2
(Γ≡ Ancho a mitad de altura)
Gaussiana
A⋅e
−2
1
2πσ
Gaussiana
x
Γu
Γ
1
2
,, u =
2
2 π Γ
π 2  Γu 
u +

 2
1
Γ
Exponenciales en modo par

para x < 0

para x > 0
E(x)= 10 ,,,,
, ,σ u =
Lorentziana
1
1
δ (u ) +
2
i 2π u
Escalón (Heaviside)
+∞
1
xo
∑ δ (x − nxo )
n = −∞
Peine (tren de deltas)
+∞

n = −∞

∑ δ  u −
n
xo



Peine (tren de deltas)
Adviertan que,
+∞
F (0) =
∫ f ( x)
dx
−∞
y por tanto, si max[f(x)]=f(0), el ancho equivalente we, es,
+∞
we ≡
∫ f ( x)
−∞
f (0)
dx
=
F (0)
+∞
∫ F (u )
du
−∞
Se usa habitualmente con funciones de pico, como la gaussiana o la función sinc.
Jesús J. Fuensalida
27/48
Análisis Espectral de Datos
Instituto de Astrofísica de Canarias
Universidad de La Laguna
4.- CONVOLUCIÓN Y CORRELACIÓN
4.1.- Convolución y deconvolución (sin ruido)
Si F [f(t)]=F(ν) y F [g(t)]=G(ν) entonces
¿Cuál será la F [f(t) · g(t)] ?
Sea h(t) ≡ f(t) · g(t) y F [h(t)]=H(ν) .
Definición de Transformada de Fourier
H (ν ) =
+∞
∫
−∞
+∞
=
∫
−∞
=
f (t ) ⋅ g (t ) e
− i 2 πν t
dt
g (t )
644
47
4 44
8
+∞
 − i 2 πν t

i 2 πµ t
f (t ) ⋅  ∫ G ( µ ) e
dµ  e
dt

−∞
+∞
+∞
−∞
−∞
∫ ∫
f (t )G ( µ ) e
− i 2 π (ν − µ ) t
d µ ⋅ dt
 +∞

− i 2 π (ν − µ ) t
G
(
µ
)
dt  d µ
 ∫ f (t ) e
∫− ∞
−∞

+∞
=
+∞
= ∫ G ( µ ) ⋅ F (ν − µ ) ⋅ dµ
(1)
−∞
De igual forma, es fácil ver que:
+∞
∫
−∞
F (ν ) ⋅ G (ν ) e
i 2 πν t
dν =
+∞
∫
f ( s ) ⋅ g ( t − s ) ds
144
42 4 44
3
−∞
Se denomina CONVOLUCIÓN de f por g.
Y se representa por f ✲ g
(2)
28/48
Análisis Espectral de Datos
Universidad de La Laguna
O lo que es igual:
F [f(t) ✲ g(t)]=F(ν) G(ν)
(3)
Para interpretar la operación de convolución habría que tener en cuenta que,
f(t) ✲ g(t) =
+∞
∫ f ( s ) ⋅ g [− ( s − t ) ]⋅ ds
−∞
Es decir, los valores de la función convolución es el resultado del producto de f(t) por
g(t), cuando g(t), una vez girada respecto al eje de ordenadas, corre el eje de abscisas.
En algunos procesos experimentales se conoce g(t) (o f(t) ) y se puede medir f(t) ✲
g(t) , de modo que se puede obtener f(t) :
F [f(t) ✲ g(t)]
f (t) = F
-1
(4)
G(ν)
A esta operación se le llama DECONVOLUCIÓN. En presencia de ruido este proceso
es mucho más complicado requiriendo siempre una etapa de filtrado y, por ello, se verá
en el apartado 7.6.
4.2.- Propiedades de la convolución
La función de convolución cumple las siguientes propiedades:
a)
b)
c)
Conmutativa
f ⊛ g = g ⊛ f
(4.5)
f ⊛ ( g ⊛ h ) = (f ⊛ g ) ⊛ h
(4.6)
f ⊛ (g + h)= f ⊛ g +f ⊛ h
(4.7)
Asociativa
Distributiva
Jesús J. Fuensalida
29/48
Instituto de Astrofísica de Canarias
Además cumple las siguientes relaciones:
F [f ⊛ g ⊛ h]=F · G · H
(4.8)
F [f ⊛ ( g · h )]=F · ( G ⊛ H )
(4.9)
4.3.- Correlación cruzada
Una función similar a la convolución, aunque con implicaciones diferentes es la función
correlación cruzada. Antes de tratarla, veamos, primeramente, qué es la transformada de
f *, si f(t) = F -1 [F(ν)].
Por la definición de transformada de Fourier,
+∞
i 2πν t
f (t ) = ∫ F (ν ) e
dν =
−∞
+∞
∫
−∞
i (φ (ν )+ 2πν t )
F (ν ) e
dν
i φ (ν )
F (ν ) = F (ν ) e
+∞
⇒
f (t ) =
*
∫
−∞
+∞
=
∫
−∞
−i (φ (ν )+ 2πν t )
F (ν ) e
−iφ (ν )
F (ν ) e
+∞
∴
f (−t ) =
*
∫
−∞
i 2πν ( − t )
e
−iφ (ν )
F (ν ) e
dν
dν
i 2πν t
e
dν
F*(ν)
⇒
f*(-t) = F
-1
[F*(ν)].
(4.10)
30/48
Análisis Espectral de Datos
-1
¿Cuál será, entonces, la F
Universidad de La Laguna
[G (ν) · F*(ν)] ?
si
f(t) = F
-1
[F(ν)]
y
g(t) = F
-1
[G(ν)]
Por otra parte, sabemos por la expresión 2-4.1 y por el apartado 4.3 que,
+∞
∫ p ( s ) ⋅ q (t − s ) ⋅ ds
F
-1
−∞
[Q (ν) · P (ν)] =
+∞
∫ p (t − s ) ⋅ q ( s ) ⋅ ds
−∞
Entonces, siguiendo la pregunta anterior,
F
-1
[G (ν) · F*(ν)] = F
-1
[G (ν)] ✲ F
-1
[F*(ν)]
f *(-t)
g(t)
+∞
=
∫ g (s) ⋅ f
*
( s − t ) ⋅ ds
s = k+t, t = s-k
−∞
+∞
=
∫ g (k + t ) ⋅ f
*
( k ) ⋅ dk
−∞
Cualquiera de estas 2 integrales se denomina CORRELACIÓN CRUZADA de f con g.
Y se representa por f k g
(4.11)
Jesús J. Fuensalida
31/48
Instituto de Astrofísica de Canarias
O lo que es igual:
 +∞ *

⋅
+
⋅
f
(
s
)
g
(
s
t
)
ds

F [f(t) k g(t)] = F  ∫
 −∞

*
F [f(t) k g(t)] =F (ν) G(ν)
(4.12)
Téngase en cuenta que f y g pueden ser complejas.
4.4.- Teorema de Parseval 1
Siguiendo la expresión (1-4.1) del apartado anterior,
+∞
−i 2π ux
∫ f ( x) ⋅ g ( x) e
+∞
dx = ∫ G(ξ ) ⋅ F (u − ξ ) ⋅ dξ
−∞
−∞
que se debe cumplir también para u = 0 , es decir,
+∞
∫
−∞
+∞
f ( x) ⋅ g ( x) ⋅dx = ∫ G (ξ ) ⋅ F (−ξ ) ⋅ dξ
−∞
Si f(x) es real ⇒ F(u) es hermítico, o sea, F(- ξ ) = F* (ξ ).
+∞
∫
+∞
f ( x) ⋅ g ( x) ⋅dx =
−∞
*
F
∫ (ξ ) ⋅ G(ξ ) ⋅ dξ
−∞
que es el Teorema de Parseval.
Y si además es el caso que f(x) = g(x) ⇒
+∞
∫ [ f ( x )]
−∞
2
+∞
⋅dx =
∫
F (u )
2
⋅ du
−∞
Es decir, como era de esperar, la energía en los dos dominios tiene que ser igual.
1
También se conoce como teorema de Plancherel (1885-1967), ya que lo demostró de forma más general.
En tal caso, habitualmente se reserva el nombre de Parseval (1755-1836), que lo expuso con anterioridad,
para los casos más particulares de funciones periódicas.
32/48
Análisis Espectral de Datos
Universidad de La Laguna
Para el caso general de funciones complejas en los dos dominios,
+∞
∫ f ( x) ⋅ g
+∞
*
( x) ⋅dx =
−∞
∫ F (u) ⋅ G
*
(u ) ⋅ du
−∞
4.5.- Función de autocorrelación
Se llama función de autocorrelación de f(t) a la correlación cruzada consigo misma. Es
decir f = g, entonces
 +∞ *

⋅
+
⋅
f
(
s
)
f
(
s
t
)
ds
∫

 −∞

Se denomina AUTOCORRELACIÓN de f.
Y lo representaremos por f k f
De modo que,
*
F [f(t) k f(t)] =F (ν) F(ν) = |F(ν) |2
que se conoce como
Teorema de Wiener-Khinchin
(4.13)
Es decir, la Transformada de Fourier de la Función de Autocorrelación de una
cierta función es igual al Espectro de Potencias de la misma.
También se utiliza como función de autocorrelación normalizada la siguiente definición:
+∞
∫
f * ( s ) ⋅ f ( s + x ) ⋅ ds
−∞
γ (x) =
(4.14)
+∞
∫
−∞
De modo que,
γ (0) = 1
f * ( s ) ⋅ f ( s ) ⋅ ds
Jesús J. Fuensalida
33/48
Instituto de Astrofísica de Canarias
El ancho equivalente de la autocorrelación wa (Apart. 3.8) es,
+∞
wa =
∫ f ( x)
k f * ( x)dx
−∞
[ f ( x) k
f * ( x)
]
=
x =0
=
F (0)
2
∫ F (u)
2
+∞
du
−∞
+∞
+∞
−∞
−∞
∫ f ( x)dx ∫ f
+∞
∫ f ( x)
−∞
*
( x)dx
f * ( x)dx
Análisis Espectral de Datos
Universidad de La Laguna
34/48
Jesús J. Fuensalida
Instituto de Astrofísica de Canarias
5.- TRANSFORMADA DISCRETA DE
FOURIER
5.1.- Muestreo de una señal
En la actualidad es muy poco corriente el tratamiento de la información en forma
analógica. Una parte fundamental de la experimentación científica es el procesamiento
de los datos, que se hace en forma digital, única viable utilizando ordenadores. Además,
una vez transformada la información en forma digital, ésta se almacena y transfiere
mucho más eficientemente.
El primer paso en este proceso es muestrear la función que alberga la información, es
decir, seleccionar algunos valores de la función, de los infinitos posible, separados un
intervalo constante de la variable independiente. Por tanto, obtendremos un conjunto
de valores discretos de la función.
Llegados a este punto, nos irrumpe una pregunta, ¿cuál debería ser el intervalo de
muestreo requerido para que la serie de muestras defina totalmente la función original?.
La respuesta más simple sería que el intervalo de muestreo fuera tan pequeño como
fuera posible. Aun asumiendo la vacuidad de la contestación, subyace que debe existir
un cierto intervalo crítico para el cual la serie de datos aloje toda la información.
Adelantamos que, de existir ese valor, el uso de intervalos menores no proporcionarían
más información que la obtenida con aquel, y, si al contrario, usamos un intervalo de
muestreo mayor, la información extraída falsearía la función verdadera. La elección de
un intervalo de muestreo menor que el crítico, implica la necesidad y el consumo de
mayores recursos, tanto en las prestaciones de la instrumentación para lograrlo como
para el almacenamiento y transmisión.
¿Cuántas muestras necesitaríamos conocer en un periodo de un coseno para que fuera
posible reconocerle como tal? Parece claro que menos de 2 muestras equidistantes en un
periodo nos llevaría a confundir la amplitud y el periodo verdadero del coseno.
Estudiemos, de un modo práctico, el comportamiento de varios intervalos de muestreo
aplicados a una función simple. En la Fig. 1, se representa, en color rojo, la suma de dos
cosenos de frecuencia de 20 Hz y 40 Hz. Utilizaremos esta función para estudiar el
efecto del intervalo de muestreo. En la figura 2 se señalan con líneas verticales las
posiciones correspondientes a las muestras de la función con un intervalo de 0.025 s.
Apreciamos que la función continua que ajusta a estos valores es un coseno de amplitud
0.75 y frecuencia 20 Hz con una continua de 3.
Jesús J. Fuensalida
35/48
Instituto de Astrofísica de Canarias
1+0.75*Cos20
1+1*Cos40
(1+1*Cos 40) +(1+ 0.75*Cos20)
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.05
0.1
tiem po (s)
0.15
Fig. 1.- Generación de una función simple (en rojo)
para estudiar el efecto del intervalo de muestreo,
como suma de 2 cosenos (en azul y verde).
3+0.75*Cos20
(1+1*Cos 40) +(1+ 0.75*Cos20)
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.025
0.05
0.075
0.1
tiem po (s)
0.125
0.15
0.175
Fig. 2.- Ajuste (curva en azul) a las muestras de la
función (en rojo) con un intervalo de 0.025 s.
Corresponde a un coseno de amplitud 0.75, frecuencia
20 Hz y componente continua de 3.
Análisis Espectral de Datos
36/48
Universidad de La Laguna
En la figura 3 encontramos que el mejor ajuste de una función continua es también un
coseno de 20 Hz pero con una amplitud de 1.75 y componente continua de 2. Nos
percatamos así que sólo para intervalos menores que 0.0125 (líneas verticales de la
figura 1) queda definida la función original (en rojo).
2+1.75*Cos20
(1+1*Cos 40) +(1+ 0.75*Cos20)
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.017 0.033 0.05 0.067 0.083 0.1 0.117 0.133 0.15 0.167
tiem po (s)
Fig. 3.- Como en la figura 2 pero con un intervalo de
0.01666 s.
Teorema del muestreo (o de Nyquist-Shannon).- Sea f(t) una función de
banda limitada, es decir, cumple que F [f (t)]=F (ν) = 0 para | ν | > νM . Entonces f(t)
está unívocamente determinada (sería totalmente reconstruida) por las muestras de la
función f(n τ), n = 0, ±1, ±2, ... siempre que
νm > 2 νM donde νm = 1/τ , que se denomina frecuencia de muestreo.
Es decir, el intervalo de muestreo τ tiene que ser ≤ el inverso de 2 veces la frecuencia
máxima νM.
Instituto de Astrofísica de Canarias
Jesús J. Fuensalida
37/48
A partir de los ejemplos expuestos en este apartado, resaltemos algunos resultados
donde subyacen consecuencias valiosas de aplicación general. Para simplificar,
consideramos una representación de los coeficientes an , ya que las funciones utilizadas
son cosenos.
4
an
30 Hz = 1/ (2*0.01666 s)
3.5
Original
con 0.01666
con 0.025
3
3
40 Hz = 1/ (2*0.0125 s)
20 Hz = 1/ (2*0.025 s)
2.5
2
2
2
1.75
1.5
1
1
0.75
0.75
0.5
0
0
10
20
30
Frecuencia (Hz)
40
50
Fig. 4.- Representación de las amplitudes an de las
componentes de la función original y de los resultados de
muestrearla con diferentes intervalos. Se indica también los
límites de frecuencia fijados en cada caso por el intervalo de
muestreo.
En la figura 4, apreciamos que, aunque la frecuencia del coseno resultante con los
intervalos de muestreo de 0.01666 s. y 0.025 s. es la misma, la amplitud y la
componente continua son distintas. En ambos casos se detecta una sola componente,
cuando la función original está compuesta por dos diferentes. Se señala también las
frecuencias (flechas) que corresponden a los límites impuestos por los intervalos
usados. Aunque este punto se discutirá más profundamente en el siguiente apartado,
advertimos que los valores de las amplitudes detectadas en caso, son la suma de las
amplitudes de la función original a cada lado referido a la frecuencia límite
correspondiente. Por ejemplo, en el caso de 0.025 s, la componente continua es la suma
de la original más la amplitud en 40 Hz de la original. De igual forma, en el caso de
0.01666 s, la componente continua es igual que la original pero la amplitud en 20 Hz
(1.75) es la suma de la amplitud en 20 Hz y en 40 Hz de la original.
Para un cierto intervalo de muestreo τ, la frecuencia máxima que puede ser registrada es
1
ν N = , y se denomina frecuencia de Nyquist.
2τ
38/48
Análisis Espectral de Datos
Universidad de La Laguna
5.2.- Transformada de Fourier discreta (DFT)
Tratemos ahora el caso de la transformada de Fourier de una función “discreta”.
Asumimos en este término el concepto de una función muestreada equidistantemente.
Llamaremos D [ f (t ), τ ] a la función resultante de muestrear la función f(t) con un
intervalo de muestreo τ. Es decir,
+∞
D [ f (t ),τ ] = f (t ) ⋅ ∑ δ (t − nτ )
−∞
F
F
F {D [ f (t ),τ ]} = F (ν ) ∗
De modo que si F(ν)=F[f(t)], y τ =
1
2 νM
F
1
τ
+∞

n
∑ δ ν − τ 
−∞
entonces,
F(ν)
νΜ
ν
F{D[f(t),τ]}
-1/τ
νΜ
1/τ
ν
Donde la parte en línea discontinua se repite desde -∞ hasta +∞ en intervalos de 1/τ. De
modo que, F{D[f(t),τ]} es una función periódica y continua. Nótese la justificación del
teorema de muestreo explicado en el apartado 5.1 y, por tanto, el efecto de Aliasing si
1
τ>
.
2 νM
El muestreo de una función no puede ser de extensión infinita. Es decir, la toma de
datos siempre se producirá en un tiempo finito. Llamaremos DN [ f (t ),τ ] la función
discreta en el sentido anterior con N datos. Es decir,
Jesús J. Fuensalida
39/48
Instituto de Astrofísica de Canarias
N −1
DN [ f (t ),τ ] = f (t ) ⋅ ∑ δ (t − nτ )
n =0
N −1
= ∑ f (nτ )δ (t − nτ )
n =0
La transformada de Fourier F{DN[f(t),τ]} es una función discreta de N datos
separados por el intervalo de frecuencia 1/Nτ.
τ
dm =
Nτ
+N /2
∑ D [ f (t ),τ ] e
−i 2π
n=− N / 2
N
m
nτ
Nτ
que no depende de τ, luego es una sucesión de N datos según el orden m,
1
dm =
N
+N / 2
∑ f (n ) e
−i 2π
m
n
N
n=− N / 2
donde f (n) es la sucesión de N datos según el orden n. Es decir, la transformada de
Fourier discreta (DFT), se puede obtener numéricamente como una sucesión de datos
sin considerar, durante los cálculos, la variable independiente. El tiempo consumido por
2
un ordenador para el cálculo de una DFT es proporcional a N .
5.3.- Transformada Rápida de Fourier (FFT)
Para mantener la consistencia en la nomenclatura, denominaremos {F(m)}m a la
sucesión de valores que corresponden a la transformada de Fourier numérica de la
sucesión de datos {f(n)}n , que representa a la función original f(t). Por tanto,
1
F (m ) =
N
N −1
∑ f (n ) e
−i 2π
mn
N
n =0
Supongamos, por simplicidad, que N sea un número par. Entonces, podemos escribir,
 N2 −1
1
F (m ) =  ∑ f (2n )
N  n =0

−i 2 π
e
m (2 n )
N
N
−1
2
+ ∑ f (2n + 1)
n =0
−i 2 π
e
m ( 2 n +1)
N




Análisis Espectral de Datos
40/48
Universidad de La Laguna
Observemos que, {f(2n)}n es la selección de los datos que ocupar una posición par de la
sucesión {f(n)}n y los {f(2n+1)}n , los que ocupan una posición impar. Entonces,


N
N


−1
−1
mn
mn
m
2
2


1 1
1
−i 2π
−i 2π
−i 2 π
N +
N
N
(
)
(
)
F (m ) = 
f
n
f
n
2
2
1
+
∑
e 2 e N ∑
e 2
2  N n =0
n =0
2 4424443
2 444244443 
14
14


≡ F p(m )
≡ F i(m )


Es decir,
m
1
−i 2π

F (m) =  Fp (m ) + e N Fi (m )
2

donde Fp(m) es la Transformada de Fourier de la parte de la sucesión {f(n)}n que ocupan
una posición par (n par, incluyendo n=0). Y Fi(m), lo mismo para los n impar.
Con esta expresión sólo obtenemos la mitad de los datos de la transformada completa.
Así, si aplicamos esta fórmula a los restantes m+N/2 órdenes, tenemos,
m
N 1
−i 2π


F  m +  =  Fp (m ) − e N Fi (m )
2  2


El proceso se puede repetir en cascada. Este concepto es la base del algoritmo Cooley &
Tukey (1965), fundamento de todas las rutinas de cálculo de la transformada rápida de
Fourier.
5.4.- Efecto de píxel
Hasta ahora, hemos considerado el muestreo de una función como el resultado de
multiplicar por una función tren de deltas, espaciadas por un cierto intervalo constante.
Sin embargo, en realidad el proceso es una integración de la función en un entorno de la
posición de cada delta. Al ancho de ese entorno se le llama píxel (picture element).
Supongamos que la respuesta de cada píxel la podemos representar por una única
función p(x).
Instituto de Astrofísica de Canarias
Jesús J. Fuensalida
41/48
f(x)
ΣnN δ (x-n xo)
xo
x
x
p(x)
x
p
Si llamamos P [f(x),xo,p] a la función resultante de muestrear la función f(x) con un
intervalo de muestreo xo y tamaño de píxel p,
N
P [ f ( x), x 0 , p ] = [ f ( x) ∗ p ( x)] ⋅ ∑ δ ( x − nx 0 )
n
Y el efecto en la transformada de Fourier se deduce de la expresión,

m
F {P [ f ( x), x0 , p ]} = [F (u ) ⋅ P (u )]∗ ∑ δ  u − 
x0 
m

N
Análisis Espectral de Datos
Jesús J. Fuensalida
42/48
Instituto de Astrofísica de Canarias
Universidad de La Laguna
6.- ESTADÍSTICA con Transformada de
FOURIER. RUIDO
6.1.- Probabilidad y parámetros (introducción)
Supongamos una función g(t) que varía aleatoriamente con el tiempo. Si hacemos una
representación de la cantidad de veces que la función toma cada valor específico g,
obtenemos otra función P(g) que se denomina distribución de probabilidades. Si
P( g )
hacemos + ∞
⋅ 100 , lo tendríamos en tanto por ciento (%).
∫ P( g )dg
−∞
Otros nombres usados son: “distribución de frecuencias estadísticas”, “ley de
probabilidad”, “función de densidad de probabilidad” y “función de distribución”. La
cantidad P(g)dg es la “frecuencia estadística relativa” o probabilidad con la que la
función g(t) toma valores entre g y g+dg.
6.2.- Esperanza estadística
Se define la esperanza estadística de una función f(t), E[f(t)] = <f(t)>, con una
distribución P(t) de la variable t, a las expresiones,
<
∑ f (t ) P(t )
f (t ) >=
∑ P(t )
t
para una distribución discreta
(1)
para una distribución continua
(2)
t
< f (t ) >=
∫ f (t ) P(t )dt
∫ P(t )dt
Jesús J. Fuensalida
43/48
Instituto de Astrofísica de Canarias
6.3.- Función característica y momentos
La función Θ(h), resultante de hacer la transformada de Fourier de P(g), se denomina
función característica1 asociada a la distribución de probabilidad P(g). Es decir, según
la definición (convención) asumida en este curso (Apart. 3.3),
Θ(h ) =
+∞
− i 2π h g
∫ P( g ) e
dg
−∞
Por lo tanto, también podemos expresarlo en términos de una esperanza estadística,
Θ(h ) =<
− i 2π h g
e
>
Utilizando la exponencial en forma de serie de Taylor,
θ
e
= 1+θ +
∞
1 2 1 3
θk
θ + θ + ... = ∑
2!
3!
k =0 k!
− ∞ < θ < +∞
entonces (recordemos que 0!=1),
Θ(h ) =<
∞ ( −i 2π h g ) k
∑
k!
k =0
>
− ∞ < g < +∞
La esperanza estadística de una suma de funciones es la suma de las esperanzas de cada
término si la variable estadística es la misma, es decir si la distribución de probabilidad
es la misma. Por lo tanto, aplicando la definición de esperanza estadística,
+∞
Θ(h ) =
∞ ( −i 2π h ) k
∑
k =0
k!
∫−∞g
k
P( g )dg
+∞
∫−∞P( g )dg
Se designa momento de orden k de g(t) a la esperanza estadística de las
correspondientes potencias de la variable estadística g. Por lo tanto,
En el campo de la Estadística, habitualmente se utiliza la convención κ1=1, y κ2=-1 en la definición de
la Transformada de Fourier (ver Apart. 3.3). Esta elección conlleva distintas constantes en algunas
expresiones deducidas de la función característica, por ejemplo en los momentos. Para más detalles ver el
Apéndice 6-A, al final del capítulo.
1
44/48
Análisis Espectral de Datos
Universidad de La Laguna
+∞
∫g
< gk > =
k
P( g )dg
−∞
+∞
∫ P( g )dg
−∞
Es corriente usar el símbolo µ k ≡<g >. Si g toma valores discretos, toma la expresión,
k
+∞
<g > =
k
∑g
k
n
n = −∞
+∞
Pn
∑P
n
n = −∞
El momento de orden 1, se denomina media µ de la distribución, µ ≡µ 1 =<g>.
Esto implica que podemos expresar la función característica en función de sus
momentos. Esto es,
Θ(h ) =
∞ ( −i 2π h ) k
∑
k =0
k!
µk
Ahora bien, siguiendo el Apart. 3.7, como Θ(h) es la transformada de Fourier de P(g),
entonces,
F
−1
[Θ (h)] = −i 2π
'
g P( g )
aplicando sucesivamente,
F
−1
[Θ
(k
]
(h) = (−i 2π g ) k P ( g )
[
Θ ( k (h) = F (−i 2π g ) k P( g )
Θ ( k (h) = (−i 2π ) k
+∞
∫g
k
]
− i 2π h g
e
P( g )
−∞
para h=0,
Θ ( k (0) = (−i 2π ) k
+∞
∫g
k
P( g ) dg
−∞
y como,
+∞
Θ(0) =
∫ P( g )
−∞
los momentos estadísticos se pueden expresar,
dg
dg
Jesús J. Fuensalida
45/48
Instituto de Astrofísica de Canarias
 1
µ k ≡< g k > = 
 − i 2π

k
 Θ ( k (0)

 Θ(0)

6.4.- Momentos centrales
Se llama momento central de orden k, mk, de la variable aleatoria g, a la siguiente
esperanza estadística,
mk =< ( g − < g >) k >
luego,
+∞
mk =
∫ (g − µ)
k
P( g )dg
−∞
+∞
∫ P( g )dg
−∞
entonces, m1=0.
El momento central de orden 2, m2, es la varianza σ2,
σ 2 ≡ m2 =< ( g − < g >) 2 >=< g 2 > − < g > 2
Es decir,
σ 2 ≡ m2 = µ 2 − µ 2
En general, los momentos centrales en forma de serie son,
k 
mk = ∑  (−1) k −l µ l µ k1−l
l =0  l 
k
si µ0=1
Los momentos centrales son, por tanto, los momentos tomados alrededor de la media µ
(momento de orden 1). Si se toman alrededor de cualquier valor go será,
mk ( g 0 ) =< ( g − g 0 ) k >
A veces es útil expresar las derivadas del logaritmo neperiano ln Θ(h) en función de los
momentos centrales (la primera derivada es directamente proporcional a la media, µ).
Las 7 primeras derivadas son,
[ln Θ(h)] h=0 = (−i
2π ) µ
[ln Θ(h)] h=0 = (−i
2π ) 2 m2
(1
(2
46/48
Análisis Espectral de Datos
[ln Θ(h)] h=0 = (−i
2π ) 3 m3
[ln Θ(h)] h=0 = (−i
2π ) 4 m4 − 3m22
[ln Θ(h)] h=0 = (−i
2π ) 5 [m5 − 10m3 m2 ]
[ln Θ(h)] h=0 = (−i
2π ) 6 m6 − 15m4 m2 − 10m32 + 30m23
(3
(4
(5
[
[
(7
[ln Θ(h)] h=0 = (−i 2π ) [m
(6
7
7
Universidad de La Laguna
]
]
− 21m5 m2 − 35m4 m3 + 210m3 m22
]
De modo que, se puede obtener el ln Θ(h) en función de los momentos centrales
sustituyendo las derivadas anteriores en el desarrollo de Taylor alrededor de h=0,
ln Θ(h) = (−i 2π h) [ln Θ(h)]
(1
h =0
+
1
( −i 2π h) 2 [ln Θ(h)]
2
(2
h=0
+
1
(−i 2π h) 3 [ln Θ( h)]
3!
(3
h=0
+ ...
6.5.- Probabilidad condicional e independencia estadística
Consideremos que en un experimento se produce un suceso A con una probabilidad
P(A) y nos preguntamos por la probabilidad de otro suceso B una vez conocido el
suceso A, es decir la probabilidad condicional de B conocido A, P(BA).
P ( B | A) =
P( A I B)
P( A)
Teorema de Bayes: Si P(A)
y P(B) no son cero,
P ( B | A) P ( A) = P ( A | B ) P ( B )
P(A…B) es la probabilidad conjunta de A y B o, denotado de otra forma, P(AB).
Si A y B son estadísticamente independientes
P ( B | A) = P( B)
Por lo tanto,
P ( AB ) = P ( A) P ( B )
6.6.- Distribución de una suma de variables aleatorias
independientes
Sean 2 funciones g1(t) y g2(t) (variables aleatorias) que toman valores
independientemente con distribuciones P1(g1) y P2(g2). ¿Cuál es la distribución y los
momentos de la variable suma gT =g1+g2?
47
48/48
Análisis Espectral de Datos
Universidad de La Laguna
Como g1 y g2 toman valores en el mismo dominio, escribiremos P1(g) y P2(g). Según el
Apart. 6.3, la función característica de gT es,
Θ g (h ) =<
T
− i 2π h gT
e
− i 2π h g1
e
>=<
− i 2π h g 2
e
⋅
>
Como los valores de g1(t) y g2(t) son independientes1 también lo serán las exponenciales
respectivas, entonces,
− i 2π h g1
Θ g (h ) =<
e
T
><
− i 2π h g 2
e
>
Por lo tanto,
Θ g + g (h ) = Θ g (h ) ⋅ Θ g (h )
1
2
1
2
Como la función característica es la transformada de Fourier de la respectiva
distribución de probabilidad, la correspondiente a la suma de las variables será la
convolución entre las distribuciones de cada variable individual,
Pg + g ( g ) = Pg ( g ) ∗ Pg ( g )
1
2
1
2
A partir de esto, podemos obtener fácilmente los primeros momentos más utilizados.
¿Cuál es la media de la variable suma, µg1+g2?
Hemos visto en el apartado anterior 6.4 que, y como Θ g
1+ g2
µ g1 + g 2
[
1
ln Θ g + g (h)
=
1 2
(−i 2π )
µ g1+ g 2
]
(1
h =0
(h ) = Θ g1 (h ) ⋅ Θ g2 (h ) ,
 Θ (g1 (h) Θ g (h) + Θ g (h) Θ (g1 (h) 
1
2
1
2
 1

=
(−i 2π ) 
Θ g ( h) Θ g ( h)

1
2

h =0
 Θ (g1 (0) 
 Θ (g1 (0) 
1
1
 1  +
 2 
=
(−i 2π )  Θ g (0)  (−i 2π )  Θ g (0) 
 1 
 2 
14442444
3 14442444
3
µ g1
µ g2
De forma similar podemos obtener la varianza de la suma de 2 variables independientes.
σ g21 + g 2 =
1
[
]
(2
1
ln
Θ
(
h
)
g1 + g 2
h =0
(−i 2π ) 2
Si dos variables aleatorias z1 y z2 son independientes entonces, (z1-<z1>) y (z2-<z2>) son ortogonales, es
decir, la covarianza entre z1 y z2 es igual a cero (cuidado, no siempre cuando la covarianza es cero implica
que las variables son independientes): <(z1-<z1>)(z2-<z2>)>=0 fl <z1 z2>=<z1><z2>
σ g21 + g 2
σ g21 + g 2
Jesús J. Fuensalida
48
49/48
Instituto de Astrofísica de Canarias
(
 Θ ( 2 (h) Θ (h) − Θ (1 (h)
g1
g1
1
 g1
=
2 
2
Θ g ( h)
(−i 2π )
1

)
2
(
)
2
Θ (g2 (h) Θ g (h) − Θ (g1 (h) 
2
2
2

+
2

Θ g ( h)
2
 h =0
 Θ ( 2 (0)  Θ (1 (0)  2 
 Θ ( 2 (0)  Θ (1 (0)  2 
g
g
1
1
 1  +
 g2
 
 1
 g2
=
−
−
2
2 
(−i 2π ) Θ g (0)  Θ g (0)   (−i 2π )  Θ g (0)  Θ g (0)  
 1  
 2
 
 1
 2
144444
42444444
3 144444
42444444
3
σ 2g
σ 2g
1
2
6.7.- Teorema del límite central
Si g1, g2, ..., gn son variables aleatorias con distribuciones de probabilidad Pi(g), no
necesariamente idénticas, con medias <g1>, <g2>, ..., <gn> y con varianzas σ12, σ22, ...,
σn2 y si componemos la nueva variable aleatoria,
1
n
∑
n i =1
gS =
gi − < gi >
σi
cada término del sumatorio es una variable de µ =0 y σ =1 y, por tanto gS tiene µS =0 y
σS =1.
Entonces, bajo ciertas condiciones,
lim PS ( g ) =
n→ ∞
1
n
Condiciones suficientes:
g2
− S
e
2
Es decir, la distribución PS(g) de la variable gS tiende a
una gaussiana cuando el número de variables es
suficientemente grande.
Deben existir 2 números
p y q tal que,
σ i2 > p > 0
< gi − < gi > >
3

∀i
< q

Fijémonos que gS es la suma de variables, por lo tanto, su distribución de probabilidad
será la convolución de las distribuciones de cada término del sumatorio. Al incrementar
n, la convolución mutua de las distribuciones se acerca a una gaussiana.
Descargar