Funciones Empíricas Ortogonales (Empirical Orthogonal Functions)

Anuncio
Análisis Multivariado


En muchas situaciones prácticas los conjuntos de datos están compuestos de observaciones simultáneas de diversas variables en un sitio específico o de observaciones de una variable en distintos sitios en un tiempo dado [(xi(t), yi(t) o xi(t), zi(t)].
Observaciones vectoriales Álgebra de matrices
Matriz de datos: Colección de datos vectoriales en donde cada renglón (n) corresponde a una observación multivariada y cada columna (K) contiene las n observaciones de una de las variables o las observaciones de una variable en un tiempo dado.
•
Media muestral multivariada
•
Matriz de covarianzas (o de dispersión) y matriz de correlaciones
•
Distancia Euclideana
•
Ángulo entre dos vectores
•
Dos vectores son perpendiculares u ortogonales si su producto punto es cero.
•
Magnitud de la proyección de un vector x sobre un vector y:
•
Ejercicio: xT = [1, 1] yT = [2, 0.8]
•
Traza de una matriz cuadrada
•
Determinante de una matriz cuadrada
•
Matriz no­singular: No contiene información redundante en el sentido de que ninguno de los renglones puede construirse a partir de combinaciones lineales de los otros renglones. Lo mismo aplica para las columnas.
•
Las matrices no­singulares tienen determinante distinto de cero.
•
Las matrices cuadradas y no­singulares son invertibles.
Eigenvalores y eigenvectores
• En general, una matriz actúa sobre un vector cambiando tanto su magnitud como su dirección. Sin embargo, una matriz puede actuar sobre ciertos vectores cambiando solamente su magnitud.
• Las funciones más importantes en algebra lineal son llamadas “transformaciones lineales”: rotación, reflexión, estiramiento, compresión, etc.
• Una función vectorial A es lineal si cumple:
a) A(x + y) = Ax + Ay
b) A(αx) = αAx
• Definición.­ Dada una transformación lineal A, un vector x ≠ 0 es un eigenvector de A si satisface la ecuación:
Ax = λx
para algún escalar λ, llamado un eigenvalor de A
correspondiente al eigenvector x.
• La mayoría de los vectores no satisface la ecuación anterior, sólo ciertos vectores especiales (eigenvectores) y ciertos escalares especiales (eigenvalores).
• Cada eigenvector está asociado con un eigenvalor específico.
• Un eigenvalor puede estar asociado con varios o aún con un número infinito de eigenvectores. Cualquier múltiplo escalar αx es también un eigenvector de A y también cualquier combinación lineal de los eigenvectores.
•
Es usual requerir que los eigenvectores tengan longitud unitaria.
•
Si la matriz AKxK es no­singular habrá K parejas λK, eK con λK ≠ 0.
•
Si la matriz AKxK es singular al menos uno de sus eigenvalores será 0 y el eigenvector correspondiente será arbitrario.
•
Si AKxK es simétrica entonces sus eigenvectores son mutuamente ortogonales.
•
Para muchas aplicaciones estadísticas, λK y eK son calculados para matrices simétricas de valores reales, tales como las matrices de covarianzas o de correlaciones. Para estas matrices los eigenvalores y eigenvectores también son reales.
•
La matriz E cuyas columnas son los eigenvectores es ortogonal:
ET = E­1 , EET = ETE = I
•
La transformación ortogonal ETx define una rotación rígida de los ejes coordenados en el espacio K­dimensional de x, llamado un eigenespacio.
Resumen
•
Un eigenvalor λ y un eigenvector ē de una matriz cuadrada [A] satisfacen la ecuación:
Aē = λē
o de forma equivalente: (A – λI)ē = Ō
•
Cualquier múltiplo escalar, cē, también satisface la ecuación. En consecuencia, para definir con precisión es usual requerir que los eigenvectores tengan longitud unitaria:
|| ē || = [∑ek2]½ = 1
•
En este caso, si ē satisface la ecuación, entonces ­ē también la satisface
•
Si además [A] es simétrica entonces los eigenvectores son ortogonales. Por lo tanto, los eigenvectores serán ortonormales:
•
La matriz E cuyas columnas son los eigenvectores es ortogonal:
ET = E­1 , EET = ETE = I
•
La transformación ortogonal ETx define una rotación rígida de los ejes coordenados en el espacio K­dimensional de x, llamado un eigenespacio.
•
Este espacio cubre el mismo “territorio” que las coordenadas originales pero usando un conjunto de ejes diferente.
•
Las K parejas λK, ēK contienen la misma información que la matriz [A] a partir de la cual fueron calculadas y por lo tanto pueden considerarse como una transformación de [A].
•
Esta equivalencia puede expresarse como la descomposición espectral (o descomposición de Jordan) de [A], donde [A] es simétrica:
•
La matriz original [A] puede recuperarse mediante la suma pesada de estas matrices , donde los pesos son los eigenvalores correspondientes. La descomposición espectral de una matriz es análoga a la descomposición de Fourier de una función o serie de datos, con los eigenvalores jugando el papel de las amplitudes de Fourier y las matrices el de las funciones senoidales.
f(x) = a0 + ∑an cos(nx) + ∑bn sen(nx)
•
La matriz de eigenvectores [E] tiene la propiedad de que diagonaliza la matriz simétrica original [A]:
•
Los eigenvectores de una matriz simétrica nosingular son iguales a los de su inversa, , y los eigenvalores correspondientes son recíprocos: •
Por lo tanto, el eigenvector de [A] asociado con su eigenvalor más grande es el mismo que el eigenvector de [A]­1 asociado con su eigenvalor más pequeño y viceversa.
Descomposición en Valores Singulares
• La descomposición espectral de una matriz cuadrada y simétrica puede ser extendida a cualquier matriz rectangular [Anxm] (con n ≥ m) usando la descomposición en valores singulares (SVD):
• Las m columnas de L son llamadas vectores singulares izquierdos y las m columnas de R son los vectores singulares derechos. Ambos conjuntos de vectores son mutuamente ortogonales.
• La matriz es diagonal y sus elementos no­negativos son llamados los valores singulares de [A].
• Si [A] es cuadrada y simétrica, la SVD se reduce a la descomposición espectral con
• Aún si [A] no es simétrica, existe una conexión entre la SVD y los eigenvalores y eigenvectores de ambas matrices , las cuales son cuadradas y simétricas (una es m x m y la otra n x n). • Específicamente las columnas de [R] son los eigenvectores (m x 1) de , las columnas de [L] son los eigenvectores (n x 1) de y los valores singulares respectivos son las raíces cuadradas de los eigenvalores correspondientes, Funciones Empíricas Ortogonales
(Empirical Orthogonal Functions)
• El análisis de FEOs busca estructuras que expliquen la mayor cantidad de la varianza contenida en un conjunto de datos bidimensional. Puede haber varios tipos de matrices o arreglos de datos bidimensionales: Arreglo espacio­tiempo: mediciones de una sola variable en M localidades tomadas en N tiempos diferentes.
Arreglo parámetro­tiempo: Mediciones de M variables tomadas en una sola localidad en N tiempos diferentes.
Arreglo parámetro­espacio: Mediciones de M variables tomadas en N localidades diferentes en un sólo tiempo.
• Generalmente, al conjunto de estructuras obtenidas en la dimensión espacial se les conoce como las FEOs, mientras que al conjunto complementario de estructuras en la dimensión temporal se les conoce como Componentes Principales. • Ambos conjuntos de estructuras son ortogonales en su propia dimensión.
• Objetivo: Proporcionar una descripción compacta de la variabilidad espacial y temporal de series de datos usando un número más pequeño de piezas de información independientes (en términos de funciones ortogonales o “modos” estadísticos).
• El análisis mediante FEOs es un método para “particionar” la varianza de un conjunto de series de tiempo distribuidas espacialmente.
• Son llamadas “empíricas” para reflejar el hecho de que están definidas mediante la covarianza del conjunto de datos que está siendo analizado.
• Usualmente, la mayor parte de la varianza de las series de tiempo distribuidas espacialmente está representada por las primeras funciones ortogonales cuyos patrones pueden estar vinculados con posibles mecanismos dinámicos.
• No necesariamente existe una relación física directa entre las FEOs (puramente estadísticas) y cualquier proceso dinámico con el que se les relacione.
• El método de FEOs o CP utiliza el concepto de eigenvalores (valores propios o característicos) y eigenvectores (vectores propios o característicos).
• Hay dos formas de calcular FEOs: 1) Se construye la matriz de covarianzas de las series de datos y después se descompone en eigenvalores y eigenvectores. 2) Se utiliza la descomposición en valores singulares (SVD) de la matriz de datos para obtener los eigenvalores, eigenvectores y amplitudes de variación temporal (componentes principales) sin calcular la matriz de covarianzas.
• Las FEOs obtenidas por ambos métodos son idénticas. La diferencia está dada por el mayor grado de sofisticación, rapidez computacional y estabilidad de la SVD.
Procedimiento
• Consideremos un conjunto de N mapas en los tiempos t = 1...N, donde cada mapa contiene mediciones del campo en los sitios m = 1 … M. Por lo tanto, tenemos M series de tiempo todas de longitud N, con N>M.
• En el análsis de campos geofísicos, con frecuencia estamos interesados en la variabilidad en escalas de tiempo distintas a la escala anual o estacional. En este caso, el primer paso es remover las variaciones estacionales restando el promedio anual climatológico del campo observado (anomalías). Se puede trabajar con las anomalías o con las anomalías estandarizadas. La estandarización es especialmente relevante cuando se analizan dos o más campos de manera conjunta para asegurar que no domina un campo sobre los otros.
• Se construye la matriz de datos FM x N
Cálculo de FEOs usando la matriz de covarianzas
•
La matriz R es simétrica y cuadrada, aún si F no es cuadrada. Si las series de datos en F están normalizadas entonces R será la matriz de correlación en lugar de la matriz de covarianzas.
•
Una vez calculada R se resuelve su problema de eigenvalores­
eigenvectores:
• Generalmente los eigenvalores en la matriz están acomodados en orden decreciente. Como la matriz de datos F es real, la matriz de covarianzas R es positiva definida, lo que significa que todos sus eigenvalores son mayores o iguales a cero.
• Aunque la dimensión de es M x M, típicamente solo los primeros K eigenvalores son distintos de cero, donde Entonces la dimensión efectiva de es de hecho K x K y por lo tanto solamente se pueden determinar K modos o FEOs.
• Cada eigenvalor distinto de cero está asociado con un eigenvector columna en la matriz E. Por lo tanto, solamente se usan K eigenvectores en la descomposición y la dimensión efectiva de la matriz E será M x K.
• Los eigenvectores no están correlacionados y cada uno representa el patrón espacial o FEO de modo k.
•
La evolución temporal del k­ésimo modo o FEO se obtiene proyectando los datos originales sobre los eigenvectores, con lo que se obtienen las Componentes Principales:
•
es K x M, F es M x N y A es K x N, en donde se ha utilizado la matriz E reducida. Los renglones de la matriz A son series de tiempo de longitud N.
•
Cada eigenvalor es proporcional al porcentaje de la varianza del campo observado F que es descrita por el modo k.
•
El campo original F puede reconstruirse en su totalidad multiplicando cada eigenvector por su correspondiente CP y sumando los productos:
•
Sin embargo, el objetivo de la descomposición en FEOs es la reconstrucción aproximada, compacta y menos ruidosa, del campo original F usando solamente los H primeros modos, con H < K:
Descargar