Máster Universitario en Tecnologías de Telecomunicación Fusión de imágenes de satélites de muy alta resolución Estado del arte Anabella Medina Machín Mayo 2011 Fuentes de información ● ● Remote Sensing of Environment ISPRS Journal of Photogrammetry and remote sensing ● IEEE Transactions on geoscience and remote sensing ● IEEE Geoscience and remote sensing letters ● Photogrammetric engineering and remote sensing international journal of remote sensing Contenidos ● Introducción ● Algoritmos de fusión de imágenes ● Índices de calidad ● Inventario de cubiertas vegetales ● Conclusiones ● Bibliografía Introducción Objetivos ● Fuente de datos ● Características de las imágenes de satélites ● Satélites de alta resolución ● Preprocesado de datos crudos ● Fuente de datos Satélites de muy alta resolución Características de las imágenes Diferentes resoluciones ● Resolución temporal ● Resolución espacial ● Resolución radiométrica ● Resolución espectral Diferentes resoluciones Resolución espacial Resolución radiométrica Resolución espectral Satélites de muy alta resolución ● Ikonos ● QuickBird ● GeoEye-1 Satélite Ikonos Fecha de lanzamiento 24 Septiembre 1999 Propietario GeoEye Peso 720 Kg Altitud 681 Km Sensor PAN 1m Sensor MS 4 bandas, 4 m Ancho de barrido 11,3 Km (nadir), 13,8 Km (26º off-nadir) Tiempo de revisita 1 a 3 días Tamaño de escena Pedido mínimo 49 Km2 de archivo y 100 Km2 de programación Resolución radiométrica 8 ó 11 bits/píxel Satélite QuickBird Fecha de lanzamiento 18 Octubre 2001 Propietario DigitalGlobe Peso 900 Kg Altitud 450 Km Sensor PAN 0.7 m Sensor MS 4 bandas, 2.8 m Ancho de barrido 16.5 Km Tiempo de revisita 1 a 3.5 días 16 X 16 Km Pedido mínimo 25 Km2 de Tamaño de escena archivo y 90 Km2 de programación Resolución radiométrica 11 bits/píxel Satélite GeoEye-1 Fecha de lanzamiento 6 Septiembre 2008 Propietario GeoEye Peso 1959 Kg Altitud 681 Km Sensor PAN 0.41 m Sensor MS 4 bandas, 1.65 m Ancho de barrido 15.2 Km Tiempo de revisita Menos de 3 días Tamaño de escena Pedido mínimo 49 Km2 de archivo y 100 Km2 de programación Resolución radiométrica 11 bits/píxel Preprocesado datos crudos Correcciones geométricas Corregistración: la geometría de una imagen se convierte a planimétrica ● Georeferenciación: es el proceso mediante el cual se determinar de forma precisa la posición geográfica de los píxeles de la imagen. ● Correcciones radiométricas ● Corrección atmosférica ● Restauración de líneas o píxeles perdidos ● Corrección del bandeado de la imagen Métodos de fusión de imágenes ● Objetivo ● Esquema general ● Ajuste radiométrico ● Métodos basados en operaciones algebráicas ● Métodos basados en sustitución de componentes ● Métodos basados en TWD Objetivos de la fusión PAN 0.7m MS 2.8 m FUSIONADA 0.7m Mejorar la identificación visual ● Mejorar procesos de segmentación ● Mejorar la clasificación de texturas en imágenes ● Objetivos de la fusión Objetivos de la fusión Objetivos de la fusión Esquema general Proceso general de fusión Ajuste radiométrico Igualar el histograma de la PAN al de cada una de las bandas de la MS • Ajuste de histograma basado en la distribución acumulada de frecuencias • Ajuste basado en medias y desviación típica: trata de igualar estadísticas como la media y la desviación típica NDPANX, son los niveles digitales de la imagen PAN transformada NDPAN, son los niveles digitales de la imagen PAN original X, imagen de referencia ND PANX =a⋅ND PAN b donde X a= , PAN X b= X − ⋅PAN PAN σX : es la desviación estándar de la imagen X σPAN : es la desviación estándar de la imagen PAN X , PAN : son los valores medios de sus ND Ajuste radiométrico MATCH (transformación lineal cte.): igualando medias y desviaciones estándar MATCH (transformación lineal por intervalos de ND): igualando frecuencias acumuladas Transformación Algoritmos de fusión ● Algoritmos basados en operaciones aritméticas Métodos basados en operaciones algebraicas Operaciones algebraicas píxel a píxel entre bandas de la imagen MS y PAN BROVEY N⋅NDbi ND i , FUS = ⋅ND PAN ND b1ND b2 ...ND bN N: es el número de bandas espectrales. Ventajas: Fácilmente aplicable. Bajo coste computacional. Imágenes de alta calidad espacial. Desventaja: Imágenes de baja calidad espectral. Algoritmos de fusión ● Algoritmos basados en sustitución de componentes Métodos basados en sustitución de componentes La transformación RGB-IHS logra “desacoplar” la información espectral en las componentes H y S, y gran parte de la información espacial en la componente I Transformada IHS [ ] 1 3 I 1 V1 = 6 V2 1 2 [] 1 3 1 6 −1 2 −1 H =tan 1 3 −2 R ⋅G 6 B 0 V2 V1 [] [] RGB [ ] 1 3 R 1 G = 3 B 1 3 1 6 1 6 −2 6 1 2 −1 I ⋅V1 2 V 2 0 V 1 =S⋅cos H V 2 =S⋅sin H S = V 21V 22 RGB RGB->->IHS IHS IHS IHS->RGB ->RGB I H S Ventajas: Fácilmente aplicable. Imágenes de alta calidad espacial. Desventaja: Limitado a tres bandas. Imágenes de baja calidad espectral. [] Métodos basados en sustitución de componentes Método de fusión rápido basado en esta transformación IHS lineal Transformada eFIHS ● Reducción del coste cómputo [ ][ ][ ] [ ][ ] [ ] ' 1 −1/ 2 1/ 2 I I ' −I 1 −1/ 2 1/ 2 I R R V1 = 1 −1/ 2 −1/ 2 ⋅ V 1 = G G ' = 1 −1/ 2 −1/ 2 ⋅ B V2 V2 0 1 0 B' 1 2 2 ● Extensible a cuatro bandas [ ][ ] R' R ' G G ' = B B ' NIR NIR =I ' −I =PAN −I I = RGBNIR/4 Métodos basados en sustitución de componentes Teniendo en cuenta la Respuesta Espectral de los sensores (SRF) Transformada eFIHS-SRF Probabilidad Probabilidadde deque queun unfotón fotónemitido emitidooo reflejado reflejadoaaun unfrecuencia frecuenciaννsea seadetectado detectadopor porelelsensor. sensor. La probabilidad de que un fotón a esa frecuencia ν sea detectado por el sensor PAN, en un evento p: SRF del sensor PAN P p= d ∫ La probabilidad de que un fotón a frecuencia ν sea detectado por el sensor MS, en un evento mi : P m i =∫ i d i SRF de la banda i del sensor MS Métodos basados en sustitución de componentes Transformada eFIHS-SRF La probabilidad de que un fotón detectado por el sensor PAN (evento p) sea también detectado por el sensor MS (evento mi) viene dada por el cociente entre el área intersección de el área total: P m ∩ p P m i / p= i P p La probabilidad de que un fotón detectado por el sensor MS (evento mi) sea también detectado por el sensor PAN (evento p): El número total de fotones detectados simultáneamente por ambos sensores (np,i) es: n p , i =P m i / p⋅n p n p ,i =P p /mi ⋅ni P mi ∩ p P p /mi = P mi Si combinamos ambas ecuaciones se puede predecir, dado el np detectados por el sensor PAN, el número de fotones n'i que debería detectar el sensor MS: P m i / p n= ⋅n P p /mi p ' i Métodos basados en sustitución de componentes Basado en el FIHS: depende del grado de solape entre curvas del sensor PAN y MULTI Método de fusión eFIHS-SRF Se estima la imagen I' que observaría el sensor MS si trabajara a la resolución espacial del sensor PAN i=4 I = ∑ ni / 4 i=1 i=1 i=4 donde =∑ i=1 [ ][ ' i=4 i=4 I =∑ n /4=∑ ' P m i / p P p /mi nB n B ⋅n B / n ' nG ⋅n G / n nG = ' n R ⋅n R / n nR ' n NIR n NIR ⋅n NIR / n ] ' i i=1 P mi / p 1 ⋅n p P p/m i 4 1 I ' =⋅ ⋅n p 4 Depende de la SRF de los sensores PAN y MS i=4 n =∑ ni /4=I i=1 i=4 1 =I −I = ⋅⋅n p −∑ ni 4 i=1 ' Métodos basados en sustitución de componentes Transformada PCA Análisis de CPs ● Matriz de covarianza (PCA no estandarizada) o matriz de correlación (PCA estandarizada) RGBNIR ● Autovalores, Autovectores ● Componentes principales CP1 CP2 CP3 CP4 Métodos basados en sustitución de componentes Análisis de CPs ● Con la matriz de varianza-covarianza ΣX 〚 11 12 21 22 X = . . . . p1 p2 ● 1p 2p . . pp 〛 n X = i 1 2 [ x ik −E X i ] ∑ n k=1 n X i X j = 1 [ x ik −E X i ][ x jk −E X j ] ∑ n k =1 Con la matriz de correlación ρX 〚 11 12 21 22 X= . . . . p1 p2 1p 2p . . pp 〛 X i X j = X i X j X ⋅ X i j Métodos basados en sustitución de componentes Cálculo de las CPs Y 1 =a t1 X =a 11 X 1 a 21 X 2a p1 X p t Y 2=a 2 X =a 12 X 1a 22 X 2 a p2 X p . . Y p=a tp X =a 1p X 1a 2p X 2 a pp X p Autovalores: Sabiendo: Var Y 1 =1 Var Y 2 =2 ⋮ Var Y p = p ait : autovectores Y1,Y2,...,Yp,: nuevas CPs X1, . . . , Xp,: variables originales 〚 1 0 0 0 0 2 0 0 Y = 0 0 . 0 0 0 0 p λi son los autovalores 〛 Autovectores: ∣ X − I ∣=0 T − I ⋅a ∣ X ∣ i =0 Transformada inversa X =Y⋅A−1 CP1 Métodos basados en TWD Las Las funciones funciones wavelet wavelet permiten permiten aa través través de de una una transformada transformada integral, integral, descomponer descomponer datos datos oo funciones funciones en en componentes componentesde dedistinta distintafrecuencia. frecuencia. En una imagen, componentes de baja frecuencia: zonas o regiones de intensidades (ND) uniformes. Componentes de alta frecuencia: zonas de cambio brusco de intensidad, bordes→ Detalle Espacial ● Algoritmo Decimado: TWD mallat ● Algoritmo No Decimado: átrous Métodos basados en TWD Algoritmo Mallat Nivel 0. Imagen original, “f” y “c”. Resolución espacial: r Nivel 1. Aproximación, “f/2” y “c/2”. Las Lasimágenes imágenesaproximación aproximaciónse seobtienen obtienenutilizando utilizando funciones funcionesde deescala escalaφφ(x) (x)asociadas asociadasaauna una Wavelet WaveletMadre MadreΨΨ(x). (x). Las Lastransformaciones transformacioneswavelet waveletpermiten permitendeterminar determinar laladiferencia diferenciaentre entredos dosniveles nivelessucesivos sucesivos ⇒⇒elelDETALLE DETALLEESPACIAL ESPACIALque quese sepierde pierdealalpasar pasar de deun unnivel nivelaaotro otro Resolución espacial: r/2 Nivel 2. Aproximación, “f/4” y “c/4”. Resolución espacial: r/4 ...... Nivel N. Aproximación, “f/2N” y “c/2N”. Resolución espacial: r/2N Algoritmo de Mallat Análisis Imagen original A2j (x,y)f,c Síntesis Aproximación Detalle Vertical A2 x , y f / 2, c /2 j1 D 12 x , y f / 2, c / 2 j1 2 Detalle horizontal D 2 x , y f /2, c/ 2 j1 Detalle diagonal D 32 x , y f / 2, c/ 2 j 1 Métodos basados en TWD Implementación práctica del algoritmo de Mallat utilizando FPA, FPB Algoritmo de mallat Filtros h, H: asociados a la función de escala φ (x) , de paso bajo, baja frecuencia Filtros g, G: asociado a la función wavelet ψ (x), de paso alto, alta frecuencia Función wavelet: Daubechies “db4” h: { { g: − 1− 3 3− 3 3 3 1 3 , , . 4 2 4 2 4 2 4 2 } 1 3 3 3 3− 3 1− 3 , ,− . 42 42 4 2 4 2 } Métodos basados en TWD Algoritmo de mallat: Fase de análisis Métodos basados en TWD Algoritmo de mallat: Fase de síntesis Métodos basados en TWD Método de fusión basado en el algoritmo de mallat Métodos basados en TWD Algoritmo átrous Nivel 0. Imagen original, “f” y “c”. Resolución espacial: r Las imágenes aproximación se obtienen utilizando funciones de escala φ El detalle espacial que se pierde al pasar de un nivel al nivel consecutivo se obtiene directamente restando las imágenes aproximación de dichos niveles → Planos wavelet o coeficientes wavelet Nivel 1. Aproximación, “f” y “c”. Resolución espacial: r/2 Nivel 2. Aproximación, “f” y “c”. Resolución espacial: r/4 ...... Nivel N. Aproximación, “f/” y “c”. Resolución espacial: r/2N Métodos basados en TWD Implementación práctica del algoritmo atrous Algoritmo atrous Filtrado Función de escala Spline B3 Diferencia n A j x , y = A jn x , y∑ C jk x , y k=1 C j1 x , y =A j x , y −A j1 x , y Obtención de planos wavelet o coeficientes wavelet Métodos basados en TWD Método de fusión átrous AW (additive wavelet) Métodos basados en TWD Método Wavelet Aditivo sobre la componente Intensidad (AWI) Métodos basados en TWD Método Wavelet Aditivo sobre la Primera Componente Principal (AWPC) Métodos basados en filtros direccionales Medidas de calidad de las imágenes fusionadas Métodos cualitativos (medidas subjetivas) ● Métodos cuantitativos ● Coeficiente de correlación ● Índice Zhou ● Universal image quality index ● ERGAS ● Método cuantitativos Método cuantitativos Coeficiente de correlación XY r= X⋅ Y De forma práctica: ∑ FUS i−FUS m ⋅ MS i−MS m r= i 2 FUS −FUS ∑ i m ⋅ i Calidad Espectral 2 MS −MS ∑ i m i FUSi : valor de intensidad de la banda i de la imagen FUS MSi : valor de intensidad de la banda i de la imagen MS FUSm e MSm : valores de intensidad medios de las imágenes FUS y MS Método cuantitativos Índice Zhou Filtro laplaciano para extraer la componente paso alto de la PAN y la FUS 〚 −1 −1 −1 −1 8 −1 −1 −1 −1 〛 Mide la calidad espacial ∑ FUS i−FUS m ⋅ PAN i−PAN m r= i FUS i −FUS m 2⋅ ∑ PAN i −PAN m 2 ∑ i Calidad Espacial i donde FUSi es el valor de intensidad de la banda i de la imagen fusionada filtrada, PANi es el valor de intensidad de la banda i de la imagen PAN filtrada y FUSm y PANm son los valores de intensidad medios de las imágenes FUS y PAN filtradas respectivamente Método cuantitativos Universal image quality index Q= 1 x = N N ∑ xi , i=1 N 1 y = N 2x 2y [ x 2 y2 ] N ∑ yi i=1 1 2 = xi − x , ∑ N −1 i=1 2 x 4 xy x y N 1 2 = y i − y ∑ N −1 i=1 2 y N xy = xy 2⋅ x y 2⋅x y Q= ⋅ 2 ⋅ 2 2 x y x y x 2y 1 ∑ x − x y i− y N −1 i=1 i x : valores de intensidad de la banda i de la imagen FUS y : valores de intensidad de la banda i de la imagen MS ● Pérdida de correlación ● Distorsión lumínica ● Distorsión del contraste Método cuantitativos ERGAS espectral Mide la calidad espectral de la imagen FUS ERGAS Espectrak =100⋅ h l 1 N N ∑ i=1 RMSE B i 2 Calidad Espectral 2 M MS i Donde Mi representa el valor medio de la banda Bi , h la resolución espacial del sensor PAN, y l la resolución espacial del sensor MS, N respresenta el número de bandas y RMSE es: 1 RMSE Espectral B i = n n ∑ MS i k −FUS i k 2 k=1 Método cuantitativos ERGAS espacial Mide la calidad espacial de la imagen FUS h ERGAS Espacial =100⋅ l 1 N N ∑ i=1 RMSE B i 2 Calidad Espacial 2 M PAN i Donde MPAN i representa el valor medio de la imagen PAN, h la resolución espacial del sensor PAN, y l la resolución espacial del sensor MS, N respresenta el número de bandas y RMSE es: RMSE Espacial B i = 1 n n 2 PAN k −FUS k ∑ i i k =1 Inventario de cubiertas vegetales Índice de vegetación Normalized Difference Vegetation Index (NDVI) Permite Permiteidentificar identificarmasas masasvegetales vegetales NDVI = Infrarrojocercano−Rojo InfrarrojocercanoRojo Inventario de cubiertas vegetales A partir del NDVI: Obtenemos imágenes de vegetación Inventario de cubiertas vegetales Conclusiones ● ● ● ● ● Las técnicas de fusión permiten mejorar el detalle espacial de las imágenes multiespectrales. Se pueden fusionar imágenes procedentes de diferentes sensores a bordo de un mismo o diferente satélite Existen infinidad de técnicas y cada una mejora aspectos distintos de una imagen (detalle espacial ó espectral). Existen una serie de índices de calidad que permiten medir la calidad cuantitativa de una imagen aunque no parece que haya consenso entre los investigadores. Aplicación principal de estas técnicas es que mejora considerablemente la detección e identificación visual de diferentes cubiertas. Bibliografía ● ● ● ● ● ● ● ● ● Choi, M.; A New Intensity-Hue-Saturation Fusion Approach to Image Fusion with a Tradeoff Parameter. IEEE Transactions on Geoscience and Remote Sensing: 44, 1672-1682 (2006). Mitchell H.B.,. Image Fusion: Theories, Techniques and Applications. Berlin: Springer-Verlag, (2010) Garzelli, A., F. Nencini y L. Alparone; Pan-Sharpening of Multispectral Images: A Critical Review and Comparison, IEEE International Geoscience and Remote Sensing Symposium, 81-84 (2004). Gónzalez-Audicana, M., J. L. Saleta, R. García Catalán y R. García; Fusion of Multiespectral and Panchromatic Images Using Improved IHS and PCA Mergers based on Wavelet Decomposition, IEEE Transactions on Geosciences and Remote Sensing: 42 (6), 1291-1297 (2004). Stathaki T., Image Fusion. Algorithms and Applications. London: Elsevier Ltd, (2008) González-Audicana, M., X. Otazu, O. Fors y A. Seco; Comparison Between the Mallat’s and the àtrous Discrete Wavelet Transform Based Algorithms for the Fusion of Multispectral and Panchromatic Images, International Journal of Remote Sensing; 26: 597-616 (2005). Gonzalo, C. y M. Lillo-Saavedra; Fusión de Imágenes Quickbird Mediante una Representación Conjunta Multirresolución-Multidirección. IEEE Latin America Transaction: 5(1) 32-35 (2007). Lillo-Saavedra M. y C. Gonzalo; Spectral or Spatial Quality for Fused Satellite Imagery? A Trade-Off Solution Using Wavelet à trous Algorithm. International Journal of Remote Sensing: 27(7), 1453-1464 (2006). Hong, G. and Zhang, Y., Comparison and improvement of wavelet-based image fusion, International Journal of Remote Sensing, 29 (3), 673-691, (2008) Máster Universitario en Tecnologías de Telecomunicación Fusión de imágenes de satélites de muy alta resolución Estado del arte Anabella Medina Machín