PDF, ~1,5 MB

Anuncio
APUNTES TELEDETECCIÓN
ING. TÉC. TOPOGRAFÍA
CURSO 2009/2010
Profesora: Inés Santé Riveira
1
ÍNDICE
TEMA 6: TRATAMIENTOS DE REALCE Y MEJORA BÁSICOS ............................. 3 1. HISTOGRAMA DE UNA IMAGEN .......................................................................... 3 2. AJUSTE DEL CONTRASTE ...................................................................................... 5 3. COMPOSICIONES COLOREADAS ........................................................................ 10 4. EMPLEO DEL SEUDO-COLOR .............................................................................. 13 5. FILTRAJES ................................................................................................................ 14 6. TRANSFORMACIONES PREVIAS. ÍNDICES ....................................................... 16
TEMA 7: TRATAMIENTOS DIGITALES AVANZADOS ......................................... 21 1. ANÁLISIS DE COMPONENTES PRINCIPALES ................................................... 21 2. TRANSFORMACIÓN TASSELED CAP (TTC) ...................................................... 29
TEMA 8: EXTRACCIÓN DE LA INFORMACIÓN .................................................... 33 1. FUNDAMENTOS ...................................................................................................... 33 2. FASE DE ENTRENAMIENTO ................................................................................. 34 3. CLASIFICACIÓN NO SUPERVISADA Y SUPERVISADA .................................. 35 4. MEDIDA DE LA SEPARABILIDAD ENTRE CLASES ......................................... 37 5. FASE DE ASIGNACIÓN .......................................................................................... 38 6. ALGORITMOS DE CLASIFICACIÓN .................................................................... 39
TEMA 9: VERIFICACIÓN DE RESULTADOS .......................................................... 46 1. FUENTES DE ERROR EN LA CLASIFICACIÓN TEMÁTICA ............................ 46 2. MEDIDAS DE FIABILIDAD .................................................................................... 47 3. DISEÑO DEL MUESTREO PARA LA VERIFICACIÓN ....................................... 48 4. RECOGIDA DE INFORMACIÓN ............................................................................ 51 5. MEDIDAS DEL ERROR PARA VARIABLES CONTINUAS................................ 52 6. MEDIDAS DEL ERROR PARA IMÁGENES CLASIFICADAS: MATRIZ DE
CONFUSIÓN ................................................................................................................. 52 7. ANÁLISIS ESTADÍSTICO DE LA MATRIZ DE CONFUSIÓN ............................ 53
TEMA 10: CARACTERÍSTICAS DE LOS SENSORES ACTIVOS: RADAR Y
LIDAR ............................................................................................................................ 57 1. INTRODUCCIÓN ...................................................................................................... 57 2. RADAR DE APERTURA SINTÉTICA (SAR)......................................................... 58 3. BANDAS DEL RADAR ............................................................................................ 59 4. APARIENCIA DE LAS IMÁGENES ...................................................................... 60 5. DISTORSIONES DE UNA IMAGEN RADAR ........................................................ 62 6. PROPIEDADES DE LAS IMÁGENES RADAR ..................................................... 63 7. ECUACIÓN RADAR ................................................................................................ 64 8. TIPOS DE RADARES ............................................................................................... 65 9. LIDAR ........................................................................................................................ 66
TEMA 11: TRATAMIENTOS PROPIOS DE IMÁGENES RADAR .......................... 70 1. REALCE RADIOMÉTRICO ..................................................................................... 70 2. ANÁLISIS DE TEXTURA ........................................................................................ 76 3. TÉCNICAS AVANZADAS ....................................................................................... 83 2
TEMA6:TRATAMIENTOSDEREALCEYMEJORABÁSICOS
En muchas etapas del proceso de elaboración de cartografía a partir de imágenes
satélite es preciso examinar visualmente la imagen. P. ej. para georreferenciarla es
preciso localizar puntos de control claves en la imagen. Es particularmente importante
en el caso de la interpretación visual.
En este tema vamos a ver las técnicas dirigidas hacia la mejora de la calidad
visual de la imagen. Tratan de disponer mejor los datos para su análisis visual, de forma
que sean más evidentes los rangos de interés de la imagen. En estas técnicas se incluyen
los procesos de mejora del contraste, composiciones coloreadas y filtrajes.
1.HISTOGRAMADEUNAIMAGEN
Una imagen está definida por su histograma, en el que se representa la
probabilidad de encontrar un determinado valor de ND en la imagen. El histograma de
una imagen describe la distribución de los valores de los píxeles (los ND) de la imagen.
Un histograma indica el número de píxels para cada valor, en otras palabras, el
histograma contiene las frecuencias de los valores de ND en una imagen. El histograma
puede representarse en forma tabular o gráficamente. La representación tabular
normalmente consta de 5 columnas:
ND: nivel digital, en el rango [0…255]
-
Npix: número de píxeles de la imagen con este ND (frecuencia)
-
Perc: frecuencia como porcentaje del número total de píxeles de la imagen.
-
CumNpix: número acumulado de píxeles en la imagen con valores menores o
iguales a ese ND.
-
CumPerc: frecuencia acumulada como porcentaje del número total de píxeles de
la imagen.
Los datos del histograma pueden ser posteriormente resumidos mediante algunas
estadísticas como: media, desviación estándar, mínimo y máximo, valor 1% que es
valor por debajo del cual sólo se encuentran el 1% de los valores, valor 99%. Los
valores 1% y 99% pueden ser usados para definir un rango óptimo para la visualización.
Ejemplo de histograma en forma tabular:
3
La representación gráfica muestra la curva de frecuencia acumulada, que
representa el porcentaje de píxeles con un ND igual o menor a un determinado valor.
4
2.AJUSTEDELCONTRASTE
Los sensores son calibrados para recibir un rango muy amplio de valores de
radiación. Sin embargo, en una imagen satélite puede haber sólo agua, vegetación, etc,
por lo que rango de valores de la imagen será mucho menor, habrá poca diferencia entre
el ND mínimo y el máximo. Con el realce radiométrico se busca un mayor contraste
visual.
El ajuste del contraste es un proceso que hace más fácilmente apreciables las
características de una imagen haciendo un uso óptimo de los colores disponibles para su
visualización.
Las imágenes son visualizadas normalmente usando una escala de grises. Los
grados de gris del monitor típicamente varían del negro (valor 0) al blanco (valor 255).
Si se usan los valores originales de la imagen para controlar los valores de grises del
monitor, normalmente resulta en una imagen con poco contraste porque sólo se usa un
número de valores de grises limitado. En la imagen del histograma anterior, solamente
sería usados 173-14=159 niveles de grises de los 255 disponibles. El rango de ND de la
imagen no coincide con el número de valores disponibles, por lo que se puede expandir
el contraste para hacer corresponder el rango de ND presentes en la imagen con el rango
de ND total disponible. Para optimizar el rango de valores de grises, una función de
transferencia convierte los valores de ND en niveles de grises del monitor. Esta función
5
de transferencia puede ser de distintas formas. Las funciones de transferencia son
implementadas como modificaciones de los valores de la colour look up table.
Tablas de referencia del color
La tabla de referencia del color (CLUT, Colour Look up Table) indica el nivel
visual, NV o nivel de gris, con el que se representa en la pantalla cada ND. En la mayor
parte de los equipos la tabla de color es una matriz numérica de 3 columnas por 256
filas (ya que el rango de codificación va de 0 a 255). De modo que el orden de la fila
indica de ND de entrada, y en la tabla se almacena el NV con el que se representará ese
ND, las tres columnas de la matriz corresponden a los 3 colores elementales. En el caso
de que se esté trabajando con una sola banda, lo normal es que la imagen se represente
en pantalla en tonos de grises. Esto significa que cada ND tiene el mismo componente
de rojo, verde y azul. Un NV de 0,0,0 indica que el ND al que se aplique será
visualizado como negro, mientras que 127, 127, 127, supone un gris medio y 255,255,
255 blanco. Si los tres valores son distintos se estará representando una imagen en
color.
NV (azul)
NV (verde)
NV (rojo)
0
0
0
1
1
1
2
2
2
3
3
3
…
…
…
127
127
127
…
…
…
255
255
255
Gracias a la CLUT no es preciso transformar los ND para modificar el contraste
visual de la imagen, lo que conllevaría perder la información original o aumentar las
necesidades de almacenamiento. Basta únicamente transformar la relación entre ND y
NV que incluye la CLUT.
Una forma alternativa de visualizar una imagen es usar una pseudo-colour
lookup table que asigna colores entre el azul via ciano, verde y amarillo al rojo. El uso
de pseudo-color es especialmente útil para visualizar datos que no son medidas de
reflexión, p ej, datos de infrarrojo térmico, la asociación de frío-caliente con azul-rojo es
más intuitiva que con oscuro-claro.
6
Expansión y comprensión del contraste
Pueden darse dos situaciones: 1) que el rango de ND de la imagen sea menor que
el de NV del monitor, 2) que la imagen presente un mayor número de ND que NV
posibles en el monitor. En el primer caso se deberá aplicar una expansión del contraste,
mientras que en el segundo una reducción del mismo. La expansión del contraste se
emplea rutinariamente en la mayor parte de las aplicaciones. Mientras que la
compresión del contraste, es está empleando para reducir el volumen de
almacenamiento de las imágenes y aprovechar los equipos de visualización de bajo
coste.
Expansión del contraste
El primer caso, la expansión del contraste, es el más habitual, ya que aunque la
resolución radiométrica de la mayor parte de los sensores actuales es de 8 bits por píxel,
en la práctica ninguna imagen aprovecha todo ese rango, ya que difícilmente en una sola
escena se encontrarán todos los posibles valores de radiancia para los que se calibró el
sensor. Visualmente esto implica que hay tonos de gris que no se utilizan, por lo que la
imagen se ve en el monitor con poco contraste. Es posible realzar el contraste diseñando
una tabla de color que haga corresponder el rango de ND presentes en la imagen con el
rango total de NV posibles. Si bien existe la posibilidad de realizar expansiones de
contraste de forma manual, las formas más habituales para realizar la expansión del
contraste son:
Expansión lineal del contraste
Es la forma más elemental de ajustar el contraste. El valor digital ND mínimo
del histograma se hace corresponder con el NV 0 (es el negro) y el máximo con el NV
255 (es el blanco), de modo que ocupe todo el rango de valores disponibles,
distribuyendo linealmente el resto de ND entre estos extremos mediante la siguiente
ecuación
NV 
ND  ND min
 255
ND max  ND min
De este modo se utiliza todo el rango de NV del monitor o dispositivo de salida.
En lugar de utilizar el ND mínimo y máximo también se pueden utilizar otros valores
menos extremos, como los percentiles del 95% y 5% o el 1 y el 99%, lo que permite que
tengan menos influencia los posibles valores anómalos de la imagen.
7
Expansión lineal restringida – los valores de NDmax y NDmin los decide el usuario en
lugar de corresponder a los valores reales de la imagen
Si NDmax>ND>NDmin  NV 
ND  ND min
 255
ND max  ND min
Si NDmax<ND  NV=255
Si NDmin>ND  NV=0
Ecualización del histograma
Igual que en el caso anterior, se asigna al ND mínimo el NV 0 y al ND máximo
el NV 255, pero distribuyendo el resto de ND según una función cuadrática. En la
expansión lineal no se tiene en cuenta la frecuencia de los ND, aquí sí, se tiene más
realce en los ND más frecuentes. Se tiene en cuenta la forma del histograma, la
distribución real de los valores, es decir, no sólo se tiene en cuenta el valor de ND sino
que se aplica una expansión proporcional a la frecuencia de aparición de cada uno de los
ND. Esto implica crear una tabla de referencia de color en la cual cada NV tenga,
aproximadamente, el mismo número de ND de la imagen. Es decir, aquellos ND con
mayor número de píxeles serán los que ocupen un mayor rango de visualización.
El proceso es más laborioso que en el caso anterior.
1. Se calcula la frecuencia absoluta y acumulada de los ND de la imagen original.
2. Esta frecuencia se compara con una frecuencia objeto, que sería la que se
obtendría si todos los NV de la imagen tuvieran la misma frecuencia (es decir,
el cociente entre el número total de píxeles de la imagen y el número de niveles
visuales posibles). P ej, 736136píxeles/256NV=2875,53píxeles por cada NV, en
frecuencia relativa el 0,3906%.
3. De esta comparación se selecciona, para cada ND, el NV que presente un valor
más próximo en la frecuencia objeto acumulada.
Ajuste gaussiano
Supone el ajuste del histograma observado al histograma que aparecería si la
distribución fuera gaussiana, es decir si:
f ( x) 
  (x  ) 2
1
exp
2
 2
 2




f(x) es la frecuencia de x,  es la media y  la desviación típica.
8
Expansión especial del contraste
Se realza aquella zona de la imagen que más interesa. Se restringe el contraste a
un rango específico de ND, en donde se manifieste con mayor claridad una cubierta de
interés. La expansión especial puede realizarse asignado como umbral mínimo y
máximo el rango de ND de la cubierta que pretende realzarse (es el método lineal), o
limitando el histograma objeto al rango donde está presente dicha cubierta (es el realce
frecuencial).
Expansión adaptada del contraste
Es semejante a la ecualización pero resulta una imagen menos contrastada
porque se realzan más los extremos del histograma.
Infrecuencia
Consiste en asociar al ND menos frecuente el nivel de gris más alto y viceversa.
Imagen de Landsat TM sin mejora del contraste, con ecualización del histograma y
representación pseudo-color.
Comprensión del contraste
En el caso de que el rango del sensor supere el número de niveles de gris que
pueden visualizarse en pantalla, es necesario comprimir los ND originales. Este ajuste
es necesario en dos casos: 1) cuando se cuenta con un sistema gráfico de potencia
reducida, o 2) cuando se trabaja con un sensor de gran sensibilidad radiométrica (p. ej.
de 10 bits de AVHHRR, de 11 bits del Ikonos o de 16 bits de SAR).
9
Este problema se puede solucionar de dos formas: eliminando una parte de la
escala que no se considere relevante, o estableciendo una función de compresión de
datos. La primera solución es poco habitual porque supone una eliminación arbitraria de
datos. La segunda puede abordarse de distintas formas.
La forma más habitual es reducir el rango original de ND a un número
conveniente de intervalos. Estos intervalos suelen señalarse en función de las
características de la distribución de los ND. Pueden utilizarse intervalos de igual
anchura, a cada uno de los cuales se asigna un único NV.
Existen algoritmos de compresión más elaborados, que controlan el número de
intervalos mediante un proceso similar a la clasificación no supervisada.
Actualmente, la mayor parte de los equipos cuentan con tarjetas gráficas de
mucha mayor potencia, por lo que la comprensión de imágenes no se suele realizar,
salvo por problemas de almacenamiento. Además, en este caso se suelen utilizar
algoritmos de compresión del color, que consiguen una calidad apenas diferenciable de
la original, por ejemplo el algoritmo LZW, que permite crear imágenes GIF, el JPEG o
el PNG.
3.COMPOSICIONESCOLOREADAS
Percepción del color
La percepción del color tiene lugar en el ojo humano y en la parte asociada del
cerebro. No sé sabe exactamente cómo funciona la visión humana y qué sucede en los
ojos y el cerebro antes de que alguien decida que un objeto es azul. Sin embargo,
algunos modelos teóricos, soportados por resultados experimentales, son generalmente
aceptados. El ojo es sensible a longitudes de onda entre 400 y 700 nm. Diferentes
longitudes de onda en este rango son percibidas como colores distintos. La retina del
ojo tiene conos (receptores sensibles a la luz) que envían señales al cerebro cuando son
golpeados por fotones con niveles de energía que corresponden a las diferentes
longitudes de onda en el rango visible del espectro electromagnético. Hay tres clases
diferentes de conos, respondiendo al azul, verde y rojo. Las señales enviadas a nuestro
cerebro por estos conos, y las diferencias entre ellos, nos dan sensaciones de color.
Los equipos de visualización utilizan el proceso aditivo de formación del color,
basado en la mezcla por adición de los colores primarios. Una pantalla de televisión está
compuesta por un gran número de pequeños puntos compuestos por grupos de puntos
10
rojos, verdes y azules. El número de puntos encendidos determina la cantidad de luz
roja, verde y azul emitida. Todos los colores pueden ser creados mezclando diferentes
cantidades de rojo, verde y azul. Esta mezcla tiene lugar en nuestro cerebro. Cuando
vemos luz amarilla monocromática, que tiene una longitud de onda de 570nm, tenemos
la misma impresión que cuando vemos una mezcla de rojo, 700 nm, y verde, 530nm. En
ambos casos, los conos son estimulados de la misma forma, de acuerdo con el modelo
de tres-estimulos.
Composiciones coloreadas
Si tenemos en cuenta que el ojo humano es menos sensible a las tonalidades de
color gris que al cromatismo, la composición coloreada es quizás la técnica más
utilizada para resaltar los detalles de una imagen de satélite. Consiste en aplicar a tres
bandas diferentes los distintos colores elementales (rojo, verde, azul), de modo que se
puede apreciar información no distinguible de otro modo. Este proceso permite
visualizar, simultáneamente, información de distintas regiones del espectro, lo que
facilita la delimitación visual de algunas cubiertas.
La composición de color más obvia sería simular el color real asignando a la
banda del rojo el color rojo, a la del azul el azul y a la del verde el verde. Cuando se
aplica cada color a la banda del espectro que le corresponde se obtienen composiciones
en color verdadero. Sin embargo, no se suele aplicar a cada banda su color respectivo
por lo que se denominan composiciones de falso color.
La
composición
más
habitual
es
la
denominada
color
infrarrojo,
correspondiente a la aplicación de los colores rojo, verde y azul a las bandas del
infrarrojo cercano, rojo y verde respectivamente. El resultado es similar a la fotografía
infrarroja. Esta composición facilita la cartografía de masas vegetales, láminas de agua,
ciudades, etc, de ahí que se haya empleado ampliamente en diversos estudios de análisis
visual. La característica más peculiar de esta composición en falso color es que la
vegetación aparece de un color rojo púrpura. En la parte visible del espectro las plantas
reflejan la mayor parte de la luz verde pero su reflexión infrarroja es incluso mayor. Por
lo tanto, la vegetación en una composición en falso color aparece con una mezcla de
algo de azul, pero más rojo, resultando en un color rojizo púrpura.
Las combinaciones que visualizan el infrarrojo cercano como verde muestran la
vegetación de color verde, por eso se llaman composiciones en color pseudo-natural.
Dependiendo de la aplicación se pueden usar otras combinaciones de bandas. En
definitiva, estas composiciones sirven para resaltar los elementos que mayor
11
reflectividad presentan en las bandas utilizadas, además de obtener visualizaciones más
o menos estéticas. La elección de las bandas para realizar la composición, y el orden de
los colores destinados a cada una, dependen del sensor sobre el que se trabaje y de la
aplicación a la que se destine. Por ejemplo, para el sensor TM de Landsat se utilizan las
siguientes composiciones:
3/2/1 - información en color real
5/4/3 o 4/5/3 aplicándoles RGB – para estudios de usos del suelo, se ha utilizado en el
proyecto europeo Corine, en el que se obtuvo el mapa de suelos para toda Europa
4/7/5 – es utilizada para el seguimiento de zonas quemadas
7/4/3 – se emplea para el estudio de cultivos en regadío
7/3/1 – tiene aplicaciones oceanográficas
La elección de las bandas depende del sensor con el que se trabaje. En general
deben seleccionarse las bandas que presenten la mayor varianza, es decir, aquellas en
las que la dispersión de los datos sea la mayor posible, y el mínimo coeficiente de
correlación entre ellas, es decir, que la información proporcionada por cada una de las
bandas sea lo más independiente posible de las informaciones proporcionadas por las
restantes. Para establecer un criterio objetivo para seleccionar las bandas más adecuadas
para una composición de color se han propuesto unos índices estadísticos, como el
denominado ‘índice óptimo’ o Optimum Index Factor, OIF:
OIF 
s
k
r
j
k 1,3
j 1,3
donde Sk es la desviación típica de cada una de las 3 bandas y rj es el coeficiente de
correlación entre cada par de esas bandas. Cuanto más alto sea este índice mayor será el
contenido informativo de la composición.
12
4.EMPLEODELSEUDO‐COLOR
Se ha demostrado que el ojo humano distingue mejor distintos tonos de color
que intensidades de brillo o niveles de grises, por lo que, el empleo de color puede
ayudar a interpretar una imagen, incluso si sólo se dispone de una banda. En este caso,
no se puede hablar propiamente de color, pues se requerirían 3 bandas, sino más bien de
seudo-color.
Para una mezcla de 3 bandas utilizamos distintos NV en cada cañón de color,
RVA. Sin embargo, también se puede diseñar una CLUT en donde varíen los NV para
los 3 colores aunque sólo haya una banda de entrada. Es decir, el pseudo-color implica
crear una CLUT que asocie el ND de una sola banda a distintos componentes de rojo,
verde y azul. Esto tiene sentido en 2 casos:
1 – Cuando se quiere obtener una clave de color en una imagen clasificada (cada color
una categoría). Cada ND indica una clase temática distinta (p ej un uso del suelo), que
será visualizada con un color distinto.
2 – Cuando se intente realzar el análisis de una determinada banda sustituyendo los
niveles de gris por tonos de color. P. ej., se puede diseñar una CLUT con tonos azules
para los ND bajos y rojos para los ND altos. Esto se aplica por ejemplo para la
visualización de imágenes de temperaturas (azul-rojo) o de índices de vegetación (color
ocre-verde).
13
5.FILTRAJES
Otro componente de la imagen es el contraste espacial, que es la diferencia
entre el ND de un píxel y el de sus vecinos. Mediante las técnicas de filtraje se pretende
suavizar o reforzar estos contraste espaciales. Se filtra la imagen para suavizar o
reforzar los contrastes espaciales, es decir, para difuminarla o para resaltar determinados
aspectos, de modo que el ND de un píxel se diferencie o se asemeje más a los ND de los
píxeles que lo rodean.
Los filtros son transformaciones locales de la imagen: se calcula una nueva
imagen y el valor de un píxel dependerá de los valores de sus vecinos. El filtraje sí
implica modificar los ND originales y no sólo la forma en que se representan
visualmente. Los filtros consisten en aplicar a los ND de cada píxel una operación
aritmética que tenga en cuenta el valor de los píxeles próximos, estos son los filtros en
el dominio espacial.
Los filtros consisten en aplicar una matriz móvil de coeficientes de filtraje (CF)
(también se llama kernel), con un número impar de filas y columnas, sobre los ND de
los píxeles. Un filtro puede ser considerado como una ventana que se mueve a lo largo
de una imagen y considera todos los ND que caen dentro de la ventana. Cada valor de
un píxel es multiplicado por el coeficiente correspondiente del filtro. El valor resultante
sustituye al valor original del píxel central. La ventana se desplaza un píxel. Esta
operación se llama convolución. Cuanto mayor es el tamaño de la matriz mayor es el
efecto de suavizado o de realce del filtro.
El resultado de un filtro depende de los CF. Si estos tienden a ponderar el valor
central en detrimento de los circundantes, el píxel refuerza sus diferencias frente a los
vecinos (son los filtros de paso alto). Por el contrario, si los coeficientes favorecen a los
píxeles periféricos, el central se asemejará más a los adyacentes (son los filtros de paso
bajo). Por lo tanto, hay dos tipos de filtro:
a) Filtros de paso bajo
Difuminan la imagen, la suavizan, los contornos se hacen menos nítidos. Se
asemeja el ND de cada píxel al de los píxeles vecinos. Destacan el componente de
homogeneidad en la imagen. Estos filtros se emplean para eliminar errores aleatorios
que pueden presentarse en los ND de la imagen, también para reducir la variabilidad
espacial de algunas categorías como paso previo a la clasificación. En ambos casos, se
14
pretende atenuar el denominado ‘ruido de la escena’. El filtro de paso bajo puede
obtenerse a partir de diversas matrices de filtraje, algunas de las más habituales son:
1
1
1
1
1
1
0,25
0,5
0,25
1
1
1
1
2
1
0,5
1
0,5
1
1
1
1
1
1
0,25
0,5
0,25
El filtro media suaviza la imagen para eliminar el ruido, calcular la suma de
todos los píxeles del kernel y luego divide la suma por el número total de píxeles del
kernel.
En los últimos años se ha aplicado otro tipo de filtraje, basado en la mediana en
lugar de la media. El filtro mediano consiste en sustituir el ND del píxel central por la
mediana de los ND de los píxeles vecinos. La mediana es menos sensible a valores
extremos. Este filtro preserva mejor los contornos que el filtro promedio, pero resulta
más complejo de calcular ya que hay que ordenar los valores de los píxeles de la
ventana y determinar cuál es el valor central. Tiene la ventaja de que el valor final del
píxel es un valor real presente en la imagen y no un promedio, de este modo se reduce el
efecto borroso que tienen las imágenes que han sufrido un filtro de media.
La mediana es el valor medio en un conjunto ordenado.
El filtro moda calcula la moda de los valores, es decir, el valor más frecuente del
kernel.
El problema de los filtros de paso bajo es hacerlos sin que se pierdan entidades
interesantes.
b) Filtros de paso alto
Resaltan los bordes, los contornos de las áreas homogéneas. Desatacan los ND
que sobresalen entre los valores más comunes. Destacan las áreas de alta variabilidad.
Se remarcan los elementos lineales de las fronteras con respecto a los vecinos, se usan
más.
El filtro de paso alto más sencillo consiste en restar a la imagen original la
obtenida por un filtro de paso bajo. Aunque es más común emplear matrices de filtraje,
similares a las anteriores, pero en las que se refuerza más el contraste entre el píxel
central y los vecinos. Estos filtros calculan la diferencia entre el píxel central y sus
vecinos. Esto es implementado usando valores negativos para los coeficientes de los
píxeles no centrales. Por ejemplo las siguientes matrices:
15
-1
-1
-1
0
-1
0
-1
-1
-1
-1
9
-1
-1
4
-1
-1
16
-1
-1
-1
-1
0
-1
0
-1
-1
-1
Filtro de paso alto – Imagen original – Filtro de paso bajo
6.TRANSFORMACIONESPREVIAS.ÍNDICES
Estas transformaciones previas consisten en operar la imagen con un valor
numérico: sumar, restar, multiplicar o dividir píxel a píxel varias imágenes. La
transformación previa más común son los cocientes o ratios entre dos o más bandas de
la misma imagen, que se utilizan ampliamente en dos situaciones:
1. Para mejorar la discriminación entre dos cubiertas con comportamiento
reflectivo muy distinto en dos bandas
2. Para reducir el efecto del relieve
Estos índices se emplean principalmente para mejorar la discriminación de las
cubiertas vegetales y estimar algunas de sus variables biofísicas. Un índice de
vegetación es un “parámetro calculado a partir de los valores de la reflectividad a
distintas longitudes de onda y que pretende extraer de los mismos la información
relacionada con la vegetación minimizando la influencia de perturbaciones como las
debidas al suelo y a las condiciones atmosféricas”. Los índices de vegetación definidos
hasta el momento tienen en común el uso de los valores de reflectividad en la banda del
rojo y del infrarrojo cercano, debido al diferente comportamiento de la vegetación verde
y el suelo en estas bandas.
La vegetación verde apenas refleja radiación en el rango visible porque los
pigmentos de la hoja la absorben. Sin embargo estas sustancias no afectan al infrarrojo
16
cercano. Por eso se produce un notable contraste espectral entre la baja reflectividad de
la banda R (roja del espectro) y la banda del IR cercano, lo que permite separar, con
relativa claridad, la vegetación sana de otras cubiertas. Cuando la vegetación sufre algún
tipo de estrés (p ej por plagas o sequías) su reflectividad en el IR cercano es menor, y
paralelamente aumenta en el rojo, por lo que el contraste entre ambas bandas será
mucho menor. En definitiva, cuanto mayor sea la diferencia entre las reflectividades
de la banda del IRC y el rojo, mayor vigor vegetal presentará la cubierta. Bajos
contrastes indican una vegetación enferma o con poca densidad, hasta llegar a los suelos
descubiertos o al agua, que presentan muy poco contraste entre el IRC y el rojo. En este
principio se apoyan la mayor parte de los índices de vegetación (IV). Durante los
últimos 20 años se han publicado cerca de 40 IVs. Los más empleados son el cociente
simple entre esas bandas (C), el denominado índice normalizado de vegetación (NDVI,
Normalizad Difference Vegetation Index)
Ci 
 i ,IRC
 i ,R
NDVI i 
 i ,IRC   i ,R
 i ,IRC   i ,R
i,IRC y i,R son las reflectividades del píxel i en la banda del infrarrojo cercano y del
rojo respectivamente.
El NDVI varía entre unos márgenes conocidos, entre -1 y +1, lo que facilita su
interpretación. Pudiendo establecerse como límite para las cubiertas vegetales un valor
de 0,1 y para la vegetación densa entre 0,5 y 0,7. Cualquier valor negativo implica la
ausencia de vegetación.
Aunque estos índices se refieren a reflectividades muchos autores emplean
directamente los ND de la imagen, ya que se sigue manteniendo el hecho de que cuanto
mayor sea el resultado mayor vigor vegetal presenta la zona observada. Sin embargo,
según algunos estudios el cálculo de este índice a partir de ND subestima entre 0,05 y
0,2 el valor calculado con reflectividades. Por lo que parece necesario una formulación
alternativa para corregir este error sistemático:
NDVI 
NDir  0,801NDr
NDir  0,801NDr
La ventaja y el inconveniente del índice de vegetación es que no responde a una
variable concreta sino a un conjunto de factores (cobertura, estado fenológico, estado
17
fitosanitario). Por tanto, no resulta sencillo utilizarla para estudiar aspectos específicos
de la vegetación pero aporta una idea de conjunto acerca de su estado. Entre las
variables que se han correlacionado con los índices de vegetación están; índice de área
foliar, contenido de agua de la hoja, flujo neto de CO2, radiación fotosintéticamente
activa absorbida por la planta, productividad neta de la vegetación, cantidad de lluvia
recibida por la vegetación, dinámica fenológica, evapotranspiración potencial.
Se han propuesto distintas variantes para mejorar este índice. Algunos autores
afirman que la influencia relativa de los efectos atmosféricos es minimizada más
efectivamente mediante combinaciones de bandas no lineales, por lo que proponen el
Global Environment Vegetation Index (GEMI), calculado como:
GEMI   (1  0.25 ) 

 R  0.125
1 R
2(  IR 2   R 2 )  1.5  IR  0.5 R
 IR   R  0.5
Además, un índice de vegetación ideal debe ser sensible a la parte verde de la
planta pero no al suelo. Por lo tanto, el objetivo fundamental es eliminar la influencia
que el suelo puede tener sobre las reflectividades en el rojo y el infrarrojo y que pueda
enmascarar las de la vegetación (lo que resulta espacialmente útil en medios
semiáridos). Para minimizar el efecto del suelo se utilizan los índices de vegetación
basados en el concepto de línea de suelos.
El principal factor que afecta a la reflexión del suelo es el contenido en
humedad. Sin embargo la influencia de la humedad es igual a lo largo del espectro, es
igual en todas las bandas. Por lo tanto, el ratio entre bandas espectrales, por ejemplo
entre las bandas Rojo e IR no depende de la humedad del suelo, por lo que es posible
definir el concepto ‘línea de suelo’, que es una línea que representa la relación entre las
reflexiones del suelo en el Rojo y el IR. La línea de suelos caracteriza el tipo de suelo y
es calculada por el método de regresión lineal y expresada así:
IR,suelo=a*R,suelo + b,
a y b – parámetros estimados mediante mínimos cuadrados, a es la pendiente y b el
origen de la recta.
18
Perpendicular Vegetation Index (PVI)
PVI  (  R , suelo   R ,veg ) 2  (  IR ,suelo   IR ,veg ) 2
Sustituyendo aquí la ecuación de la línea de suelos:
PVI 
 IR ,veg  a   R ,veg  b
1 a
2
a,b – parámetros de la línea de suelo
PVI=0  suelo desnudo
PVI <0  agua
PVI > 0  vegetación
Como PVI no depende de la humedad del suelo, es menos variable de un suelo a otro.
Soil-Adjusted Vegetation Index (SAVI)
SAVI 
(  IR   R )
(1  l )
(  IR   R  l )
Normaliza mejor la influencia del suelo que los índices anteriores. La principal
desventaja es la determinación del parámetro l. El autor recomienda tomar un valor l=1
para densidades de vegetación bajas, 0.5 para valores intermedios y 0.25 para alta
densidad, por lo que se requiere información a priori.
Este índice fue mejorado dando lugar al Transformed Soil Adjusted
Vegetation Index (TSAVI):
TSAVI 
a (  IR ,veg  a R ,veg  b)
 R ,veg  a IR,veg  abX (1  a 2 )
X=0.08
TSAVI=0  suelo desnudo
LAI (Leaf area index - índice de superficie de hoja: superficie de hoja por unidad de
superficie de suelo) alto  TSAVI proximo a 0.7.
Otras mejoras del SAVI son:
19
Modified SAVI (MSAVI)
MSAVI 
2  IR  l  (2   l ) 2  8(  IR   R )
2
Optimizad SAVI (OSAVI)
OSAVI 
 IR   R
 IR   E  Y
En diferentes estudios se ha demostrado que estos índices presentan resultados
diferentes dependiendo de las condiciones. Por lo tanto, el mejor índice de vegetación
dependerá del tipo de sensor y de las características de la zona.
Los índices se pueden utilizar en 3 tipos de operaciones:
-
Comparación temporal de diferentes fuentes (imágenes tomadas en diferentes
fechas o desde dos satélites diferentes)
-
Integración en un proceso de clasificación. Debido a su poder discriminatorio
los índices constituyen una fuente de información para delimitar con más
precisión los contenidos de la clasificación.
-
Integración en un proceso de visualización. La calidad visual que aporta el
nuevo canal generado por el cálculo del índice puede usarse también en una
síntesis de canales como es la composición coloreada.
20
TEMA7:TRATAMIENTOSDIGITALESAVANZADOS
1.ANÁLISISDECOMPONENTESPRINCIPALES
Consiste en la creación de unos canales artificiales a partir de los originales, que
contengan el máximo contenido en información, es decir, que tengan una correlación
mínima y una varianza máxima.
Su objetivo es resumir la información contenida en un grupo amplio de
variables en un nuevo conjunto, más pequeño, sin perder una parte significativa de esa
información. Por lo tanto, los factores o componentes principales vendrían a ser como
variables-resumen de las medidas iniciales, preservando lo más sustancioso de la
información original.
Esta capacidad de síntesis es interesante en teledetección porque la adquisición
de imágenes en bandas adyacentes del espectro, implica con frecuencia detectar
información redundante, puesto que las cubiertas suelen presentar un comportamiento
similar en longitudes de onda próximas. Por ello, las medidas realizadas en una banda
pueden presentar una importante correlación con las realizadas en otra banda. El ACP
permite sintetizar las bandas originales, creando unas nuevas bandas, los componentes
principales de la imagen, que recojan la parte más relevante de la información original.
Esta selección de bandas no correlacionadas resulta muy conveniente cuando se está
realizando un estudio multitemporal o cuando se intentan seleccionar las 3 bandas más
adecuadas para una composición de color.
El sentido y la fuerza de la correlación lineal entre dos variables puede
representarse mediante dos ejes, en cada uno de los cuales se representa una variable. Si
los datos de ambas bandas tienen una distribución normal el resultado es una elipse. La
elipse que limita la nube de puntos indica el grado de correlación, de modo que la
correlación será tanto mayor cuanto más se aproxime esta elipse a una recta. En el
contexto de la teledetección la nube de puntos indica la localización de los ND en las
dos bandas consideradas.
21
El eje mayor de la elipse es el primer componente principal de los datos. La
dirección del primer componente principal es el primer eigenvector y la longitud es el
primer eigenvalor. Como el primer componente principal muestra la dirección y
longitud del eje mayor de la elipse es el que mide la mayor variación dentro de los
datos.
El segundo componente principal es el ortogonal al primer componente
principal, en una análisis en 2D es el eje menor de la elipse. Describe la varianza de los
datos que no es descrita por el primer componente principal. Y así sucesivamente: cada
componente principal es el mayor eje de la elipse que es perpendicular al componente
principal anterior y representa la variación de los datos que no está incluida en los
componentes principales anteriores.
Gráficamente se ve que una rotación de los ejes X, Y hacia las direcciones de A
y B mejorará la disposición original de los datos y, probablemente también la
separación entre grupos de ND homogéneos. Esta rotación se obtiene aplicando una
función del tipo
CP1 = a11NDi + a12NDk
CP es el primer componente principal obtenido a partir de los ND de las bandas i y k
tras aplicar los coeficientes a11 y a12. Desde el punto de vista geométrico, como puede
verse en la figura, este nuevo eje sólo supone una rotación de los originales. En
ocasiones, puede ser de gran interés acompañar la rotación con una traslación de los
ejes, situando el origen de coordenadas de los ejes en los valores mínimos de las dos
22
bandas, es decir, una traslación, para ello se le suma a la ecuación anterior dos
constantes a01 y a02.
Para un número p de bandas la ecuación a aplicar será esta
CPj=i=1,paijNDi + Rj
CP es el componente principal j, aij es el coeficiente aplicado al ND de la banda i para
generar el componente j, Rj es una constante que suele introducirse para evitar valores
negativos.
La obtención de los CP implica una transformación matemática compleja.
Algebraicamente el ACP genera nuevos componentes mediante una combinación lineal
de las p variables o bandas originales.
En primer lugar, para realizar el ACP se utiliza una matriz bidimensional, donde
n son los píxeles de una imagen y p son las bandas de la imagen
La i-ésima fila de la matriz contiene los n niveles digitales de la i-ésima banda
1. Con la matriz de varianza-covarianza x
en la que los elementos de la diagonal son las varianzas de los N.D. en cada banda:
 ii 
n
n
k 1
k 1
n  x ik2  (  x ik )2
n ( n  1)
y los elementos fuera de la diagonal son las covarianzas entre los N.D. de dos bandas:
Como la covarianza entre la banda i y la j es la misma que entre la banda j y la i
(sij = sji) la matriz Sx es simétrica. Cuando hay relación lineal entre los N.D. de dos
23
bandas las covarianzas son grandes en comparación con las varianzas, por eso es que
esta matriz sirve para estudiar la relación entre pares de bandas.
A partir de la matriz de varianza-covarianza de las bandas que componen la
imagen original, se extraen los autovalores (). Los autovalores están dados por la
solución de la ecuación
. Los autovalores expresan la longitud de cada uno
de los nuevos componentes, y, en última instancia, la proporción de información
original que retiene el componente principal asociado. Este dato resulta de gran interés
para decidir qué componentes principales son más interesantes; es decir, los que mayor
información original retengan.
Tal y como se obtienen los CP, el autovalor va disminuyendo progresivamente,
del primero a los últimos, pues se pretende maximizar sucesivamente la varianza
extraída en el análisis. La varianza original explicada por cada componente se calcula
como la proporción de su autovalor frente a la suma de todos los autovalores:
Vj 
j
j
j 1, p
siendo p el número total de componentes.
A partir de los autovalores se pueden calcular los autovectores mediante la
siguiente expresión

x
a1  1a1
Además de la longitud de cada eje, que nos proporcionaban los autovalores,
resulta también de gran interés conocer su dirección. Además, para calcular las
ecuaciones anteriores se precisa contar con los coeficientes de la transformación.
Ambos aspectos se pueden conocer a partir de los autovectores. El autovector indica la
ponderación que debe aplicarse a cada una de las bandas originales para obtener el
nuevo CP. Es decir, equivale a los coeficientes de regresión de una transformación
lineal estándar, siendo las bandas de la imagen las variables independientes y los CP las
dependientes. Una vez que conocemos los autovectores, el último paso es obtener una
imagen de los componentes principales, a partir de una combinación lineal de las bandas
originales.
CPj=i=1,paijNDi + Rj
Un módulo de ACP de un programa deberá proporcionar:
-
Los mapas de valores de los componentes
24
-
Los auto-valores para determinar el porcentaje de varianza explicada por cada
componente
-
La matriz de auto-vectores que permitirá determinar cuál es el peso de cada
variable (banda) en cada componente.
Ejemplo 1
Suponga que los N.D. de 6 píxeles en 2 bandas son:
Banda 1
2
4
5
5
3
2
Banda 2
2
3
4
5
4
3
El sentido y la fuerza de la correlación lineal entre dos bandas puede representarse
gráficamente mediante un diagrama de dispersión. Cuanto más se aproximan los puntos
a una recta mayor será el grado de correlación entre bandas.
Para este ejemplo
La matriz de varianza-covarianza de los datos es
Para determinar los componentes principales es necesario encontrar los autovalores y
autovectores de SX. Los autovalores están dados por la solución de la
ecuación
,
es
decir
, es decir
ó
equivalentemente
, que da por resultados
1=2.67 y 2=0.33.
Los autovectores se calculan mediante la expresión
25

x
a1  1a1
1.9 1.1 a11 
 a11 

   2,67 
 1.1 1.1 a12 
 a12 
0,77a11-1,1a12=0
1,57a12-1,1a11=0
Como, además, los autovectores deben estar normalizados a11  a12  1 . Esta
2
2
ecuación conjuntamente con el sistema anterior da por resultado
a11=0,82 a12=0,57
Repitiendo el mismo proceso para el autovalor 0,33 se obtienen los autovectores
a11=--0,57 a12=0,82
y los componentes principales son:
Para los datos del ejemplo resulta:
Como los valores del primer componente son grandes comparados con los del
segundo, la mayor variabilidad se da en la dirección del primer componente principal, lo
cual indica que contiene la mayor parte de la información. Más específicamente, el
primer componente contiene el
de la variación total. De esta
manera, el primer componente muestra un alto contraste visual. Por otra parte el
segundo componente es perpendicular al primero (porque no están correlacionados) lo
que indica que contiene información no incluida en el primer componente. Todo esto se
confirma en la Figura 3, donde se han graficado los datos en los dos sistemas (bandas y
componentes principales).
26
Ejemplo 2
A partir de una muestra sistemática de 1 de cada 8 píxeles se obtuvo la matriz de
varianza-covarianza para esas bandas:
B1
B2
B3
B4
B5
B1
102,83
B2
107,91
123,68
B3
156,30
176,07
271,58
B4
71,71
114,86
127,63
583,76
B5
148,94
183,70
275,91
340,63
516,96
B7
141,22
161,53
251,25
157,26
369,24
B7
314,29
27
Los autovalores extraídos fueron: 1365,72, 410,24, 115,60, 9,64, 9,05 y 2,83.
Según
Vj 
j
 j
j 1, p
la varianza original asociada con cada uno de estos componentes resultó ser 71,39%
para el primer componente, 21,44% para el segundo, 6,04% para el tercero, 0,5% para el
cuarto, 0,47% para el quinto, y 0.15% para el sexto. De acuerdo a estos porcentajes se
seleccionaron únicamente los 3 primeros componentes, que retenían un total del 98,87%
de la varianza original de la imagen.
La matriz de auto-vectores:
B1
B2
B3
B4
B5
B7
CP1
0,213
0,258
0,374
0,462
0,589
0,434
CP2
-0,213
0,171
-0,354
0,834
-0,041
-0,321
CP3
0,381
0,400
0,464
0,238
-0,585
-0,284
La matriz de autovectores muestra el sentido espectral de los componentes, es
decir, evidencia la asociación entre cada componente y las bandas originales. En esta
tabla puede verse que el primer componente recoge una valoración de las características
espectrales comunes a todas las bandas, lo cual puede asimilarse con el brillo de la
imagen, similar al aspecto que podría presentar una imagen pancromática.
El segundo componente muestra una importante asociación positiva con la
banda 4, apenas perceptible con la 5 y moderadamente negativa con el resto. En
definitiva, está evidenciando el contraste espectral entre el IRC y el resto de las bandas,
lo que muestra una valoración del vigor vegetal.
El tercer componente ofrece un claro contraste entre el visible-infrarrojo
próximo y el infrarrojo de onda corta, con correlaciones positivas para las primeras
bandas y negativas para las segundas. Esto parece indicar una valoración del contenido
de agua, por lo que se denomina componente humedad.
Las imágenes de los CP resultantes parecen demostrar esta interpretación. La
primera presenta una fisonomía similar a la de una imagen pancromática, con valores
promedio de las distintas cubiertas, bajos valores en el agua y la vegetación, medios en
los espacios edificados, y altos en los suelos descubiertos. El segundo componente
evidencia los sectores con una actividad clorofílica más intensa, como los pastizales y
cultivos, con tonos medios para los pinares y urbanizaciones, y tonos oscuros para los
28
suelos descubiertos, aguas y vías de comunicación. El tercer componente remarca con
claridad las láminas de agua, vías de comunicación y espacios edificados.
Para facilitar la interpretación de toda esta información se puede generar una
composición en color con los 3 primeros componentes principales. Esta imagen se ha
obtenido asignando el cañón de color rojo al primero componente, el verde al segundo y
el azul al tercero. Las áreas de mayor vigor vegetal aparecen en verde o cian, mientras
los suelos descubiertos o áreas urbanas aparecen en magenta, y las láminas de agua en
azul.
La capacidad de síntesis del ACP la hace muy apropiada como filtro previo para
el análisis multitemporal. En este caso, el ACP sirve para retener la información más
significativa en cada período. Posteriormente, los CP de cada fecha se combinan, con
objeto de facilitar una mejor discriminación de cubiertas con perfiles estacionales
marcados. En este caso los primeros componentes resultantes del análisis no son los
más interesantes ya que recogen información común a las distintas fechas, es decir, la
información estable. Los últimos componentes son los que ofrecen la información no
común, es decir, la que cambió, que es la que interesa en este contexto.
Un problema inherente al ACP es la dificultad de establecer una interpretación a
priori de los componentes, ya que la transformación es puramente estadística y, por
tanto, muy dependiente de las características numéricas de la imagen. Algunos autores
sugieren que el primer componente siempre indica el brillo general y el segundo el
verdor. No obstante, esta afirmación es cierta cuando la imagen contiene una cantidad
suficiente de cobertura vegetal. De otra forma, el componente de vegetación puede ser
el tercero o cuarto. En definitiva, no pueden aplicarse reglas generales para la
interpretación de los CP.
2.TRANSFORMACIÓNTASSELEDCAP(TTC)
Esta transformación se dirige a obtener nuevas bandas por combinación lineal de
las originales, con objeto de realzar algunos rasgos de interés en la escena. La diferencia
con el ACP es que la TTC ofrece unos componentes con significado físico,
independientes del tipo de imagen. Se basa en la evolución espectral de los cultivos a lo
largo de su período vegetativo.
La TTC fue ideada por la NASA y el USDA en los años 70 con objeto de
mejorar la predicción de cosechas. A partir de una serie de imágenes de zonas agrícolas
29
se trató de sintetizar los ejes de variación espectral de los cultivos en una figura tridimensional, de aspecto parecido a un gorro con borlas (tasseled cap). Considerando la
banda roja e infrarroja, la base de este gorro se define por la línea de suelos, donde se
sitúan los diferentes tipos de suelo.
A medida que crece la vegetación sobre un tipo de suelo, disminuye la
reflectividad en el rojo y aumenta en el infrarrojo cercano, por lo que el punto va
separándose de la línea del suelo en sentido ascendente y hacia la izquierda. Según el
cultivo va ganando en vigor, tiende a separarse de la línea del suelo, aproximándose al
eje de la banda infrarroja, y convergiendo en un punto cuando se produce la máxima
madurez. A partir de ahí el cultivo tiende a marchitarse, retornando hacia la línea de
suelos. La distancia de cada punto a la línea de suelo será, por tanto, proporcional a la
cantidad de vegetación.
La TTC tiende a poner más en evidencia el comportamiento espectral de la
vegetación y el suelo, a partir de crear nuevos ejes mejor ajustados a este espacio físico.
En este nuevo sistema de coordenadas se pretende que sea más nítida la separación entre
30
ambas cubiertas. Para el caso de las imágenes MSS sobre las que se desarrolló esta
transformación, los nuevos ejes se obtuvieron a partir de:
u j  R i' x i  c
donde u es el vector correspondiente a la imagen transformada, xi el vector de entrada,
Ri el vector de coeficientes de transformación y c una constante para evitar valores
negativos. Los autores sugieren un valor c=32 y estos coeficientes. Los coeficientes
propuestos pueden aplicarse a distintas imágenes del mismo sensor, con la particular de
que fueron obtenidos a partir de las características de la cubierta agrícola del mediooeste
americano.
Los autores de esta transformación sugieren 3 componentes: uno denominado
Brillo (brightness), suma ponderada de las cuatro bandas originales, otro denominado
Verdor (greenness), relacionado con la actividad vegetativa (es similar a un índice de
vegetación y permite llevar a cabo un análisis de la densidad y estado de salud de la
vegetación), un tercero conocido como Marchitez (yellowness) que pretendía
relacionarse con la reducción en el vigor vegetal, y un cuarto sin significado aparente
(Nonsuch).
En un primer momento, esta transformación no se utilizó mucho. En los años 80 se
empezó a utilizar más y se demostró su aplicabilidad a otros sensores, principalmente al
TM y al AVHRR. En el sensor TM se puso de manifiesto la presencia de un nuevo
componente denominado Humedad (Wetness). En consecuencia, una imagen TM
presenta 3 ejes principales de variación:
1. Brillo (Brightness): refleja la reflectividad total de la escena.
2. Verdor (Greenness): indica el contraste entre las bandas visibles y el IRC.
3. Humedad (Wetness): se relaciona con el contenido de agua en la vegetación y en
el suelo, y se marca por el contraste entre el SWIR (infrarrojo de onda corta), en
donde se manifiesta con mayor claridad la absorción de agua, y el visible. Otros
autores han propuesto denominar a este componente Maturity, puesto que se ha
encontrado una clara relación con la madurez de la cubierta vegetal. En algunos
estudios se ha mostrado como un buen indicador de la edad y densidad de la
cobertura forestal. Además se observó que era el componente menos afectado
por la topografía.
31
La combinación de estos ejes o componentes permite distinguir varios planos de
variación, de gran interés para el estudio de suelos y vegetación. Se suelen distinguir 3
planos:
-
Plano de vegetación, formado por el eje de brillo y de verdor
-
Plano de suelos, formado por el eje de brillo y la humedad
-
Plano de transición, formado por el eje de humedad y el de verdor
Una de las ventajas de esta transformación frente al ACP radica en su
interpretabilidad física. Los componentes deducidos mediante la TTC tienen un
significado preciso, independiente de las condiciones de la escena, puesto que se apoyan
sobre las características del sensor y no sobre la radiometría de la imagen. Por lo tanto,
los coeficientes propuestos pueden aplicarse a distintas imágenes del mismo sensor, con
la particular de que fueron obtenidos a partir de las características de la cubierta agrícola
del mediooeste americano.
32
TEMA8:EXTRACCIÓNDELAINFORMACIÓN
1.FUNDAMENTOS
La clasificación supone, en muchos casos, la fase culminante del análisis de
imágenes. Clasificar una imagen implica categorizar dicha imagen, de tal forma que el
ND de un píxel determina la clase donde ha de ser incluido. Si un píxel satisface unos
determinados criterios es asignado a una clase que se corresponde con esos criterios. Un
método de clasificación debería contar con las siguientes características:
1. Exacto
2. Reproducible, por otros para las mismas variables de entrada
3. Robusto, no sensible a pequeños cambios en las condiciones de entrada
4. Exhaustivo, que cubra todo el territorio de estudio
5. Objetivo, que no esté marcado por las decisiones del intérprete. Aunque este
punto es matizable, ya que el conocimiento del intérprete puede resolver algunos
problemas de discriminación de cubiertas.
La clasificación digital implica categorizar una imagen multibanda. En términos
estadísticos, esto supone reducir la escala de medida, de una variable continua (la de los
ND originales) a una escala categórica u ordinal.
Los ND que forman la imagen son una traducción digital de un flujo energético
recibido por el sensor para una determinada banda del espectro. En consecuencia, una
clasificación basada exclusivamente sobre ND puede denominarse propiamente
clasificación espectral. El problema es que puede haber distintas categorías temáticas
con un comportamiento espectral similar. En ese caso se recomienda acudir a las otras
dos dimensiones de información que contiene una imagen: la espacial y la temporal. En
el primer caso se trata de tener en cuenta en la clasificación el contexto espacial en el
que aparece el píxel. El segundo aportaría datos sobre su evolución estacional, lo cual
puede ser especialmente útil para discriminar cubiertas vegetales. Si ninguna de estas
tres dimensiones es suficiente para clasificar ciertas cubiertas, puede ser preciso acudir a
información auxiliar como topografía, suelos, etc.
La clasificación digital es similar a la foto-interpretación. En la foto-interpretación,
en primer lugar el intérprete identifica el patrón visual asociado a cada cubierta.
Posteriormente, delimita sobre el resto de fotografías las zonas que se corresponden con
33
el modelo previamente definido. Por último, verifica sobre el terreno la interpretación
realizada. Este es el mismo esquema de la clasificación digital, en la que se distinguen
las siguientes fases:
-
Definición digital de las categorías (fase de entrenamiento). Consiste en definir
el rango de ND que identifica a cada categoría.
-
Agrupación de los píxeles de la imagen en cada una de esas categorías (fase de
asignación).
-
Comprobación y verificación de resultados. Las técnicas de verificación son
aplicables tanto al tratamiento digital como al análisis visual.
2.FASEDEENTRENAMIENTO
Diversos factores introducen una cierta dispersión en torno al comportamiento
espectral medio de cada cubierta. Esto implica que las distintas categorías no se definen
por un solo ND, sino por un conjunto de ND, más o menos próximos entre sí. Por ello,
la fase de entrenamiento resulta compleja: se trata de definir con rigor cada una de las
categorías que pretenden discriminarse, teniendo en cuenta su propia variabilidad en la
zona de estudio.
La fase de entrenamiento consiste en seleccionar una muestra de píxeles de la
imagen, que representen, adecuadamente, las categorías de interés. A partir de esos
píxeles pueden calcularse los ND medios y la variabilidad numérica de cada categoría.
Hay dos métodos de clasificación: supervisado y no supervisado, de acuerdo a
las formas en que son obtenidas las estadísticas de entrenamiento. El método
supervisado parte de un conocimiento previo del terreno, a partir del cual se
seleccionan las muestras para cada una de las categorías. El método no supervisado
consiste en una búsqueda automática de grupos de valores homogéneos dentro de la
imagen. El usuario definirá posteriormente a qué categorías corresponden estos grupos.
En una clasificación temática hay 2 tipos de clases: informacionales y espectrales. Las
primeras son las que constituyen la leyenda a la que se pretende llegar. Las segundas,
corresponden a los grupos de valores espectrales homogéneos dentro de la imagen, con
una reflectividad similar. Las categorías informacionales se establecen por el usuario,
mientras que las espectrales se deducen de los ND presentes en la imagen. Al comparar
las clases informacionales con las clases espectrales se debe determinar cómo las clases
34
espectrales se transforman en clases informacionales. Lo ideal es que las categorías a las
que se pretende llegar se correspondan con otras tantas clases espectrales.
La diferencia entre el método supervisado y el no supervisado estriba en que el
supervisado pretende definir clases informacionales, mientras que el no supervisado
tiende a identificar las clases espectrales presentes en la imagen.
3.CLASIFICACIÓNNOSUPERVISADAYSUPERVISADA
El método no supervisado.
Se asume que los ND de la imagen forman una serie de agrupaciones de píxeles
con un comportamiento espectral homogéneo y, que por lo tanto, deberían definir clases
temáticas de interés. El método para definir los agrupamientos espectrales se basa en la
selección de 3 parámetros:
1. Variables que intervienen en el análisis
2. Criterio para medir la similitud o distancia entre casos
3. Criterio para agrupar los casos similares
En el contexto de teledetección las variables son las bandas seleccionadas para la
clasificación. Los casos son los píxeles, cada uno definido por tantos ND como bandas.
La delimitación de cada grupo espectral se realiza mediante dos criterios; la similitud
entre píxeles y el algoritmo de agrupamiento.
1) Para medir la similitud o la distancia entre píxeles se han propuesto varios criterios,
el más utilizado se basa en la distancia euclidiana
d a,b 
 (ND
I 1,m
a ,i
 ND b ,i )2
donde dab es la distancia entre dos píxeles a y b, NDai y NDbi son los niveles digitales de
esos píxeles en la banda i, y m es el número de bandas. Aunque hay otras medidas de
distancias.
2) En cuento al algoritmo de agrupamiento, también hay varias opciones. Uno de los
más comunes es el denominado ISODATA que consiste en las siguientes fases:
1. Señalar una serie de centros de clase
2. Se asignan todos los píxeles al centro de clase más próximo utilizando la distancia
euclidiana
3. Se calculan de nuevo los centros de clase, teniendo en cuenta los valores de los
píxeles incorporados en la fase anterior.
35
4. Se reordenan los centros de clase en función de los parámetros de control indicados
por el usuario, como número de grupos, distancia mínima entre grupos, tamaño mínimo
de un grupo y varianza máxima de un grupo.
5. Se vuelven a asignar todos los píxeles al centro más cercano
6. Si el número de píxeles que ha cambiado de grupo es inferior al señalado por el
usuario se termina el proceso.
El problema es la elección de los parámetros de control, ya que no se conoce de
partida el número de grupos espectrales presentes en la imagen, o la distancia entre
grupos. Otro inconveniente es el notable volumen de cálculo que requiere, ya que
normalmente es necesario un elevado número de iteraciones.
El método supervisado.
Requiere un cierto conocimiento de la zona de estudio para delimitar sobre la
imagen unas áreas suficientemente representativas de cada una de las categorías. Estas
áreas se denominan áreas de entrenamiento, se trata de áreas de las que se conoce a
priori la clase a la que pertenecen y que sirven para entrenar al software en el
reconocimiento de las distintas categorías. A partir de ellas, el software establece los
ND que definen cada una de las clases, para luego asignar el resto de los píxeles de la
imagen a una de esas categorías en función de sus ND. Es decir, a partir de los
estadísticos de cada clase, cada píxel de la imagen es comparado con estos valores y
etiquetado con la clase a la que se parece digitalmente.
La mayor parte de los equipos de análisis de imágenes permiten localizar
interactivamente las áreas de entrenamiento. Con el ratón el usuario introduce los
36
vértices que definen estas áreas, asignándolas a una de las categorías definidas
previamente en la leyenda. También hay un método automático, llamado ‘semillado’,
en el que se localiza un píxel central a partir del cual se agregan los píxeles vecinos en
función de su proximidad espectral hasta formar un polígono. Para ello el usuario debe
introducir un valor límite de varianza espectral para el polígono. Conviene que exista un
control de campo suficiente para estas áreas de entrenamiento.
Los píxeles seleccionados deben ser lo suficientemente representativos de cada
clase y que reflejar adecuadamente su variabilidad espectral en la zona de estudio. En
cuanto al número de píxeles a seleccionar, se requiere un mínimo de m+ 1 píxeles por
categoría, siendo m el número de bandas. Conviene, no obstante, superar con creces este
límite mínimo. Diversos autores recomiendan seleccionar un número de píxeles
comprendido entre 10*m y 100*m por categoría. Además resulta más conveniente
elegir varias áreas de entrenamiento de pequeño tamaño que una sola de mayores
dimensiones, ya que sino tenderá a infravalorarse la variabilidad espacial de esa
categoría. Algunos autores sugieren que ningún área de entrenamiento debería ser
superior a 10 píxeles, debido al efecto de auto-correlación. Esto significa que los píxeles
adyacentes tienen una alta probabilidad de tener valores de brillo similares, por lo que
tienden a tener una varianza reducida que puede ser debida más al modo en que el
sensor toma los datos que a las propias condiciones de la cubierta. Esto se debe a que la
mayoría de los detectores se detienen sobre un píxel durante un breve período de tiempo
pudiendo arrastrar información espectral desde un píxel a otro adyacente. Algunos
autores recomiendan seleccionar píxeles aislados para cada categoría, o seleccionar
píxeles aleatoriamente dentro de campos de mayor tamaño. Finalizada la selección de
las áreas de entrenamiento, el software calcula las estadísticas de cada categoría; media,
rango, desviación típica, matriz de varianza-covarianza, etc. a partir de los ND de todos
los píxeles incluidos en las áreas de entrenamiento asignadas a esa clase.
4.MEDIDADELASEPARABILIDADENTRECLASES
Antes de empezar el proceso de clasificación se analiza la separabilidad real de
las categorías seleccionadas. Esto consiste en saber si estadísticamente existen
diferencias significativas entre las distintas categorías. Si se comprueba que dos o más
categorías son muy similares, sería probable que hubiera confusión entre ellas, por lo
que resultaría aconsejable:
37
1. Confirmar que las estadísticas de entrenamiento son correctas
2. Adoptar una leyenda más general
3. Recabar información auxiliar.
Existen varios métodos para evaluar las estadísticas de entrenamiento. Por ejemplo,
un gráfico en el que en abscisas figuran las bandas que intervienen en el análisis y en
ordenadas los ND medios de cada categoría. Las líneas paralelas y próximas indican un
probable solape entre categorías. Pero este gráfico sólo refleja la tendencia media, no
considera la variación propia de cada categoría.
Esto se puede representar a partir de un gráfico de solape espectral, que es un
diagrama de barras que recoge en cada banda y para cada categoría, el rango digital
cubierto por la media  una o dos desviaciones típicas.
Otra forma de representar los solapes entre categorías es el histograma de
frecuencias de los ND que componen cada categoría. Se supone que los ND se
distribuyen normalmente, esto permite estimar su distribución a partir de su media y
desviación típica. De esta forma se construye una figura así, dibujando la elipse de la
distribución normal para todas las categorías, fijando la extensión de la elipse a 2
desviaciones típicas de la media. Este gráfico permite observar con mayor nitidez los
posibles solapes entre categorías.
Además de los procedimientos gráficos, existen algunos criterios cuantitativos,
el más sencillo es la distancia normalizada entre dos categorías:
dn
A ,B

ND A  ND B
sA sB
ND es la media de las categorías A y B, y SA y SB sus desviaciones típicas. Este
cálculo se aplica a cada par de bandas.
Existen otras medidas estadísticas más complicadas basadas en las divergencias. Cuanto
mayor sea el valor de la divergencia mayor será la separabilidad entre clases.
5.FASEDEASIGNACIÓN
Se trata de adscribir cada uno de los píxeles de la imagen a cada una de las clases
previamente seleccionadas en función del ND de cada píxel. Los criterios más comunes
son:
-
Mínima distancia, por el cual el píxel se asigna a la clase más cercana.
38
-
Paralelepípedos, que permiten establecer umbrales de dispersión asociados a
cada clase
-
Máxima probabilidad, asigna el píxel a la clase a la que tiene mayor
probabilidad de pertenecer.
6.ALGORITMOSDECLASIFICACIÓN
Clasificador de mínima distancia
El criterio más sencillo para asignar un píxel a una de las categorías consiste en
incluirlo en la categoría más cercana, es decir, en aquella que minimice la distancia
entre ese píxel y el centroide de la clase. Se trata de la distancia espectral no geométrica,
es decir, la distancia entre el ND de cada píxel y el ND de los centros de las distintas
categorías. Esta distancia se puede medir de varias formas, la más empleada es la
distancia euclidiana
d x ,A 
 (ND
i 1,m
x ,i
 ND A ,i )2
donde dx,A es la distancia entre el píxel x y la categoría A, NDx,i es el ND del píxel x
en la banda i y NDA,i es el valor medio de esa categoría en la banda i.
Tras calcular esta distancia para todas las categorías, se asigna el píxel a la
categoría para la cual esta distancia sea la más pequeña. Este algoritmo es sencillo,
rápido y ofrece buenos resultados cuando no hay un gran solape entre categorías. No
deja píxeles sin clasificar, esto puede provocar errores de comisión, sobre todo cuando
no se incluye en la leyenda alguna categoría presente en la imagen. La distancia que
utiliza este algoritmo es lineal, no considera la varianza, por lo que tiende a delimitar
grupos circulares de radio proporcional a la situación de cada categoría.
Clasificador de paralelepípedos
La clasificación de paralelepípedos o hipercubos es un método que consiste en
fijar áreas de dominio para cada categoría y posteriormente asignar a esta categoría el
píxel si su ND pertenece a su correspondiente área en todas las bandas de la imagen. En
consecuencia, un píxel que presenta un nivel digital NDx,i en la banda i será atribuido a
la clase A si se verifica
ND A ,i  R A ,i  ND x ,i  ND A ,i  R A ,i
39
para todas las bandas, siendo RA,i es el rango de dispersión de la categoría A en la
banda i. Es decir, un píxel es asignado a una categoría si sus ND se encuentran a menos
de una determinada distancia del centro de esa clase. Esta distancia es fijada con el
usuario, aunque suele fijarse en la desviación típica, o en un múltiplo suyo. Cuanto
mayor sea esta distancia mayor será el número de píxeles incluidos en cada clase pero
también será mayor el riesgo de confusiones con categorías vecinas. Del mismo modo,
un valor pequeño garantiza mayor fiabilidad en las asignaciones, pero supone un mayor
número de píxeles sin clasificar.
Es un algoritmo bastante rápido, puesto que sólo requiere operaciones lógicas sencillas,
del tipo IF…THEN. Entre los principales problemas de este método se encuentra el que
haya píxeles en zonas comunes a dos o más categorías o que algunos píxeles queden sin
clasificar. Algunos autores han propuesto introducir el criterio de mínima distancia en
estas áreas en conflicto. Respecto a los píxeles sin clasificar, la solución pasa por
ampliar paulatinamente el rango de dispersión, estableciendo un equilibrio entre los
píxeles no clasificados y los solapes entre categorías.
Clasificador de máxima probabilidad
Este método considera que los ND de cada clase se ajustan a una distribución
normal. Eso permite describir cada categoría mediante una función de probabilidad, que
sirve para calcular la probabilidad de que un píxel pertenezca a dicha categoría. Se
asigna el píxel a la categoría para la cual la función de probabilidad es mayor. La
función de probabilidad se estima a partir de las medidas realizadas sobre las áreas de
entrenamiento, basta con conocer la media y la desviación típica de cada categoría:
p (x / A ) 
1
2
2
A
exp (ND X  ND A )2 /2 A2 
la probabilidad de que un píxel x definido por un NDx pertenezca a la clase A, se puede
calcular a partir de la media de la categoría, NDA y la varianza de esa clase.
El clasificador de máxima probabilidad demanda un mayor volumen de cálculo.
Sin embargo, es el más empleado en teledetección, porque se ajusta con más rigor a la
disposición original de los datos. Es posible reducir los errores de comisión
estableciendo unos umbrales de probabilidad para cada categoría. Esto, a su vez,
conllevará la aparición de píxeles no clasificados.
40
Clasificadores en árbol
Uno de los métodos más sencillos pero también más eficientes es el clasificador
en árbol, que consiste en discriminar secuencialmente cada una de las categorías,
basándose en los valores espectrales, o en la textura o en información auxiliar. Para cada
clase se establecen unas reglas que permiten discriminarla a partir de las variables en
que mejor se discrimina.
Estas reglas se introducen en el algoritmo en forma de operadores lógicos
condicionales, del tipo IF…THEN… (si ‘se cumplen determinadas condiciones’
entonces…), que intentan simular la toma de decisiones que realiza una persona. Por
ejemplo
IF NDIRC/NDR>2 AND Textura=Rugosa THEN Bosque
IF NDIRC/NDR>2 AND Textura=Lisa THEN Prados
De modo que se pueden introducir variables no obtenidas por teledetección. Es
decir, este método tiene una gran facilidad para integrar datos provenientes de fuentes
distintas de los satélites de teledetección. El establecimiento de estos criterios de
decisión se realiza por un experto en el reconocimiento de cada categoría. Una vez
ajustadas adecuadamente las reglas el clasificador en árbol resulta un criterio muy
rápido y que permite introducir información auxiliar.
Clasificadores basados en el contexto espacial
Para discriminar dos cubiertas puede ser necesario acudir a criterios no
estrictamente espectrales como los criterios espaciales, derivados de la situación de un
píxel respecto al resto de píxeles que forman la imagen. Es decir, habrá que tener en
cuenta criterios de textura y contexto.
La distinción entre textura y contexto se basa en el área que se considera en la
medición de las relaciones espaciales. La textura se relaciona con la variación espacial
dentro de grupos contiguos de píxeles. El contexto mide las relaciones espaciales de
cada píxel con el resto de la escena.
Los métodos para incluir el contexto espacial en la interpretación digital se
pueden agrupar en función de la fase de la clasificación en la que intervienen:
1 métodos que generan bandas texturales previas a la clasificación
2 métodos que emplean el contexto durante la clasificación
3 métodos que consideran el contexto después de la asignación con el fin de
refinar los resultados.
41
1. Los primeros métodos consisten en realizar una serie de medidas de textura
previas a la clasificación. Aunque también se puede realizar en la fase de
entrenamiento, por ejemplo el clasificador ECHO (Extraction and Classification
of Homogeneous Objects), que propone clasificar una imagen, no a partir de
píxeles, sino de áreas compuestas por píxeles de similares características. Es
decir, se trata de extraer previamente objetos homogéneos, que luego son
asignados a categorías. La delimitación de estas áreas homogéneas se basa en
criterios de similitud espectral y contigüidad.
2. Los clasificadores de contexto que incorporan el criterio del contexto en el
propio algoritmo de asignación, consisten en asignar un determinado píxel a una
categoría no sólo a partir de sus ND, sino también de los ND de los píxeles
vecinos. Una manera de aplicar este criterio es incorporar alguna variante de la
vecindad espacial a los clasificadores que ya vimos. P. ej. el en clasificador de
máxima probabilidad puede considerarse la probabilidad de asignación de los
píxeles vecinos. Esto permite incluir la información de los píxeles vecinos para
tomar una decisión en caso de que las probabilidades para dos clases sean
similares o no exista una clase con probabilidades de pertenencia
suficientemente altas.
3. Los métodos que introducen el contexto para refinar los resultados de la
clasificación.
Es frecuente que los resultados de una clasificación digital estén excesivamente
fragmentados, es decir, que manchas de una categoría se encuentran salpicadas
por píxeles asignados a otras categorías, dificultando su interpretación y la
representación cartográfica de los resultados. Este fenómeno se denomina efecto
de ‘sal y pimienta’, en inglés ‘salt and pepper’. Para solucionar este problema
suele aplicarse una técnica de suavización de resultados, similar a los filtros de
paso bajo. P. ej., se compara la clase de un píxel con la de sus vecinos, si esta
clase es la misma en la mayor parte de los píxeles se mantiene la asignación
original, en caso contrario, se modifica. Normalmente esta comparación se
realiza a partir de una ventana móvil de 3*3 píxeles. Se distinguen dos tipos de
filtros de este tipo:
-
Filtro modal. El píxel situado en el centro de la matriz se asigna a la categoría
más frecuente entre los píxeles vecinos.
42
-
Filtro de mayoría. El píxel central se asigna a la categoría que cuente con la
mitad más uno de los píxeles vecinos. En caso de que ninguna categoría rebase
ese valor, el píxel central mantiene su asignación primitiva.
El primero ofrece una mayor generalización que el segundo, por lo que puede
ser más conveniente en el caso de paisajes muy complejos. Se ha demostrado
que estos filtros aumentan la exactitud conseguida en la clasificación, pero su
principal problema es la difícil decisión sobre el tamaño de la ventana.
Redes neuronales artificiales (RNA)
Es una de las nuevas técnicas de clasificación de imágenes con mayor
potencialidad y que más se está utilizando actualmente. Las RNA predicen un
comportamiento complejo, a partir de una muestra de entradas y salidas observadas.
Con los datos de esta muestra la red ‘aprende’ a reconocer el resultado a partir de los
valores de entrada. Una RNA está formada por un conjunto de elementos simples
(neuronas) distribuidos en capas. Las unidades que forman una capa están
conectadas con la capa o capas inmediatas a través de unas funciones de activación.
Estas funciones se definen a partir de una serie de pesos (wij), que se calculan de
modo iterativo en el proceso de aprendizaje de la red. El objetivo de este aprendizaje
es estimar unos resultados conocidos a partir de unos datos de entrada (muestra de
control), para posteriormente calcular resultados desconocidos a partir del resto de
datos de entrada.
El número de unidades y de capas depende de las condiciones del problema,
siendo más complicado el proceso de aprendizaje cuanto mayor es la dimensión de
la red. En clasificación de imágenes es frecuente que las RNA estén formadas por 3
capas, denominadas capa de entrada, oculta y de salida. El número de las unidades
de entrada está relacionado con los valores que sirven para entrenar la red,
habitualmente una por cada banda empleada en la clasificación. El número de
unidades de salida coincide con el número de clases en que se pretende clasificar la
imagen. El número de unidades en la capa oculta puede variar, aunque se
recomienda que sea al menos igual al de la capa de entrada.
La parte esencial de esta técnica es el denominado aprendizaje de la red, en el
que se configuran las conexiones y pesos entre las unidades de la red. El criterio de
aprendizaje más conocido es el de retro-propagación:
43
1. Se asignan unos pesos arbitrarios a la red. Los resultados con estos pesos para la
muestra de control se comparan con los resultados conocidos. Esto permite obtener
una tasa de error inicial. La medida habitual del error es la desviación cuadrática
entre el resultado esperado (tk) y el producido por la red (ok)
E 
  (t
k 1,n m 1,c
k ,m
 o k ,m ) 2
donde m son los resultados esperados (en este caso las c categorías) y k son las
unidades de entrada (en este caso las n bandas).
2. Se van modificando iterativamente los pesos de las distintas capas con el objetivo
de reducir este error, hasta que el error sea muy pequeño o nulo, o bien hasta que se
haya cumplido el número de iteraciones indicadas por el intérprete. Al principio del
entrenamiento los factores de ponderación cambian muy deprisa. Pero si las áreas de
entrenamiento se han seleccionado correctamente, llega un momento en el que los
factores de ponderación se estabilizan, es decir, no se modifican aunque se vuelvan
a introducir los píxeles de entrenamiento. En este momento finaliza la fase de
entrenamiento. En ese momento ya se pueden introducir los ND de los píxeles cuya
clase no se conoce y se adjudican a la clase que de la respuesta más alta.
En el contexto de la clasificación de imágenes se ha comprobado la potencialidad de
las RNA como alternativa a los clasificadores estadísticos tradicionales, sobre todo
cuando no se pueden asumir distribuciones normales. Aunque se han obtenido
resultados mejores que con los clasificadores tradicionales, la calidad de la
discriminación depende en gran medida de la calidad del entrenamiento. Las RNA
pueden incluir bandas auxiliares no espectrales, correspondientes, p ej, a un mapa de
suelos. Además, se ha comprobado la robustez de esta técnica para incluir elementos
texturales, ofreciendo así una clasificación con menos ruido. Entre los problemas de las
RNA se puede citar la falta de criterios generales para diseñar la estructura de la red, su
lento y tedioso entrenamiento (que desaconseja su empleo cuando el número de clases
o de bandas es muy grande).
Clasificación borrosa (fuzzy)
Los clasificadores que hemos visto hasta ahora son clasificadores ‘rígidos’ (hard
classifiers), en donde cada píxel se asigna a una única categoría. Esto puede conducir a
errores, p ej, en el criterio de máxima probabilidad, un píxel se asigna a la clase a la que
44
es más probable que pertenezca, independiente de que la probabilidad de pertenecer a
esa categoría sea 0,9 o escasamente 0,55. En el primer caso la probabilidad de error es
bastante baja, mientras que en el segundo caso la asignación es muy arriesgada. Las
nuevas técnicas de clasificación borrosa o fuzzy permiten aliviar este problema. En este
enfoque cada píxel tendrá un grado de pertenencia a cada categoría. Este valor de
pertenencia se obtiene mediante una función de pertenencia que proporciona valores
comprendidos entre 0 y 1.
Uno de los métodos más habituales para obtener estos valores de pertenencia es la
variante borrosa de máxima probabilidad.
U*A =
i= 1,n U A ( Mi ) Mi * i= 1,n U A ( Mi )( Mi - U*A )( Mi - U*A ) T
VA =
i= 1,n U A ( Mi )
i= 1,n U A ( Mi )
donde UA es el grado de pertenencia a la clase A, M es el vector de ND formado por los
n píxeles utilizados en la muestra, y VA la matriz de varianza-covarianza para esa clase.
A partir de estos dos valores se puede calcular la probabilidad de pertenencia, variando
ligeramente la fórmula de probabilidad
P* (x/a) = (2)-m/2 |V*a|-0,5 exp {-0,5 (Mx- M*A)T V*A-1 (Mx - M*A )}
Esta probabilidad se considera el grado de pertenencia de ese píxel a dicha categoría.
Por tanto, se obtienen tantas imágenes como categorías.
Las aplicaciones de esta lógica borrosa son de especial interés cuando se
pretende analizar coberturas con alto grado de mezcla, como en el caso de categorías
urbanas. Es muy útil por ejemplo para el inventario forestal, para la estimación de
densidades y superficies.
45
TEMA9:VERIFICACIÓNDERESULTADOS
La verificación de resultados permite al usuario valorar el riesgo que asume al
tomar decisiones sobre la información que ha generado. Este proceso de verificación
requiere siempre comparar los resultados obtenidos con una fuente externa que
represente la realidad presente en el terreno cuando se adquirió la imagen. Como
lógicamente no se dispone de esa información de referencia para toda el área de estudio,
ya que si fuera así no tendría sentido generarla de nuevo mediante teledetección, el
proceso de verificación requiere aplicar técnicas de muestreo.
La verificación de resultados incluye las siguientes fases:
1. Diseño del muestreo, señalando cuántas parcelas deben muestrearse y cómo se
seleccionan.
2. Recolectar datos de referencia y resultados sobre esas parcelas seleccionadas.
3. Comparar los datos de referencia y nuestros resultados, mediante distintos tests
estadísticos y la generación de una matriz de confusión.
4. Análisis de los errores encontrados y validación de la calidad del proceso.
1.FUENTESDEERRORENLACLASIFICACIÓNTEMÁTICA
La fiabilidad de los resultados depende de distintas variables, como; las
características del sensor, que puede no tener la resolución necesaria para nuestra
aplicación, el método de trabajo, que puede no ser capaz de extraer toda la información
de la imagen, y la propia complejidad del área de estudio. Además también hay que
considerar los propios errores del proceso de verificación.
Limitaciones del sensor
Además de los posibles errores debidos a fallos del sensor, de la plataforma o de
los sistemas de recepción y grabación de la señal, las limitaciones intrínsecas del sensor
pueden ser una fuente importante de problemas, especialmente cuando se hayan
señalado unos objetivos poco realistas para los datos disponibles. La elección del sensor
más conveniente será un compromiso entre la inversión que supone y el nivel de error
que se puede tolerar.
Métodos de análisis
46
Los errores también se pueden deber a no aplicar el método más apropiado a ese
problema. También se puede incluir entre los errores derivados del método de análisis la
incorrecta selección de la fecha de adquisición de la imagen.
Estructura del territorio
En regiones con una morfología parcelaria con solares de muy pequeña
extensión, inferior incluso al tamaño del píxel, el sensor detecta una señal radiométrica
promedio entre dos o más cubiertas, haciendo prácticamente imposible su
discriminación. Este efecto es habitual en aplicaciones agrícolas con paisajes con
parcelamiento muy minucioso.
Además está el efecto de la disposición espacial de los tipos de cubierta. Es
decir, si las cubiertas vecinas tienen comportamientos espectrales muy distintos son más
fácilmente discriminables que si sus comportamientos espectrales son similares.
Además, la orientación, la pendiente y la densidad con que aparece una cubierta
implica una variabilidad espectral que dificulta la clasificación, provocando solapes y
confusiones con categorías vecinas.
El proceso de verificación
Una última fuente de error es el proceso de verificación. Por ejemplo, una mala
georreferenciación de la imagen que estamos utilizando para verificar implica
considerar valores de referencia incorrectos. También se pueden producir problemas
cuando la verificación se realiza por varias personas simultáneamente, debido a una
definición poco precisa de las categorías temáticas que lleva a una interpretación
diferente. Por último, el documento de referencia también puede incluir errores. P. ej. si
se utiliza una foto aérea la fotointerpretación puede no ser correcta. También puede
haber un desfase entre el momento de adquisición de la foto aérea y el momento de
adquisición de la imagen satélite.
2.MEDIDASDEFIABILIDAD
La medida de la exactitud alcanzada por los resultados de una clasificación se
realiza por varios procedimientos. El más sencillo es una valoración cualitativa, es
decir, el intérprete da por buenos los resultados si ofrecen una visión acorde con su
conocimiento de la realidad. Aunque esto parezca inaceptable todavía sigue siendo el
procedimiento más utilizado para valorar los resultados, ya que es el menos costoso y
mucho más rápido que una verificación rigurosa.
47
El siguiente método, en orden de dificultad, implica comparar los resultados con
una fuente estadística convencional, como pueden ser los inventarios agrícolas o
forestales que se hacen mediante encuestas. Esta opción se denomina ‘verificación no
espacial’ y, en el mejor de los casos, proporciona el grado de ajuste entre dos fuentes,
pero no informa sobre dónde se presentan los errores. Además no siempre resulta
sencillo ajustar la leyenda de la fuente estadística a la extraída de la imagen.
El tercer método de verificación implica utilizar como datos de comprobación
los mismos que se hayan empleado para ajustar el modelo. Esto reduce el trabajo de
campo pero implica un importante sesgo positivo en la valoración de los resultados. Es
decir, al utilizar las mismas áreas para entrenar y verificar es lógico que los píxeles
incluidos en ellas tengan una mayor probabilidad de clasificación certera que el resto de
los píxeles de la imagen.
Finalmente, el método más adecuado para verificar es seleccionar una serie de
muestras independientes que permitan generar una medida estadística más sólida. Esta
selección y recolección de muestras supone un coste adicional que no repercute
directamente en una mejora de su fiabilidad, lo cual explica las reticencias que puede
implicar esta fase.
A partir de estas muestras independientes puede estimarse el error de los
resultados, mediante algún estadístico, como el error medio cuadrático, o mediante una
matriz de confusión. Al tratarse de un muestreo espacial, el resultado permite conocer
no sólo el grado global de acierto, sino también en qué categorías se producen las
confusiones. Estas verificaciones se denominan espaciales, porque ofrecen una imagen
del patrón espacial del error.
Los valores de error obtenidos pueden utilizarse para corregir las estimaciones
de superficie para cada cobertura. P ej si obtenemos una superficie de trigo de 680 ha y
un error de omisión del 0,15, podría estimarse la superficie real cultivada en 782 ha
(680+0,15*680).
3.DISEÑODELMUESTREOPARALAVERIFICACIÓN
La muestra debe ser suficientemente representativa del área de estudio, y además
debe minimizarse el tamaño de la muestra para reducir los costes del proceso de
verificación. La unidad de muestreo es el elemento sobre el que se extraerá la
información de referencia para comparar con nuestros resultados. Con frecuencia se
48
identifica con el píxel, pero no tiene por qué. De hecho, en muchas ocasiones será más
conveniente utilizar como unidad de muestreo un grupo de píxeles, lo que permitirá
reducir posibles errores de georreferenciación. También se puede utilizar como unidad
de muestreo los polígonos temáticos resultantes de la clasificación.
Los tipos de muestreo más empleados son:
1. Aleatorio simple. Los elementos a verificar se eligen de tal forma que todos
cuenten con la misma probabilidad de ser seleccionados, y que la elección de
uno no influya en la del siguiente. Este muestreo es bastante sólido
estadísticamente, pero presenta problemas en su aplicación porque puede
suponer elevados costes de desplazamiento. Por otra parte, existe cierta
probabilidad de no recoger adecuadamente la variación espacial del error
presente en la imagen, y que algunas categorías poco frecuentes no estén
representadas en la muestra.
2. Aleatorio estratificado. La muestra se selecciona dividiendo la población en
regiones o estratos, de acuerdo a una variable auxiliar, p ej las categorías
temáticas. Es más complejo de diseñar que el anterior pero reduce el error de
muestreo siempre que la variable auxiliar esté claramente relacionada con la
distribución del error.
3. Sistemático. La muestra se distribuye a intervalos regulares, a partir de un punto
de origen señalado aleatoriamente. Garantiza un muestreo completo de la
superficie, pero puede facilitar estimaciones erróneas si existe algún tipo de
patrón periódico en el área observada.
4. Sistemático no alineado. Modifica el anterior al variar aleatoriamente, en cada
línea y columna del muestreo, una coordenada, manteniendo fija la otra. Esto
permite introducir una cierta aleatoriedad en la elección de la muestra, y reduce
el riesgo derivado de la periodicidad. Al mismo tiempo sigue garantizando una
revisión completa del territorio
5. Por conglomerados. La unidad de muestreo es un grupo de observaciones,
denominado conglomerado (cluster), en lugar de individuos aislados. Es decir,
en cada punto a verificar ser toman varias muestras, en punto vecinos al elegido
aleatoriamente, y de acuerdo a un esquema prefijado. Por ej. un conglomerado
podría estar constituido por 5 puntos, a cierta distancia del punto central y en
forma de L. Este método reduce los costes de transporte pero es menos preciso
que los anteriores.
49
El tamaño de la muestra depende, como en cualquier otro muestreo, del nivel
de confianza que se quiere, del error tolerable y de la heterogeneidad de la variable. La
muestra será tanto más grande cuanto mayor sea el nivel de confianza, menor el margen
de error y mayor la heterogeneidad.
Para calcular el tamaño de la muestra hay que fijar ese nivel de confianza, en
función de la precisión que queremos darle a los resultados. Para un nivel de confianza
o valor de probabilidad z se puede estimar el tamaño de la muestra, dependiendo del
tipo de muestreo seleccionado. P ej para el aleatorio simple:
s 2 (N  n )
L z
n N
2
2
donde L es e intervalo de error tolerable, z la abscisa de la curva normal para un valor
determinado de probabilidad, s2 la varianza muestral, N el tamaño de la población, y n
el tamaño de la muestra. Para calcular el tamaño de la muestra es necesario fijar un
intervalo de error tolerable L, un rango de probabilidad z y estimar la varianza muestral
s2. Despejando en la fórmula anterior el tamaño de la muestra se calcula como
n
z 2s 2
s 2z 2
2
L 
N
De estos parámetros el más complicado de cuantificar es la varianza muestral ya
que sólo se conoce al terminar el muestreo. Se puede estimar a priori a partir de
muestreos previos o se ha sugerido que la varianza es 0,29/0,21*rango de la variable, en
el caso de variables continuas. En el caso de variables categóricas se recomienda
emplear la expresión
z 2 pq
n 2
L
donde z es la abscisa de la curva normal (buscar tabla dist normal), p es el porcentaje
estimado de aciertos y q el porcentaje estimado de errores (p=1-q) y L el nivel permitido
de error. Los valores de p y q pueden estimarse a partir de datos auxiliares o
simplemente igualarse a 50.
Si quiere conocerse el número de puntos de muestreo para estimar, con el 95%
de probabilidad, el error de un mapa, suponiendo que los aciertos son del 85% y el error
máximo permitido es de 5%, tendríamos
1,96 2  85 15
n
 195,92
52
50
es decir, se han de tomar 196 muestras para obtener los niveles de exactitud marcados
en el muestreo. Algunos autores proponen un valor mínimo de 50 píxeles por cada clase
temática.
4.RECOGIDADEINFORMACIÓN
Una vez diseñado el método y tamaño de la muestra, el paso siguiente consiste
en obtener para cada uno de los puntos el valor de la variable a verificar o la clase
temática de referencia. Este valor de referencia puede obtenerse por medición directa o
a partir de fuentes de información auxiliares. La medición directa requiere realizar un
trabajo de campo simultáneo a la adquisición de la imagen. Si la variable es muy
dinámica, p. ej. la temperatura, es especialmente crítica la sincronía con la imagen,
mientras que en otro caso puede aceptarse un cierto desfase.
Algunas de las variables estimables con teledetección pueden obtenerse en
terreno a partir de varios procedimientos (p. ej., métodos gravimétricos para estimar el
contenido en agua, estaciones meteorológicas). Es muy frecuente el empleo de
radiómetros de campo, que también se emplean en la fase de entrenamiento. Estos
equipos permiten medir la misma zona observada por el satélite en condiciones muy
controladas y sin influencia de la atmósfera, también facilitan el análisis de la
variabilidad espacial de las firmas espectrales.
En el caso de verificar mapas de clasificación, el intérprete en terreno tiene que
aplicar la misma definición de categorías temáticas que se hizo para clasificar la
imagen. Otro aspecto a considerar en el trabajo de campo es la correcta localización de
las parcelas de control, con objeto de controlar los errores debidos más a errores de
posición que de asignación, ya que en muchos casos la identificación de ciertos rasgos
sobre el terreno no es sencilla en la imagen. El empleo de cartografía a gran escala y de
GPS permiten una georreferenciación precisa y facilitan esta localización.
La alternativa a los trabajos de campo, que siempre son costosos y lentos, es el
empleo de documentos auxiliares de mayor detalle (como fotografías aéreas, mapas de
cultivos, …) El empleo de fotos aéreas es muy frecuente y adecuado si la foto y la
imagen son de la misma fecha. Por otra parte, el proceso de foto-interpretación
necesario puede conllevar errores de verificación.
51
5.MEDIDASDELERRORPARAVARIABLESCONTINUAS
Una vez obtenidos los datos de referencia puede calcularse el error de
estimación utilizando medidas estadísticas. La más habitual es el error medio cuadrático
(RMSE):
RMSE 
 ( xˆ
i 1,n
i
 x i )2
n
donde x^ es el valor estimado a partir de la imagen, xi el valor medido en el terreno.
El valor de RMSE es sólo una estimación del error real, puesto que se ha obtenido por
un muestreo.
6.MEDIDASDELERRORPARAIMÁGENESCLASIFICADAS:
MATRIZDECONFUSIÓN
En el caso de una imagen clasificada, tendremos un listado de puntos de
verificación, para los que poseemos tanto su cobertura real como la deducida por la
clasificación. Con esta lista puede generarse una tabla, denominada “matriz de
confusión”, ya que recoge los conflictos presentes entre categorías.
En esta matriz las columnas suelen indicar las clases de referencia y las filas las
categorías deducidas de la clasificación.
Ambas tendrán el mismo número y
significado, por lo tanto, se trata de una matriz cuadrada nn, donde n es el número de
categorías. Cada elemento de la matriz está ocupado por un número que representa la
cantidad de unidades de la muestra que, asignadas a la categoría que marca su fila,
realmente la verificación ha demostrado pertenencia a la clase que indica su columna.
La diagonal de la matriz expresa el número de puntos de verificación donde se
produce un acuerdo entre las
dos fuentes (imagen y realidad), mientras que los
elementos fuera de la diagonal suponen errores de clasificación. La relación entre el
número de puntos correctamente asignados y el total expresa la fiabilidad global del
mapa. Los residuales en columnas indican tipos de cubierta real que no se incluyeron
en el mapa, mientras los residuales en filas implican cubiertas del mapa que no se
ajustan a la realidad. En definitiva, representan los errores de omisión y de comisión
respectivamente.
El interés de esta matriz de confusión es su capacidad para plasmar los conflictos
entre categorías. De esta forma, no sólo se conoce la fiabilidad global de la
52
clasificación, sin también la fiabilidad para cada una de las clases, así como los
principales conflictos entre ellas.
7.ANÁLISISESTADÍSTICODELAMATRIZDECONFUSIÓN
A partir de la matriz de confusión pueden generarse una serie de medidas
estadísticas que permite validar numéricamente los resultados.
Fiabilidad global
La medida más simple es la fiabilidad global del mapa, relacionando el número
de celdas correctamente clasificadas con el total de celdillas muestreadas.
Fˆ 
x
i 1,n
ii
 x
i 1,n j 1,n
ij
A partir de este valor puede calcularse el intervalo de confianza donde se situará
la fiabilidad real alcanzada por la clasificación:
F  Fˆ  z .EM
El error del muestreo puede generarse a partir de la fórmula del muestreo
aleatorio simple:
EM 
pq
n
Fiabilidad del usuario y del productor
En el caso de las columnas, los marginales indican el número de píxeles que,
perteneciendo a una determinada categoría, no fueron incluidos en ella. Son los que se
denominan errores por omisión, Eo:
E o ,i 
x  i  x ii
x i
donde x+i es el marginal de la columna i, y xii la diagonal de dicha columna.
De un modo similar, las celdas no diagonales de las filas expresan los errores
por comisión, es decir, los píxeles que se incluyeron en una determinada categoría
perteneciendo realmente a otra:
E c ,i 
x i   x ii
x i
donde xi+ indica el marginal de la fila i, y xii la diagonal de dicha fila.
53
Además, algunos autores hablan de exactitud del usuario y del productor. La
exactitud del usuario está en relación inversa con los errores de comisión, y la exactitud
del productor con los errores de omisión:
F p ,i 
x ii
x i
F u ,i 
x ii
x i
para cada una de las n categorías.
Clase 1
Clase 2
Referencia
Clase 3
Clase n
Total
Exactitud
Error
Comisión
P. ej., si en una especie forestal el error de omisión es bajo, existe unaUsuario
alta probabilidad
X11
Clase 1
X1+
X11/X1+
1-X11/X1+
Clasificación
de que
ocupada por esa cubierta estéX incluidaXen/Xel mapa,
que
Clasela
2 superficie realmente
X
1-Xlo /X
22
2+
22
2+
22
2+
Clase 3 un logro para el productor del
significa
haber
un
alto
X33 mapa. Sin embargo,Xpuede
X33/Xa3+la vez
1-X
3+
33/X
3+
Clase n
Xnn forestal
Xn+ haya Xsido
1-Xnn/Xen
nn/Xn+ asignada
n+
error
de comisión, es decir, que la superficie
Total
X+1
X+2
X+3
X+n
Exactitud
X11/X+1
X22/X+2
X33/X+3
Xnn/X+n
1-X11/X+1
1-X22/X+2
1-X33/X+3
1-Xnn/X+n
ΣXij
localizaciones correspondientes a otras cubiertas, lo cual supone un grave riesgo para el
Productor
usuario
de esa información.
Error
Omisión
El estadístico Kappa
Resulta de gran interés para analizar las relaciones múltiples entre las distintas
categorías. El estadístico kappa (k) mide la diferencia entre el acuerdo mapa-realidad
observado y el que cabría esperar simplemente por azar. La estimación de k se obtiene
a partir de la siguiente fórmula
̂ 
n  x ii   x i  x  i
i 1,n
i  i ,n
n   x i  x i
2
i  i ,n
donde n es el tamaño de la muestra, xii el acuerdo observado y el producto de los
marginales (xi+ x+i) el acuerdo esperado en cada categoría. El acuerdo esperado indica el
ajuste que puede deberse al azar.
De modo que, el estadístico k permite conocer si el grado de acuerdo observado
se aleja o no del esperado al azar. Es decir, este índice pretende evaluar si la
clasificación ha discriminado las categorías de interés con exactitud significativamente
mayor a la que se hubiera obtenido con una asignación aleatoria. Un valor de k igual a 1
indica un acuerdo pleno entre la realidad y el mapa, mientras un valor cercano a 0
sugiere que el acuerdo observado es puramente debido al azar.
54
El estadístico k también puede calcularse para una determinada categoría de
interés, es el denominado k condicional, o puede ponderarse en función de algún
criterio definido por el usuario. Ya que no todas las confusiones son igualmente
importantes, p ej no es lo mismo que la confusión se produzca entre matorral y
matorral-arbolado, que entre matorral y cultivos. En consecuencia, se puede obtener un
valor ponderado de k, a partir de unos pesos wij que asigne el usuario en función de la
gravedad que estime si se produce confusión entre las categorías i y j, el nuevo valor de
k sería.
ˆ 
w
i 1,n
ii
x ii / n  w ij x i  x  i / n
i  i ,n
1  w ij x i  x  i / n
i  i ,n
Normalización de la matriz de confusión
Se emplea cuando se intenta comparar la fiabilidad de dos mapas con distinto
tamaño de muestreo. Consiste en un método iterativo que ajusta los totales de filas y
columnas a un valor común (+1), mediante sucesivos incrementos o reducciones en las
celdillas de la matriz. El proceso se detiene cuando los marginales de cada fila y
columna sumen +1, o un valor muy próximo.
Esta matriz ofrece una nueva medida de fiabilidad global. El valor medio de los
elementos de la diagonal indica el acuerdo entre filas y columnas, y en una situación
ideal todos los elementos diagonales de la matriz serían 1, mientras que una pobre
clasificación se muestra en valores diagonales muy bajos. Esta matriz normalizada
ofrece una visión complementaria, y permite compara matrices con distinto número de
muestras.
Verificación de análisis multitemporales
Se trata de ver la fiabilidad alcanzada por una interpretación de dos fechas
simultáneamente, lo que implica considerar la fiabilidad de cada fecha por separado y
de las dos en conjunto. Esto complica notablemente el análisis de las matrices de
confusión. Las dos novedades de estas matrices son:
-
El número de categorías pasa a ser el cuadrado del número de categorías en una
sola imagen. De modo que el número de celdas de la matriz será n4, siendo n el
número de clases en una sola imagen.
55
-
Al aumentar el número de categorías a verificar implica una mayor complejidad
en el muestreo, y habrá que aumentar notablemente el tamaño de las muestra
para poder verificar los cruces. En este caso, el muestreo estratificado o el
muestreo basado en información auxiliar puede ser una buena alternativa.
Para explicar mejor la estructura de una matriz de confusión multitemporal se
puede utilizar esta notación, donde 1 indica áreas detectadas como estables cuando
realmente lo son y el 2 áreas detectadas como un cambio que se corresponde con la
realidad. La suma de ambos indica la fiabilidad global.
Los errores se representan por 3, cuando zonas señaladas como estables son
estables pero en una categoría que no les corresponde, 4 identifica sectores en donde se
señalaron cambios cuando en realidad se mantuvo la misma categoría, el 5 determina
cambios reales no discriminados, y el 6 cambios incorrectamente clasificados.
56
TEMA10:CARACTERÍSTICASDELOSSENSORESACTIVOS:
RADARYLIDAR
1.INTRODUCCIÓN
El radar utiliza microondas, las cuales cubren el rango del espectro
electromagnético con longitudes de onda comprendidas entre 1cm y 1m. Gracias a estas
grandes longitudes de onda, en comparación con el visible y el infrarrojo, las
microondas tienen propiedades especiales. Pueden penetrar a través de nubes, lluvia y
polvo y no son susceptibles a la dispersión atmosférica. Estas propiedades permiten la
detección de energía de microondas bajo casi cualquier condición climática y ambiental.
Además, el uso de longitudes de onda mayores, que no se encuentran en los espectros
solar o terrestre, implica la necesidad de utilizar sensores activos, es decir, aquellos que
generan su propio flujo de radiación. Como los radares activos tienen su propia fuente
de energía, pueden funcionar durante el día o la noche y en condiciones de iluminación
controlables. Otra ventaja es que al ser un haz artificial puede manipularse la forma en
la que se emite para, así, obtener el máximo de información. Además, a diferencia de
los sensores ópticos, con los radares se pueden identificar características asociadas a la
rugosidad del terreno.
Algunas características de la superficie se pueden distinguir mejor en las
imágenes de radar:
-
hielo, ondas en la superficie del mar
-
humedad del suelo, cantidad de vegetación
-
objetos creados por el hombre, p ej edificios
-
estructuras geológicas
RADAR es el acrónimo del inglés de detección y localización por radio, RAdio
Detection And Ranking. Un sistema de radar tiene 3 funciones primordiales:
-
Transmitir señales de microondas (radio) hacia una escena
-
Recibir la porción de la energía transmitida, que se refleja hacia el sensor desde
la escena iluminada
-
Observar la potencia de la señal reflejada y el tiempo necesario para que la señal
regrese al sensor
57
2.RADARDEAPERTURASINTÉTICA(SAR)
Es un sistema de radar de iluminación lateral que produce una imagen de
resolución fina de la superficie bajo observación. Al moverse a lo largo de su
trayectoria, el radar ilumina hacia un lado de la dirección de vuelo franjas continuas y
paralelas entre sí y acumula la información de las microondas que se reflejan.
La distancia entre el radar y el objetivo en la superficie en la dirección
perpendicular al vuelo se llama alcance. La distancia a lo largo de la trayectoria se
conoce como azimut.
En un sistema de radar, la resolución tiene dos dimensiones, una en la dirección
del alcance y otra en la del azimut. La resolución en la dirección del alcance depende
de la longitud del pulso transmitido; un pulso corto proporciona mejor resolución. En
una radar convencional, por ejemplo en un radar de apertura real, la resolución en la
dirección del azimut se determina por el ancho angular del haz. Para que dos objetos
puedan ser identificados independientemente, deben estar separados en la dirección del
azimut por una distancia mayor al ancho del haz en el terreno.
La anchura del haz es inversamente proporcional a la longitud de la antena
(también denominada apertura), de modo que una mayor antena o apertura producirá un
haz más estrecho y una mayor resolución. La longitud de la antena está limitada a 1 o 2
m en aviones y a 10 o 15 m en satélites. Por este motivo el principal problema del radar
fue en principio su baja resolución espacial, que puede calcularse como:
Rs 
H

donde Rs es la resolución,  la longitud de onda, H la altura de observación y  el
diámetro de la antena. Si el radar se coloca sobre un avión, la altura es reducida y se
58
obtienen resoluciones adecuadas, todo lo contrario ocurre en el caso de utilizar un
satélite para transportarlo.
Este problema se ha solventado con el uso del Radar de Apertura Sintética, SAR,
que sintetiza una antena virtual muy grande al grabar la fase de la señal de las
microondas que recibe. La longitud física de la antena de un SAR es corta pero
mediante modificaciones del registro de los datos y de las técnicas de procesamiento se
simula el efecto de una antena más grande.
Se envían pulsos de la señal a los mismos puntos de la superficie terrestre en dos
o más momentos distintos de la trayectoria del radar y la resolución que se obtiene es
equivalente a la que se obtendría si se utilizara una antena de longitud similar a la
distancia entre los pulsos.
3.BANDASDELRADAR
La mayoría de los radares operan con señales de longitud de onda comprendida
entre 5 cm y 75 cm. Estas microondas se clasifican de manera arbitraria en bandas
identificadas por letras. Las que se emplean más comúnmente son:
Banda-X: Ampliamente utilizada para el reconocimiento militar y a nivel comercial. Se
utiliza en el SAR CV-580 aerotransportado y en el satélite SIR-C.
Banda-C: Se utiliza en muchos SARs especiales, tales como el ERS-1 y RADARSAT.
Banda-S: Utilizada en el satélite ruso Almaz.
Banda-L: Se utilizó en el americano SEASAT y en el japonés JERS-1.
Banda-P: Es la más larga, utilizada en el aerotransportado AIRSAR de JPL/NASA.
Banda
 (cm)
Frecuencia (GHz)
Ejemplos de sensores
Ka
0.8-1.1
40-26.5
Aerotransportados
K
1.1-1.7
26.5-18
Aerotransportados
Ku
1.7-2.4
18-12.5
Aerotransportados
X
2.4-3.75
12.5-8
SIR-C
C
3.75-7.5
8-4
ERS, RADARSAT, SIR-C
S
7.5-15
4-2
ALMAZ
L
15-30
2-1
JERS-1, SEASAT, SIR-C
P
30-100
1-0.3
Aerotransportados (AIRSAR)
59
La capacidad de penetración aumenta con la longitud de onda. De modo que a
los radares que operan con longitudes de onda mayores de 2 cm casi no les afectan las
nubes. Y a partir de los 4 cm tampoco les afecta la lluvia.
La longitud de onda del radar se selecciona de acuerdo a la escala del fenómeno
o de las características del terreno que se desean identificar, por ejemplo;
-
la banda-X para identificación de hielo y características de escalas relativamente
pequeñas
-
la banda-L para cartografía geológica, características grandes
-
la banda-P, la penetración de estas ondas es mayor por lo que se usan cuando
hay que penetrar el follaje.
4.APARIENCIADELASIMÁGENES
El brillo de las entidades de una imagen radar depende de la porción de la
energía transmitida que es retornada al radar. La magnitud e intensidad de esta energía
depende de cómo interacciona con la superficie, lo cual es función de varias variables o
parámetros. Estos parámetros incluyen características del sistema radar (frecuencia,
polarización, etc), así como de las características de la superficie (tipo de uso del suelo,
topografía, relieve, etc). Muchas de estas características están relacionadas y es
imposible separar las contribuciones individuales de cada característica. El brillo de las
entidades de una imagen es una combinación de varias de estas variables. Sin embargo,
estas características se pueden agrupar en 3 aspectos que controlan fundamentalmente la
interacción de la energía con la superficie, y que son:
-
la rugosidad de la superficie
-
la relación entre la geometría del radar y la de la superficie
-
el contenido en humedad de la superficie
La rugosidad es generalmente el factor dominante de los tonos, la brillantez de
una imagen de radar. Las superficies horizontales lisas reflejan casi toda la energía
incidente en forma especular, en una dirección alejándose del radar. Estas superficies,
llamadas especulares, como aguas tranquilas o autopistas, aparecen oscuras en las
imágenes de radar. Las microondas incidentes sobre una superficie rugosa se reflejan en
muchas direcciones. Esto se conoce como
reflexión difusa o esparcimiento. Las
superficies con vegetación causan reflexión difusa, y se presentan con tonos brillantes
en las imágenes de radar.
60
La rugosidad de una superficie reflectora se determina de manera relativa con
respecto a la longitud de onda del radar y al ángulo de incidencia. Generalmente, una
superficie se considera lisa si sus variaciones de altura son considerablemente menores
que la longitud de onda del radar. Para una longitud de onda determinada, una superficie
es relativamente más rugosa al aumentar el ángulo de incidencia. Cuando las
variaciones de altura de la superficie se aproximan al tamaño de la longitud de onda la
superficie aparecerá rugosa. En general, se define una superficie rugosa como aquella
que tiene variaciones de altura del orden de la mitad de la longitud de onda del radar. En
las imágenes radar las superficies rugosas aparecen más brillantes que las superficies
lisas, aunque estén compuestas de los mismos materiales.
Reflectores angulares
Algunos objetos pequeños pueden aparecer extremadamente brillantes en las
imágenes de radar, dependiendo de su configuración geométrica, son los reflectores
angulares. El lado de un edificio o un puente, combinado con reflexión procedente del
terreno es un ejemplo de reflector angular.
Dos superficies que se intersectan y forman un ángulo recto de cara al radar,
definen un reflector angular llamado diedro. La señal que regresa al radar a partir de un
reflector diedro es intensa, sólo cuando las superficies reflectoras tienen una orientación
casi perpendicular a la dirección de la iluminación.
Se pueden producir reflexiones más intensas con un reflector triedro. Estos están
formados por la intersección de tres superficies planas perpendiculares entre sí y
abiertas de cara al radar.
Los reflectores angulares se utilizan comúnmente en investigación porque al
colocarlos en unas posiciones determinadas pueden funcionar como puntos de
referencia en las imágenes radar.
También aparecen como puntos muy brillantes en las imágenes radar los objetos
hechos de metal, ya que es un material que incrementa la reflexión de las microondas.
Ejs.: barcos en el mar, puentes sobre el río, coches, etc.
Reflexión difusa por volumen
La reflexión difusa por volumen (esparcimiento por volumen) está relacionada
con procesos de reflexión múltiple dentro de un medio físico, como un maizal o las
copas de los árboles de un bosque. Este tipo de reflexión también puede ocurrir por
capas de suelo muy seco, capas de arena o hielo.La reflexión por volumen es importante
61
ya que influye en la retro-reflexión total observada por el radar. El radar recibe ambas
señales, la energía reflejada por la superficie y la reflejada por volumen.
Contenido en humedad
La presencia de humedad aumenta la constante dieléctrica de un material. La
constante dieléctrica influye en la capacidad del material para absorber, reflejar y
transmitir la energía de las microondas. Esto hace que la apariencia de materiales
idénticos pueda ser diferente, según la cantidad de humedad que contengan. La
reflectividad, y en consecuencia, la brillantez de la imagen de la vegetación y las
superficies naturales aumenta con el contenido en humedad.
5.DISTORSIONESDEUNAIMAGENRADAR
La dirección de observación de los radares es oblicua. En las fotos aéreas, los
objetos altos se observan desplazados radialmente alejándose del nadir. En las imágenes
de radar la distorsión del terreno es perpendicular a la trayectoria del vuelo o del
satélite, es decir, los objetos más altos se observan desplazados hacia el sensor.
La presencia de relieves modifica el ángulo de incidencia (ángulo que forma la
dirección de observación con la perpendicular al objetivo) de la señal de radar,
transforma la superficie real en superficie proyectada modificando las distancias y
además supone la presencia de sombras.
Sombra
62
La región de la superficie del terreno que no se ilumina por el radar se representa
como sombra en la imagen. Las sombras se presentan detrás de las cumbres, en la
dirección del alcance. Son indicadoras de la dirección de iluminación del radar. El
ángulo de incidencia (que es el ángulo entre la dirección de iluminación y la normal a la
superficie de la Tierra) aumenta al alejarse del radar en la dirección del alcance. Como
resultado, se inducen sombras más prominentes en las regiones más alejadas del radar.
Las sombras también proporcionan información sobre la escena, tal como la altura de un
objeto. Las sombras en las imágenes de radar son una clave importante en la
interpretación del relieve del terreno.
Escorzo
El escorzo consiste en la apariencia de compresión de aquellas características de
la escena que están inclinadas hacia el radar. Los efectos del escorzo disminuyen al
aumentar el ángulo de incidencia. Cuando el ángulo de incidencia se aproxima a 90º los
efectos del escorzo se eliminan prácticamente (aunque en este caso puede presentarse un
sombreado severo). Al elegir el ángulo de incidencia debe considerarse un equilibrio
entre la presencia de escorzo y de sombras en la imagen.
Inversión por relieve
Se produce cuando la energía reflejada por la porción superior de un objeto se
recibe antes que la que proviene de la porción inferior. En este caso, al procesar la
imagen, la parte superior del objeto se verá desplazada, o ‘puesta por encima’ de su
base. En general, la inversión por relieve es más dominante para geometrías de
visualización con ángulos de incidencia pequeños, como los de radares en satélites.
6.PROPIEDADESDELASIMÁGENESRADAR
Desvanecimiento y moteado
Son procesos inherentes, del tipo ‘ruido’, que degradan la calidad de la imagen.
El desvanecimiento se debe a la presencia de varias superficies en una misma célula de
resolución con una diferencia de posición en la dirección del alcance menor a una
longitud de onda.
El moteado aparece con una textura ‘sal y pimienta’. Añade una textura
aleatoria a la textura correspondiente a la escena. Es causado por una interferencia
constructiva y destructiva aleatoria que aparece en la imagen como moteado brillante y
oscuro. La interferencia constructiva produce una señal mayor que la media, resultando
63
en píxeles más claros. La interferencia destructiva produce una señal más baja que la
media, resultando en píxeles más oscuros.
La reducción de este efecto se puede conseguir de 2 formas:
-
Procesamiento de observaciones múltiples
-
Filtrado espacial.
El procesamiento de observaciones múltiples se refiere a la división del haz de
radar en varios sub-haces más estrechos. Cada una de estas observaciones también
estará sujeta a moteado, pero sumando y promediándolas todas para formar la imagen
final, se reduce la cantidad de moteado. Este procesamiento de observaciones múltiples
es hecho normalmente durante la adquisición de los datos.
Mientras que el filtrado espacial se realiza sobre la imagen final, en un entorno
de análisis de imágenes. .
7.ECUACIÓNRADAR
La ecuación radar proporciona una explicación de los parámetros del sistema, la
geometría de propagación y las propiedades de la superficie que determinan la potencia
de retorno del radar. La ecuación radar presentada es simplística porque no incluye los
efectos de polarización.
Cuando la energía es transmitida en el espacio en todas las direcciones, la
densidad de potencia (potencia por unidad de área) se define por la potencia transmitida
(PT) dividida por la superficie de una esfera con un radio igual a la distancia de alcance?
(RT) o 4R2T.
Power density at range R 
PT
4R 2T
Sin embargo, los radares de iluminación lateral dirigen o concentran la energía
centrando o incrementando la potencia en la dirección deseada. Este incremento de
potencia se conoce como ganancia (G) de la antena (GT). La ecuación que define la
densidad de potencia en la superficie es
PS 
PTG T
4R 2T
La cantidad total de energía interceptada por el objetivo es proporcional a la
superficie de este objetivo (AS). Alguna de la energía recibida por el objetivo es
absorbida () y el resto es reflejada (1-). El objetivo actúa como un transmisor que
radia energía en alguna dirección relacionada con el tamaño y la geometría del objetivo.
64
Esta dirección puede tener alguna ganancia gs hacia el sistema radar. Estos factores son
combinados en un único parámetro denominado ‘radar cross-section’ ().
=AS(1-)gS
La potencia total redireccionada hacia el receptor viene dada por
PT G T
( )
4RT2
La energía de retorno debe viajar la distancia desde el objetivo al receptor (RR),
por lo que para determinar la densidad hay que dividir nuevamente por 4R2R
 1 
PT G T

( )
2
2 
4RT
 4R R 
Para definir la potencia total recibida por el sensor se introduce un nuevo
parámetro, la apertura efectiva A o el área de la antena que actúa como receptor AR.
PR 
 1
PT G T

(
)

2
4RT2
 4R R

( A R )

Esta es la ecuación radar. La potencia total recibida es directamente
proporcional a la potencia transmitida (PT) e inversamente proporcional a la distancia.
Esta ecuación pone de manifiesto que la relación entre la señal recibida por la antena y
la transmitida es función de la ganancia, de las dimensiones de la antena, de la longitud
de onda utilizada, de la sección eficaz de la superficie iluminada y de la distancia que la
separa del sensor.
8.TIPOSDERADARES
El Convair-580 C/X SAR del Centro canadiense de teledetección, su objetivo
era la investigación experimental en aplicaciones de los sensores SAR, como
preparación a los futuros SAR para satélites. Es un radar plenamente polarimétrico en
las dos bandas. Ángulos de incidencia, de 5 a casi 90º.
Otro radar de avión es el STAR (Sea Ice and Terrain Assessment), también
canadiense, que fue de los primeros usados comercialmente en el mundo. Fue diseñado,
en un principio, para el seguimiento del hielo en el mar, y para análisis del terreno.
El radar AirSAR de la NASA, un avanzado SAR polarimétrico, que puede
recoger datos de las 3 bandas en todas las posibles combinaciones de polarización y con
un gran rango de ángulos de incidencia. .
65
Tras los avances y el éxito de los radares en aviones, el siguiente paso fue los
radares en satélites para complementar a los sensores ópticos. El SEASAT fue lanzado
en 1978, fue el primer satélite civil en llevar un sensor SAR. Esta geometría fue
diseñada en principio para observaciones del océano y los icebergs, pero al final
también se recogieron imágenes de zonas terrestres. Sin embargo, los pequeños ángulos
de incidencia provocaban escorzo e inversión del relieve en terrenos de gran relieve,
limitando su utilidad en estas zonas. Aunque este satélite sólo fue operacional 3 meses,
demostró la gran riqueza de la información que podía proporcionar un radar en satélite.
Estos éxitos llevaron a la Agencia Espacial Europea (ESA) a lanzar el ERS-1 y
ERS-2. Se diseñó en principio para aplicaciones de seguimiento de los océanos pero
también se ha empleado en gran número de aplicaciones en entornos terrestres. Aunque
sus ángulos de incidencia limitan su utilidad para algunas aplicaciones terrestres debido
a los efectos de la geometría. Los sensores de ERS-1 y ERS-2 puede funcionar
conjuntamente para proporcionar pares de imágenes para interferometría.
Después del ERS-1, la Nacional Space Development Agency de Japón lanzó el
satélite JERS-1. Produce imágenes con sombras ligeramente mayores que el SEASAT o
el ERS, porque el ángulo de incidencia es mayor, 35º. Pero, como consecuencia
también, las imágenes de este satélite son menos susceptibles a los efectos del terreno y
las geometrías. Además al usar la banda-L, con mayor longitud de onda, permite alguna
penetración a través de la vegetación y otros tipos de superficies.
Posteriormente, la agencia espacial canadiense lanzó el RADARSAT (1995),
que lleva un SAR de banda-C y polarización HH, con rangos que pueden variar de 35 a
500 km, con resoluciones de 10 a 100 m. Lo cual permite una cierta flexibilidad en la
resolución espacial, que también es posible en el ángulo de incidencia.
9.LIDAR
En instrumentos LIDAR aerotransportados, la distancia del sensor a cualquier
superficie reflexiva por debajo de la plataforma se determina midiendo el tiempo
transcurrido entre la generación del impulso y el retorno del mismo. Estos datos del
láser se combinan con la posición y orientación de la plataforma durante un postproceso para crear una nube de puntos georreferenciada que, esencialmente, constituyen
un modelo digital 3D de la superficie que se encuentra por debajo de la plataforma
utilizada.
66
Una técnica alternativa al método básico del láser en tiempo de vuelo consiste en
registrar toda la señal de retorno de los impulsos emitidos por el láser. La diferencia
entre estas dos propuestas se ve en la figura 1. Al capturar toda la señal, se obtiene
información detallada sobre la estructura vertical completa dentro del trazado del láser,
e incluso se puede registrar la topografía del terreno aunque exista una cubierta vegetal
que ofrezca escasa transparencia. Desde el punto de vista comercial y de producción
cartográfica, el hecho de poder determinar la superficie de la tierra por debajo de una
cubierta vegetal es interesante.
La denominación LIDAR aerotransportado se refiere a un equipo que consta de
un distanciómetro láser y de un espejo que desvía el haz de luz perpendicularmente a la
trayectoria del avión. Este desplazamiento lateral combinado con la trayectoria de
vuelo, permite realizar un completo barrido del terreno.
El sistema mide la distancia del sensor al terreno a partir del tiempo que tarda el
rayo de luz en alcanzar el suelo y regresar al sensor. Si se conocen las coordenadas y
ángulos del avión y del espejo, podemos calcular a partir de estos datos y de las
distancias medidas las coordenadas de los puntos.
El LIDAR funciona como un radar ordinario, solo que emite pulsos de luz en
vez de ondas de radio. El escáner está constituido por un transmisor láser que genera
pulsos ópticos, estes al entrar en contacto con un objeto son reflejados y recogidos a
través de un receptor óptico-electrónico. La velocidad de la luz es conocida, y un
contador de alta velocidad mide el tiempo de vuelo desde el inicio del pulso hasta el
momento en que es devuelto y finalmente este es convertido en la distancia desde el
escáner hasta el objeto.
El LIDAR aerotransportado trabaja en combinación con un sistema de GPS
diferencial (DGPS) y un sistema inercial de navegación (INS). EL DGPS calcula de
modo diferencial la posición de la aeronave en la tierra obteniendo precisiones
inferiores a 10 cm. Por otro lado, el INS informa de los giros del avión y de su
trayectoria.
Combinando la información del GPS y el INS y aplicando las técnicas
avanzadas de filtrado, se determina la posición y altitud precisas.
El procesado de la información de la posición de los puntos es realizado por una
unidad de grabación que combina las distancias medidas, el ángulo del espejo, la
posición del GPS y la información dada por el INS para cada pulso, y realiza una serie
67
de transformaciones haciendo la rotación y translación del alcance del láser desde la
coordenada local del avión hasta las coordenadas WGS84.
El conjunto de puntos con coordenadas conocidas, según el sistema, puede llegar
a 50000 puntos por segundo, desde una altitud máxima de 3000 m sobre el térreno. Para
cada pulso emitido se pueden detectar varios ecos, y para cada uno de ellos se registra
también la intensidad reflejada, proporcionando las alturas del terreno y las de la
vegetación.
El ángulo y la frecuencia del barrido lateral se pueden ajustar teniendo en cuenta
la altitud sobre el terreno y la velocidad del avión, de forma que la densidad de puntos
sobre el terreno sea la deseada. También es posible variar la divergencia del haz de luz
con lo que el diámetro de la superficie iluminada por cada pulso puede variar entre 20 y
100 cm dependiendo de la altitud de vuelo. Hay una serie de fórmulas para realizar estos
cálculos.
Actualmente ya existe un número considerable de sistemas comerciais LIDAR
en el mercado. Los parámetros de altura de vuelo, ángulo del haz, velocidad de escáneo,
velocidad de vuelo, etc., son determinantes para la densidad de puntos que se pretende.
Por lo tanto, será necesario planear cuidadosamente un vuelo según el tipo de proyecto,
atendiendo a los objetivos específicos de este.
La precisión de los datos depende de la configuración específica del sistema
LIDAR. Hoy en día se exigen precisiones verticales de por lo menos 15 cm y 0,3-1 m
horizontalmente. Algunos estudios revelan que se pueden alcanzar errores verticales
inferiores a 10 cm a una altitud baja de vuelo (p ej a 400 m).
La regulación de la densidad de puntos y el control de diversos parámetros
permiten detectar pequeñas diferencias en la altura y estructura de los puntos; identificar
el modelo del terreno en zonas densamente arboladas, aumentar la productividad de
generación del MDE en áreas elevadas, reducir el esfuerzo de post-proceso en suelos
descubiertos, y disminuir las dependencias sobre las condiciones atmosféricas, así como
reducir al máximo los trabajos de campo.
En el procesamiento de datos Lidar se distinguen 4 etapas en el proceso de
datos; cálculo de la trayectoria y orientaciones del sensor mediante el GPS diferencial y
el INS, generación de los archivos de puntos con coordenadas, clasificación de los
puntos y generación de modelos a partir de los puntos clasificados.
Al final de una campaña LIDAR se obtiene una colección de puntos con
coordenadas conocidas. Los puntos estarán situados tanto sobre el terreno como sobre
68
los objetos que se encuentran sobre él; vegetación, edificios, vehículos, etc. Para que
estos datos sean útiles es preciso clasificarlos o filtrarlos. Como el número de puntos es
muy grande es necesario disponer de herramientas para realizar la clasificación
automática de estos puntos. Para clasificar los puntos se puede utilizar su altura, la
intensidad reflejada,... Existen diferentes algoritmos para obtener el modelo digital del
terreno, MDT, pero todos se basan en la selección de los puntos más bajos en un
entorno.
69
TEMA11:TRATAMIENTOSPROPIOSDEIMÁGENESRADAR
1.REALCERADIOMÉTRICO
Métodos para mejorar las características radiométricas de una imagen, usando
filtros de reducción del moteado, filtros de realce espacial y mejoras visuales.
Reducción del moteado
El moteado es el factor dominante en las imágenes radar. Las imágenes
procesadas con pocas ‘observaciones’ presentan una distribución de las intensidades
muy asimétricas, debido al ruido asociado al moteado. Debido al moteado los píxeles se
agrupan en los límites extremos de la distribución de intensidades.
Normalmente se realiza una la reducción del moteado para mejorar el realce de
la imagen y los resultados de la clasificación. Para reducir el moteado se pueden usar los
filtros no adaptativos o preferentemente filtros adaptativos. Los filtros adaptativos
tienen en cuenta las propiedades locales de la retro-reflexión difusa del terreno, mientras
que los filtros no adaptativos no lo hacen.
El hecho de filtrar el moteado permitirá:
-
Una mejor identificación de los objetivos o blancos de una escena
-
Una segmentación automática de la imagen más fácil
-
La aplicación de las herramientas clásicas para el realce desarrolladas para
imágenes de sensores ópticos, tales como: detectores de bordes, clasificadores de
texturas y clasificadores en base a los píxeles.
Un filtro ideal para reducir el moteado debería reducir el moteado con una
pérdida mínima de información. En las áreas homogéneas, el filtro debería preservar la
información radiométrica y los bordes entre distintas áreas. En las áreas con cierta
textura, el filtro debe preservar la información radiométrica y la variabilidad de la señal
espacial, es decir, la información de textura.
Los filtros existentes para reducir el moteado se dividen en filtros de paso bajo
(filtro por la media y la mediana) y filtros adaptativos (filtro de Lee, de Frost, map
gamma,…):
Filtros de paso bajo.
Los filtros de paso bajo pueden utilizarse en imágenes SAR con áreas
relativamente homogéneas.
70
Un filtro de paso bajo básico es el filtro por la media, el cual reemplaza el valor
del píxel central en una ventana de tamaño fijo con el promedio del valor original de
éste y los demás píxeles dentro de la ventana. El filtro por la media degrada la
resolución de la imagen, por lo que tiene que decidirse entre reducción de ruido y
conservar los detalles finos y textura de la imagen.
El filtro por la mediana es un filtro suavizante de paso bajo no lineal, en el cual
el valor de cada píxel es reemplazado por la mediana de los niveles de gris en el entorno
del píxel. Este filtro está limitado porque no preserva detalles finos de la imagen por
ejemplo, sus bordes.
Filtros adaptativos
La técnica de filtrado utilizada más frecuentemente son los filtros adaptativos.
Este tipo de técnica puede usarse en áreas en las que se requiera conservar algunos
detalles y textura de la imagen. Algunas versiones de filtros de moteado adaptativos
usan una ventana de tamaño fijo, centrada en el píxel. Por un lado, se puede seleccionar
una ventana grande para minimizar la varianza de las estimaciones de los estadísticos
locales. Pero por otro lado, una ventana de tamaño grande podría incrementar la medida
de heterogeneidad local, de tal forma que la reducción del ruido se debilite. En estos dos
esquemas, debe decidirse entre la reducción del ruido y la capacidad de detectar los
detalles finos de la imagen. Diversos estudios han demostrado que los filtros adaptativos
y los detectores de bordes consiguen mejores clasificaciones que los filtros no
adaptativos.
Los filtros adaptativos (ej Map Gamma) reducen el moteado al mismo tiempo
que conservan los bordes. Estos filtros modifican la imagen basándose en estadísticas
extraídas del entorno local de cada píxel.
La mayoría de los filtros adaptativos requieren el cálculo del promedio local
observado y de la desviación estándar normalizada (coeficiente de variación). El filtro
adaptativo proporciona una estimación precisa del coeficiente de retro-reflexión de
áreas homogéneas (estacionarias). Además, conserva la estructura de los bordes y de la
textura en escenas no estacionarias.
Filtro Frost
Es un filtro simétrico circular donde el valor de gris resultante para el píxel
suavizado es
71
( p m  p 2 m 2  ...  p n m n )
x(t )  1 1
( m 1  m 2  ...  m n )
donde p1, …, pn son los niveles de gris de cada píxel en la ventana de filtrado, y m1,…,
mn son los pesos asociados a cada píxel. Estos pesos se obtienen de la siguiente forma
m(t)=exp(-A|t|)
donde A está dada por
Var ( z ) 

A  K 
2 
z
(
t
)


donde t es la distancia del píxel central a sus vecinos, var(z) es la varianza y z-(t)2 es el
cuadrado del nivel de gris medio dentro de la ventana de filtrado, K es un factor de
amortiguamiento que depende de la imagen no filtrada y puede requerir realizar
experimentos de prueba para determinar su mejor valor. El valor por omisión es 1.
En regiones uniformes, el filtro de Frost actúa como un filtro por la media. En
regiones heterogéneas, actúa como un filtro de paso alto. De esta forma, el filtro
suavizará las regiones homogéneas y removerá el moteado, mientras que los bordes de
contraste alto y otros objetos conservarán su valor.
Filtro Lee
El valor del píxel sin moteado es la suma ponderada del valor del píxel central y
del valor promedio. El coeficiente de ponderación es función de la heterogeneidad local
del terreno medida en términos del coeficiente de variación. El filtro lee también
minimiza la pérdida de información radiométrica y textural. El algoritmo de filtrado está
dado por
xˆ (t )  z (t ) W (t )  z (t )  (1 W (t ))
donde
t es la coordenada del píxel
x(t) es el píxel filtrado
z(t) es el píxel observado en la imagen (es el píxel central dentro de la ventana de
filtrado)
z-(t) es la media de la intensidad dentro de la ventana de filtrado
w(t) es la función de pesos, que está dada por
C v2
W (t )  1  2
C I (t )
72
donde CV es el coeficiente de variación del ruido y CI es el coeficiente de variación del
conjunto de datos, que a su vez están dados por
Cv 
v
v
donde v es la desviación estándar del ruido y v- es la media del ruido
C I (t ) 
 (z )
z (t )
(z) es una aproximación de la desviación estándar de la imagen, obtenida mediante la
desviación estándar de los píxeles dentro de la ventana de filtrado.
En una región homogénea el valor de la salida filtrado es un promedio lineal de
los píxeles de su vecindad, mientras que en regiones extremadamente concurridas, la
salida llega a ser el mismo valor del píxel de entrada. Aunque el filtro de Lee puede
preservar los bordes, el uso de ventanas muy grandes produce una pérdida de detalles en
la imagen. Los filtros de Lee y Frost funcionan de manera similar.
Filtro de Kuan
Tiene la misma forma que el filtro de Lee pero la función de peso está dada por
1  C v2 /C I2 (t )
w (t ) 
1  C v2
Filtro MAP Gamma
Se basa en la suposición de que la intensidad (sin moteado) de la escena tiene
una distribución gamma. Este filtro minimiza la pérdida de información textural aún
mejor que los filtros frost y lee en el caso de escenas con distribución Gamma, como
áreas arboladas, agrícolas y océanos.
Para aplicarlo se requiere un conocimiento a priori de la función de probabilidad
de la escena. Se asume que la reflectividad de la escena tiene una distribución gamma y
se establecen dos umbrales, Cu y Cmaz.
Algoritmo:
El nivel de gris resultante (R) para el píxel suavizado es:
R=I
para Ci menor o igual a Cu
R = (B*I + SQRT(D))/(2*ALFA)
para Cu < Ci < Cmax
R = CP
para Ci mayor que o igual a Cmax
donde:
73
NLOOK = Número de observaciones
VAR = Varianza en la ventana del filtro
CP = Valor de nivel de gris del pixel central
I = Nivel de gris medio en la ventana del filtro
Cu = 1/SQRT(NLOOK)
Ci = SQRT(VAR) / I
Cmax = SQRT(2)*Cu
ALFA = (1+Cu^2)/(Ci^2-Cu^2)
B = ALFA-NLOOK-1
D = I*I*B*B+4*ALFA*NLOOK*I*CP
Es decir, se distinguen 3 tipos de regiones según su heterogeneidad, cuando Ci es menor
o igual a Cu son regiones homogéneas por lo que el filtro devuelve el valor promedio,
cuando Ci es mayor o igual a Cmax, son regiones heterogéneas por lo que devuelve el
mismo valor de entrada, y entre Cu y Cmax son regiones intermedias por lo que
devuelve un valor intermedio.
Filtros de tamaño de ventana adaptativa
En estos filtros el tamaño de la ventana se ajusta automáticamente dependiendo
de las características de la región. Considera dos clases de reflectividad del terreno: la
clase homogénea, que corresponde a las zonas en las cuales los píxeles son constantes y
la clase heterogénea, que corresponde a las áreas con textura, bordes o algún punto
objetivo que se busque dentro de la imagen. La homogeneidad del terreno puede
estimarse a partir del coeficiente de variación, el cual está en función de la media y
desviación estándar de z(t) de la siguiente manera:
C 
z
z (t )
Si C es menor o igual a la desviación estándar del ruido, la zona se considera
homogénea, en caso contrario se considera heterogénea.
En este algoritmo de ventana adaptativa se determina el tamaño de ventana más
adecuado; en una región homogénea, incrementa el tamaño de la ventana siguiente y en
74
regiones heterogéneas, lo reduce (esto dentro de unos límites máximo y mínimo
establecidos). Una vez que se ha determinado el tamaño de ventana más adecuado para
ese píxel se efectúa un filtro adaptativo (uno de los anteriores) para reducir el moteado.
Esta técnica elimina el problema de la mayoría de filtros de moteado adaptativos: el de
definir un tamaño de ventana fijo adecuado para toda la imagen.
Es decir, el valor del píxel sin moteado se estima mediante una subventana de la
ventana de procesamiento. El tamaño de la subventana varía en función de la
heterogeneidad local del terreno medida en términos del coeficiente de variación.
Cuanto mayor sea el coeficiente de variación más estrecha será la subventana de
procesamiento. Esto minimiza la pérdida de información radiométrica y textural.
Detección de bordes
La detección de bordes y de líneas son operaciones importantes en el
procesamiento digital de imágenes. Por ejemplo, en cartografía geológica interesa trazar
líneas, que pueden ser líneas de falla o estructuras estratificadas. Para este propósito, la
detección de bordes y de líneas son las principales técnicas de realce.
Los detectores de borde clásicos (ej Sobel) desarrollados para las imágenes de
los sensores ópticos, no son adecuados para las imágenes de SAR. Debido al moteado
estos filtros detectan más bordes falsos. Antes de usar estos detectores clásicos las
imágenes deben ser filtradas.
El Detector de Proporción de Bordes es apropiado para las imágenes de SAR y
no requiere prefiltrado, de modo que no se pierde información durante la fase de
prefiltrado. El detector de proporción de bordes es la proporción del promedio de los
valores del píxel en dos vecindades que no se sobreponen, situadas en los lados
opuestos del punto.
El nombre en inglés de este filtro es Likelihood Ratio Edge Detector, en el cual
la imagen es modificada usando una ventana móvil hecha de dos regiones R1 y R2 del
mismo tamaño n/2. Para cada localización, píxel (x,y), de la ventana, la expresión del
filtro es:
 m (t )  m 2 (t ) log m 1 (t )  log m 2 (t ) 

x (t )  n  log 1

2
2


donde t es la coordenada del píxel, x(t) es el píxel filtrado, n es el tamaño de la región 1
más la 2, m1 y m2 son las medias empíricas estimadas en las regiones R1 y R2.
75
Este filtro es óptimo para la detección de bordes porque da la mejor
compensación entre la probabilidad de detección de un borde y la probabilidad de una
falsa alarma. Sin embargo, este filtro es usado principalmente para extraer la
localización de los bordes cuando son los valores máximos de la imagen. Algunos
autores dicen que este filtro da errores en determinadas situaciones.
2.ANÁLISISDETEXTURA
La textura es la variación espacial de los tonos de una imagen. En una imagen
SAR, la textura tiene dos componentes: 1) variabilidad espacial en las propiedades de
reflexión difusa de la escena, 2) moteado.
Se han sugerido variables de textura basadas en estadísticas de primer orden
(media, desviación estándar, varianza) y estadísticas de segundo orden (basadas en la
matriz de co-ocurrencias).
Las medidas texturales de primer orden son calculadas a partir de los valores de
gris originales de la imagen y su frecuencia. En estas medidas no se considera la
relación entre los píxeles.
Las medidas de segundo orden son las que consideran la relación de coocurrencia entre grupos de dos píxeles de la imagen original y a una distancia dada.
Las medidas de tercer y más orden consideran las relaciones entre 3 y más
píxeles. Si bien su cálculo es teóricamente posible, no se implementan pues requieren
mucho tiempo de cálculo y su resultado es de difícil interpretación.
Medidas de primer orden
Aunque la textura ha sido típicamente una medida cualitativa, esta puede
mejorarse con algoritmos matemáticos. Algunos de estos algoritmos son:
-
distancia media euclidiana
-
varianza
-
oblicuidad
-
curtosis
La distancia media euclidiana viene dada por
  ( x c   x ij )2 
n 1
1/ 2
xij es el valor del ND para la banda espectral l y píxel (i,j) de una imagen multiespectral
xc es el valor del ND para la banda espectral l del píxel central de la ventana
76
n es el número de píxeles en la ventana
 x
La varianza
ij
 M 2
n 1
donde xij es el valor del ND del píxel (i,j), n es el número de píxeles en la ventana y M
es la media de la ventana móvil
La oblicuidad igual a
 x
ij
 M 3
( n  1)(V )3 / 2
donde xij es el valor del ND del píxel (i,j), n es el número de píxeles de la ventana, M es
la media de la ventana móvil y V es la varianza
 x
La kurtosis es igual a
ij
 M 4
( n  1)(V )2
donde xij es el valor del ND del píxel (i,j), n es el número de píxeles en la ventana, M es
la media de la ventana móvil y V es la varianza.
Medidas de segundo orden
La suposición es que la información textural de una imagen está contenida en la
relación espacial que los tonos de grises tienen entre ellos. Estas relaciones están
especificadas en la matriz de co-ocurrencia espacial (o de niveles de grises).
El método más común para medir la textura está basado en la Matriz de coocurrencia del nivel de gris (Grey Level Co-Ocurrence Matriz, GLCM). Esta matriz es
un histograma de los niveles de grises de dos dimensiones para un par de píxeles (píxel
de referencia y píxel vecino). La matriz de co-ocurrencia describe la frecuencia de un
nivel de gris que aparece en una relación espacial específica con otro valor de gris,
dentro del área de una ventana determinada.
En el ejemplo mostrado a continuación se toman los valores de gris de la imagen
en su totalidad para realizar los cálculos, dando como resultados un solo valor. Cuando
se trabaja con imágenes de mayores dimensiones se utiliza el procedimiento, que ya
vimos, de ventanas móviles.
0
0
1
1
0
0
1
1
77
0
2
2
2
2
2
3
3
La matriz de co-ocurrencia considera la relación espacial entre 2 píxeles,
llamados píxel de referencia y píxel vecino. P ej, si se escoge el píxel vecino que está
situado un píxel a la derecha de cada píxel de referencia, esto se expresa como (1,0): 1
píxel en la dirección x, 0 píxel en la dirección y. Se pueden utilizar diferentes relaciones
entre píxeles, p ej (-1,0) un píxel a la izquierda del píxel de referencia, (1,1) un píxel a la
derecha y un píxel abajo (en diagonal).
Vamos a utilizar un píxel de separación, pero cuando la ventana es
suficientemente grande se puede usar una separación mayor sin que haya diferencias en
la metodología de cálculo. La distancia de muestreo se selecciona en base al grosor o la
finura de las texturas presentes en la imagen. Para texturas finas sería óptima una
distancia corta de muestreo, mientras que para imágenes de textura grosera sería más
apropiada una distancia mayor. Una distancia de 1 píxel suele ser válida para
caracterizar diferentes grados de textura. Por lo tanto, vamos a calcular la matriz de coocurrencia (1,0) para la imagen prueba. Las posibles combinaciones de niveles de grises
para la imagen de prueba se presentan en esta tabla
(0,0) (0,1) (0,2) (0,3)
(1,0) (1,1) (1,2) (1,3)
(2,0) (2,1) (2,2) (2,3)
(3,0) (3,1) (3,2) (3,3)
La primera celda debe ser llenada con la cantidad de veces que ocurre la
combinación 0,0. Cuantas veces en el área de la ventana un píxel con valor de gris igual
a 0 (píxel vecino) está situado a la derecha de otro píxel con valor 0 (píxel de
referencia). Por lo tanto existen tantas matrices de co-ocurrencia como relaciones
espaciales, según se considere el vecino de arriba, el del costado o en diagonal.
Por lo tanto, la matriz de co-ocurrencia para la relación espacial será (1,0)
2
2
1
0
0
2
0
0
0
0
3
1
0
0
0
1
En esta matriz se cuenta cada píxel de referencia con su vecino de la derecha.
Pero el número de veces que aparece la combinación 2,3 no es el mismo que el que
78
aparece la combinación 3,2, por lo tanto la matriz no es simétrica respecto a la diagonal.
La simetría necesaria para el cálculo se logra si cada par de píxeles se cuenta dos veces,
una vez a la derecha y otra a la izquierda.
La forma más sencilla de obtener una matriz simétrica, en vez de contar dos
veces, es sumarle a esta matriz su matriz traspuesta. La matriz traspuesta se logra
intercambiando las filas y columnas de la matriz original.
2
2
1
0
0
2
0
0
0
0
3
1
0
0
0
1
2
0
0
0
2
2
0
0
1
0
3
0
0
0
1
1
4
2
1
0
2
4
0
0
1
0
6
1
0
0
1
2
+
=
Una vez obtenida la matriz simétrica, el paso siguiente es expresar esta matriz
como probabilidad. La definición más simple de la probabilidad es ‘el número de veces
que un evento ocurre, dividido por el número total de posibles eventos’:
P i,j 
V i,j
N 1
V
i , j 0
i,j
donde i es el número de filas y j el de columnas, V es el valor de la celda i,j de la
ventana, Pi,j es la probabilidad de la celda i,j y N es el número de filas o columnas.
En la imagen de prueba el número total de posibles pares es 12, y para una
relación horizontal este número se duplica, 24. P. ej., la combinación 2,2 ocurre 6 veces
79
sobre 24 posibles, por lo que la probabilidad es 0,25. Esta ecuación transforma la matriz
de co-ocurrencia en una aproximación de tabla de probabilidad. Este proceso se
denomina normalización de la matriz. Se obtiene esta tabla, donde la suma de todos los
elementos debe ser 1.
0,166 0,083 0,042 0
0,083 0,166 0
0
0,042 0
0,25
0,042
0
0,042 0,083
0
En general, cuanto mayor es el número de la diagonal de la matriz de coocurrencia, más homogénea es la textura en esa parte de la imagen que está siendo
analizada. De esta matriz se pueden destacar una serie de aspectos:
 Los elementos de la diagonal representan pares de píxeles que no tienen
diferencias en su nivel de gris.
 Sumando los valores de la diagonal tenemos la probabilidad de que un píxel
tenga el mismo nivel de gris que su vecino.
 Las líneas paralelas a la diagonal separadas una celda representan los pares de
píxeles con una diferencia de 1 nivel de gris. De la misma manera, sumando los
elementos separados dos celdas de la diagonal, tenemos los pares de píxeles con
dos valores de grises de diferencia. A medida que nos alejamos de la diagonal la
diferencia entre niveles de grises es mayor.
 Sumando los valores de estas diagonales paralelas obtenemos la probabilidad de
que un píxel tenga 1,2,3 etc niveles de grises de diferencia con su vecino.
Esta suma de las diagonales se denomina vector de diferencia de nivel de gris,
GLDV Grey Level Difference Vector, que también es utilizado como una medida
textural en vez de la GLCM. De esta matriz pueden derivarse diferentes medidas
texturales:
Homogeneidad
Se calcula mediante esta ecuación
N 1
P
i , j 0
i,j
/1  ( i  j )2
siendo P la probabilidad de co-ocurrencia de los valores de gris i y j para una distancia
dada. Así para los píxeles de referencia y vecino =0,0, el resultado es 0,166/1+(00)2=0,166. Para el elemento (0,1) tenemos 0,083/1+(0-1)2=0,0415. Sumando el
80
resultado para todos los elementos obtenemos el valor de la medida de Homogeneidad
para esta imagen y esta relación espacial.
Una forma más fácil de calcularlo es multiplicando la matriz de probabilidades
por la matriz de pesos. Estos pesos surgen de la ecuación anterior suponiendo una
probabilidad igual a 1.
Pesos
1
0,5
0,2
0,1
0,5
1
0,5
0,2
0,2
0,5
1
0,5
0,1
0,2
0,5
1
0,166 0,042 0,08
0
0,042 0,166 0
0
0,08
0
0,25
0,021
0
0
0,021 0,083
Suma de todos los elementos=0,807
Sumando todos los elementos de la matriz resultante obtenemos el valor de la
medida de homogeneidad. La homogeneidad es alta cuando la matriz de co-ocurrencia
se concentra a lo largo de la diagonal.
Contraste
Es lo opuesto a la homogeneidad, es decir, es una medida de la variación local
en una imagen. Tiene un valor alto cuando la región dentro de la escala de la ventana
tiene un alto contraste.
N 1
P
i , j 0
i,j
( i  j )2
La matriz de pesos toma valores que crecen exponencialmente a medida que nos
alejamos de la diagonal.
Disimilaridad
Es similar al contraste, es alta cuando la región tiene un contraste alto
N 1
P
i , j 0
i,j
|i  j |
Los pesos de la matriz de pesos crecen linealmente a medida que nos alejamos
de la diagonal.
GLCM media
81
La ecuación para su cálculo es la siguiente.
N 1
 iP
i , j 0
i,j
Esta GLCM media es diferente a la media aritmética de los valores de grises de
la ventana, ya que el valor del píxel no es ponderado por su frecuencia sino por la
frecuencia de su co-ocurrencia en combinación con un determinado valor del píxel
vecino.
Desviación standard
Es la desviación estándar de los niveles de grises en la ventana.
 i2 
N 1
P
i , j 0
i,j
( i   i )2
Esta medida se basa en la media y la dispersión alrededor de la media de los
valores de las celdas de la matriz de co-ocurrencia. No es igual a la varianza de los
niveles de grises de la imagen original porque utiliza la varianza de la combinación
entre píxeles de referencia y vecinos.
Entropía
Es alta cuando los elementos de la matriz de co-ocurrencia tienen relativamente
valores iguales. Es baja cuando los elementos son cercanos a 0 o 1.
N 1
 P
i , j 0
i,j
ln(P i , j )
Cuanto más pequeño sea el valor de Pij, es decir, que la ocurrencia de esa
combinación de píxeles es poco común, el valor absoluto de ln(Pij) será mayor.
Correlación
 ( i   i )( j   j ) 
P
 i,j 

i , j 0
( i2 )( i2 ) 

N 1
El resultado es entre -1 y 1.
Esta ecuación se calcula de forma diferente a las anteriores medidas, por lo cual
la información que suministra es esencialmente distinta, por lo tanto puede ser usada en
combinación con otra medida textural. La correlación es más alta cuanto más
homogénea es la textura.
ASM Angular Second Moment
N 1
P
i , j 0
2
i,j
82
Esta medida da valores altos cuando la matriz de co-ocurrencia tiene pocas
entradas de gran magnitud, y es baja cuando todas las entradas son similares. Es una
medida de la homogeneidad local. También se usa como medida textural la raíz
cuadrada de esta ASM, que se denomina energía o uniformidad.
b es la imagen orinal y d y c las texturas de Homogeneidad derivadas de tamaños de
ventana de 5*5 y 25*25.
Se observa que el cuerpo de agua, que es una región homogénea de la imagen,
adquiere valores altos, representados en blanco. Ocurre lo mismo en algunos lotes
agrícolas grandes. En cambio, en la región ubicada al SO del cuerpo de agua, donde la
cobertura del suelo es muy heterogénea, los valores son bajos, sobre todo para la venta
de 25 píxeles de lado.
Todas estas imágenes de segundo momento angular, entropía, contraste o
correlación, se pueden emplear como bandas adicionales en los procesos de
clasificación.
3.TÉCNICASAVANZADAS
INTERFEROMETRÍA
Los datos de radar proporcionan una información rica que no se basa sólo en una
imagen derivada de la intensidad sino también en otras propiedades de los datos que
miden características de los objetos. Un ejemplo es la interferometría de radar, un
método de procesamiento avanzado que aprovecha la información de fase de las
83
microondas. La interferometría es el proceso por el cual imágenes radar de la misma
zona de la superficie terrestre son grabadas por antenas en 1)diferentes localizaciones o
2) diferentes tiempos. El análisis de los dos interferogramas resultantes permite una
medida muy precisa de cualquier punto x,y,z del par inteferométrico.
La interferometría SAR se basa en adquirir datos desde dos ángulos diferentes.
Estas dos medidas pueden ser desde dos radares colocados en la misma plataforma
separados por unos pocos metros. Esto recibe el nombre de single-pass interferometry o
interferometría de paso único. El primer SAR interferométrico de paso único es el
Shuttle Radar Topography Misión (SRTM). La interferometría también se puede
obtener usando un único radar que obtiene dos medidas en diferentes pasos de órbita
que están próximos pero se diferencian en un día o algo más. Esta es la metodología
usada por el SIR-C y ERS-1,2, y es llamada multiple-pass o interferometría de paso
repetido.
Los datos SAR interferométricos pueden proporcionar información topográfica
extremadamente precisa, tan precisa como los modelos digitales de elevación derivados
usando técnicas fotogramétricas tradicionales. La precisión puede estar en la escala de
la longitud de onda (X-2.4-3.8 cm, C-3.9-7.5cm, S- 7.5-15cm, L-15-30cm, P-30100cm). Pero además puede funcionar a través de las nubes y de noche.
Las imágenes SAR contienen información de distancia en forma de fase. Esta
distancia es simplemente el número de longitudes de onda de la radiación desde el
sensor a un punto determinado del suelo. Esta información de fase en una sola imagen
SAR está mezclada con ruido de fase debido a otros efectos. Por esta razón, es
imposible extraer justo la distancia de fase desde la fase total de una sola imagen SAR.
Sin embargo, si están disponibles dos imágenes SAR que cubre la misma área desde
puntos de mira ligeramente diferentes, la fase de uno puede ser restada de la fase de otro
para producir la diferencia de distancia de dos imágenes SAR. Esto es porque los otros
efectos de fase para las dos imágenes son aproximadamente iguales y se anulan cuando
son restadas. Lo que queda es una medida de la diferencia de distancia de una imagen a
la otra. A partir de esta diferencia y de la información de la órbita, la altura de cada
píxel puede ser calculada. Esto permite la producción de un Modelo Digital de
Elevaciones (DEM).
Además de información de altura también se puede obtener información sobre el
movimiento de la Tierra, del movimiento de glaciares, parámetros de las olas del
océano, movimientos debido a terremotos, de deslizamientos del terreno. Si se
84
mantienen constantes los ángulos de observación de múltiples adquisiciones de datos,
no habrá sensibilidad a la topografía y la interferometría puede ser usada para extraer
información sobre cosas que cambian en la escena. Así se puede obtener información
sobre la velocidad de los objetos que se mueven entre dos observaciones.
RADARGRAMETRÍA
La radargrametría es la estimación de medidas de distancia y altitud del terreno
para cartografía topográfica a partir de datos radar estereo. Es una alternativa a la
interferometría para calcular la altura del terreno. La elevación del terreno se deriva de
la representación estereoscópica de las imágenes del SAR. La radargrametría utiliza
imágenes tomadas con un paralaje perpendicular a la trayectoria (un paralaje mucho
mayor que el que se utiliza en interferometría).
La radargrametría trata de identificar cuánto se ha desplazado una característica
en una imagen en comparación con una segunda imagen. Las diferencias de paralaje que
pueden ser observadas en dos imágenes superpuestas son convertidas en diferencias de
elevación mediante relaciones geométricas simplificadas.
Generalmente es menos sensitiva que la interferometría. La baja sensibilidad de
la radargrametría proviene del hecho de que se necesita un cambio relativamente grande
en la topografía para mover una característica por un píxel, mientras que el mismo
cambio en topografía causará un cambio de fase de muchos radianes en un
interferograma.
Su limitación principal en SAR proviene del moteado, ya que el patrón de
moteado cambia con el paralaje, de modo que hace difícil correlacionar características
entre las dos imágenes. Además, al adquirir una misma escena desde diferentes
direcciones de observación o ángulos de incidencia, las imágenes resultantes pueden
parecer muy diferentes. Esto puede hacer que la visualización estereoscópica y la
coincidencia de puntos sea más complicada que en las imágenes ópticas.
POLARIMETRÍA
Polarización
La energía no polarizada vibra en todas las posibles direcciones perpendiculares
a la dirección de propagación. Las antenas radar envían y reciben energía polarizada.
Esto significa que el pulso de energía es filtrado de modo que la onda eléctrica vibre en
85
un único plano perpendicular a la dirección de propagación. La señal puede ser vertical
u horizontalmente polarizada.
Una onda es no polarizada si  varía aleatoriamente durante la propagación de la
onda, una onda polarizada tiene un valor constante de  durante la propagación de la
onda. Si =0 es una polarización lineal, es decir, E tiene una dirección fija durante su
propagación.
Cuando la energía transmitida es polarizada en la misma dirección que la
recibida, al sistema se le conoce como de polarización similar. HH cuando la energía
se transmite y recibe horizontalmente polarizada, y VV cuando la energía se transmite y
se recibe verticalmente polarizada.
Si la energía transmitida se polariza en una dirección ortogonal a la recibida, al
sistema se le conoce como de polarización cruzada. HV indica que la transmisión es
horizontalmente polarizada mientras que la recepción es verticalmente polarizada, y VH
al revés.
La reflexión de una onda de radar al chocar con una superficie puede modificar
la polarización, dependiendo de las propiedades de la superficie. Por esta razón, una
superficie puede representarse de forma distinta al recibir ondas con diferente polaridad
mediante un radar polarimétrico. Es decir, la polarización múltiple ayuda a identificar
las características de la superficie reflectora.
Polarimetría
El sistema SAR polarimétrico transmite con dos polarizaciones ortogonales de
modo que se generan 4 canales de datos. Cada uno de estos canales de polarización
tienen sensibilidades diferentes a las diferentes características de las superficies.
Además de grabar la magnitud de la señal retornada para cada polarización, para que un
radar sea polarimétrico tiene que grabar la información de fase de las señales de retorno.
Sino no obtendrá imágenes polarimétricas sino simplemente imágenes con multipolarización. El análisis de las combinaciones de polarización transmitida y recibida
constituye la ciencia de la polarimetría de radar.
Para representar la polarización de una onda se recurre a expresiones complejas
como el vector de Stokes, el vector de Jones o el ratio de polarización, que son función
de la amplitud del campo eléctrico en el eje x y en el eje x y de la diferencia de fase. Las
imágenes con multipolarización pueden analizarse con gráficos de ratios cross-polarized
y co-polarized.
86
Para analizar las imágenes polarimétricas se utiliza:
-
la matriz de dispersión. Es el conjunto de coeficientes de dispersión
polarimétricos. Es difícil obtener información útil de la matriz de dispersión
directamente, por lo que se usan varios métodos para extraer información de la
matriz de dispersión, como los basados en la covarianza, coherencia…
-
las firmas de polarización (polarization signatura) de cada superficie
E y O son la Elipticidad y la Orientación, que determinan la polarización, y P es
la potencial de la señal obtenida para cada polarización para esa superficie
- A partir de la firma de polarización se pueden obtener variables polarimétricas como la
‘pedestal height’
- Otras variables polarimétricas (grado de polarización, extremo del componente
totalmente polarizado, extremo del componente no polarizado, polarización
fraccional,…)
-Técnicas de clasificación específicas para imágenes polarimétricas basadas en esas
variables
87
Descargar