FUNDAMENTOS TEÓRICOS DEL PROCESAMIENTO DE IMÁGENES Y CLASIFICACION 1. Procesamiento de imágenes satelitales y el análisis espacial Las imágenes multiespectrales como las de los satélites Alos, provienen de sensores remotos que captan señales electromagnéticas en bandas o rangos discretos de varias longitudes de onda. Los rangos de longitud de onda conocidos en la naturaleza se ilustran en la Figura 1: Figura 1: Espectro electromagnético La vista humana capta solamente el rango de bandas visibles de energía electromagnética. Los sensores satelitales tienen mayor flexibilidad al incluir otros rangos de energía como los infrarrojos, térmicos, y microondas (radar), permitiendo observar detalles que no se pueden captar con la vista humana. La Figura 2 muestra reflectancias características de ciertos materiales típicos en función de la longitud de onda. Figura 2. Reflectancia típica de distintos materiales 1.1. Correcciones de imágenes Las operaciones básicas de teledetección pueden incluir procesos de visualización y realce de las imágenes. Operaciones más avanzadas involucran procesos de correcciones geométricas, radiométricas y clasificación digital. Las correcciones radiométricas y geométricas de la imagen se hacen con el propósito de preparar los datos para realizar estudios precisos. Los estudios de análisis multi-temporal por ejemplo, requieren alta precisión en la corrección geométrica de la imagen. Las fuentes de error más comunes en la calidad espectral de la imagen son las originadas por el movimiento de la plataforma del satélite que genera cambios en la escala y la descalibración del sensor. Estos son corregidos generalmente en la estación receptora de las señales del satélite. 1.2. Correcciones radiométricas Las correcciones radiométricas modifican los ND originales con el objetivo de acercarlos a una recepción ideal. Generalmente comprenden la restauración de líneas o píxeles perdidos, corrección del bandeado de la imagen (“banding”) y las correcciones de distorsiones causadas por la interacción entre las ondas electromagnéticas y los gases y partículas atmosféricas en suspensión. Estas correcciones atmosféricas no se aplican a imágenes de radar debido a que la atmósfera es transparente a las microondas. 1.3. Correcciones geométricas Las correcciones geométricas en la imagen se hacen con el propósito de orientar la posición de los píxeles a un sistema de referencia. El proceso comprende tres pasos: 1. La localización de puntos de control (GCP) que relacionan los valores de coordenadas a un sistema de referencia. 2. La transformación de las coordenadas de la imagen a algún tipo de coordenada cartográfica (UTM, Latitud-Longitud, etc.), para lo cual se utiliza un modelo matemático de mapeo de las coordenadas de la imagen al sistema de referencia. 3. El remuestreo o reubicación de los píxeles a una nueva posición y asignación del nuevo valor de ND de acuerdo al método de asignación seleccionado (vecino más cercano, bilineal, cúbico). En el caso de que hagamos una corrección del desplazamiento debido al relieve, además de las anteriores correcciones geométricas, tendríamos que tomar en cuenta la elevación del punto, denominada una ortorectificación de la imagen, cuyo producto es una ortoimagen de nuestra zona de interés. 1.4. Mosaicos de imágenes de satélite "Mosaic images", es el proceso de unir imágenes previamente georeferenciadas con los mismos parámetros para formar una imagen más grande (las imágenes tienen una zona en común que permite asociarlas). Para ello deben cumplirse ciertos requisitos: 1. Cada imagen debe estar georeferenciada usando la misma proyección del mapa. 2. Deben tener la misma resolución 2. Clasificación de imágenes 5.5.1. Análisis visual de las imágenes de satélite Si definimos el tono como la percepción diferencial por parte del ojo de los distintos rangos de energía del espectro visible, entonces cada uno de los tonos ó colores básicos puede considerarse como una dimensión de la imagen. El tono es un elemento básico en la interpretación visual de las imágenes ya que, aporta una gran cantidad de información. Los programas actuales de visualización y procesamiento permiten generar imágenes en color compuesto, es decir, la aplicación de un color primario (rojo, verde, azul) a cada banda de la imagen. Si la correspondencia es la natural, la impresión final será parecida a la que percibiría el ojo humano actuando como un sensor. Esto supone aplicar cada color a la banda del sensor que capta aproximadamente el mismo rango de energía que el ojo. El análisis visual se utiliza para la identificación y disposición de los elementos presentes en la imagen y el reconocimiento de formas sobre la base de la experiencia de campo previo. 2.2. Clasificación de imágenes de satélite con eCognition La clasificación se realiza en base a objetos y no a píxeles. Al estar la imagen formada por píxeles, el primer paso en el análisis orientado a objetos es agrupar los píxeles adyacentes mediante técnicas de regiones crecientes, para posteriormente clasificar los objetos extraídos. Con ello el número de parámetros que se pueden valorar aumenta notablemente, permitiendo considerar criterios como el tamaño, la forma, medias de color, máximos y mínimos, proximidad a otros objetos, textura, etc. Al mismo tiempo, la segmentación reduce el número de objetos a clasificar, con lo que el tiempo de procesado también disminuye. En eCognition los píxeles son agrupados en polígonos cuando sus valores en los diferentes productos empleados son semejantes. El grado de similitud varia con la máxima heterogenidad permitida para un objeto en la imagen, definida por el parámetro scale factor. Además se incluye el criterio de homogeneidad que considera el parámetro Compactness que es usado para optimizar el objeto en la imágen en relación la compactación en conjunto, y el Shape que ayuda a evitar la alta fragmantación del objeto imágen. 3. Índice de Vegetación Diferencial Normalizado - NDVI El análisis de la vegetación y la detección de los cambios en los patrones de vegetación son claves para la evaluación y el monitoreo de recursos naturales. De aquí que la detección y la evaluación cuantitativa de la vegetación es una de las aplicaciones principales de la percepción remota para el manejo de recursos ambientales y la toma de decisiones, usando imágenes multiespectrales. Las diversas capas de la vegetación interactúan con la energía solar en las regiones de la banda visible y del infrarrojo cercano del espectro electromagnético. En las regiones visibles, los pigmentos de las plantas (más notablemente la clorofila) causan una fuerte absorción de energía, principalmente para la realización de la fotosíntesis. Los picos de absorción en la mayoría de las hojas están en las áreas del rojo y del azul del espectro visible. En el infrarrojo cercano, en cambio, ocurre una interacción muy diferente. En esta región, la energía no es utilizada para la fotosíntesis, sino que es en gran medida dispersada por la estructura interna de la mayoría de las hojas, conduciendo a una reflectancia alta en la zona del infrarrojo cercano. Es este fuerte contraste entonces, más particularmente entre la cantidad de energía reflejada en las regiones roja e infrarroja cercana del espectro electromagnético, el tema que ha ocupado el foco de atención de una gran variedad de intentos para desarrollar índices cuantitativos de la condición de la vegetación usando imágenes de sensores remotos. El índice de vegetación diferencia normalizada, (NDVI), es una variable que permite estimar el desarrollo de una vegetación sobre la base de la medición, con sensores remotos, de la intensidad de la radiación de ciertas bandas del espectro electromagnético que la misma emite o refleja. El NDVI oscila en un rango de valores de –1 a +1 (para nuestro caso de estudio lo hemos multiplicado por 10,000 para facilitar el análisis). Las mayores concentraciones de biomasa fotosintéticamente activa presentan valores próximos a 1. Los valores negativos de –1 a 0 son elementos de suelos, cuerpos de agua, y nubes. Este es el índice más comúnmente usado porque retiene la habilidad para minimizar los efectos topográficos y a su vez producir una escala de medida lineal. Además, los errores de división por cero son reducidos en gran medida. Dentro del rango de 0 a 1 tendremos diferentes grados de vigorosidad vegetal así como diferentes grados de cobertura de la superficie. El NDVI se calcula: . NDVI = (Banda Infrarroja cercana – Banda roja visible) (Banda Infrarroja cercana + Banda roja visible)