INTRODUCCION A LA PERCEPCION REMOTA OTROS I DE INTER COMENTARIO PREVIO Este texto fue preparado por el Ing.Quím. Tomás Bense como aporte a las Sextas Jornadas de Educación en Percepción Remota en el Ambito del Mercosur y Primeras Uruguayas sobre el mismo tema, evento organizado por SELPER, Capítulo Uruguay en Noviembre de 2007. INTRODUCCION A LA PERCEPCION REMOTA. Galería d imágene Plataform observac Aeropue del mund CONTENIDO Imágene satelitale seguros 1. DEFINICION Y CONCEPTOS FUNDAMENTALES. ¿Qué es resolució 2. NATURALEZA DE LAS RADIACIONES ELECTROMAGNETICAS. Petróleo 3. INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE LOS ESPECTROS. Forestac 4. INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE TERRESTRE. Estudios viabilida 5. INTERACCIONES ATMOSFERICAS. Mercado futuros 6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES. 7. SENSORES. 8. ESTRUCTURA DE LAS IMÁGENES DIGITALES. Cultivo d arroz Nuestra 9. PROCESAMIENTO DE LAS IMÁGENES DIGITALES. Nuestros servicios 10. ALGUNAS APLICACIONES DE LA PERCEPCION REMOTA. ¿Qué es percepció remota? APENDICE I: NOCIONES BASICAS SOBRE SENSORES DE RADAR. APENDICE II: BANDAS ESPECTRALES DE ALGUNOS SATELITES ACTUALES. APENDICE III: BIBLIOGRAFIA SUGERIDA. ¿Qué es imagen satelital? Uso del G 1. DEFINICIONES Y CONCEPTOS FUNDAMENTALES. Estación rastreado Percepcion remota es la ciencia y arte de obtener informacion de un objeto, area o fenomeno a traves del analisis de los datos adquiridos mediante algún dispositivo que no esta en contacto fisico con el objeto, area o fenomeno investigados. Pasturas Los humanos tomamos conocimiento del mundo exterior detectando y midiendo los cambios que los objetos imponen a los campos que los envuelven, según sean éstos electromagnéticos, Monitore incendios acústicos, gravimétricos o magnéticos: bastará poseer el sensor adecuado para cada caso. Desde un punto de vista práctico, más acorde a nuestros fines, podemos restringir la generalidadde este concepto limitándonos a utilizar el término “percepción remota” (o “teledetección”) en conexión con técnicas electromagnéticas de adquisición de información. Si quisiéramos historiar la evolución de la percepción remota deberíamos, en un sentido estricto, retroceder algunos cientos de millones años cuando alguna forma inferior de vida comenzó a diferenciar algunas de sus células volviéndolas fotosensibles, proceso que evolucionó también durante millones de años hasta convertirlas en un sensor altamente sofisticado como el ojo humano. Si bien éste fue y sigue siendo el sensor utilizado en muchas aplicaciones cotidianas de la percepción remota, ya desde el siglo XIX comenzó a ser sustituído por un mecanismo que lo imitaba ofreciendo algunas ventajas como el del registro permanente de lasobservaciones: la cámara fotográfica. Esta fue montada en plataformas tan dispares como palomas y globos aerostáticos en un principio, luego en aviones y en épocas más recientes en las primeras plataformas orbitales. El vertiginoso desarrollo de estas últimas, acompañadas por los avances tecnológicos paralelos llevaron a la situación actual en que innumerables plataformas orbitan la Tierra observándola con sofisticados sensores como escáneres multiespectrales, sensores térmicos infrarrojos, sistemas de radar y laser, etc. La Percepción Remota involucra dos procesos básicos: · Adquisición de datos desde plataformas con sensores adecuados · Análisis de los datos mediante dispositivos visuales o digitales Muchas veces la información así adquirida se complementa con datos de referencia ya existentes de la región en estudio (mapas de suelos, estadísticas de cosechas, planos catastrales, etc.) Toda esta información es usualmente combinada en forma de capas de información en lo que usualmente se denomina un SIG (Sistema de Información Geográfico) o GIS de acuerdo a sus siglas en inglés. FIG 2 Sequías Recursos naturales Cultivo d tabaco 2. NATURALEZA DE LAS RADIACIONES ELECTROMAGNÉTICAS OTROS IT DE INTER Dada la importancia de las radiaciones electromagnéticas en la adquisición de información por PR se justifica estudiar su naturaleza con mayor detalle. La energía electromagnética o energía radiante es una entidad física que se manifiesta bajo dos aspectos complementarios entre sí: el ondulatorio y el corpuscular. La concepción ondulatoria que permite explicar ciertos fenómenos como los de difracción e interferencia interpreta la la radiación como un campo eléctrico y uno magnético oscilando en planos perpendiculares (Fig. 3). El fenómeno ondulatorio posee una doble periodicidad: en el espacio y en el tiempo. La periodicidad espacial determina la longitud de onda Galería de imágenes que es la distancia entre dos puntos consecutivos de igual amplitud del campo eléctrico o magnético. El intervalo de tiempo transcurrido entre dos instantes consecutivos en que uno u otro campo alcanza igual valor se denomina período t. Se define la frecuencia de la radiación como la relación 1/t que se expresa en ciclos por segundo Fig 3. Plataform observaci Aeropuert del mundo Imágenes satelitales seguros ¿Qué es l resolución Petróleo Forestació Estudios d viabilidad Mercados futuros Cultivo de arroz Nuestra m Nuestros servicios ¿Qué es la percepció remota? . ¿Qué es u imagen satelital? La concepción corpuscular permite explicar ciertos hechos experimentales como el efecto fotoeléctrico y la absorción de radiación por las moléculas y consiste en concebir la radiación como un haz de corpúsculos llamados cuantos de radiación o fotones que se desplazan en la Uso del G dirección del haz con la velocidad de la luz. Estación Las concepciones ondulatoria y corpuscular de la radiación se concilian en la relación de rastreador PLANCK: Pasturas Monitoreo incendios Sequías Recursos naturales La relación de Planck permite que un haz de radiación de determinada frecuencia (o longitud de onda) sea interpretado como un flujo de cuantos de determinada energía. Cultivo de tabaco En la Fig. 5 se representa el espectro electromagnético. Obsérvese que la región visible del espectro electromagnético representa sólo una pequeña fracción de éste. Por razones de practicidad se utilizan diferentes unidades de longitud de onda según la región espectral considerada. En nuestro estudio,que se centrará fundamentalmente en las regiones conocidas como visible e infrarrojo nos bastará con recurrir a los micrómetros o micras (1 µm= 10-4 cm)o a los nanometros (1 nm = 10-3 µm). Para las regiones de radar convendrá referirse a centímetros. Obsérvese que la región visible del espectro electromagnético representa sólo una pequeña fracción de éste. Por razones de practicidad se utilizan diferentes unidades de longitud de onda según la región espectral considerada. En nuestro estudio, que se centrará fundamentalmente en las regiones conocidas como visible e infrarrojo nos bastará con recurrir a los micrómetros o micras (1 µm= 10-4 cm) oalos nanometros (1 nm = 10-3 µm). Para las regiones de radar convendrá referirse a centímetros. INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE LOS ESPECTROS. Los objetos físicos se hallan constituidos por sistemas atómico-moleculares. El contenido energético total de tales sistemas puede considerarse, en una primera aproximación, como la suma de varios aportes energéticos: energía translacional, energía vibracional, asociada a las vibraciones de los átomos en torno a sus posiciones de equilibrio en las moléculas, energía rotacional, asociada a las rotaciones de la molécula en torno a ciertos ejes y energía electrónica, asociada a los electrones contenidos en la molécula: algunos de tales electrones participan decisivamente en los enlaces químicos intramoleculares. Salvo la energía translacional las demás formas de energía están sujetas a severas restricciones impuestas por la Mecánica Cuántica, no pudiendo adoptar sino ciertos valores discretos de energía que se denominan niveles energéticos. La Fig. 6 esquematiza una distribución de niveles energéticos para una molécula hipotética. Con A y B representamos dos niveles electrónicos, que son los que involucran un mayor diferencial de energía. Cada uno de ellos posee sus propios niveles vibracionales v y a su vez éstos poseen una estructura “fina” rotacional r. En la misma figura se representa una transición entre los dos niveles electrónicos., Esta puede iniciarse y terminar en diversos niveles vibracionales o rotacionales de ambos niveles electrónicos, siempre que ciertas reglas de selección de la Mecánica Cuántica autoricen tal transición. Para nosotros el hecho más importante a destacar es que los patrones de niveles energéticos como el representado en la Fig 6 son específicos de cada especie atómicomolecular. En condiciones usuales de temperatura ambiente los sistemas atómico-moleculares suelen encontrarse en sus niveles energéticos más bajos, pero por el aporte de diversas formas de energía (eléctrica, térmica, electromagnética, etc.) pueden ser excitados a niveles energéticos superiores. Si la energía suministrada al sistema es suficiente podrá provocar transiciones entre niveles electrónicos, usualmente acompañadas, como ya vimos, por cambios vibracionales y rotacionales. Si las energías aportadas son menores las transiciones sólo se producirán entre niveles vibracionales e incluso sólo rotacionales. Consideremos la excitación de las moléculas por aporte de energía radiante mediante un haz de radiación que posea un rango continuo de longitudes de onda (o, lo que es equivalente, por un haz de fotones cuyas energías cubren un amplio rango continuo de valores): este es el caso típico de la radiación emitida por el sol o por cuerpos incandescentes. Este tipo de radiación suele llamarse continua o de espectro continuo. El objeto o sistema irradiado absorberá aquellos fotones que poseen la energía justamente necesaria para producir las transiciones que le son permitidas. Es así que en el haz transmitido o reflejado luego de interaccionar con el sistema el número de fotones de ciertas longitudes de onda se verá reducido, o dicho de otro modo, la intensidad de las radiaciones de determinadas longitudes de onda se verá reducida. Este efecto se representa en el caso hipotético de la Fig. 7: un haz incidente de composición espectral dada por la curva A ve modificada dicha composición espectral de acuerdo a la curva B, que puede ser considerada la curva espectral del objeto irradiado. La forma de dicha curva depende del patrón de niveles energéticos del objeto irradiado y siendo dicho patrón altamente específico para el sistema atómico molecular del objeto irradiado, es decir de su estructura química, la curva espectral de éste constituye algo así como una impresión digital o firma espectral del objeto en cuestión permitiendo su identificación. INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE TERRESTRE. Cuando la radiación incide sobre un dado objeto de la superficie terrestre pueden considerarse los tres tipos fundamentales de interacciones que se representan en la Fig.8 con el correspondiente balance energético según la ley de la conservación de la energía Es decir que la energía incidente se fracciona en varios componentes: energía reflejada, absorbida y/o transmitida, siendo todos estos componentes dependientes de la longitud de onda. Conviene aquí destacar dos puntos: • La proporción de energía reflejada, absorbida o transmitida variará con los diferentes objetos, dependiendo del tipo de material que compone dichos objetos así como de su condición.Esto permite identificar diferentes objetos en una imagen. • La dependencia con la longitud de onda determina que la proporción de energía reflejada, absorbida y/o transmitida varíe para las diferentes longitudes de onda. Esto hace que dos objetos que pueden ser indistinguibles entre sí en un dado rango espectral puedan ser perfectamente diferenciados en otro rango. Es conocido el uso de película infrarroja en lugar de la pancromática común para detectar, por ejemplo, equipos bélicos camouflados. La manera como un objeto refleja la energía que incide sobre él afecta sensiblemente las características de la energía que detecta un sensor que esté observando dicho objeto. En efecto, el tipo de reflexión que se produce quedará determinado por la textura o grado de rugosidad de la superficie del objeto así como del ángulo de incidencia de la energía radiante sobre el objeto. La reflexión especular se produce cuando la radiación incide sobre una superficie relativamente lisa (esto ocurre cuando el tamaño de las partículas de la superficie es menor que la longitud de onda de la radiación incidente). En este caso los ángulos de incidencia y reflexión son iguales, siguiendo las leyes de la óptica geométrica. La reflexión difusa o lambertiana ocurre en el caso inverso, es decir cuando la superficie es más rugosa y la longitud de onda de la radiación incidente es menor que el tamaño de las partículas de la superficie. En este caso la radiación es reflejada en todas direcciones. Ver Fig. 9. Entre estos dos casos caben todas las posibilidades intermedias. Como puede observarse (a) (b) también en la Fig. 9 (c) en el caso de la reflexión difusa la radiación penetra hasta cierta profundidad en el material y tiene oportunidad de interaccionar con los componentes químicos de éste. La radiación reflejada en forma difusa posee pues más información que la especular acerca del objeto irradiado. Obviamente, en Percepción Remota será pues particularmente importante medir las propiedades de la reflectancia difusa de los objetos terrestres. Las características del fenómeno de reflexión por parte de un objeto sobre la superficie terrestre puede ser cuantificada midiendo la porción de energía incidente sobre el objeto que es reflejada por éste. Podemos entonces definir la Reflectancia Espectral como INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE TERRESTRE (continuación) Dada su simplicidad y claridad el concepto de superficie lambertiana se utiliza usualmente como una apro comportamiento óptico de los objetos observados por percepción remota. Sin embargo, esta es una aproxi veces se cumple para las superficies naturales, particularmente cuando el sensor opera fuera del nadir, es decir, en observaciones laterales. En efecto, las propiedades de reflectancia de un VER TAMBIEN objeto pueden variar, no sólo con la longitud de onda sino también con los ángulos de Galería de imágenes satelitales irradiación y de observación. Se define así una Función de Distribución de Reflectancia ¿Qué es la resolución espacial? Bidireccional (BRDF: bidirectional reflectance distribution function) que no es Aplicaciones en Mercados de futuros sino la reflectancia espectral de un objeto Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros en función delas geometrías de iluminación y observación que se le apliquen. La función BRDF es necesa aplicaciones de percepción remota para efectuar correcciones en mosaicos de imágenes, para clasificacion terrestres, para detección de nubes, correcciones atmosféricas etc. y se han desarrollado modelos matemáti representarla. Si bien no entraremos en mayores detalles sobre este tema debemos señalar que esta funció matemáticamente compleja, simplemente describe algo que nosotros observamos día a día: que los objeto cuando los observamos desde diferentes ángulos o cuando los iluminamos desde diferentes direcciones. A el campo de soja de la Fig. 10 cuando el observador está de espaldas al sol (a) o cuando está de frente a él último caso se observa la reflexión especular de muchas hojas. Dada la importancia de la reflectancia espectral en Percepción Remota creemos interesante analizar aquí la espectrales de algunos objetos que aparecen muy frecuentemente en las aplicaciones de esta tecnología: ve agua. En la Fig. 11 se representan las correspondientes curvas de reflectancia espectral. LA REFLECTANCIA EN LOS VEGETALES La reflectancia de los vegetales es usualmente relativamente baja en la región visible, con un máximo a ap 0.53 µm, es decir en el verde. Aumenta bruscamente en el infrarrojo (IR) para luego caer a valores muy b baja reflectancia en el visible se atribuye a la elevada absorción de los pigmentos vegetales, principalmen pigmentos, sin embargo, son altamente transparentes a la radiación IR, y la elevada reflectancia en dicha región estaría determinada por la estructura interna de la hoja. Los mínimos de reflexión a 1.45, 1.95 y 2.5 µm corresponden a la elevada absorción de las moléculas de a la hoja. La Fig. 12 representa un corte transversal de una hoja, mostrando su estructura interna: Las superf externa están tapizadas por una simple capa de células epidérmicas carentes de clorofila y recubiertas por una delgada película de ceras. El tejido mesodérmico entre las dos epidermis está formado por dos capas. La superior contiene células oblongas dispuestas en forma regular y ordenada (tejido en empalizada). Estas células son ricas en las clorofilas a y contenidas en cuerpos subcelulares denominados cloroplastos, componentes predominantes del grupo de también contienen pigmentos como xantofilas y carotenos (las clorofilas reflejan el verde, las xantofilas el rojo y los carotenos el rojo). La parte inferior del tejido mesodérmico es esponjoso, formado por células de flojamente empaquetadas, dejando entre ellas numerosos espacios intercelulares y cavidades de aire. En la indican posibles trayectorias para la radiación que atraviesa la hoja. Generalmente sólo una pequeña fracci incidente es reflejada directamente por la superficie externa.pues la cutícula y la epidermis son casi transp y al IR cercano. Otra fracción de radiación puede ser transmitida directamente a través de la hoja. Finalme radiación sufre interacciones con la estructura interna de la hoja. Parte de ella puede ser absorbida por los hoja ,pero una fracción importante sufre reflexiones y refracciones múltiples en el tejido esponjoso debido diferencia de índices de refracción entre el aire (n=1.0) y las paredes de las células hidratadas (n=1.3). Como consecuencia de tales reflexiones parte de la radiación vuelve hacia atrás, pudiendo emerger como r reflejada. Como la clorofila es transparente al IR cercano la hoja refleja intensamente dicho rango espectra típicamente es reflejado un 40-50% de la radiación incidente en la hoja). Resumiendo, podemos decir que espectrales de la radiación reflejada por una hoja en la región visible depende fundamentalmente de la absorción de radiación por parte de los pigmentos de que en el IR cercano, en la región de 0.7 a 1.3 µm, es consecuencia primaria de la estructura interna de la h superiores a 1.3 µm aparecen mínimos de reflectancia a 1.4, 1.9 y 2.7 µm asociados a las bandas de absorc SUELOS. La curva de reflectancia espectral de suelos es más monótona que la de la vegetación. Entre los factores q reflectancia del suelo citemos su contenido de humedad, su textura, rugosidad, presencia de materia orgán de óxido de hierro.. en particular, el contenido de humedad está estrechamente ligado a la textura: los sue partículas grandes, usualmente están bien drenados, resultando con baja humedad y relativamente alta ref inversa ocurre con los suelos mal drenados. La rugosidad y la materia orgánica, así como el óxido de hier reflectancia del suelo, a lo menos en la región visible. LA REFLECTANCIA EN EL AGUA Aborbe intensamente en el IR cercano: los cuerpos de agua aparecerán en dicha región como cuerpos oscu observación y delineamiento. Para longitudes de onda visibles hay factores que complican la interpretació reflectancia de un cuerpo de agua puede generarse por interacción con la superficie (reflexión especular), con material en suspensión mismo del cuerpo de agua. El agua clara absorbe poca energía con longitudes de onda por debajo de 0.6 µ que aumenta la turbidez la reflectancia en el visible aumenta rápidamente. Igualmente la presencia de clor fitoplancton) modifica la reflectancia del agua, efecto que se aplica al monitoreo por percepción remota de de algas. La Fig. 13 es una imagen MODIS que permite observar los sedimentos en el Río de la Plata prov ríos Paraná y Uruguay y que se extienden hasta aproximadamente Atlántida. LA REFLECTANCIA EN LOS SUELOS La curva de reflectancia espectral de suelos es más monótona que la de la vegetación. Entre los factores q reflectancia del suelo citemos su contenido de humedad, su textura, rugosidad, presencia de materia orgán de óxido de hierro, en particular, el contenido de humedad está estrechamente ligado a la textura: los suel partículas grandes, usualmente están bien drenados, resultando con baja humedad y relativamente alta refl inversa ocurre con los suelos mal drenados. La rugosidad y la materia orgánica, así como el óxido de hier reflectancia del suelo, a lo menos en la región visible. 5. INTERACCIONES ATMOSFERICAS La radiación registrada por sensores remotos debe realizar una trayectoria a través de la atmósfera, a cons cual sufre variados efectos. La entidad de éstos depende del trayecto recorrido, de las condiciones atmosfé de la longitud de onda de la radiación. En general intervienen dos mecanismos principales: dispersión y ab Es una difusión de la radiación producida por partículas de la atmósfera y podemos considerar tres mecanismos principales: dispersión de Rayleigh, dispersión de Mie y dispersión no selectiva. La dispersión de Rayleigh es consecuencia de la interacción de la radiación con moléculas de los gases atmosféricos y con otras partículas pequeñas de diámetro mucho menor que DISPERSION: VER TAMBIEN Galería de imágenes satelital ¿Qué es la resolución espacia Aplicaciones en Mercados de fu Monitoreo de incendios en pozos de Imágenes satelitales y seguro la longitud de onda de la radiación con la que interaccionan. Este efecto es inversamente proporcional a la onda, tal como se representa en la Fig14. En consecuencia existirá mayor tendencia a dispersar las longitudes de onda más cortas. El “azul del cielo ausencia de él el cielo aparecería negro, pero como la atmósfera dispersa sobretodo las cortas longitudes d de espectro visible) el cielo nos aparece azul. La dispersión de Rayleigh es una de las causas primarias de imágenes que ven así reducida su nitidez o contraste. La dispersión de Mie se produce cuando los diámetr son esencialmente iguales a la longitud de onda de la radiación (vapor de agua, polvo fino, etc.) y tiende a longitudes de onda mayores que las afectadas por la dispersión de Rayleigh. La dispersión no selectiva constituye un fenómeno mucho más molesto que los anteriores y se produce cua partículas que producen la dispersión son mucho mayores que las longitudes de onda con que interacciona constituyen pequeñas gotas de agua con diámetros comprendidos entre 5 y 100 mm que dispersan en igual las regiones visible e IR cercano y medio. Al ser su dispersión no selectiva respecto a la longitud de onda visible se dispersan en igual proporción las radiaciones azules, verde y rojas, con la consecuencia de que l blancas. ABSORCION Contrariamente a lo que ocurre en la dispersión, en la absorción se produce una transferencia de energía de constituyentes atmosféricos. Este mecanismo implica absorción de energía de determinada o determinadas punto de vista los absorbentes más eficaces de radiación solar son las moléculas de agua, de dióxido de ca selectiva de ciertas longitudes de onda por estas moléculas hace que la atmósfera constituya un medio opa espectrales, mientras que ofrezca ventanas libres de absorción para otros rangos. A través de dichas ventan observación. En la Fig.15 se observan los efectos combinados que diversos componentes atmosféricos eje radiación electromagnética solar en el rango de 0.1 a 3mm a través de la absorción, dispersión y eventual LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES Hemos visto cómo las radiaciones electromagnéticas, fundamentalmente emitidas por el sol y reflejadas p incluso emitidas por dichos objetos (p.ej. en el infrarrojo térmico), todas más o menos afectadas por efect combinan generando “señales” de las cuales es posible extraer información acerca de dichos objetos y de las coberturas terrestres. La detección de tales señales electromagnéticas puede efectuarse por medios fotográficos o electrónicos. Históricamente fueron la placa o el film fotográfico, usualmente sobre plataformas aéreas, los sensores remotos por excelencia. Estos, a partir de las últimas décadas, debieron convivir con los sensores electrónicos, más adecuados para las exigencias a que son VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróleo Imágenes satelitales y seguros sometidos sobre plataformas suborbitales y satelitales. De todos modos la detección sobre plataformas aér sensores fotográficos o electrónicos sigue constituyendo una valiosa fuente de información en un amplio r aplicaciones, y la decisión final sobre el uso de tal o cual tipo de plataforma debe ser cuidadosamente anal particularmente cuando la relación costo/beneficio gravita sensiblemente sobre el presupuesto de un proye partir de la década del 60 que comenzó el desarrollo vertiginoso de la percepción remota desde plataforma satelitales. Distintos factores han condicionado este comportamiento que ha ido llevando a la percepción r satelital a una etapa esencialmente comercial. El más importante de dichos factores fue seguramente la li para aplicaciones civiles al fin de la Guerra Fría de tecnología reservada hasta entonces para uso militar. H la observación terrestre por percepción remota se efectuaba desde aviones o globos. En 1946 se adquirieron las primeras fotografías desde cohetes V2 captu alemanes, siendo estas experiencias decisivas para ilustrar el potencial de la fotografía desde alturas orbita potencial se volvió más evidente con las misiones orbitales y espaciales a partir de la década del 60: uno d el proyecto CORONA de espionaje militar. Un número no determinado de estos satélites de corta vida (1 a 16 días) orbitando a unos 130 km de altura y utilizando c fotográficas de alta resolución realizó misiones de espionaje entre los años 1960 y 1972. El caudal fotográ obtenido fue desclasificado en 1995. En la Fig. 16 se observa una imagen de las ciudades de Artigas y Qu obtenida en el año 1965 por un Satélite Corona. Un zoom sobre dicha imagen permite detectar objetos de10m. Entre las misiones espaciales citemos las m Mercury, Gemini y Apolo. En particular el Apolo IX realizó la primera experiencia controlada de fotograf multiespectral. Estas experiencias fueron continuadas en posteriores misiones (Skylab,Apolo-Soyuz, etc.) . LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES (continuación) Sin embargo, el año 1972 marca un hito en el avance de la percepción remota satelital con el lanzamiento, de E.E.U.U., del primero de una serie de satélites ópticos especialmente destinados a monitorear los recurs terrestres. Dicha serie se llamó LANDSAT y actualmente operan Landsat-5 y Landsat-7, Fig. 17, este últim actualmente con serias dificultades en su sistema de barrido constituyendo un obstáculo para muchas de sus aplicacione parte Francia, con la participación de Suecia y Bélgica, lanzó en 1986 el primer satélite de laserie SPOT (System l'Observation de la Terre) de la cual operan actualmente los Spot -2, -4 y –5 (Fig. 18). Actualmente existen muchas otras plataformas satelitales similares anteriores y pertenecientes a distintos países o resultantes de acuer dichos países (Rusia, Japón, India, Argentina, China, Brasil, etc.). E todos estos satélites se caracterizan por órbitas quasi polares y sola sincrónicas con parámetros similares a los ejemplificados en la Fig órbita solar-sincrónica la rotación de la Tierra en torno al sol, la in de la órbita y el período orbital son tales que en cada órbita el satél el Ecuador a la misma hora solar local. En el caso del Landsat 5 es 09:45. Adelantándonos a un tema que más adelante analizaremos respecto a la resolución espacial de los satélites tamaño mínimo de los objetos que son capaces de discernir en sus imágenes, diremos que los satélites que de mencionar son de resolución espacial moderada, pudiendo variar entre 5 y 30 m. En los últimos años se han puesto en órbita satélites comerciales de alta resolución espacial como el Ikono el Quickbird (Fig.21) y el Orbview-3 (Fig.22). Las órbitas de estos satélites son más bajas(680 y 450 km) resoluciones espaciales alcanzan a 1 m y 0.6m. La Fig. 23 permite apreciar visualmente en imágenes de u agrícola el efecto de la resolución espacial. Como una posibilidad ofrecida por los últimos desarrollos espaciales debemos mencionar la adquisición d desde la Estación Espacial Internacional (ISS) (Fig. 24) que vino a sustituir a la estación rusa MIR, que de destruida al cabo de su vida útil. SATELITES METEOROLOGICOS Y AGROMETEOROLOGICOS Existen también otras series de satélites destinados fundamentalmente a misiones meteorológicas, agrometeorológicas, atmosféricas y oceánicas. Algunos de estos satélites, como los de las series NOAA (N Oceanic and Atmospheric Administration -USA), SEA STAR (USA) describen órbitas cuasi polares sincrónico-solares a altitudes del orden de 850 km y resoluciones espaciales de 1km. Otros satélites, como los de las series GOES (Geostationary Operational Environmental Satellite) y METEOSAT (Eutmetsat – Europa), etc. Se mantienen en órbitas geoestacionarias a aproximadamente 36000 km y con resoluciones espaciales de 1km. Debe tenerse en cuenta que el período de un satélite, es decir el tiempo que tarda en completar su órbita aumenta con la altitud: a 36000 km VER TAMBIEN Galería de imágenes satelital ¿Qué es la resolución espacia Aplicaciones en Mercados de fu Monitoreo de incendios en pozos de Imágenes satelitales y seguro un satélite posee el mismo período que la Tierra. Así, si se posiciona en el plano ecuatorial permanece est superficie de la Tierra, es decir, observando siempre el mismo hemisferio. La operación de estos satélites s LOS NUEVOS SATELITES PARA LA OBSERVACION DE LA TIERRA Numerosos satélites orbitan actualmente la Tierra en misiones de observación no sólo de las coberturas te atmósfera, sus océanos,etc., y en general investigando la interacción de los dinámicos sistemas geofísicos sofisticados instrumentos para cumplir dichas misiones.Queda fuera del alcance de nuestro estudio referirnos a la extensa lista de dichas plataformas y sus instrumentos. De todos modos nos referiremos a dos ejemplos notables de tales plataformas: los satélites TERRA (y su gemelo AQUA) y ENVISAT. TERRA es un satélite multinacional de investigación científica de la NASA. Recorre una órbita solar-sicrónica y es VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróleo Imágenes satelitales y seguros la “nave insignia” del Earth Observing System de la NASA. Fue puesto en órbita en febrero del 2000 y tra bordo cinco sensores remotos destinados a medidas terrestres ambientales y de cambios en el sistema clim ENVISAT , lanzado en el 2002 en órbita solar-sincrónica y operado por la ESA es posiblemente el mayor observación construido hasta el momento (8000 kg). Transporta a bordo 10 sofisticados sensores ópticos y para monitorear permanentemente las cubiertas terrestres y oceánicas, la atmósfera y los casquetes polares RECEPCION Y TRANSMISION DE LA INFORMACION SATELITAL Ya mencionamos que los satélites utilizan sensores diferentes a los de la fotografía convencional. En gene de sensores electrónicos de estado sólido, adecuados a las regiones espectrales para las que se desea obten imágenes. Como detallaremos más adelante cada satélite puede registrar las imágenes terrestres simultáne varias regiones visible e infrarrojo cercano, medio o térmico del espectro electromagnético. Los sistemas ópticodel satelite enfocan las escenas terrestres sobre arreglos de tales detectores y las señales analógicas genera éstos son digitalizadas para su retransmisión, sea a otros satélites geosincrónicos sea a estaciones rastread terrenas. Estas posibilidades se esquematizan en la Fig.26. Los datos del satélite B pueden ser transmitidos directamente a una estación terrena si ésta está en la línea del satélite (A). En caso contrario la información puede ser almacenada a bordo de B para su posterior retransmisión a una terrena. B puede también enviar sus datos a un sistema satelital repetidor que consiste en una serie de saté comunicaciones en órbita geosincrónica. Los datos son enviados de un satélite repetidor C) a otro hasta al estación terrena adecuada. 7. SENSORES 7.1. Consideraciones generales. Hemos visto cómo la radiación electromagnética es portadora de la inform acerca deaquellos materiales u objetos de interés en percepción remota. Pero para adquirir y luegopoder pr dicha información son necesarios ciertos dispositivos denominados sensores. Existen gran número de sens destinados a numerosas aplicaciones, muchas de las cuales caen fuera del área específica de nuestro estudio. Aquí nos concentraremos fundamentalmente en los llamados espectroradiómetros de barrido (scanning radiometers) de particular importancia en sistemas de percepción remota.En la gran mayoría de estos instrumentos el mecanismo de base es el efecto fotoeléctrico: cuando un haz de fotones incide sobre una placa negativamente cargada o sobre algún material fotosensible adecuado se produce una emisión VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróleo Imágenes satelitales y seguros de partículas negativas (electrones). Estos electrones pueden fluir desde la placa generando una señal elect magnitud de la corriente eléctrica producida (número de fotoelectrones por unidad de tiempo) es directame proporcional a la intensidad luminosa. La energía cinética de losfotoelectrones emitidos varía con la longit asociada a los fotones incidentes. Sinembargo, debe tenerse en cuenta que diferentes materiales que manif fenómeno fotoeléctrico liberan fotoelectrones bajo diferentes intervalos de longitudes de onda: cada uno d presenta un umbral de longitudes de onda para el que el fenómeno se manifiesta y otro umbral de longitud para el que el fenómeno cesa. Los sensores que aquí nos interesan son del tipo pasivo, caracterizados porq radiación que llega a ellos proviene de una fuente externa (p.ej. el Sol). Además, los electrones liberados s de inducir la formación de una imagen cuando son recogidos pordispositivos adecuados de detección (dete Como los sensores son instrumentos capaces de medir cuantitativamente la radiación electromagnética en determinadas regiones del espectro se denominan radiómetros. Cuando este sensor incluye además un com del tipo de un prisma o red de difracción o filtros de interferencia que pueden dispersar la radiación de una región del espectro en longitudes de onda discretas que son dirigidas hacia los detectores se denomina espectrómetro. Cuando la radiación es dispersada no en lon onda discretas sino en bandas espectrales más anchas, es decir cubriendo ciertos intervalos de longitudes d término más conveniente para el sensor es espectroradiómetro. Este es el caso más usual en los sensores aeroespaciales. Como en general estos sensores se desplazan barriendo la escena estática que están observ que operan en modo de barrido o escaneado (scanning mode). Podemos distinguir dos categorías de estos los óptico- mecánicos y los óptico-electrónicos. Los primeros se caracterizan por tener un componente me un espejo rotativo que opera en el barrido de la escena, mientras que los segundos el mismo sistema óptico radiación sobre un arreglo lineal de detectores. 7. SENSORES (continuación) Otra característica que conviene distinguir en los sensores remotos es la manera como ellos registran la información a medida que avanzan según su trayectoria u órbita. En general el área barrida se extiende a ambos lados de la trayectoria (swath width) y su anchura queda determinada por la óptica del sistema por ej. por el telescopio que debe llevar el sistema para observaciones desde cientos de kilómetros de altura y determina el campo de visión (Field of View o dos principales opciones de barrido se esquematizan en la Fig. 27. El modo cruzado con la trayectoria (cro whiskbroom mode) normalmente utiliza un espejo rotatorio u oscilante, es decir que constituye un sistema óptico-mecánico. Este barre la escena a lo largo de una línea simple (o múltiple) transversal a la trayectori es muy larga (kilómetros) pero muy angosta (metros). Cada línea se subdivide en una secuencia de elementos espaciales individuales cada una de las cuales repr pequeña área de la escena terrestre que se examina. O sea que a lo largo de la línea existe un arreglo de celdas continuas, cada una de las cuales refleja radiaci son sensadas secuencialmente a lo largo de la línea. En el sensor cada una de estas celdas está asociada a u picture element) ligado a un detector microelectrónico y se caracteriza por un dado valor de radiación que efecto fotoeléctrico genera una corriente electrónica. El área cubierta por el píxel, es decir el área de la celda terrestre que se corresponde a dicho píxel, queda d por el Campo de Visión Instantánea del sensor (Instantaneous Field of View – IFOV). El IFOV podemos definirlo como el ángulo sólido que se proyecta desde el detector al área terrestre que e midiendo en cada instante. El IFOV es función de la óptica del sensor, del tamaño del detector, de la altitu plataforma, etc. Los electrones emitidos son recogidos sucesivamente, píxel por píxel, generando una señ que representa la variación espacial de la radiación por el muestreo progresivo que el sensor va efectuando sobre la escena terrestre estudiada. Esto permite as cada píxel un valor discreto llamado Número Digital (DN – digital number). Estos números digitales resul convertir las señales analógicas generadas por el detector en valores digitales constituidos por números en cubren un intervalo finito, por ejemplo 28 cubriendo el intervalo de 0 a 255. Estos valores digitales permit construir la imagen a través de dispositivos adecuados, por ejemplo el monitor de una computadora. En el barrido en la dirección de la trayectoria (along track pushbroom) no existe espejo oscilante, sino un arreglo pequeños detectores cuyas minúsculas dimensiones permiten que se asocien hasta miles de ellos en dicho sistema de filtros incorporado al arreglo permite seleccionar las longitudes de onda. Cada detector es un di de acoplamiento de carga (Charge-Coupled Device – CCD –ver más adelante). En este modo de barrido, los píxeles que constituirán la imagen final corresponden a estos microdetectore correspondientes filtros incorporados en el arreglo lineal. A medida que la plataforma avanza en su órbita radiación proveniente de las celdas terrestres a lo largo del campo de visión del satélite llega simultáneam correspondientes detectores. La señal generada por cada detector es removida en milisegundos, siendo el reseteado a cero quedando pronto para recibir la radiación proveniente de la nueva línea del campo de visi 7. SENSORES (continuación) 7.2 Naturaleza de los detectores. En los primeros tiempos de la percepción remota los detectores eran del t fotomultiplicadores. Actualmente la mayoría de los detectores son de estado sólido, constituido por aleacio metales semiconductores. Estos poseen una conductividad eléctrica intermedia entre la de un metal y la de aislador. En condiciones normales o no excitados estos semiconductores poseen sus electrones en un nivel de energía completo (desde el punto de vista de la configuración electrónica del modelo atómico mecánicocuántico). Bajo ciertas condiciones, como la interacción con fotones, electrones de dicho nivel son excitados a otro nivel denominado banda de conducción. La resistencia a esta transferencia varía VER TAMBIEN Galería de imágenes satelital ¿Qué es la resolución espacia Aplicaciones en Mercados de fu Monitoreo de incendios en pozos de Imágenes satelitales y seguro inversamente al número de fotones incidentes. Diferentes materiales responden de distinta manera a las di decir, a la energía de los fotones), lo que los hace espectralmente selectivos. Es así que para la región visib silicio y de PbO (óxido de plomo), en el infrarrojo cercano PbS (sulfuro de plomo) e In-As (indio-arsénic µm) InSb (indioantimonio) y en el infrarrojo térmico (8 –14 µm) Hg-Cd-Te (mercurio-cadmio-teluro). Est muy bajas temperaturas para optimizar la eficiencia de la emisión electrónica. Uno de los dispositivos que adquirido gran importancia es el detector de acoplamiento de carga (charge-coupled device – CCD). Un CCD está formado por un material fotosensible embebido en un chip de silicio. Se genera en éste un fo electrones liberados por los fotones incidentes en el chip posteriormente a su enfoque y filtración por el si fotosensibles del chip pueden llegar a ser muy pequeños, del orden de 1µ de diámetro. Estos elementos pu a través de microcircuitos para formar arreglos lineales o bidimensionales. Puede llegar a prepararse arreg longitud con hasta 1000 detectores individuales. La Fig. 28 esquematiza un CCD individual La Fig. 29 muestra una imagen obtenida con un microscopio electrónico de un fragmento de un arreglo lin << PAGINA ANTERIOR - IN SENSORES: BANDAS ESPECTRALES LANDSAT TM y SPOT HRVIR 7.3 Estudio de dos casos: LANDSAT y SPOT. Para profundizar algo el estudio de los mecanismos de re datos por percepción remota hemos seleccionado como ejemplos típicos los casos de dos plataformas clási respectivas familias han contribuido y siguen contribuyendo decisivamente a las aplicaciones prácticas de VER TAMBIEN esta disciplina: LANDSAT y SPOT. El primer caso es un ejemplo típico Galería de imágenes satelitales whiskbroom y el segundo de pushbroom. En la Fig 30 se representa el esquema óptico del ¿Qué es la resolución espacial? sensor TM (Thematic Mapper) diseñado para Landsat-4 y Landsat-5. Nota.Aplicaciones en Mercados de futuros Posteriormente se desarrolló el ETM (Enhanced Thematic Mapper) para el Monitoreo de incendios en pozos de petróle Landsat-6 , que se perdió en el Imágenes satelitales y seguros lanzamiento. El actual Landsat-7, que permanece operativo junto con el Landsat-5, lleva a bordo el ETM+ Thematic Mapper Plus). Este último, aunque similar, presenta mejoras frente al TM, por ejemplo una band de 15 m de resolución y una mayor resolución de las bandas infrarrojas térmicas. Sin embargo, un defecto irreparable en el sistema óptico ha reducido mucho la eficiencia de sus aplicaciones. <FALTA FIGURA 30 Este sensor está diseñado para tomar imágenes en el nadir, es decir imágenes de areas terrestres ubicadas debajo del sensor. El escaneado lo realiza un espejo oscilante bidireccional que permite un ancho de barri telescopio dirige la radiación hacia un corrector de las líneas barrido (SLC-scan lines corrector). Este últim para corregir el efecto acumulado del desplazamiento del satélite en su órbita y el barrido cruzado realizad El SLC es un sistema de espejos que rota perpendicularmente al espejo de barrido y compensa el efecto or corrección la radiación incide en el plano focal primario donde se encuentran los detectores para visible e con sus correspondientes filtros espectrales (bandas 1 a 4). Una parte de la energía es redirigida por un rela plano focal refrigerado (91ºK) para infrarrojo medio y térmico donde se encuentran los correspondientes d sus filtros. Los detectores para visible e infrarrojo cercano son de silicio organizados en 4 líneas de 16 det Para las bandas 5 y 7 (IR medio) los detectores son de antimoniuro de indio organizados cada uno en líneas de 16 detectores. Por su de infrarrojo térmico es un arreglo de cuatro detectores de telururo de cadmio y mercurio. El IFOV del TM para las bandas 1-5 y 7, y de 120x120m para la banda infrarroja térmica. En el ETM+ del Landsat-7 este último va mejorado a 60x60m. La familia SPOT está constituida por 5 satélites (SPOT-1, lanzado en 1986 hasta el S en el 2002) de los cuales están operativos los miembros 1,2,4 y 5. Todos se caracterizan por el sistema pus barrido. Los sensores de estos satélites HRV (High Resolution Visible) para 1,2 y 3 y HRVIR (High Reso Infrared) para 4 y 5 se caracterizan por estar duplicados en cada satélite y por poder ser orientados indepen efectuar observaciones con distintos ángulos. En la Fig. 31 se esquematiza un SPOT con sus dos instrumen nadir. Cada uno de ellos cubre una línea de barrido de 60 km. En la Fig. 32 se esquematizan las posibilida observación de cada sensor. La radiación reflejada desde el terreno entra al HRV o HRVIR vía un espejo plano y un telescopio la proy arreglos CCD de 6000 detectores cada uno dispuestos linealmente (ver Fig. 29). Cuando los dos instrume directamente el terreno debajo del sensor se pueden disponer de modo de cubrir fra de visión total de 117 km y una sobreposición de 3 km. Sin seleccionar desde la estación operadora terrestre ángulos de esta manera es posible observar desde una posición centrad la trayectoria del satélite cualquier región de interés dentro franja terrestre de 950 km. Esto hace que, pese a que el saté de 26 días, puede observar una misma área en intervalos de cercanas realizando observación oblicua. También pueden r pasajes en días sucesivos de modo que las dos imágenes sea ambos lados de la vertical (Fig.33). Se obtienen así imágene SENSORES: BANDAS ESPECTRALES LANDSAT TM y SPOT HRVIR 7.3 Bandas Espectrales de LANDSAT TM y SPOT HRVIR. En la Tabla siguiente se presentan los rangos longitudes de onda abarcados por las bandas espectrales de estos satélites: TM Rango espectral (µm) Banda 1 0.45-0.52 Banda 2 0.52-0.60 Banda 3 0.63-0.69 Banda 4 0.76-0.90 Banda 5 1.55-1.75 Banda 6 10.4-12.5 Banda 7 2.08-2.35 HRVIR Rango espectral (µm) Banda 1 0.50-0.59 Banda 2 0.61-0.68 Banda 3 0.79-0.89 Banda 4 1.58-1.75 IFOV Nadir 30x30m (b. 1-5,7) IFOV Nadir 20x20m 120x120m (b. 6) Barrido 180 km Barrido 60 km (c/instrumento) Las principales aplicaciones de las bandas del LANDSAT TM (y por similitud de rangos espectrales también las del SPOT) son las siguientes: VER TAMBIEN Galería de imágenes satelitales Banda 1 (0.45-0.52µm)(azul): buena penetración en cuerpos de agua. Diferenciación de suelos y vegetación y de coníferas con vegetación de hojas caducas. Banda 2 (0.52-0.60µm)(verde): reflectancia en el verde para vegetación en buenas condiciones. ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróleo Imágenes satelitales y seguros Banda 3 (0.63-0.69µm) (rojo): absorción de la clorofila.. Diferenciación de especies vegetales. Banda 4 (0.76-0.90µm) (infrarrojo cercano): evaluación de biomasa. Delineación de cuerpos de agua. Banda 5 (1.55-1.75µm) (infrarrojo medio) : estado hídrico en vegetales. Discriminación entre nubes, nieve y hielo Banda 6 (10.4-12.5µm) (infrarrojo térmico): stress térmico en vegetales y mapeados térmicos. Banda 7 (2.08-2.35µm) (infrarrojo medio): Estudios geológicos, identificación de zonas con alteraciones hidrotérmicas en rocas. 7. RESOLUCION 7.4 Resolución. Los sistemas de percepción remota difieren en la resolución, es decir, el nivel de detalle co pueden capturar las imágenes, su frecuencia temporal, “finura espectral”, etc.. Desde este punto de vista po considerar cuatro diferentes tipos de resolución: espacial, espectral, radiométrica y temporal. 7.4.1 Resolución espacial. La resolución espacial se refiere a la finura de detalles visibles en una imagen: cuanto menor es el área terrestre representada por cada píxel en una imagen digital mayores son los detalles que pueden ser captados y mayor es la resolución espacial. En las Figs. 26 a, b y c se observan imágenes de una misma región a tres diferentes resoluciones espaciales (baja, mediana y alta, VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros correspondiendo respectivamente al MODIS 1.1 km , LANDSAT-5, 30m y QUICKBIRD, 0.60m. Existen factores que influyen en la resolución espacial: además de los obviamente asociados al sensor, como ser el del sistema óptico, debemos considerar las influencias atmosféricas, presencia de humo, neblina, bajos niveles de iluminación, etc. También existen factores asociados a las características del objeto a detectar y de su entorno: un buen cont nítidos del objeto son favorecen la detección. La selección de la resolución espacial necesaria para un dado proyecto debe analiz cuidadosamente. En efecto, pretender resoluciones mayores que la necesaria encarece el costo de las imág proceso. << PAGINA ANTERIOR - IND SATELITES - RESOLUCION ESPECTRAL 7.4.2 Resolución espectral. Ya vimos cómo los sistemas de percepción remota están usualmente diseña imágenes en determinados rangos de longitudes de onda denominados bandas o canales. Dependiendo d pueden seleccionarse sensores con bandas relativamente estrechas o anchas. La resolución espectra al número y ancho de las bandas espectrales registradas por un sensor. Cuanto más estrechas sean estas bandas mayor será la resolución espectral. Ya nos hemos referido brevemente a este tema en la Sec. 7.1. cuando hablamos de espectrómetros y espectroradiómetros. Para referirse a la multiplicidad y anchos espectrales de las bandas de los sensores de percepción remota suele VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros distinguirse entre los sistemas multiespectrales y los hiperespectrales. El LANDSAT y el SPOT son sistem multiespectrales, que se caracterizan por un número no muy elevado de bandas espectrales (V. tabla en Se ASTER en el satélite TERRA de la NASA posee 14 bandas en las regiones visible, infrarroja y térmica de sistemas hiperespectrales (imaging spectrometers) se caracterizan por registrar imágenes en cientos de ban muy estrechas. Una limitación al número de bandas consiste en que cuanto más estrecha es la banda meno que transmite al detector. Las figuras 35 y 36 permiten visualizar la diferencia en los perfiles espectrales d de la imagen según se analice con un sensor multiespectral o hiperespectral. El primero es similar al del LANDSAT 7, y el segundo es el sensor HYPERION del satélite EO-1 de la N corresponde a un área agrícola próxima al río Cuareim en Artigas, y la segunda corresponde a un muestreo bien los dos espectros poseen abscisas expresadas en diferentes sistemas, las líneas roja, azul y verde en a corresponden a las mismas longitudes de onda. Se sugiere comparar estas gráficas con las de la Fig. 11. << PAGINA ANTERI SATELITES - RESOLUCION RADIOMETRICA 7.4.3 Resolución radiométrica. Resolución o sensibilidad radiométrica hace referencia al número de nivele utilizados para expresar los datos recogidos por el sensor. En general, cuando mayor es el número de nivel detalle con que se podrá expresar dicha información. En las Figs. 37 y 38 se representan dos casos bien diferenciados. Ambos representan el área de Rincón del Bonete en Uruguay, visualizándose la ciudad de Paso de los Toros. En la Fig.37 los niveles digitales son muy pocos y la imagen aparece prácticamente en blanco y negro. En la Fig. 38 , con muchos más niveles digitales, el grado de detalle es muy superior, visualizándose la ruta 5 , las calles de la ciudad el puente sobre el Río Negro VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros etc. El puente también se llega a distinguir en la Fig. 37 dado el elevado contraste con el agua del río. En la Sec. 7.1 ya mencionamos los números digitales (DN) asociados a cada píxel en las imágenes digital lo que llamamos escala de grises que en realidad es la escala de niveles digitales disponibles para represen la imagen. El número de niveles de grises se expresa comúnmente en términos de dígitos binarios (bits) n almacenar el valor del nivel de gris máximo para el caso considerado. Un bit es la unidad fundamental de un sistema binario pudiendo poseer sólo los valores 1y 0. Usando un a puede representarse un número cualquiera dentro de los límites de “longitud de palabra” de la computador imagen de pantalla con variaciones de brillo prácticamente continuas desde el punto de vista visual se nec por píxel. El número de valores que pueden ser representados por una serie dígitos es xn , donde x es el número de v dígito puede representar y n es el número de dígitos usados. En una base binaria el número de valores será para 5 bits tendremos 32 valores, para 8 bits 256 valores, para 11 bits 2048, etc. En el caso del Landsat y e 8 bits, es decir, la escala de grises se extiende de 0 a 255, totalizando 256 valores. SATELITES - RESOLUCION TEMPORAL 7.4.4 Resolución temporal. La Resolución Temporal es una medida de la frecuencia con la que un satélite obtener imágenes de una determinada área. También se denomina intervalo de revisita. Altas resoluciones importantes en el monitoreo de eventos que cambian en períodos relativamente cortos, como inundaciones incendios, calidad del agua en el caso de contaminaciones, desarrollo de cosechas, etc. Asimismo, en áreas con cubiertas nubosas casi constantes como por ejemplo las selvas tropicales, períodos cortos de visita, es decir altas resoluciones temporales, aumentan la probabilidad de obtener imágenes satisfactorias. Si consideramos un satélite de la familia LANDSAT, ( 5 o 7), su resolución temporal es VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros relativamente baja. En efecto, como sólo registra imágenes en el nadir para volver a registrar una dada áre esperar que vuelva a recorrer la misma órbita, lo cual ocurre cada 16 días. Esto puede apreciarse en las Fig En la Fig. 39 vemos que las características orbitales del LANDSAT hacen que la distancia entre el trazado órbitas consecutivas sea de 2752 km en el ecuador. En la Fig. 40 se observan las órbitas recorridas en días intervalo de tiempo entre órbitas adyacentes es de 7 días. De todos modos como LANDSAT-5 y LANDSA están defasados 8 días, cuando ambos satélites se encuentran operativos puede lograrse para una dada reg LANDSAT cada 8 días. Otros satélites, como SPOT, IKONOS y QUICKBIRD poseen sensores que pueden orientarse según difer con lo cual pueden registrar imágenes no sólo en el nadir sino también a través de enfoques laterales, front Esto permite lograr períodos de revisita mucho más cortos, incluso de dos o tres días. Otro ejemplo de sa resolución temporal lo constituyen los de la serie NOAA con sus sensores AVHRR. Estos poseen un tiempo de revisita de 12 horas, lo cual permite una cobertura diaria global diurna y noctur debe tenerse en cuenta que la resolución espacial de éstos es de 1 km, es decir mucho menor que la de los anteriormente mencionados. De todos modos, su elevada resolución temporal, los hace sumamente útiles e ambientales o agrometeorológicos sobre áreas muy extensas. Estas características son compartidas con el i MODIS a bordo de los satélites TERRA y ACQUA sobre áreas muy extensas. Estas características son co instrumento MODIS a bordo de los satélites TERRA y ACQUA. SATELITES: ESCALA Y RESOLUCION ESPACIAL 7.5 Escala y resolución espacial. Los conceptos de escala y resolución espacial están estrechamente relacionados con el grado de detalle co visualizar una dada imagen. Sin embargo difieren en ciertos aspectos que conviene puntualizar. 7.5.1 Escala. La escala de una imagen o de un mapa hace referencia a la diferencia relativa de tamaño o distancia entre los objetos de la imagen y los reales terrenos. Esta diferencia se expresa como la relación entre la distancia sobre la imagen y la real terrena.. Así por ejemplo, una escala de 1: 100000 significa que 1 cm en el mapa o imagen corresponde a 100000 cm (1 km) sobre el terreno. VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros Los siguientes son ejemplos de escalas y las correspondientes distancias terrenas para tres distancias medi mapa o imagen: Un cálculo similar puede efectuarse para áreas. Así, para una escala 1:10000 un área de 1mm x 1mm en e corresponde a 0.01 ha. sobre el terreno. Igualmente, un área de 5cm x 5 cm sobre el mapa corresponde a u sobre el terreno. Es común referirse a una escala diciendo que es mayor o menor que otra escala. Sin emb de expresarse puede llevar a confusiones. En efecto, una escala de por ejemplo 1:100000 suele llamarse “ y una escala de 1:40000 “escala de 40000”. Sin embargo la primera es menor que la segunda, ya que el nú es menor que el de 1/40000. Lo mejor sería decir que 1:100000 es una escala “gruesa” y 1:40000 una esc Para calcular la escala desconocida de una imagen o un mapa es necesario comparar la distancia entre dos referencia conocida y los mismos dos puntos sobre el mapa o imagen de escala desconocida. La referenci imagen o mapa de escala conocida o una distancia medida sobre el terreno. El método de cálculo difiere se sea una imagen o mapa o bien una medida sobre el terreno. En el primer caso la fórmula a aplicar es: ED = DD / DR * ER donde ED: escala desconocida a calcular; DR: distancia entre dos puntos medida sobre la imagen o mapa DD: distancia entre los mismos dos puntos medida sobre la imagen o mapa de escala desconocida. Ejemp Un mapa topográfico a escala 1:100000 se usará para determinar la escala de una imagen satelital. Se seleccionan dos puntos que pueden ubicarse fácilmente sobre la imagen y el mapa. La distancia entre ellos en el mapa topográfico es de 8.3 mm y en la imagen es de 40.0 mm. La escala de la imagen será ED = 40.0 / 8.3 * 1/100000 = 1/20750 En el caso de que la referencia sea una medida sobre el terreno la fórmula a emplear será: ED= MD/RD donde ED: escala desconocida a calcular; RD: distancia entre dos puntos medida sobre el terreno; MD distancia entre los mismos dos puntos medidos sobre el mapa o imagen Nota. Las unidades de RD y MD deben ser las mismas. Ejemplo: si la distancia medida sobre el mapa o imagen es de 40.0 mm y la distancia sobre el terreno son 415 m (415000 mm) la escala desconocida será ED = 40.0 / 415000 = 1/10735 7.5.2 Escala vs. Resolución Espacial. Ya vimos (Sec. 7.4.1) que la resolución espacial de una imagen es del tamaño del pixel expresada en términos de dimensiones sobre el terreno. Usualmente se presenta por correspondiente a la longitud de un lado del cuadrado correspondiente a dicho pixel. Así, una resolución e significa que el pixel representa un área de 30 m x 30 m sobre el terreno. Si el pixel fuera rectangular deb ser representado por su largo y ancho, por ejemplo 56 m x 79 m. La resolución espacial es una indicación detalle que ofrece una imagen. Si una imagen de satélite de 1 m de resolución se imprime a una escala de perdería el potencial de detalle que ofrece dicha imagen. La inversa también es cierta: si se imprime una im resolución espacial, por ej. 500 m, a una escala muy fina sólo veríamos los pixeles individuales. Cuando e “zoom” repetido sobre una imagen digital (es decir, cuando vamos “afinando” la escala) llega un moment comienzan a visualizarse los pixeles, y a partir de ese punto aunque sigamos afinando la escala no se aum nivel de detalle llegando a dificultarse su interpretación. 8. ESTRUCTURA DE LAS IMÁGENES DIGITALES Antes de encarar el procesamiento de las imágenes satelitales entendemos conveniente resumir aquí una s básicos ya considerados previamente acerca de las imágenes digitales, así como ampliarlos con otros que posteriores etapas de este estudio. Ya vimos como una imagen digital consiste de elementos discretos denominados pixeles. Estos elementos bidimensionales constituyen los menores elementos no divisibles de la imagen. En la Fig. 41 vemos en forma esquemática cómo una imagen digital está compuesta de pixeles ubicados en la intersección de cada fila i y columna j en cada una de las k bandas correspondientes a una dada escena. VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros Cada pixel en cada banda está en perfecto registro geométrico con sus equivalentes de las restantes banda cada pixel existe un número (Número Digital, DN) que mide la radiancia promedio o brillo correspondien escena abarcada por dicho pixel. En una base binaria de 8 bits el DN poseerá 28 valores en un rango de 0 Estos valores pueden ser modulados para producir en la pantalla de una computadora un escala de grises q negro (DN=0) hasta el blanco (DN=255). O sea que para cada pixel en una escena que consta de k bandas asociados k niveles de grises. Estos definen un espacio espectral k dimensional en el que cada pixel es rep vector que constituye su firma espectral y que permitirá, a través de operaciones de clasificación basadas e matemático-estadísticos, asignar dicho pixel a clases temáticas definidas. El área terrestre representada po determinada por la altura del sensor y los parámetros de diseño de éste, particularmente el campo de visión (IFOV). Obviamente al reducirse dicha área más detalles de la imagen serán aparentes, es decir que aumen espacial. En esta rápida revisión no ha aparecido nada esencialmente nuevo acerca de los conceptos que ya se había previamente. Sin embargo, vamos ahora a profundizar algo más acerca de la estructura espectral de un pix lo que hemos visto, un pixel es una unidad espacial arbitraria cuyas propiedades básicas (tamaño, forma, u principalmente definidas por variables dependientes del sensor y no directamente por las propiedades del terreno. Sin embargo, deb que de acuerdo a las características del terreno (textura, coberturas, etc.) el área abarcada por un pixel pued un tipo de objetos o clases temáticas, por ej. arbustos, pasturas, suelo descubierto, agua, etc. Evidentement reflejada correspondiente a dicho pixel que llega al detector estará compuesta por las contribuciones de las espectrales de las clases temáticas que incluye, tal como se esquematiza en la Fig. 42: 8. ESTRUCTURA DE LAS IMAGENES DIGITALES (continuación) O sea que desde el punto de vista espectral se trata de un pixel mezclado. Conociendo los espectros puros clase que incluye el pixel (obtenido de bibliotecas adecuadas o de ensayos de laboratorio previos), a travé desmezclado se puede efectuar un análisis subpixel para estimar la proporción de las diferentes clases Este desmezclado espectral suele basarse en la suposición de que la respuesta espectral xp de un pixel p es ponderada de las respuestas espectrales de sus clases componentes. Matemáticamente esto se expresa a tra ecuación donde E es una matriz de k por c en la que k es el número de bandas espectrales del sensor y c el número d vector de longitud c que expresa la cobertura proporcional de clases en el área representada por el pixel y e residual. Las columnas de la matriz E son las respuestas espectrales de las clases . Así definido el modelo ser utilizado para estimar la composición por clases del pixel, representada por f, a través de su respuesta e restricciones del modelo son También relacionado con la composición espectral del pixel existe un problema significante aunque usualmente ignorado. En efecto, se demuestra que una proporción importante de la señal que aparentemente proviene del área de terreno representada por un dado pixel proviene de los pixeles vecinos, tal como se esquematiza en la Fig. 43. Aunque los pixeles de una imagen aparecen cuadrados, la radiación que se ha registrado y que define la composición espectral de dichos pixeles proviene de un área circular (o elíptica si el sensor no observa directamente el nadir) aproximadamente doble del área cubierta por la proyección del pixel. A pesar de que los detectores del sensor son más sensibles en el centro del FOV del detector (lo que hace q parte de la radiación capturada provenga del área cubierta por el pixel) la radiación proveniente de los pix una contribución significante al valor del pixel. Este efecto es consecuencia de muchos factores, incluyen instrumento, del detector, de la electrónica asociada así como incluso de efectos atmosféricos. Los efectos atmosféricos, particularmente en el caso de que la atmósfera presente niebla, se debe a que las ésta desvían los fotones de su trayectoria recta. Esto hace queel sensor registre energía proveniente de objetos que no están ubicados en el campo de visió detectores del sensor. 9. PROCESAMIENTO DE LAS IMÁGENES SATELITALES El procesamiento de las imágenes digitales consiste en la manipulación numérica de dichas imágenes e incluye: · Preprocesamiento · Realce · Clasificación. 9.1 Preprocesamiento. Consiste en el procesamiento inicial de los datos crudos para corregir las distorsion geométricas de la imagen y eliminar el ruido. Las distorsiones radiométricas obedecen a mecanismos que valores de brillo de los pixeles y se deben fundamentalmente a interferencias atmosféricas y a efectos aso a instrumentación. Las correcciones atmosféricas constituyen un problema muy complejo si se quieren aplicar sobre la base de modelos físicos del comportamiento de las radiaciones. En efecto, estos modelos tienen el mérito de su rigor científico, precisión y aplicabilidad a un amplio rango de circunstancias, pero suelen exigir complejos programas de computadora así como información meteorológica detallada relativa a las VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróleo Imágenes satelitales y seguros condiciones en que se registró la escena. Esta información es muy difícil de obtener y podemos decir que l aplicación rutinaria de estos modelos actualmente no es posible. Una aproximación sencilla y práctica a la del efecto atmosférico se basa en la consideración de los histogramas de las imágenes espectrales. Un hist un gráfico o tabla que muestra el número de pixeles f(DN) de una imagen que poseen un valor DN. En la observan los histogramas para las bandas 1 a 4 del LANDSAT. <<FALTA FIGURA 44 Como era de esperar de acuerdo a lo que vimos acerca de la relación entre longitud de onda y efectos de d atmosféricos los valores más bajos de los histogramas corresponden a las mayores longitudes de onda: en banda infrarroja cercana es la que posee el valor más bajo. En esta banda los cuerpos de agua clara y las sombras topográficas pose valor de reflectancia de cero o muy próximo a cero si no fuera por el efecto dispersivo. Se admite que el desplazamiento del extremos inferior de los histogramas es debido fundamentalmente al componente disp interferencia atmosférica. En efecto, suponemos que las demás bandas, particularmente cubriendo áreas ge extensas deben poseer algunos pixeles (por ejemplo sombras topográficas o de nubes, cuerpos de agua cla profunda, etc.) que si no fuera por el efecto atmosférico tendrían valor cero. Para apoyar esta suposición o cómo en una escena lunar, Fig. 45, la ausencia de atmósfera hace aparecer las sombras totalmente negras. correcciones que habría pues que hacer a las bandas 1 a 4 es restarle respectivamente los valores 42, 37, 2 Los efectos instrumentales se asocian principalmente a desajustes en las equivalencias de las curvas de re los diferentes detectores de un instrumento (ej. diferentes valores en la “corriente oscura” y en la ganancia curvas de respuesta). Se puede efectuar una corrección adoptando un sensor como standard y ajustando el todos los pixeles registrados por los demás detectores de modo que los brillos promedio y desviaciones st emparejen con los del detector de referencia. PROCESAMIENTO DE LAS IMAGENES SATELITALES (continuación) Las distorsiones geométricas responden a muy diversas causas y pueden clasificarse en gsistemáticas y no sistemáticas. Las principales causas de distorsiones geométricas sistemáticas son las siguientes: • Sesgo de escaneado: causado por el movimiento de avance de la plataforma durante el tiempo requerido para cada barrido del espejo (sistemas whiskbroom). La línea de barrido sobre el terreno no es normal a la proyección de la trayectoria sino que resulta ligerame oblicua, produciendo una distorsión geométrica cruzada con la trayectoria. • Velocidad del espejo de escaneado. La velocidad de éste usualmente no es constante durante un dado cic produciendo una distorsión geométrica a lo largo del escaneado. • Efecto panorámico y curvatura terrestre. El efecto panorámico deriva del hecho de que como para los sen plataformas satelitales el IFOV angular es constante, el tamaño del pixel sobre el terreno será mayor en lo de la oscilación que en el nadir. También la curvatura terrestre conduce a un efecto similar, aunque para sa barrido poco extenso, como el LANDSAT (185 km) o el SPOT (120 km) el efecto es despreciable, a difer que ocurre con los NOAA, con 2700 km de FOV. • Velocidad de la plataforma. Si la velocidad de la plataforma cambia, la cobertura terrestrea lo largo de su terrestre para sucesivos escaneos también cambiará. Se producirá una distorsión de escala a lo largo del tr • Rotación de la Tierra. A medida que el sensor escanea el terreno la Tierra se desplaza de oeste a este. De un punto del terreno registrado al fin del escaneado va a estar más al oeste que cuando comenzó el barrido produce una distorsión según la traza de barrido. Como casos de distorsiones geométricas no sistemáticas efectos por altitud y actitud. • Altitud. Si la plataforma se desvía de su altitud normal o si aumenta la elevación del terreno se producen distorsiones de escala. • Actitud. Hace referencia a la orientación del satélite (o bien plataforma aérea) en el espacio tridimension se desplaza. En tal sentido podemos definir un sistema de tridimensional de coordenadas ortogonales cent centro de gravedad de la plataforma considerada. De acuerdo con esto puede definirse la orientación de la plataforma por la contribución de los movimientos respecto a estos ejes principales (Fig. 46) ROLL YAW PITCH: Estos movimientos se definen como: balanceo (roll), cabeceo (pitch) y desvío (yaw) obviamente. causa de distorsiones geométricas. Algunas de las distorsiones geométricas que hemos mencionado previamente (debidas a rotación de la Tie panorámico y curvatura terrestre, sesgo de escaneado) son bien comprendidas y pueden ser modeladas co matemáticas que permitan su evaluación y corrección. Las restantes distorsiones geométricas pueden ser minimizadas estableciendo una relación matemática entre las coordenadas de los píxeles en la imagen y los correspondientes puntos sobre el terreno. Esto pued independientemente del conocimiento que el analista pueda tener de la fuente y tipo de distorsión. Esta téc corrección de imagen requiere la identificación de una serie de características existentes tanto en la imagen un mapa de referencia. Estas características se denominan usualmente puntos de control de tierra (GCP, G Control Points). Estos son usualmente detalles de la escena bien definidos y espacialmente pequeños: curv detalles costeros, cruce de caminos o de pistas de aeropuertos, etc. Una vez que se estableció la relación m ésta es aplicada para rectificar o reubicar cada pixel de la imagen original en su posición geométrica más c la imagen corregida. En cuanto al ruido en las imágenes se trata de señales espúreas provenientes de diver potenciales, desde derivas periódicas o funcionamiento defectuoso de un detector a interferencias electrón componentes del sensor e interrupciones en las transmisión y registro de datos. Hemos visto en esta sección que las correcciones radiométricas y geométricas constituyen un tema compl preprocesamiento de las imágenes satelitales. Sin embargo, para tranquilidad del potencial usuario debem que las estaciones receptoras y distribuidoras de imágenes de satélite realizan en base a la información telemétrica recibida del mismo satélite, las correcciones radiométricas y geométricas pertinentes a dichas PROCESAMIENTO DE LAS IMAGENES SATELITALES: EL REALCE 9.2 Realces Son procedimientos que tienden a mejorar la interpretabilidad visual de una imagen, aunque n aumentan la cantidad de información contenida en ella. El rango de opciones de que dispone el analista pa de imagen es virtualmente ilimitado, aunque la mayoría de estas técnicas pueden ubicarse en dos grupos: de punto, que modifican independientemente el brillo de cada pixel y operaciones locales, que modifican el valor de cada pixel basadas en el valor de los pixeles vecinos. Dentro de las primeras citaremos algunas como estiramiento de contraste y manipulaciones espectrales, y entre las segundas el filtrado espacial. 9.2.1 Estiramiento de contraste. VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros Este procedimiento involucra un cambio de forma del histograma reasignando los valores de los pixeles. E a,b,c,d vemos un ejemplo de cómo, a través de una función de tranferencia lineal se puede efectuar dicha El caso de nuestro ejemplo es el de un estiramiento de contraste lineal, donde vemos cómo el rango de va los pixeles (20 a 127) es expandido hasta obtener el rango máximo de 0 a 255. Al expandir la escala de gr realzar detalles sutiles de la imagen, difíciles de discriminar con la compresión inicial. El caso de contrast que hemos descrito es el más sencillo, y puede también ser descrito por el algoritmo: DNmodificado = [(DNoriginal – MIN)/(MAX – MIN)]*255 DNmodificado : número digital asignado al pixel en la imagen de salida Fig. 48 DNoriginal : número digital del pixel en la imagen de entrada MIN : mín. valor de DN en la imagen de entrada MAX : máx. valor de DN en la imagen de entrada En la Fig.48 se representa gráficamente la función de transferencia lineal. Los estiramientos de contraste pueden realizarse utilizando otras funciones de transferencia como la gauss igualación, la de raíz cuadrada (que implica tomar la raíz cuadrada del histograma original y aplicarle un e lineal, etc. En general los softwares de percepción remota ofrecen las facilidades de cálculo para estas y otras modalid analista aplicará una u otra según sus preferencias. PROCESAMIENTO DE LAS IMAGENES SATELITALES: FILTRADO ESPACIAL 9.2.2 Filtrado espacial. Las operaciones de contraste descritas en la sección previa no alteran los datos simplemente modifican su visualización. En el filtrado espacial, en cambio, los datos de la imagen son m efecto, el valor de un pixel en una dada ubicación es cambiado en función de los valores de los pixe En percepción remota las imágenes se caracterizan por un parámetro denominado frecuencia espacial. Esta puede definirse como el número de cambios que ocurren en el valor del pixel (o brillo) por unidad de distancia para alguna región particular de la imagen. Si sobre una dada área de la imagen ocurren pocos cambios de brillo se considera como un área de baja frecuencia (ej. grandes extensiones agrícolas, cuerpos de agua extensos, etc.) VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros Si, por otra parte, los cambios de brillo son numerosos y notorios tendremos un área de alta frecuencia (ca zonas urbanas, parcelas agrícolas pequeñas,etc.). En las imágenes de percepción remota la frecuencia espa realzarse o deprimirse según la conveniencia del analista utilizando el filtrado espacial. Este no es sino una aplicación de la operación general de procesamiento de imágenes denominada convolu implica el siguiente procedimiento: 1. Se define una ventana móvil que contiene un arreglo de coeficientes o factores ponderales.Estos arreglo como operadores o kernels, cuyo tamaño es normalmente el de un número impar de pixeles (3x3, 5x5, 7x 2. Dicho kernel se mueve a través de la imagen original, y el valor del pixel central del kernel en la image obtiene multiplicando cada coeficiente del kernel por el correspondiente valor del pixel en la imagen orig resultado de todos los productos resultantes . La operación se repite para cada pixel de la imagen original. en la Fig. 49 se esquematiza el concepto de ventana móvil. VENTANA MOVIL IMAGEN PROYECCION DE LA VENTANA MOVIL SOBRE LA IMAGEN A P La Fig. 50 esquematiza la operación de un filtro de baja frecuencia VENTANA MOVIL IMAGEN PROYECCION DE LA VENTANA MOVIL SOBRE LA IMAGEN A PR La Fig. 50 esquematiza la operación de un filtro de baja frecuencia Este filtro puede considerarse un filtro de media ya que el resultado es el valor promedio de todos los pixeles cubiertos por la ventana móvil. Existen muchos tipos de filtros de convolución. En las siguientes imágenes se dan ejemplos de los efectos obtenidos con algunos de dichos filtros (Figs. 51 a,b y c, y Fig.51 bis a,b y c. Los filtros de baja frecuencia reducen las desviaciones respecto al promedio local de la imagen y ésta apa difusa, efecto que aumenta al aumentar el tamaño de la ventana (5x5, 7x7, etc.). Este filtro suele ser útil para reducir ciertos patrones de ruido, como por ejemplo los efectos de ¨salt-and-p algunas imágenes. Los filtros de alta frecuencia deprimen los componentes de baja frecuencia reteniendo frecuencia (variaciones locales). Pueden ser utilizados para realzar bordes entre distintos objetos de una im para hacer ésta más nítida. Una importante aplicación es en la identificación y mapeos de características g incluyendo fallas, fracturas, monoclinas, que poseen diferentes rangos de frecuencias espaciales. Un kerne alta frecuencia puede ser el siguiente: Los filtros de mediana sustituyen cada pixel de la imagen por la mediana de los pixeles vecinos. Ejemplo: En orden crecientes los valores de los pixeles cubiertos por la ventana móvil son 115, 119, 120, 123, 124, 125, 126, 127, 150 El valor de la mediana será pues 124. La mediana es un parámetro de posición más robusto que la media. En efecto, un pixel vecino con un valo representativo no afectará significativamente el valor de la mediana. Además, como la mediana es uno de pixeles vecinos, conduce a resultados más realistas que la media. Esto hace que la mediana si bien ¨suaviz preserva los bordes más grandes cuyas dimensiones sean mayores que las dimensiones del kernel. Esto es cuando este filtro se aplica para eliminar ruidos como los de ¨salt and pepper¨ o los speckles de las imágen La detección de cambios significantes de DN al pasar de un pixel a otro es un problema común en percep Dichos cambios usualmente indican límites físicos en la escena, como una línea costera, una carretera, el b sombra, etc. Si bien existen muchas aproximaciones para el tratamiento de este problema una de las más u empleo de algún filtro de gradiente, como por ejemplo el de Sobel. Este consiste en filtrar la imagen en dos direcciones ortogonales, por ej. horizontal y vertical. Los filtros d utilizados son: Componente horizontal Componente vertical Los resultados g x y g y para cada pixel se combinan en un vector cuya magnitud y dirección vienen dadas por: Además de los filtros que hemos mencionado como ejemplos típicos se han descrito muchos otros que esc de esta Introducción. Citemos por ejemplo los filtros gaussianos, laplacianos, de transformada de Fourier, ANALISIS POR COMPONENTES PRINCIPALES 9.2.3 Análisis por Componentes Principales. Un problema frecuente en el análisis de imágenes multiespe correlación existente entre ellas, es decir que contienen mucha información redundante. Esta no aporta aumenta enormemente la carga computacional cuando dichas imágenes son sometidas a procesos mat podemos apreciarlo en la Fig. 56, en la que se observan los dispersogramas típicos de los pares de ban TM2/TM3 y TM3/TM4 del LANDSAT. Sólo las bandas 3 y 4 presentan baja correlación La técnica de Análisis por Componentes Principales (PCA, Principal Components Analysis) es una tran permite reducir esta redundancia y puede ser aplicada previamente a un análisis visual o a un proceso m clasificación a través de algoritmos matemático-estadísticos. El propósito de esta técnica es “comprimir” toda la información contenida en un conjunto original de N b a un conjunto menor de nuevas bandas o componentes. Sin entrar en detalles matemáticos sobre esta t representaremos gráficamente los conceptos involucrados. Para simplificar tomemos sólo dos bandas Representemos por d1 el valor del pixel en la banda 1 y por d2 el valor del pixel en la banda 2. Podemos definir una combinación lineal de estas dos ban donde d'1 y d'2 representan los valores del pixel luego de la transformación. Esta puede ser representada g en las Figs. 57 a y b Los componentes principales del conjunto de dos bandas está constituido por el sistema de combinacio dichas bandas, que con una adecuada selección de los coeficientes aij resultarán independientes y no corr sí. Esto se ilustra en las Figs. 57 a y b. En (a) los valores de los pixeles graficados en el espacio bidime están notoriamente correlacionados. En (b) se observa cómo, luego de una adecuada combinación lineal removida. Vemos que la transformación no es sino una VER TAMBIEN rotación en el espacio bidimensional de los valores de los pixeles, y el ángulo de rotación Galería de imágenes satelitales quedará determinado por la correlación entre los valores de d1 y d2.El eje d'1 define la ¿Qué es la resolución espacial? dirección del primer componente principal, y Aplicaciones en Mercados de futuros el eje d'2 la dirección del segundo componente principal. Puede observarse que Monitoreo de incendios en pozos de petróle los datos a lo largo del primer componente principal Imágenes satelitales y seguros poseen una varianza o rango dinámico mayor que el correspondiente a cualesquiera de los dos ejes originales. Por su parte los datos a lo segundo componente principal (eje d'2) poseen una varianza considerablemente menor que la correspondie decir que hemos volcado la mayor parte de la información al primer componente principal. El tratamiento generalizarlo para un sistema de N bandas, representándolo en forma matricial: donde d es un vector columna conteniendo los N valores originales de los pixeles de d1 a dN, d' es el corr vector luego de la transformación y A es la matriz de los coeficiente aij. . Obviamente la clave de una tran exitosa radica en la optimización de los coeficientes aij, lo cual puede hacerse por una transformación en principales (PCT) también conocida como transformación de Karhunen-Loeve o de Hotelling, cuyos detal alcance de esta Introducción. En general los softwares para tratamiento de imágenes ofrecen módulos para de transformación. En el caso de imágenes de más de tres bandas usualmente ocurre que el primer compon incluirá cerca de 90% de la varianza total de la imagen, mientras que los sucesivos PC2, PC3,...,PCN pose decrecientes. En general PCN será mayormente ruido. En la Fig.58, se representan las bandas TM 1, 2, 3, 4, 5 y 7 correspondientes a una imagen LANDSAT 5 (Dpto. de Paysandú). En la Fig. 59, se observa el resultado de la transformación en componentes principales. En la Fig.60 se presentan algunos dispersogramas de las bandas resultantes de la transformación, donde se puede observar la ortogonalidad de los CP. <<FALTA FIGURA 58 COMBINACIONES DE COLORES 9.2.4 Combinaciones de color. Vimos que las imágenes satelitales suelen ser multiespectrales, es decir que registradas simultáneamente en varias regiones del espectro electromagnético. Estas imágenes pueden ser individualmente en escalas de grises o en imágenes coloreadas obtenidas a partir de las primeras. Estas últ según el modelo de color RGB ( del inglés Red, Green, Blue). Este hace referencia a la composición del color en términos de la intensidad primarios con los que se forma: el rojo, el verdey el azul. Es un modelo de color basado en la síntesis aditi basado en la mezcla por adición de dichos primarios. Para indicar en qué proporción se mezcla cada color valor a cada uno de los colores primarios. Así por ejemplo, para un display de computadora de 8 bits por pixel el rango de valores posibles (o sea de DN) para cada componente de colo En consecuencia existirán 2563 = 16.777.216 combinaciones posibles de rojo, verde y azul, y a cada pixel combinación de color corresponderá un punto dentro del cubo de color representado en las Figs. 61 y 62 (a extrajo un sector para mejor visualización interior). Por lo tanto, las coordenadas del rojo serán (255,0,0), del verde (0,255,0) y del azul (0,0,255). La ausenci decir el negro corresponde al punto (0,0,0). La combinación de dos colores a nivel 255 con un tercero a n tres colores intermedios: el amarillo (255,255,0), el cyan (0,255,255) y el magenta (255,0,255). El blanco tres colores primarios a su máximo nivel (255,255,255). La escala de grises es la diagonal que une el blanco y el negro. Concretando, para preparar una combinaci seleccionan tres bandas de interés de la escena multiespectral y computadora mediante se le asigna a cada de los tres colores primarios. El display nos entregará una combinación RGB correspondiente a las bandas seleccionadas y a la asignaci bandas a seleccionar quedarán condicionadas, aparte de las posibilidades ofrecidas por el sensor del satéli rasgos de la escena que se desea realzar, y la asignación de colores además de ser condicionada por dicho corresponder a un criterio profesional o heurístico del analista. De todos modos, existen ciertas combinaciones que demostraron ser de particular interés, sob a temas ambientales y agronómicos. Dichas combinaciones son: RGB 3,2,1 Esta combinación suele llamarse “color natural” pues involucra a las tres bandas .,visibles y se le asigna a su verdadero color, resultando una combinación que se aproxima a los colores naturales de la escena. La v aparece en diversos tonos de verde y los suelos en colores marrones o tostados. Además, las bandas visibl buena penetración en los cuerpos de agua y esta combinación permite observar detalles en agua poco prof corrientes, batimetría, plumas de sedimentos, etc.). RGB 5,4,3 Constituye una “simulación”del color natural, pese a utilizar 2 bandas infrarrojas. RGB 4,3,2 Esta combinación suele llamarse “falso color infrarrojo” pues los colores resultantes en la imagen son sim fotografías obtenidas con film infrarrojo color. Al asignar el rojo a la bandas 4 (NIR) resultará que todos l desde el rojo muy oscuro al rosado pálido corresponden a vegetación: los tonos más oscuros se relacionan de vegetación arbórea densa, como bosques, montes, etc., pudiéndose identificar algunas especies como p Rojos claros indican cultivos y praderas vigorosas. Los rosados corresponden a vegetación poco densa co naturales. El celeste corresponde a suelo desnudo, seco o áreas rocosas. El azul-celeste puede correspond urbanas. El azul oscuro a negro se relaciona con agua clara en cursos o cuerpos de agua. Si éstos presentan suspensión aparecerán con tonalidades azul-verdosas (cian). Los colores verde a verde azulado correspon aradas o suelos descubiertos con mayor o menor contenido de humedad. RGB 4,5,3 Al asignarle el color rojo a la banda 4 (infrarroja cercana) esta banda va a tener ciertas similitudes con la c RGB 4,3,2 . Sin embargo, al dar más peso a la región infrarroja (bandas 4 y 5) se ve realzada la diferencia suelos y vegetales. Generalmente cuanto mayor es la humedad del suelo más oscuro aparecerá éste. En las Figs. 63 y 64 , se presenta una imagen LANDSAT de una forestación en Paysandú. A efectos comp imagen fue sometida a las combinaciones de color arriba mencionadas. COMBINACIONES DE COLORES (continuación) Las combinaciones de color que acabamos de ver (pag. anteror) hacen referencia a las bandas del LANDS criterios son aplicables a otros satélites teniendo en cuenta las características espectrales de sus bandas. No imágenes satelitales presentan la diversidad de bandas del LANDSAT, y en tales casos algunas de las com referidas no pueden realizarse con las escenas de dichas satélites, no obstante lo cual el analista puede intentar otras combinaciones que permitan realzar características de interés. Así por ejemplo la Fig. 65 corresponde a una imagen NOAA-17 captada sobre el Uruguay en Mayo de 2007, en un período de intensas inundaciones. Este satélite sólo posee una banda visible (roja), dos en el infrarrojo (cercano y medio) y dos en el infrarrojo térmico. VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros La combinación de color utilizada en este caso es RGB 3,2,1 (infrarrojo medio, infrarrojo cercano, rojo). L infrarrojas que son intensamente absorbidas por el agua permiten destacar nítidamente los contornos de lo negro), algunos de los cuales en este período estaban desbordados, así como las zonas anegadas al oeste d Merim (colores oscuros). Las áreas forestadas aparecen con color verdoso más intenso(Rivera, Paysandú) el caso del ASTER (instrumento a bordo del satélite TERRA) que en el modo de resolución espacial de 20 una banda en el verde, otra en el rojo y una tercera en el infrarrojo cercano. En este caso es posible la com 3,2,1 (i.r. cercano, rojo, verde) como se aprecia en la Fig. 66, captada sobre Rincón del Bonete. diversidad de las bandas del LANDSAT,y en tales casos algunas de las combinaciones antes referidas no p con las escenas de dichos satélites, no obstante lo cual el analista puede intentarotras combinaciones que p características de interés. Así por ejemplo la Fig. 65 corresponde a una imagen NOAA-17 captada sobre e Mayo de 2007, en un período de intensas inundaciones. Este satélite solo posee una banda visible (roja), dos en el infrarrojo (cercano y medio) y dos en el infrarro combinación de color utilizada en este caso es RGB 3.2,1 (infrarrojo medio, infrarrojo cercano, rojo). Las que son intensamente absorbidas por el agua permiten destacar nítidamente los contornos de los ríos (colo de los cuales en este período estaban desbordados, así como las zonas anegadas al oeste de la laguna Merí oscuros). Las áreas forestadas aparecen con color verdoso más intenso /Rivera, Paysandú). Otro ejemplo e ASTER (instrumento a bordo del satélite TERRA) que en el modo de resolución espacial de 20 m solo pos el verde, otra en el rojo y una tercera en el infrarrojo cercano. En este caso es posible la combinación RGB cercano, rojo, verde) como se aprecia en la Fig. 66, captada sobre Rincón del Bonete. IMAGENES SATELITALES - CLASIFICACION 9.3 Clasificación. En las etapas de procesamiento de imágenes que acabamos de discutir se busca sea corre geométricas y realizar correcciones radiométricas eliminando formas de ruido presentes en los datos, sea a manipulaciones de realce para mejorar la interpretación visual de la imagen. Con la clasificación llegamo operaciones extracción de información reemplazando el análisis visual de la imagen mediante la aplicación de técnicas para automatizar la identificación de los objetos contenidos en una escena. Esto implica el análisis de dato multiespectrales aplicando distintas técnicas, entre ellas reglas de decisión basadas en conceptos estadístic la identidad de cada pixel en una imagen. Antes de seguir, repasemos algunos conceptos previos. Vimos q una dada banda espectral tiene un pixel coincidente en cada una de las demás bandas. Así, para una imagen que con habrán K niveles de grises asociados a cada pixel. Esos K niveles de grises generan un espacio espectral k el que cada pixel está representado por un vector que es su firma espectral. Vayamos a un caso sencillo y c Supongamos que queremos analizar una imagen multiespectral identificando tres clases muy generales com vegetación. Para simplificar supongamos que nuestro conjunto de bandas está formado sólo por las bandas 2,3 y 4. En la Fig. 67 se representan las curvas de reflectancia espectral de las clases consideradas. A dicha superpuesto los rangos espectrales de las bandas TM 2,3 y 4. En el espacio tridimensional definido por es clases suelo, agua y vegetación están representadas por los vectores (firmas espectrales) de la Fig. 68. Sin embargo, la reflectancia de una dada cubierta terrestre no está usualmente caracterizada por una curva En efecto, la operación de diversos factores naturales (topograficos, atmosféricos, genéticos, fenológicos, en lugar de una sola curva haya que considerar una Familia de curvas, parecidas entre sí pero que introduc indeterminación en la caracterización de la cubierta considerada. O sea que no bastará un solo vector para representar una clase sino que caracterizarán por vectores próxim cuyas puntas determinarán un cluster, tal como se aprecia en el diagrama de dispersión tridimensional de la Fig. 69, en la que se han representado sólo los extremos de lo Hasta aquí nuestro ejemplo ha sido un poco simplista en el sentido de que no hemos planteado una situaci corrientemente y es la superposición parcial de los clusters. En estos casos se presentan dificultades para a pixel a una u otra de las clases cuyos clusters se solapan. Este problema obliga a recurrir a soluciones de recurriendo a procedimientos de clasificación que pasaremos a considerar. Concretando, el proceso de cla categorizar todos los pixeles de una imagen digital asignándolos a una o más clases de coberturas terrestre temáticas. Esta clasificación de carácter multiespectral no es sino un proceso de extracción de informació firma espectral de los pixeles y los asigna a clases basadas en firmas similares. Para lograr la mencionada los pixeles se recurre a clasificadores que pueden ser considerados como ciertos programas de computado implementan estrategias específicas para la clasificación de la imagen. En el curso del tiempo se han dise tales estrategias, y entre éstas el analista debe resolver cuál de ellas se adapta mejor a las necesidades de s Actualmente no es posible decidir qué clasificador es el mejor para todas las situaciones dada la gran vari y circunstancias que los trabajos de percepción remota enfrentan. En tal sentido será conveniente referirn estrategias alternativas para la clasificación de imágenes. IMAGENES SATELITALES - CLASIFICACION (continuación) Los métodos tradicionales de clasificación involucran dos alternativas: no supervisada y supervisada. El m supervisado crea agrupamientos espectrales o clusters que no tienen mayor significado desde el punto de v usuario, por lo que el analista debe intentar asociar una clase temática a cada uno de dichos grupos. En el m supervisado, en cambio, el analista supervisa el proceso de categorización del pixel especificando al algoritmo de la computadora VER TAMBIEN descriptores numéricos de los varios tipos de coberturas terrestres presentes en la Galería de imágenes satelitales escena. Para ello debe recurrirse a un muestreo de sitios representativos de ¿Qué es la resolución espacial? coberturas conocidas, llamadas áreas o Aplicaciones en Mercados de futuros sitios de entrenamiento que permitan compilar un código de interpretación Monitoreo de incendios en pozos de petróleo numérica que describe los atributos espectrales para cada cobertura Imágenes satelitales y seguros de interés. Cada pixel de la escena es entonces comparado con el código de cada categoría asignándole el nombre de categoría a la que más se asimila. O sea que en el enfoque supervisado el analista define sus categorías de examina su separabilidad espectral, mientras que en el no supervisado primero determina las clases espect separables y luego define las clases temáticas de interés. La preferencia por uno u otro enfoque va a depen naturaleza del problema en estudio. En los casos en que la definición de las áreas de entrenamiento y la correspondiente codificación de las clases de interés sea satisfactoriamente realizable, el método supervisa superior al no supervisado y será el preferido. En el caso de áreas de terreno complejas, en cambio, el méto supervisado resultará superior al supervisado. En efecto, en este caso el analista tendrá dificultades para de áreas de entrenamiento dada la variabilidad de la respuestra espectral dentro de cada clase. Además, el enf supervisado es subjetivo en el sentido de que el analista intenta definir clases temáticas compuestas a vece clases espectrales, lo que no ocurre en el método no supervisado que revela clases espectralmente distingu de las condicionantes impuestas al algoritmo de agrupamiento (o “clusterificación”). Además, el método n supervisado posee el potencial para revelar clases temáticas no previstas previamente. IMAGENES SATELITALES - CLASIFICACION SUPERVISADA 9.4.1 Clasificación supervisada. Podemos definir esta clasificación como un proceso en que pixeles de id ubicados dentro de las áreas de entrenamiento, se utilizan para clasificar pixeles de identidad desconocida. supervisada involucra las siguientes etapas: · Etapa de entrenamiento. · Selección del algoritmo de clasificación adecuado y clasificación. · Operaciones de post clasificación. En la etapa de entrenamiento el analista selecciona áreas de identidad conocida de la cubierta terrestre de forestaciones, suelos, etc.) delineándolas sobre la imagen digital bajo formas de rectángulos o polígonos c numéricos quedan archivados en la computadora como regiones de interés constituyendo los “datos de en Para realizar la selección el analista debe tener un conocimiento previo del área de estudio, sea por recono campo, sea por consulta de mapas, fotografías aéreas, etc. Una vez que se dispone de un conjunto de estos datos de entrenamiento debe tratase de adjudicar cada uno de los pixeles de la escena a alguna clase. Entre los algoritmos clásicos para estos fines citemos los siguientes: · Clasificador por mínima distancia · Clasificador por paralelepípedos · Clasificador por máxima probabilidad 9.4.1.1 Clasificador por mínima distancia. Con este clasificador los datos de entrenamiento se utilizan sólo para determinar la media de las clases sel regiones de interés. El programa efectuará la clasificación ubicando cada pixel no identificado en la clase encuentra más cercana para lo cual puede utilizar la distancia euclidiana. El procedimiento se ejemplifica en el diagrama de dispersión de la Fig. 70. Por razones de simplicidad la representación la hacemos toma bandas (Banda I y Banda II), pero debe tenerse en cuenta que cuando el procedimiento se implementa num puede generalizarse para cualquier número de bandas Un pixel a de identidad desconocida, será adjudicado a una dada clase computando las distancias euclidianas entre el pixel y el centroide de cada clase. Aunque simple desde el punto de vist este algoritmo tiene ciertas limitaciones, entre ellas la insensibilidad a los diferentes grados de varianza en espectrales de las diferentes clases. Así por ejemplo el punto b en la Fig. 70 clasificador lo adjudicaría a clase 3, aunque la mayor variabilidad hace pensar que tal vez sería más realista adjudicarlo a ésta.. Por tal motivo este clasificador no es muy ap aquellos casos en que las clases espectrales están muy próximas entre sí en el espacio de medida y a la vez varianzas. 9.4.1.2 Clasificador por paralelepípedos. Este clasificador se implementa definiendo un subespacio en forma de paralelepípedo (es decir, un hiper-r cada clase. En este procedimiento se introduce sensibilidad respecto a la varianza de las clases. En efecto, cada paralelepípedo son definidos por el rango de valores para cada área de entrenamiento, o sea por los n máximo y mínimo para dicha área. Alternativamente, dichos límites pueden definirse tomando cierto núm desviaciones standard para ambos lados de la media del área de entrenamiento. En este caso la regla de de pixel de identidad desconocida caiga dentro de alguno de los paralelepípedos para adjudicarlo a la corresp Un ejemplo de la aplicación de este clasificador en el caso sencillo de un diagrama de dispersión de sólo d presenta en la Fig. 71: Este clasificador es rápido y fácil de implementar. Tiene sin embargo fuentes de error asociadas al relativ solapamiento de los paralelepípedos: un pixel puede caer dentro de más de un paralelepípedo si éstos se s darse también el caso de que no caiga en ninguno. Estos factores quitan robustez al clasificador. CLASIFICADOR POR MAXIMA PROBABILIDAD: MAXIMUM LIKELIHOOD 9.4.1.3 Clasificador por máxima probabilidad (maximum likelihood). Es un algoritmo paramétrico que, a d anteriormente considerados (no paramétricos) asume alguna distribución estadística particular para las cla El clasificador de CLASIFICADOR POR MAXIMA PROBABILIDAD: MAXIMUM LIKELIHOOD (continuación) OTROS I DE INTER Galería d En las Figs. 74 a,b y c , a través de la escena de un sector de forestación se observan los resultados de un clasificador supervisado aplicando el método de máxima probabilidad. En (a) imágenes se observa en una combinación de color RGB 4,5,3 la imagen a clasificar. En (b) se indican, Plataform sobre la banda TM 3 las áreas de entrenamiento. Dichas áreas corresponden a eucaliptus, pinos y varias cubiertas de vegetación VER TAMBIEN natural y áreas taladas o suelo descubierto. En (c) se observa la Galería de imágenes satelitales imagen clasificada a la cual se aplicaron algunas operaciones ¿Qué es la resolución espacial? cosméticas de post clasificación. En la Fig. 75 se observan los Aplicaciones en Mercados de futuros perfiles espectrales de las clases seleccionadas y en la Fig.76 un Monitoreo de incendios en pozos de petróleo dispersograma en el plano espectral de las bandas TM 3 y Imágenes satelitales y seguros 4. En los perfiles espectrales de la Fig. 75 las líneas verticales azul y roja indican la posición de las bandas 3 y 4. Las porciones de espectros comprendidas entre las dos líneas mencionadas pueden servir para interpretar la posición de los clústeres en el diagrama de dispersión. Particularmente obsérvese que los espectros de las clases C4 y C5 son muy similares entre sí, lo que hace que a los menos en el dispersograma de las bandas TM3 -TM4 no exista una buena discriminación entre los clústeres de dichas clases. observac Aeropuer del mund Imágenes satelitale seguros ¿Qué es resolució Petróleo Forestac Estudios viabilidad Mercado futuros Cultivo d arroz Nuestra m Nuestros servicios ¿Qué es l percepció remota? ¿Qué es u imagen satelital? Uso del G Estación rastreado Pasturas Monitore incendios Sequías Recursos naturales Cultivo d tabaco máxima probabilidad es uno de los más empleados en la clasificación supervisada y utiliza un modelo probabilístico, comúnmente la distribución gaussiana para formular sus reglas de decisión en la categorización de los pixeles. Los parámetros necesarios para el modelo, como la media y la matriz de covariancia se obtienen de los datos de las áreas de entrenamiento. Veamos los fundamentos de este clasificador. VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróle Imágenes satelitales y seguros Supongamos que una imagen posee un total de M clases espectrales que representaremos como Para determinar la clase a que pertenece un pixel en la posición x, nos interesa fundamentalmente conocer las probabilidades condicionales El vector posición x es un vector columna de valores de brillo para el pixel. O sea que describe al pixel co un espacio multiespectral con coordenadas definidas por el brillo. El término p(Ci | x) da la probabilidad d correcta para un pixel en la posición x sea Ci. La clasificación se llevará a cabo según la regla: Nuestro problema es que los p(Ci | x ) en la [1] son desconocidos. Ahora bien, si tenemos suficientes dato entrenamiento podremos estimar una distribución de probabilidad p(x| Ci ) que describe la chance de de en de una clase Ci en la posición x. Obviamente habrán tantas p(x | Ci ) como cubiertas o clases terrestres pr Más tarde veremos cuál puede ser la forma de esta función de distribución. Concretando, para un pixel en un espacio mutiespectral existirá un conjunto de probabilidades relativas de que el pixel pertenezca a cada clases. Esta probabilidad podremos estimarla a partir de los datos de entrenamiento. Tenemos ahora una probabilidad desconocida, p(Ci | x ), que es la que nos interesa, y una conocida p(x | Ci ) obtenible a partir de los datos de entrenamiento. Ambas están relacionadas por el teorema de Bayes: donde p(Ci) es la probabilidad de que la clase Ci esté presente en la imagen. Si, por ejemplo 15% de los pi imagen pertenecen a la clase Ci entonces p(Ci) valdrá 0.15. Esta probabilidad se denomina a priori pues de antes de la clasificación. Esta estimación usualmente es difícil de obtener, ya que el analista debe recurrir a como reconocimiento del terreno, mapas, datos históricos, etc. Por tal motivo en la mayoría de los casos se misma para todas las clases. En cuanto a p(x) es la probabilidad de encontrar un pixel de cualesquiera dela posición x. Aunque para lo que sigue p(x) no va a ser importante podemos notar que Basándonos en [2] podemos escribir la regla [1] como En la [3] se eliminó p(x) al ser factor común. Por conveniencia matemática definiremos funciones discrim como con lo cual podremos escribir la [3] como Pasemos ahora a considerar la forma de la función de distribución de probabilidad p(x| Ci ). Asumiremos para dicha función el modelo normal multivariado. En consecuencia, para un caso de N bandas espectrales puede demostrarse que: En la Fig. 73 se esquematiza el criterio de decisión en este método. La proyección de superficies en campana sobre el plano espectral genera dispersogramas cuyos contornos de equiprobabilidad elipsoidales son los que se representan en la figura. IMAGENES SATELITALES - CLASIFICACION NO SUPERVISADA 9.3.2 Clasificación no supervisada. Como ya hemos mencionado, el método no supervisado crea agrupami clusters y el analista debe intentar asociar una clase temática a cada uno de dichos grupos. Se han propuest algoritmos para crear estos clusters. Como ejemplo nosotros nos referiremos al conocido como ISODATA Organizing Data Analysis Technique). Se trata de un método iterativo que requiere relativamente poca intervención humana, siendo usual que el analista deba especificar: • Número máximo de clusters que el algoritmo debe identificar (p.ej 10, 20 o más según el caso) • Máximo porcentaje de pixels cuyos valores se permite permanezcan incambiados entre iteraciones. Cuando se alcanza dicho número el algoritmo se detiene. VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróleo Imágenes satelitales y seguros • Máximo numero de iteraciones. Cuando se alcanza dicho número el algoritmo se detiene. • Número mínimo de miembros en un cluster. Si un cluster contiene menos de dicho mínimo es eliminado miembros son asignados a un cluster alternativo. • Máxima desviación standard. Cuando la desviación standard para un cluster excede el máximo especific número de miembros que contiene es más que el doble del mínimo especificado, el cluster se divide en otr clusters. • Suele también fijarse valores mínimos para las distancias entre los centros de los clusters. Cuando la dist resulta inferior a dichos valores los clusters se fusionan. Para ilustrar cómo procede el algoritmo ISODATA consideremos un caso bidimensional: un típico diagra dispersión entre bandas 3 (rojo) y 4 (infrarrojo cercano) del LANDSAT. La forma de la nube de puntos responde a la ya mencionada baja correlación entre dichas bandas. Para de región en el espacio de dispersión utilizaremos la media, µk yla desviación standard sk de las bandas cons Consideremos un caso hipotético de 5 vectores. Los 5 vectores se distribuirán desde la ubicación µ3-s3, µ µ3+ s3, µ4+ s4 y constituyen los centros de los clusters iniciales. Se crea así el paralelepípedo de la Fig. no cubre completamente la nube de puntos del diagrama de dispersión. En la primera iteración cada pixel de datos se compara con la media de cada cluster y se asigna a aquél cuya distancia euclidiana al pixel es Luego de esta primera iteración se calcula una nueva media para cada cluster. El proceso iterativo se repite nuevamente para cada pixel tomando ahora como referencia las medias de los nuevos clusters. El p continúa hasta que se cumple alguna de las condicionantes planteadas al comienzo: se alcanza el umbral d estipulado o se alcanza el máximo número de iteraciones establecido. Veamos ahora un caso sencillo de aplicación, para lo cual podemos volver a utilizar la imagen la Fig. 78 q utilizamos en el caso de aplicación del método de máxima probabilidad en la clasificación supervisada. En sin embargo, no definiremos áreas de entrenamiento sino que aplicaremos el módulo ISODATA del softw Nuestra especificación fue la siguiente: 10 clusters, máximo 20 iteraciones, umbral de cambio: 5%, máxima desviación standard por clase:1, dista mínima entre medias de las clases: 3 (DN), máximo número de pares de clases a fusionarse: 2. El resultado se ve en la Fig. 79 donde se han indicado la clases identificadas como eucaliptus 1 (C.1), euc (C.2), pinos (C.3), 2 clases de vegetación natural (C.4,5) y áreas taladas o totalmente descubiertas (C 6). ESTIMACION DE LA EXACTITUD DE UNA CLASIFICACION - MATRIZ DE CONFUSION 9.3.3 Estimación de la exactitud de una clasificación: Matriz de confusión. En un sentido estricto ninguna clasificación puede considerarse completa hasta que su grado de exactitud sea evaluado. Este puede defini grado de concordancia entre las clases asignadas por el clasificador y sus ubicaciones correctas según dato recolectados por el usuario y considerados como datos de referencia. a tomar como referencia el conjunto de datos de entrenamiento, aunque obviamente este procedimiento co sobreestimar la exactitud de la clasificación. Este procedimiento constituiría en realidad sólo una evaluaci calidad de selección de las áreas de entrenamiento. También podría recurrirse a una validación cruzada ba comparaciones con los resultados de otros clasificadores. El instrumento más usual para evaluar la exactitud de una clasificación es la matriz de confusión, también matriz de error o de contingencia. Esta es una matriz cuadrada de n x n, donde n es el número de clases. D muestra la relación entre dos series de medidas correspondientes al área en estudio. La primera serie corre datos de referencia adquiridos de observaciones de campo, inspección de estadísticas agrícolas, interpreta fotos aéreas y otras fuentes similares. La segunda corresponde a la categorización de los pixeles realizada clasificador para las clases de interés. En una matriz de confusión las columnas corresponden a los datos d referencia, mientras que las filas corresponden a las asignaciones del clasificador. A partir de una matriz de confusión pueden deducirse varios índices relativos a la exactitud de la clasifica definir y comentar dichos índices calcularemos, computadora y software mediante, la matriz de confusión escena LANDSAT de la Fig.80 a. Dicha escena corresponde a un área pequeña al norte de la ciudad de San Pedro, Jujuy, Rep. Arg. registrad noviembre de 2005. Clasificamos la imagen por el método supervisado utilizando el algoritmo de las míni distancias. Las áreas de entrenamiento para coberturas terrestres de interés las definimos en base al exame combinaciones RGB color natural y falso infrarrojo apoyados por el análisis de los perfiles espectrales. La entrenamiento corresponden a las siguientes regiones: 1. Forestación 2. Cerros sin vegetación 3. Cultivos 4. Areas no cultivadas Puesto que no teníamos suficiente información terrestre para ser empleada como referencia en la evaluación de la exactitud de dicha clasificación, efectuamos paralelamente una clasificación supervisada utilizando el algoritmo de máxima probabilidad y declarándola (a efectos del presente ejercicio) nuestra fuente de datos de referencia, es decir nuestra verda Las imágenes clasificadas por ambos métodos se presentan en las Figs. 80 b y c. Calculada la matriz los resultados se exponen en la Fig. 81. Fig. 81 – Tabla de valores de la matriz de confusión STIMACION DE LA EXACTITUD DE UNA CLASIFICACION - MATRIZ DE CONFUSION (continu Tenemos dos versiones equivalentes de la matriz: una cuyas entradas se expresan en pixeles y otra en que se expresan como porcentajes. Obsérvese que además de las cuatro clasesde interés se introd columna y fila correspondiente a los pixeles que no pudieron ser clasificados. Los elementos en rojo de la indican los pixeles que fueron correctamente clasificados. Todos los elementos fuera de la diagonal indican errores de omisión o de comisión. Los errores de omisión corresponden a los elementos no diagonales de las columnas (ej.: un total de 4105 pixeles que debieran haber sido clasificados como “forestación” se asignaron a varias otras clases). Los errores de comisión corresponden a los elementos no diagonales de las filas VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróleo Imágenes satelitales y seguros (ej.: 2440 pixeles no clasificados, 8 de forestación, 993 de cerros sin vegetación y 630 de cultivos se incluyeronerróneamente en la clase “áreas no cultivadas”. A partir de la matriz de confusión podemos calcular varias otras medidas de interés desde el punto de vista de la exactitud: Exactitud global (overall accuracy). Se calcula dividiendo el número total de pixeles correctamente clasificados por el número total de pixeles referencia y expresándolo como porcentaje. En nuestro caso, (131261 / 160000)*100 = 82.0381% Este índice es global y no nos indica cómo la exactitud se reparte entre las diversas categorías individuale veces las categorías individuales presentan exactitudes drásticamente diferentes pero se combinan de mod no se refleja en la exactitud global. Examinando la matriz de confusión vemos que podemos utilizar dos m para evaluar la exactitud de las categorías individuales: Exactitud del usuario (user’s accuracy). Se calcula dividiendo el número de pixeles correctamente clasificados en cada categoría por el número to pixeles que fueron clasificados en dicha categoría (total de la fila). Como ejemplo en nuestro caso tenemo forestación (9476 / 14280)*100 = 66.36% Se justifica este índice en el sentido de que el usuario está especialmente interesado en el porcentaje de ca que ha sido correctamente clasificado. Exactitud de productor (producer’s accuracy). Resulta de dividir el número de pixeles correctamente clasificados en cada categoría por el número de pix referencia utilizados para dicha categoría (total de la columna). En nuestro caso tendremos para la categor forestación, (9476 / 13581)*100 = 69.77% El productor está más interesado en este índice pues le dice cuan bien los pixeles de referencia han sido c Las medidas de exactitud que acabamos de considerar, aunque simples de usar están basadas sea en la diag principal, sea en las filas y columnas de la matriz de confusión solamente. Estas medidas no aprovechan la información contenida en dicha matriz considerada en conjunto. Más aún, puede ocurrir que una distribuc totalmente aleatoria de los pixeles en las clases pueda conducir a resultados aparentemente correctos en la confusión. Buscando superar estos inconvenientes se ha propuesto un índice denominado coeficiente kappa. Este est una medida de la diferencia entre la exactitud lograda en la clasificación con un clasificador automático y de lograr una clasificación correcta con un clasificador aleatorio. La definición conceptual del coeficiente kappa es la siguiente: OTROS METODOS DE CLASIFICACION 9.3.4 Otros métodos de clasificación. En las secciones anteriores hemos considerado algunos de los métod usuales de clasificación y que podríamos llamar clásicos. Existen sin embargo muchos otros métodos, tant paramétricos (es decir que asumen alguna clase particular de distribución estadística, usualmente la distrib normal) como no paramétricos (es decir que no hacen suposiciones acerca de la distribución de probabilid de los datos que procesan). Aunque el alcance de este trabajo no nos permite referirnos a todos ellos, nos r brevemente a dos de ellos, ambos no paramétricos: los neuronales y los difusos, que son ejemplos de aplic métodos de inteligencia artificial. 9.3.4.1. Clasificador de red neuronal artificial. Desde un punto de vista operacional nuestro cerebro está c de un enorme número, del orden de 100 billones, de unidades procesadoras simples llamadas neuronas. Ca está interconectada a aproximadamente 10000 otras neuronas. (V. Fig.82) Estas conexiones son complejas, y cada neurona recibe como entrada los resultados producidos por otras a su vez envía sus señales a otras neuronas. El cerebro puede pues ser descrito en términos de un conjunto neuronas que realizan, por mecanismos no bien comprendidos, funciones específicas como las dela visión etc. Se trata de una red neuronal biológica. Las redes neuronales artificiales (Artificial Neural Networks – ANN) intentan de una manera muy simple trabajo del cerebro. Para ello crean una red de unidades procesadoras interconectadas (neuronas artificiale de las cuales es una simple computadora que recibe señales ponderadas provenientes de otras neuronas, la realiza una operación sencilla sobre dicha suma y el resultado lo envía a otras neuronas. En las Figs. 83 a, representamos un ejemplo de una red neuronal básica y su modo operativo. Esta red tiene tres capas de neuronas: la capa de entrada (input layer) es simplemente una interfase que no ningún procesamiento. Las capas media (“hidden layer”) yde salida (output layer)contienen los elementos procesadores de cada nodo de la red. En esta red hay una sola capa media, pero podrían haber más. En un caso simple de clasificación la inform entrada serían los vectores multiespectrales de los pixeles de entrenamiento, una banda por nodo. En cada capa media se produce una sumatoria y una transformación como se representa en la Fig.83.(b). Para cada la capa media llega una entrada pi ponderada sobre la cual se efectúan las siguientes operaciones: hj es la salida del nodo j, y es dirigida a cada nodo de salida k. La salida de éste, ok, vendrá dada por las o La función de transformación más usual es la sigmoidal, y se denomina función de activación que se representa gráficamente en la Fig. 83.(c) CLASIFICACION DE REDES NEURONALES ARTIFICIALES (Continuación) Esta red tiene la capacidad de aprender ajustando los pesos de sus conexiones en un proceso iterativo de entrenamiento con patrones de referencia. Para esto utiliza un algoritmo de retropropagación del error (bac propagation). Este es un algoritmo iterativo degradiente descendente que propaga el error hacia atrás en la generando el reajuste de pesos y minimizando el error de salida respecto al patrón de referencia. Desde el punto de vista computacional una red neuronal puede se considerada como un algoritmo abierto, o programa incompleto, en el sentido de que ciertos parámetros numéricos, los pesos, no son especificados por el programador. Dichos pesos son calculados durante la fase de entrenamiento. Esta requiere ciertos datos, los conjuntos de datos de VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróleo Imágenes satelitales y seguros entrenamiento, y otro programa, el algoritmo de aprendizaje. La razón por la que los pesos no pueden ser especificados es porque usualmente no disponemos de una clave como la relación causa – efecto, es decir, diferentes valores de los pesos afectan el proceso computacional de la red. Esta situación resulta de la esen de las redes neuronales, que son básicamente “cajas negras” cuyo comportamiento es en gran parte impred En efecto, el usuario puede seleccionar la “arquitectura”de la red, el número y tipo de neuronas, la maner están interconectadas, etc. Sin embargo no podrá establecer, ni siquiera intentar adivinar, los pesos. Estos ser establecidos en el proceso de aprendizaje. Entre las ventajas de las redes neuronales artificiales citemo poder aceptar todo tipo de entradas numéricas, respondan o no a alguna distribución estadística. Esto hace provenientes de percepción remota pueden ser adicionados de datos de otro origen. Esta característica es muy útil en el caso de un SIG (Sistema de Información Geográfica) ya que diferente datos espaciales pueden ser usados simultáneamente para mejorar el desempeño del clasificador. Por otra estar constituidas por varias capas de neuronas conectadas por enlaces ponderados son tolerantes al ruido los patrones de entrenamiento: el resultado final podría no verse afectado por la pérdida de una o dos neur resultado del ruido en aquellos. Entre sus desventajas citemos la duración de los tiempos de entrenamiento. Además, el algoritmo de gradi descendente puede alcanzar mínimos locales (es decir un mínimo en la función que relaciona los pesos con más que un mínimo global. También puede oscilar. Otro problema es que los valores de pesos que se aplic inicialmente y que suelen ser valores pequeños y aleatorios influyen en los resultados pudiendo hacer que la red converja hacia diferentes mínimos locales, con lo cual son de esperar diferentes de clasificación. Como ejemplo de aplicación utilizaremos la misma imagen de la Fig. 78 (forestación en Paysandú)que hemos utilizado para aplicar el método supervisado de alta probabilidad y el ISODATA. C de entrenamiento utilizamos regiones de interés similares a las seleccionadas en los casos anteriores. Para clasificación se utilizó una red neuronal de dos capas ocultas y 2000 iteraciones. En las Figs 84 (a) y (b) se la imagen original y la clasificada. En la Fig.85 la gráfica muestra la evolución del proceso iterativo. CLASIFICADORES DIFUSOS (FUZZY CLASSIFIERS) 9.3.4.2 Clasificadores difusos (fuzzy classifiers). Las técnicas de clasificación que hasta ahora hemos desc conducen a que cada pixel individual reciba una categorización única y precisa. En tal sentido se trata de clasificadores “duros”. Esta situación es aceptable en percepción remota cuando el analista se encuentra con extensiones importantes de coberturas terrestres rel uniformes, como extensas áreas agrícolas, grandes cuerpos de agua claros y profundos, etc. En muchos ca embargo, se examinan áreas heterogéneas donde incluso con resoluciones medias de 30 m como la del La puede asegurar que un dado pixel contenga una sola clase de cobertura (un problema de esta naturaleza lo encaramos en la Sec. 8 cuando nos referimos al análisis subpixel). Es o que en ciertos casos la aplicación de clasificadores “duros”va a deteriorar la exactitud de una clasificación el siguiente ejemplo. Dos clusters, como los representados en la Fig. 86(a) pueden ser erróneamente parti por un ISODATA duro cuyo resultado se representa en la Fig.86(b) Conceptos derivados de la “Lógica Difusa”(Fuzzy Logic), una disciplina relativamente joven, nos ayudar enfrentar el problema. Surgen así los conceptos de conjuntos difusos, clasificadores blandos o difusos, gra membresía, etc. Como caso típico de esta metodología consideremos un procedimiento que podemos llamar “ISODATA d blando”. Este, en lugar de generar una partición dura admite que cada pixel puede pertenecer a todos los c con diferentes grados de membresía que van entre 0 y 1. Sea U la matriz de grado de membresía con n col por pixel, y p filas, una por cluster. El número de clusters es especificado por el usuario y los centros iniciales de los clusters son generados aleatoriamente o suministrados por el usuario: Este algoritmo, como el ISODATA, es iterativo en la búsqueda de los centros o centroides de clústeres qu minimizan la diferencia entre los elementos de U. El procedimiento comienza con una inicialización aleat con la condición dada por la [1] : La distancia euclidiana de un pixel i a un centro j viene dada por la expresión usual: Los centros c de los clusters se calculan de acuerdo a: 10. ALGUNAS APLICACIONES DE LA PERCEPCION REMOTA Los avances tecnológicos de las últimas décadas en el campo de la percepción remota y de sus cada vez más numerosas aplicaciones nos hacen desistir de intentar realizar acerca de éstas una presentación sistemática y formal, sobre todo si queremos mantener el carácter introductorio de este trabajo. Ya en los capítulos anteriores, al referirnos a diversos aspectos y procedimientos de la Percepción Remota los hemos ilustrado con algunos ejemplos de aplicación a casos de monitoreo de recursos terrestres. Para este capítulo final hemos elegido algunos temas de aplicación puntuales que creemos pueden ser de especial interés para quienes nos han acompañado hasta aquí. Estos temas son: OTROS ITEMS DE INTERES Galería de imágenes Plataform de observaci Aeropuert · Aplicaciones en agricultura. · Temperaturas terrestres y marinas. · Monitoreo de áreas de desastre. Esta selección no pretende restar importancia a aplicaciones como urbanismo, geología y mineralogía, hidrología, estudios climáticos y atmosféricos, etc. 10.1 Aplicaciones en Agricultura. La percepción remota se ha convertido en una importante fuente de información en el manejo de la producción agrícola, no sólo a escalas locales sino a nivel global, particularmente para aquellas regiones en que el suministro de alimentos suele pasar por períodos críticos. En estas aplicaciones la percepción remota es particularmente empleada para la identificación de cultivos así como analizar el estado de éstos, jugando para ello un papel primordial las características espectrales de las principales coberturas terrestres a que ya nos hemos referido en el Capítulo 4 del presente trabajo. Indices de vegetación. Vamos a referirnos a ciertas operaciones algebraicas efectuadas sobre los valores numéricos de los pixeles correspondientes sobre dos o más bandas pertenecientes a la misma escena. Entre las más importantes figuran las que conducen a evaluar los índices de vegetación. Un índice de vegetación es un número generado por alguna combinación de bandas espectrales y que puede tener alguna relación con la cantidad de la vegetación presente en un dado píxel de la imagen El más conocido es el Indice Diferencial de Vegetación Normalizado (NDVI – Normalized Difference Vegetation Index) del mundo Imágenes satelitales seguros ¿Qué es la resolución Petróleo Forestació Estudios d viabilidad Mercados de futuros Cultivo de arroz Nuestra misión Nuestros servicios ¿Qué es la percepció remota? ¿Qué es u imagen satelital? Valores muy bajos de NDVI, del orden de 0.1, corresponden a áreas rocosas, arenosas o nevadas. Valores de 0.2 a 0.3 pueden corresponder a áreas pobres con arbustos o pasturas naturales. A partir de estos valores tendremos los niveles correspondientes apraderas, cultivos, forestaciones etc. dependiendo el valor alcanzado, que puede llegar hasta 0.6 y 0.8, del estado de desarrollo y sanidad de tales áreas. Es obvio, de acuerdo a lo expuesto en el Cap. 4, que el fundamento de la definición del NDVI radica en las características del espectro de los vegetales. En efecto, ya vimos (Fig. 11, pág. 9) que la radiación reflejada por una hoja en la región visible depende fundamentalmente de la radiación absorbida por los pigmentos de la hoja, mientras que en el infrarrojo cercano, en la región de 0.7 a 1.3 mµ, depende de la estructura interna de la hoja. Para valores mayores de 1.3 mµ aparecen mínimos de reflectancia a 1.4, 1.9 y 2.7 mµ. El stress vegetal suele manifestarse cuando por efecto de factores como sequía, enfermedades, infección por plagas, etc., la hoja ve reducido su contenido de agua. Esto produce el colapso de las células del mesodermo inferior (Fig. 12, pág.9), lo cual reduce la reflectancia en el IR cercano, constituyendo un síntoma previsual de stress ya que suele manifestarse días e incluso semanas antes de que comiencen a apreciarse cambios visualmente o a través de la fotografía color convencional. El espectro vegetal de la Fig. 11 posee el aspecto típico del obtenido con un espectrómetro de laboratorio o bien con un sensor hiperespectral. Como los satélites más Uso del G Estación rastreador Pasturas Monitoreo de incend Sequías Recursos naturales Cultivo de tabaco usuales actualmente son sólo multiespectrales no nos pueden suministrar una curva espectral con la alta resolución de un espectrómetro o un sensor hiperespectral. Sin embargo, con sus datos, por ejemplo con las 6 bandas visibles e infrarrojas del Landsat, podemos construir un espectro grosero como el de la Fig.87 que de algún modo refleja las características del espectro de laboratorio y que nos puede brindar mucha información acerca del estado de un cultivo, de una forestación, etc. La curva a corresponde a pleno vigor vegetativo, la b representa una etapa más próxima a la maduración y la c marca ya un estado de senescencia. Obsérvese el quiebre de las curvas a aprox. 1.6mµ, que es un reflejo del contenido de agua de la hoja y permite diferenciar claramente por el cambio de concavidad de la curva la transición a un estado de stress. Si se consideran los valores relativos de las reflectancias en el rojo y en el infrarrojo cercano para cada banda se comprende que ocurrirá un notorio decrecimiento del NDVI al pasar de la banda a a la c Algunos ejemplos de aplicación del NDVI · Seguimiento de una sequía. Durante los meses de noviembre de 1999 a marzo de 2000 se produjo en Uruguay una intensa sequía. Esta fue seguida desde nuestra estación de rastreo de El Pinar a través de imágenes NOAA de 1 km de resolución y calculando los índices de vegetación. Las imágenes obtenidas se representa en la secuencia de la Fig. 88 · Seguimiento de cultivos Las Figs. 89 a 91 de la pág. 82 muestran una secuencia de imágenes temporales de algunas arroceras a lo largo de un pequeño sector del Río Cuareim cerca y al NNW de la ciudad de Artigas. Las imágenes cubren aproximadamente 14 km x 14 km y fueron extraídas de una imagen Landsat standard de 185 km x 185 km. Junto a cada imagen se muestra la foto del estado de desarrollo de una pequeña arrocera cuya posición se indica en la imagen (ensayo de La Escuela Agraria de Artigas). La Fig. 89, corresponde al 30-11-98, y la arrocera de referencia posee un NDVI de 0.1 0.2. Se observan otras áreas (blancas) cuyos índices son prácticamente cero y con menores desarrollo que la de referencia. En la Fig. 90 se muestra la situación al 01-01-99 y puede observarse cómo el NDVI de la referencia ha aumentado a aprox. 0.7, observándose que algunas áreas blancas han elevado su NDVI, algunas notoriamente. Obviamente se trata de otras arroceras en diferentes estados de evolución. En la Fig. 91 el NDVI de referencia a aumentado a 0.8-0.9 y también otras arroceras han aumentado notoriamente sus índices. Vemos cómo la percepción remota ofrece la posibilidad de monitorear el estado de los cultivos y, estando las imágenes georreferenciadas también permitirá calcular las áreas cultivadas. · Monitoreo a nivel global Los ejemplos anteriores son de carácter localizado. Sin embargo existen actualmente satélites como los de la serie NOAA y TERRA (Ver en la página 17 de este trabajo nuestros comentarios sobre Satélites Meteorológicos y Agrometeorológicos así como acerca de Los Nuevos Satélites Para la Observación de la Tierra) que en el marco de programas de monitoreo permanente de la superficie terrestre como por ejemplo el programa EOS (Earth Observation System) de la NASA, suministran información permanente sobre cambios en las coberturas terrestres. Entre los productos que estos programas suministran se encuentra el NDVI a nivel global. Estos productos están disponibles en Internet en resoluciones espaciales de 250m a 1 km por pixel. Uno de los sitios más apropiados para bajarlos es el Earth Observing System Data Gateway http://edcimswww.cr.usgs.gov./pub/imswelcome/ INDICES N-DIMENSIONALES - TASSELED CAP 10.1.2 Indices N-dimensionales “Tasseled Cap”. Los índices descritos anteriormente se basan en operaciones algebraicas realizadas sobre sólo dos bandas espectrales, la R y la IRC en el caso del EVI se agrega la azul. Sin embargo, es obvio que las demás bandas espectrales también contienen información de interés en el estudio de las cubiertas vegetales, de vegetación N-dimensionales. En la Sec. 9.2.3, pág. 46 del presente trabajo nos referimos al análisis por Componentes Principales. Vimos que éstos se obtenían a través de una transformación matemática que permitía comprimir toda la información contenida en un conjunto de N bandas espectrales a un conjunto menor de nuevas bandas o componentes. Una transformación similar fue desarrollada por Kauth y Thomas pero pensada de modo que los nuevos ejes VER TAMBIEN Galería de imágenes satelitales ¿Qué es la resolución espacial? Aplicaciones en Mercados de futuros Monitoreo de incendios en pozos de petróleo Imágenes satelitales y seguros maximicen información de importancia en agricultura. Esta transformación, llamada “Tasseled Cap”, permite resaltar los fenómenos más importantes (espectralmente observables) que ocurren durante el desarrollo de un cultivo. Esta transformación, aplicada a las seis bandas TM (excluida la térmica) del LANDSAT indica que la información de valor agronómico ocupa esencialmente tres dimensiones: 1. Brightness: está asociado a las variaciones de reflectancia del suelo 2. Greeness: está correlacionado con el vigor de la vegetación 3. Third (o Wetness): está influído por las bandas en el IR medio y tiene que ver con la humedad vegetal y del suelo. Las tres primeras dimensiones definen dos planos: el de vegetación y el de suelos (Fig.93): En el plano de vegetación podemos representar la evolución estacional de un cultivo (Fig.94): 1: suelo sin cubierta vegetal o con siembra reciente 2: cultivo emergente 3: madurez, cosecha 4: suelo sin cubierta o con rastrojo El dispersograma de la imagen de un cultivo en el plano de vegetación sería proximadamente el esquematizado en la Fig. 95: Su forma se parece al gorro de Santa Claus (gorro con borlas = tasseled cap): de ahí el nombre de la transformación. Pasando a un caso real, en las Figs. 96 a, b, c y d vemos: a: Un área donde se observan tierras descubiertas, pasturas, areas de cultivos y montes. b y c: Las imágenes correspondientes a los índices de Brightness y Greeness según la transformación del Tasseled Cap. d: El dispersograma de dichas imágenes. Figs.96 a,b,cyd Veamos ahora otro ejemplo de aplicación. Para ello volveremos a considerar el caso de la zona arrocera al norte de la ciudad de Artigas con la que recientemente ilustramos el seguimiento de un cultivo utilizando el NDVI aplicado a imágenes multitemporales. En las Fig. 97a aparece una imagen RGB color natural de dicha zona adquirida el 30/11/99 y en las Figs 97 b, c y d las imágenes de brightness, greeness y wetness obtenidas luego de aplicar la transformación de tasseled cap. Con estas tres últimas imágenes podemos realizar una combinación RGB tal que R=brightness, G=greeness y B=wetness. Esta combinación se representa en la Fig.98a. La Fig. 98b corresponde a una transformación similar r realizada para una imagen de la misma zona captada en la fecha 17/01/00. En las Figs. 98, a y b, las áreas rojizas corresponden a suelo, las verdes a vegetación y las azules a zonas húmedas o agua. Las situaciones intermedias aparecen como balances entre dichos colores. En particular se puede observar el grado de inundación de los arrozales, rojo oscuro o violáceo (suelo y humedad) o azul (totalmente inundados). Comparando ambas imágenes puede detectarse en enero el aumento de tonalidades rojizas, indicando una reducción de la cubierta de pasto y aparición de suelo descubierto (el verano1999-2000 se caracterizó por una intensa sequía). En la zona de arrozales pueden observarse los cambios que en cuanto a grado de inundación, comienzo de emergencia, etc., ocurrieron durante el período. INDICES DE VEGETACION A PARTIR DE IMAGENES HIPERESPECTRALES 10.1.3 Indices de vegetación a partir de imágenes hiperespectrales De los índices de vegetación bidimensionales (ej. NDVI) hemos pasado a los Ndimensionales (ej. Tasseled Cap, que utiliza 6 bandas del Landsat). Una extensión de estos últimos lo constituyen los índices obtenidos a partir de imágenes hiperespectrales, es decir, obtenidas con sensores de elevada resolución espectral que permiten recoger información terrestre no en unas pocos canales espectrales, como el SPOT o el LANDSAT, sino en un gran número de ellos, pudiendo llegar a 200 o más. Los espectros así obtenidos son comparables a los espectros obtenidos con los espectrómetros en el laboratorio. Originalmente los sensores hiperespectrales se montaron en plataformas aéreas, como el AVIRIS (airborne visible / infrared imaging spectrometer) de la NASA, puesto en servicio en 1989 y que posee 210 canales que operan entre 0.4 y 2.45 µm con anchos de bandas de 10 nm. Un sensor de características similares (Hyperion) se encuentra a bordo del satélite EO-1 de la NASA, lanzado en noviembre del 2000. La Fig. 99 permite comparar la resolución espectral de un espectro multiespectral (LANDSAT) y uno hiperespectral (EO-1 Hyperion) en el caso de una cubierta vegetal terrestre: El potencial analítico que ofrecen las imágenes obtenidas con sensores hiperespectrales es obvio, y una de sus grandes posibilidades es el procesamiento en derivadas de las curvas espectrales, que permite reducir la influencia de interferencias. Veamos un ejemplo. En la Fig. 100 se esquematizan los espectros del suelo y del vegetal así como del espectro resultante de la adición de ellos, que es el espectro que realmente registra el sensor del satélite. Consideremos sólo la región espectral entre aproximadamente 0.625 y 0.770 um. En el intervalo elegido el espectro del suelo puede considerarse prácticamente lineal ( y = ax + b). La Fig 101 permite comprobar cómo la derivación permite eliminar la influencia del suelo. Estas propiedades de las derivadas podemos aplicarlas a: 1. Al análisis del “borde rojo” del espectro de los vegetales. Dicho borde corresponde al punto de inflexión que se produce entre el rojo y el IR cercano en el espectro de los vegetales verdes. Los desplazamientos de su posición se han asociado a cambios fenológicos y al stress vegetal. La posición del borde rojo puede determinarse con precisión ubicando el máximo de la derivada primera del espectro. V. Fig. 102(a) 2. Calculo de un nuevo índice de vegetación: Supongamos que el sensor hiperespectral está recibiendo radiación reflejada por un cultivo junto con la reflejada por el suelo de los surcos intermedios o reflejada por el suelo mismo debajo del follaje y que atraviesa nuevamente la cubierta vegetal en dirección al sensor. Esta situación se representó gráficamente en la Fig. 100. Se propuso emplear la integral de la derivada segunda como un índice de vegetación para eliminar la influencia del suelo (Fig. 102(b). Las consideraciones que anteceden permiten prever un amplio campo de investigación en la evaluación de las cubiertas vegetales basado en las posibilidades que nos abre la modalidad hiperespectral de las plataformas satelitales. PERCEPCION REMOTA EN EL INFRARROJO TERMICO OTROS DE INTE 10.2.1 Generalidades sobre el infrarrojo térmico (IRT). Todo objeto cuya temperatura se encuentre por encima del cero absoluto emite energía electromagnética en la región infrarroja térmica (3 a 14 mµ) del espectro electromagnético. Si bien el ojo humano es insensible a dichas radiaciones existen, como ya hemos visto en el Capítulo 7 de este trabajo, sensores capaces de detectarlas. Efectivamente, los VER TAMBIEN sistemas de percepción remota en el IRT son capaces de Galería de imágenes satelitales registrar imágenes térmicas que ofrecen incontables aplicaciones, ¿Qué es la resolución espacial? fundamentalmente en el monitoreo de las superficies Aplicaciones en Mercados de futuros terrestres y oceánicas así como de fenómenos atmosféricos. Es Monitoreo de incendios en pozos de petróleo una práctica usual medir la temperatura de un cuerpo Imágenes satelitales y seguros mediante un termómetro que está en contacto o sumergido Galería d imágene Plataform observa Aeropue del mun Imágene satelitale seguros ¿Qué es resoluci Petróleo Forestac Estudios en dicho cuerpo. La magnitud así medida es la llamada temperatura cinética que constituye una manifestación interna de la energía translacional asociada al movimiento aleatorio y colisiones de las moléculas del cuerpo considerado. Esta energía interna puede convertirse en energía radiante y ser emitida como tal, haciéndola accesible a las técnicas de percepción remota. Se puede medir así la temperatura radiante del objeto que está correlacionada, aunque no es exactamente igual, a la temperatura cinética. Efectivamente, aquélla es siempre algo más baja que esta última debida a una propiedad térmica de los cuerpos que llamamos emisividad y que más adelante consideraremos.asociada al movimiento aleatorio y colisiones de las moléculas del cuerpo considerado. Esta energía interna puede convertirse en energía radiante y ser emitida como tal, haciéndola accesible a las técnicas de percepción remota. Se puede medir así la temperatura radiante del objeto que está correlacionada, aunque no es exactamente igual, a la temperatura cinética. Efectivamente, aquélla es siempre algo más baja que esta última debida a una propiedad térmica de los cuerpos que llamamos emisividad y que más adelante consideraremos. viabilida Mercado futuros Cultivo d arroz Nuestra Nuestro servicio ¿Qué es percepci remota? ¿Qué es imagen satelital? Uso del G Estación rastread Pasturas Monitore incendio Sequías En la gráfica de la Fig. 103 se representan las curvas de radiación del cuerpo negro para distintas temperaturas Recurso naturales Cultivo d tabaco FILAMENTO DE TUNGSTENO La energía total W emitida por la superficie del cuerpo negro a una dada temperatura viene dada por el área bajo la curva y matemáticamente se describe por la ley de StefanBoltzmann: Saliendo ahora del plano puramente teórico diremos que en general los objetos terrestres no son emisores perfectos como el cuerpo negro, sino que a una dada temperatura emiten menos radiación que el cuerpo negro a la misma temperatura. La fracción que ellos emiten respecto al cuerpo negro es una medida de su emisividad (e). Así por ejemplo, si a una dada temperatura y longitud de onda una superficie emite la mitad de la radiación que emitiría un cuerpo negro en las mismas condiciones su emisividad será de 0.5. Ejemplos de emisividad para algunos materiales en la región de 8-14 mµ: De acuerdo a la definición que dimos de emisividad ésta podrá variar entre 0 y 1, pero cabe aquí señalar que un cuerpo que posee una emisividad menor que 1 pero que permanece constante para todas las longitudes de onda se denomina cuerpo gris. Es decir que para este tipo de objeto a todas las longitudes de onda su emisividad es una fracción constante de la del cuerpo negro. Si en cambio la emisividad del objeto varía con la longitud de onda se denominará radiador selectivo. La Fig. 105 permite comparar las curvas de emisión para el cuerpo negro, para un cuerpo gris y para un radiador selectivo. El agua es por ejemplo un cuerpo gris, mientras que el cuarzo es un radiador selectivo. APLICACIONES DEL INFRARROJO TERMICO OTROS IT DE INTER 10.2.2 Aplicaciones La medida de temperatura desde plataformas orbitales constituye un parámetro de fundamental importancia en la estimación de diversas variables de interés terrestre y oceánico. La tradicional medida de temperaturas mediante termómetros o termistores por contacto está obviamente asociada a elevados costos operacionales y dificultades cuando dichas medidas pretenden cubrir extensas áreas geográficas. Galería d imágenes Plataform de La gran solución a este problema la constituyen las VER TAMBIEN mediciones desde satélites con sensores que operan en la región Galería de imágenes satelitales del IRT. Existe actualmente muchos satélites con tales ¿Qué es la resolución espacial? sensores, pero aquí nos limitaremos a citar como Aplicaciones en Mercados de futuros ejemplos los de la serie NOAA (National Oceanic Monitoreo de incendios en pozos de petróleo and Atmospheric Administration – USA) y los Imágenes satelitales y seguros satélites TERRA y AQUA del sistema EOS de la NASA con su instrumento MODIS Refiriéndonos en particular a la serie NOAA, diremos que es una familia de satélites solarsincrónicos que orbita a 833 km de altitud. Su sensor AVHRR (Advanced High Resolution Radiometer) ha sido tal vez el más ampliamente utilizado para las medidas de temperatura. Posee cinco canales: uno en el visible (0.63 mµ ), uno en el IR cercano (0.91 mµ), uno en el límite IR cercano/térmico (3.7 mµ) y dos en el IRT (10.8 mµ y 12 mµ). Este sensor posee una resolución espacial de 1.1 km y un ancho de barrido de 2400 km. Los satélites en actividad de esta serie son NOAA-12, 14, 15, 16, 17 y 18. Debe tenerse en cuenta que pese a su gran eficiencia para medir temperaturas sobre grandes extensiones geográficas sus mediciones no están libres de dificultades, particularmente por la acción combinada de perturbaciones debidas a la emisividad del terreno y el efecto atmosférico. La perturbación atmosférica es debida fundamentalmente a la absorción y emisión de radiación térmica por parte del contenido de vapor de agua atmosférico, mientras que el efecto de emisividad se debe a la heterogeneidad de los elementos presentes en la superficie terrestre. En consecuencia, una adecuada estimación de temperatura desde plataformas satelitales requerirá corregir los defectos indicados. Dentro de las técnicas disponibles para estas correcciones se destaca el método conocido como de “ Ventana Dividida o Split Window” que combina los datos obtenidossimultáneamente por dos canales espectrales en la misma ventana de transmisión atmosférica. Se basa en el hecho de que la atenuación atmosférica que experimenta la radiación emitida por la superficie terrestre es proporcional a la diferencia de las correspondientes observac Aeropuer del mund Imágenes satelitale seguros ¿Qué es resolució Petróleo Forestaci Estudios viabilidad Mercados futuros Cultivo d arroz Nuestra misión Nuestros servicios ¿Qué es l percepció remota? ¿Qué es u imagen satelital? Uso del G Estación rastreado Pasturas Monitoreo incendios Sequías Recursos naturales Cultivo de medidas efectuadas desde satélite y realizadas simultáneamente desde dos canales térmicos distintos. En tal sentido se han propuesto algoritmos para estimar la temperatura de superficies tabaco terrestres y oceánicas basándose en los canales AVHRR 4 y 5 que aprovecha el efecto diferencial de la atmósfera sobre la señal radiométrica en la región de la ventana atmosférica en la que operan estos canales. La forma básica del algoritmo de ventana dividida para los canales AVHRR 4 y 5 es la siguiente: Donde a y b son constantes que pueden ser estimadas a través de modelos de simulación o por correlación con observaciones terrestres. La medida de temperatura es un buen indicador para el monitoreo del balance energético en la superficie terrestre y sirve como indicador del efecto invernadero. Esto la hace esencial para variados estudios de naturaleza climática, hidrológica, ecológica y biogeoquímica. 10.2.2.1 Temperatura del mar. Consideremos algo más en detalle las medidas de temperaturas marinas. Debe tenerse en cuenta que como las radiaciones infrarrojas térmicas son intensamente absorbidas por el agua las medidas de temperatura que se obtienen corresponden a una capa superficial de pocos milímetros de espesor (temperatura de piel) y van a ser algo inferiores a la de aguas más profundas. Sin embargo, como a través de esa “piel”ocurren importantes procesos de intercambio térmico entre el mar y la atmósfera, estas medidas de temperatura son de fundamental importancia para estudios climáticos a nivel global. Citemos como típico ejemplo de monitoreo de una anomalía térmica el fenómeno de El Niño. Este consiste en un conjunto de alteraciones que tienen lugar en el Pacífico oriental a intervalos de tiempo irregulares, por lo general de cuatro a siete años. Su origen se atribuye a procesos complejos de interacción océano-atmósfera, algunos aúnpoco comprendidos, y con efectos desastrosos a nivel global. En la Fig. 106 se representan un mapa de la NOAA, generado a través de datos satelitales, de las anomalías térmicas en el Pacífico en Setiembre de 1997, temporada en que el fenómeno de El Niño se había presentado con especial intensidad y había alcanzado ya su “madurez” En la Fig. 107 se indican los eventos climáticos que indujo en el globo, incluso a distancias muy grandes como en la India. Las observaciones de temperatura superficial del mar son obviamente muy importantes para los oceanógrafos puesto que permiten el análisis espacial y temporal de las corrientes oceánicas así como de sus variaciones. Incluso facilitan el pronóstico de desastres climáticos como los inducidos por la corriente de El Niño. Si pasamos ahora del nivel global al local veamos como ejemplo una imagen NOAA de temperaturas del mar en las cercanías del Río de la Plata y regiones costeras adyacentes. (Fig.108): La imagen fue registrada a principios de febrero y las temperaturas son relativamente elevadas. Son fáciles de distinguir los frentes de confluencia entre aguas de distintas temperaturas (corriente de las Malvinas-corriente del Brasil). En estos frentes se producen importantes gradientes de temperatura, como el que se produce a lo largo de la línea P y se registra en la gráfica de la Fig. 109. Estos afloramientos de aguas profundas más frías rodeadas de áreas más calientes son lugares de intensa creación de biomasa (plancton) y ellas inducen la concentración de peces. Una comprobación gráfica de esto lo constituye la Fig. 110. Esta es una imagen adquirida por el satélite Sea Star de la NASA dela costa patagónica donde se observa claramente la península de Valdés. Es una imagen registrada en el rango espectral visible y permite visualizar el color del mar. Una línea de color más claro marca la convergencia de las corrientes de las Malvinas y de Brasil. Al oeste de esta línea los colores verdosos indican afloramiento de fitoplancton sobre las agua más frías de la corriente de las Malvinas. Al este de la línea de convergencia los colores azules más profundos indican la ausencia de fitoplancton. Las medidas de temperatura en el IRT ofrecen así un método para orientar a los buques pesqueros más directamente a las áreas propicias de captura, reduciendo su consumo de combustible y aumentando su eficiencia en masa y tiempo de captura. APLICACIONES DEL INFRARROJO TERMICO (Continuación) 10.2.2.2. Temperatura terrestre. La temperatura terrestre es un buen indicador del balance energético y del efecto invernadero, puesto que constituye uno de los parámetros clave en la física de los procesos que ocurren en la superficie de la Tierra tanto a nivel local como global. Combina los resultados de las interacciones superficie-atmósfera y de los flujos energéticos entre la atmósfera y el suelo. Por tal VER TAMBIEN motivo su medida es necesaria para variados estudios Galería de imágenes satelitales climáticos, hidrológicos, ecológicos y biogeoquímicos. Su ¿Qué es la resolución espacial? importancia en agricultura radica en que la temperatura del suelo y Aplicaciones en Mercados de futuros del follaje es uno de los factores determinantes del crecimiento Monitoreo de incendios en pozos de petróleo vegetal y gobierna el inicio y terminación de los procesos Imágenes satelitales y seguros estacionales de los vegetales. Como en el caso de las medidas marinas en las terrestres existen abundantes bases de datos de temperatura a nivel global obtenidos a través de los sensores AVHRR y MODIS, aunque también se obtiene información de esta naturaleza a través de satélites geoestacionarios (ej. serie GOES). Como en el caso de la medida de temperatura del mar también aquí se recurre a algoritmos de cálculo, por ejemplo del tipo de ventana dividida o split-window para procesar los datos de infrarrojo térmico. Pasemos ahora a considerar algunos ejemplos más concretos de aplicación de medidas de temperatura. Uno de ellos, cada vez más importante cuando se asocia a los cambios climáticos globales que afectan nuestro planeta es el monitoreo de incendios. Los incendios de diferentes tipos de biomasa como forestaciones, malezas, residuos agrícolas, etc. juegan un importante rol en los cambios climáticos emitiendo a la atmósfera gases de invernadero y aerosoles y afectando seriamente la biodiversidad de los ecosistemas. La información satelital en la prevención y monitoreo de incendios, particularmente en áreas extensas o en territorios de difícil acceso resulta sumamente valiosa. Un sensor como AVHRR o MODIS no sólo puede detectar incendios cuando ya están declarados a través de la visualización de sus plumas de humo (V. Fig.111 Incendios de campo en Paraguay)) sino que puede hacerlo a través de la detección de anomalías térmicas o puntos calientes antes de que los efectos visuales se manifiesten notoriamente. Esta capacidad Fig 111 de detección es mayor en las observaciones infrarrojas nocturnas, ya que durante el día, particularmente en climas cálidos, pueden confundirse fuegos activos con superficies arenosas o asfálticas muy calientes. Existen sistemas satelitales de monitoreo de incendios a nivel global. El FIRMS (Fire Information for Resource Management System) por ejemplo genera un mapa de puntos calientes/incendios casi en tiempo real accesible por Internet. El FIRMS, operado por la NASA y la Univ. de Maryland se basa en el sistema de respuesta rápida de MODIS. (http://rapidfire.sci.nasa.gov/status/) En la Fig.112 se observa un mapa del sistema de Respuesta rápida de MODIS (Julio de 2006) donde se observan puntos calientes y/o incendios en Uruguay, Paraguay y parte de la Argentina. Nuevamente se observa una gran densidad de puntos calientes en Paraguay, correspondientes a incendios de campo como los registrados en la Fig. 111. Hasta aquí las aplicaciones de detección de incendios que mencionamos se han basado en sensores de baja resolución espacial. El siguiente caso se refiere a imágenes captadas por el LANDSAT TM en un incendio registrado en el Parque Nacional de Yellowstone (USA) en Julio de 1988 (Fig.113). Esta imagen “color natural” se ve obviamente afectada por el efecto dispersivo del humo y otros componentes atmosféricos, como era de esperarse tratándose de bandas de longitudes de onda relativamente cortas. Si, en cambio consideramos las bandas infrarrojas TM 4, 5 y 7 (Fig.114), esta última justamente en el límite entre el infrarrojo medio y el térmico, es decir si consideramos una combinación RGB 754, vemos cómo el efecto del humo desaparece y se observan detalles de los frentes de ignición. Aunque las bandas que hemos utilizado son sensibles a la radiación solar reflejada, las zonas en combustión están suficientemente calientes como para emitir energía a dichas longitudes de onda. Esto se comprende fácilmente observando las curvas de la Fig. 115, que muestras las bandas espectrales TM superpuestas a las curvas de emisión radiante a diversas temperaturas Para completar estas breves consideraciones acerca de la aplicación de las medidas de temperatura a partir de datos satelitales nos referiremos a un caso en que el objetivo no era la detección de puntos calientes sino por el contrario el seguimiento de heladas. Durante el invierno del año 2000 se produjeron temperaturas muy bajas al sur de Brasil (estados de Paraná, San Pablo, Minas Geraes). Las temperaturas de –4oC y menores llegan a ser letales para los cafetales y se encomendó a nuestra estación de El Pinar, Depto. de Canelones, efectuar un seguimiento de las temperaturas nocturnas de la región, ya que las madrugadas son más propensas a alcanzar dichos mínimos. El seguimiento se efectuó mediante las bandas térmicas de los satélites NOAA 12 y 14 y fueron captadas por un sistema AVHRR HRPT (High Resolution Picture Transmission). En la Fig. 116 se presenta un típico mapa de temperaturas de los obtenidos durante el monitoreo. Los contornos verdes marcan la posición de las principales áreas cafetaleras. Puede observarse que en varias zonas de éstas las temperaturas alcanzadas permiten pronosticar deterioros irreversibles en las plantaciones. MONITOREO DE AREAS DE DESASTRE OTROS IT DE INTER 10.3 Monitoreo de áreas de desastre. Las imágenes satelitales constituyen una valiosa herramienta para acceder rápidamente a aquellas áreas sometidas a desastres ecológicos. Su amplia área de cobertura, su facilidad para visualizar rápidamente y evaluar la situación de aquellos lugares donde las mismas consecuencias del desastre impiden o dificultan otros Galería de imágenes Plataform tipos de aproximación son factores fundamentales en el manejo de las acciones de VER TAMBIEN recuperación posteriores al evento. Incluso en muchos casos Galería de imágenes satelitales la información satelital permite emitir alertas previos al evento: ¿Qué es la resolución espacial? en efecto, muchos tipos de desastres, como inundaciones, Aplicaciones en Mercados de futuros sequías, huracanes, erupciones volcánicas, etc. poseen señales Monitoreo de incendios en pozos de petróleo precursoras que un satélite pude detectar. El alerta temprano Imágenes satelitales y seguros permite reducir los riesgos potenciales y planificar las acciones a tomar durante y luego del episodio. Cuando hablamos de desastres ecológicos lo hacemos en un sentido amplio. En efecto, incluimos en dicho concepto no sólo los desastres naturales sino también los debidos a la acción humana directa o bien inducidos por la acción humana. Algunos son de rápido desenlace y con resultados devastadores, otros son de desarrollo lento pero con iguales o más serias repercusiones en el tiempo. 10.3.1 Algunos ejemplos típicos. observac Aeropuer del mund Imágenes satelitales seguros ¿Qué es l resolució Petróleo Forestaci Estudios viabilidad Mercados futuros Cultivo d arroz Nuestra m · Sequías e incendios. En el desarrollo de este trabajo ya nos referimos a casos de aplicación de Nuestros servicios los métodos de percepción remota a eventos ecológicos cuando presentamos ejemplos de seguimiento de sequías y monitoreo de incendios. En ciertas regiones estostipos de desastres ¿Qué es l son frecuentes y con graves consecuencias para las poblaciones afectadas. · Inundaciones. Las inundaciones constituyen otro caso cuyo seguimiento y evaluación es fácilmente realizable desde el espacio. Utilizando imágenes multitemporales, es decir, tomadas en diferentes fechas, es posible detectar y cuantificar cambios ocurridos en el área afectada en el lapso transcurrido entre la adquisición de las imágenes. Las Figs. 117 a y b representan la misma escena: la confluencia de los ríos Missisipi y Missouri en las proximidades de las ciudades de St.Charles y St.Louis antes y después de las inundaciones del verano de 1993 percepció remota? ¿Qué es u imagen satelital? Uso del G Estación rastreado Pasturas Monitoreo incendios Sequías Recursos naturales Cultivo de tabaco Las imágenes corresponden a la banda TM5 del LANDSAT que permite realzar los cuerpos de agua por su color casi negro. Existe un procedimiento muy útil para evaluar cambios: si entre las dos fechas no hubiera ocurrido ningún cambio de importancia en la escena, las dos imágenes TM5 estarían fuertemente correlacionadas y un dispersograma de ambas evidenciaría dicha correlación. El dispersograma real es el de la Fig. 118 b donde el sector alargado horizontal en la parte inferior corresponde a los pixeles inundados. Si pedimos a la computadora que los destaque en la imagen de la inundación, Fig. 118 a, se evidenciarán (color azul) las zonas inundadas, pudiendo medirse su área total, el área de las zonas urbanas inundadas, etc. Una combinación RGB 432 (falso infrarrojo, Fig. 119) complementa la anterior imagen y permite identificar la naturaleza de algunas áreas emergentes de la inundación · Terremotos y tsunamis: La aplicación de las técnica de percepción remota a los terremotos puede considerarse un complemento de los sistemas de monitoreo terrestre. El concepto de alerta temprano por parte de la percepción remota en este tipo de eventos es usualmente algo diferente que para otros tipos de desastres. En efecto, el aporte más útil en este caso es fundamentalmente el rápido suministro de información post-desastre a las autoridades que manejan la recuperación del área. Esta información se logra sobre todo a través de imágenes de alta resolución tales como IKONOS o QUICKBIRD, como se ejemplifica en las imágenes 120 a,b,c, correspondientes a un terremoto ocurrido en Algeria, región de Boumerdes en Mayo del 2003 Rojo: áreas dañadas y escombros Verde: asfalto y techos sin daños Azul: suelo Amarillo: vegetación Cian: sombra No obstante lo expresado anteriormentecon carácter general respecto a los alertas preterremoto, actualmente las técnicas de Percepción Remota pueden realizar su contribución a éstas a través de detección de deformaciones del terreno previas al evento sísmico. Esto se realiza mediante satélites con ciertos sensores que dado el alcance de este trabajo no hemos considerado antes : son los sensores de radar interferométrico que pueden llegar a detectar las deformaciones del orden de centímetros que pueden manifestarse previamente a los terremotos. En cuanto a los tsunamis, olas devastadoras provocadas por terremotos o erupciones submarinas, son también objeto de alerta y evaluación de daños por técnicas de Percepción Remota. Fue un caso típico el ocurrido en el Océano Indico en diciembre de 2004, generado por un terremoto de magnitud 9.0 con epicentro fuera de la costa de Sumatra. Las Figs. 121 a y b (Sri Lanka) , captadas por el satélite QUICKBIRD, así como las Figs 122 a y b, captadas por el satélite hindú IRS-P6 son típicos ejemplos de la información que en estos casos puede suministrar la Percepción Remota casi en tiempo real. · Volcanes: Más de 1500 volcanes potencialmente activos están dispersos en la superficie terrestre, de los cuales aproximadamente 500 han entrado en actividad en algún momentoen los últimos tiempos. Aunque los científicos tratan de vigilar y prever la actividad de estos volcanes por los métodos tradicionales basados en tierra, la percepción remota satelital se ha vuelto una herramienta crucial en esta vigilancia. Uno de los indicadores de alerta utilizados son los “puntos calientes” que permiten detectar actividad volcánica en horas previas a su ocurrencia. Sobre dicha base opera el Sistema de Alerta Térmica del MODIS que realiza una cobertura global completa cada 48 horas, es decir que cada pixel de 1 km en la superficie terrestre es monitoreado una vez cada dos días en búsqueda de anomalías térmicas. También las imágenes infrarrojas de satélites geostacionarios captadas cada 15 minutos pueden ser utilizadas para predecir erupciones volcánicas a través de mapeos térmicos de la superficie terrestre. Una de las posibilidades de la percepción remota en el monitoreo de la actividad volcánica es el seguimiento de las plumas de humo y polvo generadas en las erupciones. Dichas nubes que pueden llegar a elevarse hasta unos 12000 metros, constituyen un grave peligro para los aviones, particularmente en corredores aéreos muy frecuentados como por ejemplo en el estrecho de Bering, región en la que hay actividad volcánica. En efecto, si un jet se introduce en una de tales nubes la temperatura de las turbinas puede fundir las cenizas y partículas minerales presentes y provocar un desastre. En la Fig. 123 vemos una imagen MODIS de una pluma de cenizas en la erupción de un vlcán de la península rusa de Kamchatka · Desertificación: La desertificación es un proceso complejo de degradación de los suelos que conduce a una disminución o destrucción de su potencial biológico. Este fenómeno depende de diversos factores: sequías, pastoreos excesivos, deforestación, prácticas de cultivo inadecuadas, manejo impropio del agua que puede conducir a erosión, salinización, etc. Desde hace ya bastantes años los satélites a través de un monitoreo global están contribuyendo al seguimiento y a una mejor compresión de los fenómenos de desertificación. Si bien éstos una vez instalados son difícilmente reversibles, la percepción remota es sin duda una herramienta de gran valor para complementar las acciones de recuperación que se intenten. Un caso típico de desertificación monitoreada durante muchos años por percepción remota es el del Mar de Aral. Este enorme lago, ubicado entre Kazakhstan y Uzbekistan, que fue en una época el cuarto de mundo por su tamaño perdió más del 40% de su superficie. El factor principal que por los años 1950 disparó este proceso fue la intensa irrigación de cultivos de algodón efectuada con agua de dos ríos que alimentaban el lago. El aporte de estos ríos no pudo entonces compensar la evaporación del lago, hecho agravado por ser la de éste una cuenca originariamente semiárida. El proceso hizo colapsar la industria pesquera existente y millones de habitantes se vieron afectados por los vientos transportando sales, arena y partículas minerales provenientes del lecho del lago. Los problemas de salud incluían cáncer a la garganta, enfermedades de la visión, problemas respiratorios, incremento de la mortalidad infantil, etc. Las imágenes de las Figs. 124 a y b reflejan la evolución del proceso entre los años 1973 y 2004 Pese a que desde el año 1991, luego del colapso de la URSS, el problema del Mar de Aral se internacionalizó y se realizan esfuerzos para detener o revertir la situación, lasimágenes de la Fig. 124 parecen demostrar que ya es muy tarde para lograrlo. · Derrames de petróleo: La contaminación de los océanos con petróleo es uno de los grandes problemas ambientales actuales. Esta contaminación se adjudica en su mayor proporción a operaciones de limpìeza de depósitos en buques tanque y en menor proporción a accidentes en buques y plataformas petroleras. Son importantes también las cantidades de petróleo vertidas en ríos y océanos por muchas industrias, incluyendo refinerías y depósitos de almacenaje. En regiones como el Golfo Pérsico las emisiones de petróleo han sido casi continuas desde 1982, destruyendo la industria pesquera y volviendo inoperantes plantas de desalinización. La percepción remota desde plataformas satelitales es en estos casos muy útil dada su capacidad de supervisar amplias áreas, de realizar monitoreos localizados y de prestar asistencia táctica en emergencias. Puede suministrar información acerca de la velocidad y dirección de los derrames oceánicos a través de imágenes multitemporales e incluso realizar mapeos de los derrames. Ilustraremos esta aplicación considerando el derrame de petróleo resultante de los incidentes bélicos que ocurrieron durante la Guerra del Golfo, en enero de 1991. El derrame en la costa de Kuwait alcanzó de 4 a 6 millones de barriles de petróleo. Nuestra zona de estudio se encuentra a 322 km al sur de Kuwait City, sobre la costa de Arabia Saudita y se centra en la bahía de Ad Daffi , Fig. 125. Se trata de una bahía poco profunda limitada al este por varias islas. Esa zona jugó en este caso, como en oportunidad de anteriores derrames, un papel clave bloqueando el desplazamiento hacia el sur del petróleo derramado. Este derrame se originó el 21 de enero y las imágenes fueron adquiridas el 4 de marzo. La imagen de la Fig. 126 es una combinación RGB color natural, mientras que la Fig.127 corresponde a la banda TM5 (infrarrojo medio). En ésta se destaca la mayor reflectancia del petróleo, distinguiéndolo del agua que absorbe intensamente dicha radiación y apareciendo casi negra en la imagen. Más aún, basándose en los diferentes niveles de reflectancia de las manchas de petróleo se puede lograr discernir entre aceites pesados y livianos. Las áreas de las manchas y las distancias costeras pueden ser directamente evaluadas a través del análisis de la imagen. · Un accidente nuclear: Chernobyl: El 26 de abril de 1986 ocurrió el peor accidente registrado en la historia de las aplicaciones civiles de la energía nuclear. Ocurrió en uno de los cuatro reactores de la planta de Chernobyl en la ex Unión Soviética. Fue consecuencia de la interrelación de fallas humanas en el manejo del reactor y de fallas de diseño en éste. La explosión voló la cubierta de 1000 toneladas del reactor y resquebrajó las paredes dejando expuesto el núcleo de grafito en combustión y generándose una pluma de 5 km de altura de contaminantes radioactivos. La Fig.128 es una composición RGB 742 de una escena LANDSAT-5 captada tres días después del accidente, cubriendo el área de la planta nuclear. Puede distinguirse aproximadamente el layout de ésta, en particular el lago de recirculación del agua de enfriamiento de los reactores. En esta imagen, al haber utilizado la banda 7 para el rojo aparece un punto rojo intenso (muy pequeño en la imagen) que marca la posición del reactor accidentado que produce una intensa emisión a la longitud de onda de la banda 7 (2.08 2.35µm). La Fig. 129 es una imagen correspondiente a la banda TM 6 del LANDSAT 5 que es altamente sensible a las variaciones de temperatura no demasiado alejadas de los valores de temperatura ambiente en la superficie terrestre. La resolución de esta banda es de 120m x 120m, lo que hace más difusos los detalles. Sin embargo, nos permite observar que la temperatura del lago de enfriamiento aún no es uniforme, pese al cese de actividad de la planta. Los colores rojizos indican las temperaturas mayores y los verdes y azules los más bajos. Obsérvese que en la mayor parte del lago la temperatura es superior a la del río que corre en las proximidades. · Deforestación: La deforestación descontrolada de los bosques tropicales es una de las graves agresiones al planeta. La destrucción de bosques húmedos tropicales va más allá de la simple pérdida de áreas pintorescas, y su continuidad irrestricta es un serio factor de perturbación para el clima y la biodiversidad de la Tierra. La Fig. 130 muestra el grado en que en unos pocos años avanzó la deforestación en una región de la Amazonia brasileña y la Fig. 131 muestra una región de la selva peruana donde se aprecia deforestación condicionada por la instalación de numerosos pozos petrolíferos. Es usual en estas imágenes observar patrones de deforestación en forma de “espinas de pescado”, que corresponden a la difusión de los procesos de deforestación a lo largo de sendas o caminos. Si bien el ritmo actual de deforestación es difícil de estimar, el análisis de imágenes satelitales constituye una gran ayuda para su evaluación y para el desarrollo de estrategias de control. 10.3.2 El monitoreo a escala global de desastres. En la Sección anterior nos hemos referido a la forma cómo se manifiestan distintos tipos de desastres, algunos de origen natural, otros causados directamente por el hombre y otros inducidos por éste. Algunos de estos desastres ocurren en un corto lapso y sus resultados son devastadores. Otros ocurren más lentamente pero sus resultados son tan serios o aún más que los anteriores. La necesidad de alertar sobre estos procesos o bien de ayudar a la recuperación de las áreas afectadas ha llevado a crear sistemas de monitoreo de desastres basados en la percepción remota que operan a nivel global. Es así que en la Conferencia UNISPACE III celebrada en Viena en julio de 1999, la Agencia Espacial Europea (ESA) y la Agencia Espacial Francesa (CNES) elaboraron la “Carta Internacional sobre el Espacio y las Grandes Catástrofes”(International Charter “Space and Major Disasters”) a la cual se unieron luego Estados Unidos, India, Argentina, Japón y China. Esto representa que frente a un desastre se active la cooperación de numerosos satélites como SPOT, LANDSAT, IRS (India), RADARSAT (Canadá), TERRA (USA), ENVISAT (ESA), NOAA, SAC-C (Argentina), ALOS (Japón),etc., así como el sistema DMC. Un Usuario Autorizado puede, por simple llamada telefónica movilizar los recursos espaciales mencionados. En la Fig. 132 se observa un relevamiento de las inundaciones de abril-mayo de 2007 en Uruguay realizado en el marco del International Charter. En cuanto al sistema DMC, (Disaster Monitoring Constellation) mencionado anteriormente como integrante del International Charter, es una Asociación liderada por la Universidad de Surrey (Inglaterra). Consiste en una red de microsatélites, y sus estaciones terrestres. El sistema +DMC se caracteriza porque cada microsatélite pertenece y es operado por la nación a la que pertenece, pero todos han sido igualmente espaciados en una órbita solarsincrónica de modo de poder ofrecer diariamente imágenes multiespectrales de cualquier parte del mundo. Desde el año 2002 operan cinco microsatélites operados por Algeria, China, Nigeria, Turquía, UK, y próximamente se les unirán otros (España, Vietnam, ets.) Estos satélites poseen un FOV de 640 km y pueden obtener imágenes multiespectrales con resolución de 32 m en el nadir. Algunos poseen además sensores pancromáticos de 4 m de resolución. APENDICE I : NOCIONES BASICAS SOBRE SENSORES DE RADAR OTROS I DE INTE En el presente trabajo nos hemos referido fundamentalmente a sensores pasivos, es decir que necesitan una fuente de iluminación externa, usualmente el sol. Sin embargo, en algún momento hicimos referencia a otro tipo de sensores, como el radar, que por poseer su Galería d imágene propia fuente de emisión se denominan sensores activos. La VER TAMBIEN palabra radar es un acrónimo de Radio Detection And Range, que Galería de imágenes satelitales más explícitamente podríamos traducirlo como “detección y ¿Qué es la resolución espacial? medida de distancias por ondas de radio”. Un sistema de radar Aplicaciones en Mercados de futuros posee tres funciones primarias: • Emite señales de microondas Monitoreo de incendios en pozos de petróleo (en sus principios fueron de radio, de ahí su nombre) Imágenes satelitales y seguros hacia una escena. • Recibe la fracción de energía reflejada por la escena en su misma dirección • Observa la intensidad (detección) y el retardo de tiempo (distancia) de las señales o eco de retorno. Como el radar posee su propia fuente de emisión de radiaciones puede operar de día o de noche, y como además las microondas pueden penetrar la atmósfera bajo virtualmente cualquier condición climática el radar se convierte en un sensor que, a diferencia de los que hemos estudiado antes puede operar en todo tiempo. Como contrapartida, las imágenes de radar son de interpretación más difícil que las correspondientes obtenidas para las regiones visibles o térmicas del espectro electromagnético. En efecto, estas últimas pueden correlacionarse más fácilmente con las apreciaciones realizadas por el ojo humano, mientras que las respuestas de las microondas son marcadamente diferentes. La Fig. A-1 esquematiza la operación de un sistema de radar a bordo de un satélite. Plataform observac Aeropue del mund Imágene satelitale seguros ¿Qué es resolució Petróleo Forestac Estudios viabilida Mercado futuros Cultivo d arroz Nuestra Nuestros servicios ¿Qué es percepci remota? ¿Qué es imagen satelital? Uso del G Estación rastreado Pasturas Monitore incendio Sequías Recursos naturales Cultivo d El sistema posee una antenaque alternadamente transmite y recibe pulsos de microondas de tabaco longitudes de onda definidas comprendidas en el rango de 1 cm a 1m y polarizadas en un plano vertical u horizontal. Aproximadamente se emiten 1500 pulsos de alta energía por segundo y cada pulso tiene una duración de típicamente 10 a 50 microsegundos. Cuando el pulso de radar alcanza la superficie terrestre su energía se dispersa en todas direcciones, y parte de ella se refleja hacia la antena. AI-2 Este eco o “backscatter” retorna al sensor de radar y es recibido por la antena con una polarización específica (horizontal o vertical, pero no necesariamente la misma del pulso emitido). Lo ecos recibidos son digitalizados y registrados para su posterior procesamiento y conversión en una imagen. Dado que los pulsos de radar se propagan con la velocidad de la luz es evidente que midiendo el tiempo necesario para su viaje de ida y vuelta podrá calcularse la distancia al objeto reflector. En el caso de los sensores de radar podremos hablar de dos tipos de resolución. El pulso usualmente cubre una pequeña banda de frecuencias (ancho de banda) centrada en la frecuencia seleccionada por el sistema de radar. Este ancho de banda determina la resolución en la dirección del objeto iluminado. Mayores anchos de banda condicionan resoluciones más finas en dicha dirección. Por otra parte, la longitud de la antena de radar determina la resolución en la dirección del trayecto del satélite: cuanto más larga es la antena más fina es la resolución en dicha dimensión. Es así que se desarrolló una técnica, denominada radar de apertura sintética (Synthetic Aperture Radar – SAR), que consiste en sintetizar una antena muy larga combinando señales recibidas por el radar a medida que recorre su trayecto. Las imágenes de radar están compuestas por pixeles, cada uno de los cuales representa el eco proveniente de un área correspondientes sobre el terreno: zonas oscuras en la imagen representan bajo retorno de energía hacia el radar, zonas brillantes corresponden a alto retorno. Dicho retorno está condicionado por una serie de factores, algunos dependientes de los parámetros del sistema, otros dependientes de los parámetros del área de interés y finalmente otros resultantes de las interacciones entre los anteriores: • Parámetros del sistema: 1. Longitud de onda (o frecuencia) 2. Polarización 3. Angulo de observación (v. Fig. A-2-a) 4. Dirección de observación 5. Resolución • Parámetros del blanco o área de interés: 1. Textura de la superficie 2. Propiedades dieléctricas 3. Angulo y orientación de pendientes (v. Fig. A-2-b) • Interacciones: 1. Textura de la superficie – longitud de onda del sistema 2. Angulo de observación (f) y ángulo de la pendiente (a) – se combinan para determinar el ángulo de incidencia (.). 3. La dirección de observación y la orientación de la pendiente – influencian el área y geometría del blanco presentado al radar. AI-3 El retorno está a menudo relacionado con el tamaño del objeto que dispersa: los objetos de aproximadamente las mismas dimensiones, o mayores, que la longitud de onda aparecerán más luminosos, mientras que los objetos menores que la longitud de onda aparecerán oscuros. Este efecto arroja información acerca de la textura de la región de interés. Las longitudes de onda más usuales en los sistemas de radar son las siguientes: Banda P = ~ 65 cm Banda L= ~ 23 cm Banda S = ~ 10 cm BandaC=~ 5cm BandaX=~ 3cm Cuanto mayor es la longitud de onda, o sea menor la frecuencia, mayor es el poder de penetración en la vegetación y en el suelo. En general cada sistema de radar, aéreo o satelital utiliza sólo una de dichas bandas según su campo de aplicación, pero en general la banda C constituye un buen compromiso. AI-4 En una imagen de radar se observan dos tipos principales de variaciones de brillo: · Variaciones de tono · Variaciones de textura El tono hace referencia a los diferentes niveles de grises del negro al blanco, siendo proporcional a la intensidad del retorno del radar. Los objetos relativamente llanos como cuerpos de agua calmos aparecen con tonos oscuros (la reflexión es mayormente especular y genera poco retorno). Los objetos difusores, como diversas formas de vegetación, aparecen con tonos intermedios. Finalmente, edificios construidos por el hombre, barcos, etc. pueden producir tonos brillantes, dependiendo de su forma, orientación y/o sus constituyentes materiales (v. Fig. A-3). La textura hace referencia al patrón de las variaciones espaciales de tono, y depende del grado de uniformidad espacial de los objetos de la escena. La textura puede ser definida como fina, mediana o gruesa. AI-5 Las Figs. A-4 a y b constituyen típicas imágenes de radar, en este caso adquiridas por el satélite ERS de la Agencia espacial Europea en noviembre del 2000. Las imágenes corresponden a aproximadamente la misma región de una forestación en Paysandú que ya hemos utilizado como ejemplo de clasificaciones en el presente trabajo. En particular la parte inferior izquierda puede ser reconocida en las Figs. 74, 78 y 79. Como vemos, las imágenes de radar son de más compleja interpretación que las de los satélites ópticos. Además, una característica típica de las imágenes de radar es su aspecto granulado (“salt and peper”) por efecto de los speckles. Estos gránulos son inherentes a la naturaleza misma del radar. En efecto, las ondas coherentes emitidas por el sensor activo del radar, en forma similar a lo que ocurre con un laser, se propagan en concordancia de fase hasta incidir sobre los objetos terrestres, donde la coherencia se pierde al reflejarse y retornar: esto se debe a las diferentes distancias que deben atravesar desde el objeto a la antena, así como a efectos de dispersión en el objeto. Entre estas ondas reflejadas se pueden producir ahora efectos de interferencia constructiva o destructiva generándose una estrucutura granulada en la imagen, como se observa en la Fig.A-5. El efecto de los speckles puede atenuarse mediante filtraciones con filtros adecuados. En particular en la Fig. A-4b se ha aplicado dicho tratamiento AI-6 Para terminar esta breve referencia a los sensores de radar, presentaremos dos imágenes de la misma región, una de radar (Radarsat-1) y otra una imagen óptica (composición RGB 453 del Landsat 5) (Figs.A-6 a y b en la página AI-7) La región es la situada al SW de Sta Cruz, Río Grande do Sul, Brasil. La imagen de radar es una combinación RGB multitemporal de fechas 21/10/05, 08/12/05, 25/01/06, mientras que la imagen Landsat es de fecha 03/11/05. La imagen de radar posee originalmente una resolución de 6.25 m, mientras que la de LANDSAT 5 es de 30m. La imagen Landsat puede ser fácilmente interpretada en sus rasgos fundamentales de acuerdo a las consideraciones efectuadas en las páginas 51 y siguientes de este trabajo (Combinaciones de Color). Dicha interpretación permitirá establecer una correlación temática con la imagen de radar. AI-7 APENDICE III: BIBLIOGRAFIA SUGERIDA. De la muy abundante bibliografía existente sobre Percepción Remota hemos seleccionado algunos textos cubriendo distintos aspectos de esta disciplina. Lillesand, Thomas M. y Ralph W. Kiefer, Remote Sensing and Image Interpretation, New York: Wiley & Sons, 2000. Jensen, John R., Introductory Digital Image Processing: A Remote Sensing Perspective, Upper Saddle River, N.J., Prentice Hall:1996. Richards, John A. y Xiuping Jia, Remote Sensing Digital Image Analysis. An Introduction, Springler: 1999. Schowengerdt, Robert A., Remote Sensing. Models and Methods for Image Processing. Elsevier: 2007. Campbell, James B., Introduction to Remote Sensing, The Guilford Press: 1996. Aronoff. Stan, Remote Sensing for GIS Managers, ESRI Press: 2005. Baker, John C., Kevin M. O’Connell y Ray A. Williamson Editors, Commercial Observation Satellites. At the Leading Edge of Global transparency. Rand and ASPRS: 2001. Diana Liverman, Emilio F. Moran, Ronald R. Rindfuss y Paul C. Stern Editors, People and Pixels. National Academic Presss: 1998