Subido por Brisa Salas

Libro Percepción Remota

Anuncio
L A
P E R C E P C I Ó N
R E M O T A :
N U E S T R O S
O J O S
D E S D E
E L
E S P A C I O
Autor: JORGE LIRA
EDICIONES
DEDICATORIA
PRÓLOGO
I. INTRODUCCIÓN
II. SISTEMAS DE CAPTURA DE IMÁGENES
1
III. ELEMENTOS PARA EL ANÁLISIS DE UNA IMAGEN DIGITAL.
IV. APLICACIONES
V. CONCLUSIONES
COLOFÓN
CONTRAPORTADA
P R Ó L O G O
La moderna ciencia de la percepción remota, como un método de observación a distancia de un sistema
físico, ha cobrado importancia principalmente con el avance de la tecnología espacial. De hecho nació
como una de las técnicas relacionadas con las sondas espaciales Voyager enviadas a planetas cercanos
al nuestro, tuvo un desarrollo acelerado con la prospección de los recursos naturales desde el espacio y
ha culminado en una nueva rama de la ciencia con los métodos eficientes del análisis de imágenes, el
diseño y la construcción de arquitecturas computacionales especiales y la fabricación de sensores
remotos de alta eficiencia. En la actualidad, la percepción remota tiene elementos propios de análisis
enmarcados en el método científico que le permiten resolver diversos problemas en la investigación
experimental.
El autor ha querido presentar en esta obra una discusión de dichos elementos desde un punto de vista
conceptual, es decir, sin matemáticas o formalismos lógicos, apelando a la intuición y al sentido común
del lector. Aun en este contexto, los conceptos necesarios relacionados con la percepción remota se han
cubierto con una profundidad tal, mostrando la interrelación que hay entre ellos, que se espera y desea
que el lector termine con una noción clara de los conocimientos novedosos e importantes que aporta
esta nueva ciencia. La mayoría del material presentado aquí es inédito y muchas de las ideas son de
carácter original.
Algunos de los conceptos vertidos en este trabajo han sido discutidos con mis colegas del
Departamento de Percepción Remota, a quienes estoy agradecido por su colaboración e interés. Por otra
2
parte, a lo largo de los cursos que he impartido en diversos niveles y ambientes, mis alumnos me han
retroalimentado con nuevos aspectos que han enriquecido la presente obra; vayan para ellos también
mis agradecimientos. Es mi deseo que esta contribución constituya un motivo más para impulsar la
percepción remota, ciencia tan necesaria, creo yo, en las labores de prospección de los recursos
naturales de nuestro país y en la investigación experimental en general.
JORGE LIRA
I .
I N T R O D U C C I Ó N
Los satélites artificiales, los sensores remotos y el manejo de imágenes digitales
por medio de computadora, han modificado el estudio de la superficie terrestre y la
evaluación de los recursos naturales.
LA EXPLORACIÓN del planeta Tierra ha sido una de las principales inquietudes del hombre desde la
época prehistórica. Su atención se ha visto atraída por una poderosa necesidad de saber qué se encuentra
más allá de sus dominios. Al principio exploró el medio ambiente únicamente con sus sentidos,
utilizando en primera instancia aquéllos que no requerían de un contacto físico con el objeto estudiado
(vista y oído), para posteriormente continuar con un análisis directo por medio del tacto principalmente.
En todo este proceder, el hombre ha empleado una serie de elementos que lo identifican no nada más
como una criatura llena de interés por la investigación, sino también como un ser deseoso de dominar la
naturaleza que lo rodea.
3
Figura 1. Representación de los elementos básicos de la percepción remota.
Así, su curiosidad y su afán por conocer el territorio donde habita le condujeron primero a
encaramarse en la copa de un árbol y posteriormente a subir a una colina o a una montaña para tener
de esta manera una visión de conjunto o lo que es lo mismo, una visión sinóptica del paisaje. Aun en
esta reseña esquemática de las actividades primitivas de exploración del hombre pueden distinguirse
los elementos básicos (Figura 1) que hoy componen la moderna ciencia de la percepción remota: la
fuente de iluminación, formada en este caso por el Sol que emite luz o radiación solar; el paisaje,
configurado por todos los objetos1 presentes en el territorio explorado por el hombre, tales como ríos,
colinas, vegetación o rocas; la escena, o sea aquella sección o superficie del paisaje donde enfoca su
interés, pudiendo ser la superficie de una roca o un valle completo; el sensor remoto, con el que se
captura la luz proveniente de la escena y que, en este caso, permite obtener una representación visual
de aquella región del paisaje que ha sido enfocada por el iris y el cristalino del ojo; la plataforma, que
es el lugar donde se coloca o monta el sensor remoto para obtener una visión de conjunto de la
escena; el sistema de procesamiento, compuesto por el dispositivo para procesar cualitativa o
cuantitativamente los datos proporcionados por el sensor remoto acerca de la escena, los cuales,
analizados e interpretados en este ejemplo por el cerebro del hombre, producen información valiosa
en relación al paisaje, la que es útil en la toma eventual de decisiones sobre el medio ambiente, y el
apoyo de campo, que consiste en la inspección directa, en varios puntos selectos de la escena, de
diferentes atributos de los objetos que se encuentran en el terreno, con el fin de evaluar los datos
obtenidos previamente a distancia.
La distancia con respecto a la escena, a la cual se coloca la plataforma (Figura 2), permite tener una
visión sinóptica a diferentes escalas del paisaje, lo que se logra gracias a una sucesión de
observaciones que van cubriendo poco a poco la región deseada. Estas pueden hacerse, en general, a
diferentes horas del día, en diferentes épocas del año y, muy probablemente, por medio de diferentes
filtros de color. En este proceso se genera una gran cantidad de datos, los que, analizados
adecuadamente por medio de criterios muy bien definidos, proporcionan valiosa información acerca
de los recursos naturales terrestres y sientan las bases para su estudio racional.
4
Con el desarrollo moderno de la ciencia de la computación electrónica digital se ha dado un auge
importante a la percepción remota, pues la disponibilidad de estas herramientas permite la evaluación
cuantitativa de un gran volumen de datos. Así, en una simbiosis muy estrecha las ciencias de la
computación han impulsado el desarrollo de la percepción remota, y ésta, a su vez, ha generado
nuevos sistemas de procesamiento digital con propósitos específicos.
Figura 2. Diagrama esquemático de los componentes básicos de la percepción remota
representados según la investigación experimental moderna.
A su vez, el desarrollo de la ciencia y la tecnología ha permitido incorporar nuevos métodos y
dispositivos de captura de datos a distancia, lo que ha hecho que la percepción remota extienda su campo
de acción a fenómenos muy diversos, ya no sólo en el mundo macroscópico sino también en el
microscópico. Veamos ahora desde esta perspectiva cómo se identifican de nuevo sus elementos básicos.
La fuente de iluminación: hay sistemas en percepción remota que utilizan una fuente de iluminación
externa, sobre la cual no se puede tener control. Estos sistemas, llamados sistemas pasivos, pueden
utilizar al Sol o bien a una estrella lejana como fuente de iluminación. Es claro pues que en un
experimento de percepción remota donde se utilice al Sol de ese modo, sólo se podrá hacer uso de las
características regulares y conocidas de éste; es decir, que en forma pasiva habrá necesidad de, "esperar"
a que las condiciones de iluminación sean las adecuadas para efectuar la observación correspondiente de
la escena. Si se desea cubrir todo un paisaje con observaciones sistemáticas, será necesario entonces
cuidar muy bien que las características de la iluminación, es decir hora y estación del año, sean las que
requiere el diseño del experimento correspondiente, lo que asegurará una tasa de éxito más que
razonable. Habrá experimentos que las requieran a una misma hora en la misa estación del año, y otros a
diferentes horas en las cuatro estaciones del año. De hecho, cualquier combinación es posible
dependiendo de la aplicación deseada.
5
Por otro lado hay sistemas en percepción remota que utilizan su propia fuente de iluminación, de la que,
por tanto, se tiene control. Este tipo de sistemas, llamados, por supuesto, sistemas activos, son los que
han permitido extender el campo de estudio de la percepción remota a una diversidad de fenómenos
donde la fuente de iluminación ya no emite luz visible para "iluminar" la escena. En estos casos la fuente
(Figura 2) puede ser luz ultravioleta o infrarroja, rayos gamma o rayos X, o bien un haz de partículas
como protones o neutrones. Con esta diversidad en fuentes de iluminación es por tanto posible aplicar
las técnicas de la percepción remota no sólo al ámbito de la geofísica, sino también al de la medicina, la
biología, la física nuclear y la industria.
El paisaje: éste es el elemento de la percepción remota que más retos da al investigador. Esto es así
porque, primero, el paisaje constituye el sistema físico objeto de su estudio; segundo, porque
generalmente es una parte muy compleja donde intervienen muchos factores, algunos de ellos ajenos al
propósito de la investigación, y tercero, porque sucede con frecuencia que el investigador no controla
una parte o, en algunos casos, todos los aspectos que componen el paisaje. El investigador puede
controlar, y de hecho lo hace, el sensor remoto, la fuente de iluminación, o el procesamiento de los
datos, pero puede escapar a su injerencia el sistema físico que desea analizar. Por otro lado, una gran
porción de los errores que se cometen en el diseño y operación de un experimento de percepción remota
provienen precisamente de la subestimación o sobresimplificación de la complejidad del paisaje.
Con los conceptos vertidos anteriormente podemos entender que este objeto global de estudio puede
verse ahora como un sistema microscópico, digamos un conjunto de átomos "iluminados" por un haz de
electrones, o bien como un sistema macroscópico, tal como un cultivo de bacterias "iluminadas" por
medio de luz ultravioleta. De hecho, también podemos entender al "paisaje" como el cuerpo humano
"iluminado" por rayos X, con el propósito de obtener de él radiografías. Una aplicación relevante de los
sistemas activos en la prospección de los recursos naturales terrestres es el uso de señales de radar, ya
que al interaccionar con el paisaje terrestre permiten obtener datos complementarios a los que se
obtienen utilizando luz visible. En otras palabras, podemos afirmar que dichos sistemas activos amplían
la capacidad para obtener imágenes con representación visual, las cuales, hace algunos años, no podían
generarse por razones tecnológicas; teniendo que conformarse con el análisis de datos puramente
numéricos. Esta capacidad de representación visual es la que permite a un médico el examen del sistema
óseo y determinar la presencia y localización de tumores, o bien la que ayuda a un biomédico en el
estudio de la morfología de una bacteria con el fin de establecer su virulencia.
La escena: es probable que ésta sea uno de los elementos básicos de la percepción remota más difíciles
de entender, pues implica el manejo de conceptos lógicos, es decir de entidades no físicas. Imaginemos
un plano o superficie que forma parte de un paisaje, consideremos todos los objetos de éste que se
encuentren sobre aquél, y de esa manera tendremos una imagen visual de una escena del paisaje. Esto
nos lleva a que, al variar el enfoque de la lente de una cámara fotográfica, se pueden obtener diferentes
escenas de un mismo paisaje, escenas que, por supuesto, son plasmadas en el film fotográfico una vez
que se acciona el disparador de la cámara. Así pues, sobre la fotografía resultante quedan grabados en
forma permanente y visible el conjunto de objetos que se en combinan sobre la escena, y por tanto
aquélla se convierte en una representación bidimensional de los objetos en todos o, lo que es lo mismo,
en una imagen de la escena.
Esta última consideración es de vital importancia, pues el manejo y análisis de las imágenes
correspondientes a diferentes escenas es lo que permite entender el funcionamiento del paisaje, con las
6
consecuentes repercusiones para el eventual dominio del mismo. Un ejemplo claro de estos conceptos es
el de una radiografía: un médico a la hora de enfocar su aparato de rayos X sobre una sección del
sistema óseo lo que está haciendo es seleccionar una escena del "paisaje", que en este caso es el cuerpo
humano. La superficie que constituye la escena es en este ejemplo el plano sobre el que se enfoca el
aparato de rayos X y los objetos son los huesos que se encuentran enfocados; la radiografía resultante es
la representación visual de los huesos y su estructura. Es claro que la interpretación que hace el médico
de la radiografía le permite entender qué sucede en el sistema óseo del paciente, dilucidar posibles
problemas como fisuras, fracturas, debilitamiento o tumores en algún hueso, y, sobre todo, tomar las
acciones correctivas necesarias que le conduzcan al "dominio" del "paisaje", es decir a restablecer
eventualmente el estado de salud del paciente.
TABLA 1. Diversos detectores o sensores remotos en función de su uso.
Región
espectr
al
y
tipo de
sensor
Intervalo
de
longitud
deonda
(/m) +
Capacidad de
Máxima resolución
penetración
espacial(miliradianes)*
atmosférica
mmacontadores de centelleo, fotodores acoplados a cris-tales como
e
10-16 a 10 -5
< 0.01
contadores de centelleo y Geiger.
10-5 a 0.004
< 0.01
eta película fotográfica con lentes de
ornultiplicadores
0.004 a 0.38
0.01 a 0.1
0.38 a 0.78
0.01 a 0.1
elevisión, cámaras convencionales,
licadores, detectores de estado
utilizable sólo
en medios de
muy baja
densidad o a
muy corta
distancia de la
escena.
igual que el
caso anterior.
la atmósfera
reduce
sensiblemente
la penetración,
se puede
utilizar desde
avión.
la neblina y
los
contaminantes
reducen la
penetración, se
pueden hacer
observaciones
7
o fotomultiplicadores, detectores de
do, película sensible al infrarrojo.
0.78 a 101
0.01 a 1.0
das radar con antenas emisoras y
.
103 a 106
0.01 a 10.0
desdesatélite.
influyen poco
la neblina y
los
contaminantes,
se pueden
hacer
observaciones
desde satélite.
casi no
influyen la
neblina ylos
contaminantes,
se
puedenhacer
observaciones
desde satélite.
La longitud de onda es la distancia entre crestas, considerando la luz como un fenómeno ondulatorio;
1μ = 1-6 m. Un radian es aproximadamente igual a 57°; y un miliradián es igual a 10-3 radianes.
El sensor remoto: el desarrollo tan importante que ha tenido la tecnología en esta área de la percepción
remota ha permitido al hombre ampliar (Tabla 1) su capacidad visual. Nuevos y modernos detectores
permiten ahora capturar luz invisible como la ultravioleta o la infrarroja, y detectar radiaciones como
los rayos X y gamma y partículas como electrones, protones o neutrones. Ejemplos de tales detectores
son la placa fotográfica, la película fotográfica infrarroja, los detectores Geiger, los fotodetectores, las
fotomultiplicadores y las cámaras de televisión. Muchos de éstos son baratos y de gran eficiencia, y
algunos incluso proporcionan imágenes en forma cuantitativa, es decir en forma numérica, de tal
manera que la información resultante puede ser almacenada en computadora para proceder a un
análisis matemático ulterior. Todos estos detectores han ampliado enormemente la capacidad de
observación en percepción remota y pueden proporcionar actualmente imágenes de gran calidad de
paisajes tan remotos como las lunas de Júpiter, de una galaxia distante, o de "paisajes" microscópicos
como los de un virus detectado por medio de un microscopio electrónico. Más aún, sistemas o paisajes
internos como son los órganos del cuerpo humano o los defectos interiores (Figura 3; véase el pliego a
color) de una pieza de metal son ahora capturados utilizando detectores de rayos X. En particular, y de
consecuencias socioeconómicas, le han proporcionado al hombre un conocimiento más diversificado
de su medio ambiente para la evaluación y manejo de los recursos naturales terrestres.
La plataforma: a medida que la plataforma de observación se coloca a una mayor distancia de la
escena, la visión de conjunto crece, pero no así el detalle o grado de discernimiento, el que
consecuentemente se hace menor. Discernir objetos relativamente pequeños o muy próximos entre sí
requiere de detectores de alta resolución,² lo que hace que sean indispensables para el uso de
8
plataformas colocadas a una gran distancia de la escena. Las que están situadas a gran altura sobre la
superficie terrestre, por ejemplo, son muy útiles en la prospección de los recursos naturales y en
general en la exploración de nuestro planeta. Para esta clase de aplicaciones la plataforma espacial ha
demostrado ser la más adecuada, puesto que los modernos detectores permiten obtener imágenes de la
superficie terrestre con elementos de resolución de 30 m por lado, cubriendo escenas de
aproximadamente 185 por 185 km², es decir una superficie de 33 225 km². Otros sensores de este
mismo tipo son capaces de obtener imágenes de 100 por 100 km, con un elemento de resolución de 10
por 10 m, es decir que el área mínima de observasión del sensor es de 10 m por lado. Las plataformas
espaciales se encuentran girando a varios cientos de kilómetros sobre la superficie terrestre, lo que
hace que el detalle y la extensión cubierta con este tipo de plataformas sean muy adecuadas para
aplicaciones geológicas y geofísicas. Existen, desde luego, plataformas que pueden estar a poca altura
o a corta distancia de la escena, y que tienen, por tanto, otras aplicaciones. La observación de un
cultivo de bacterias, por ejemplo, se hace a corta distancia, pero como la escena observada es pequeña
también, de todas maneras se requiere de un detector de alta resolución para poder distinguirse los
detalles más finos.
Puesto que históricamente y en general el nombre de percepción remota ha sido tradicionalmente
asociado a la exploración del planeta, veamos con más detalle qué consecuencias tiene la utilización
de la plataforma espacial en la prospección geológica y geofísica. Una plataforma de éstas
necesariamente es de tipo satelitario, es decir, el sensor remoto se encuentra instalado a bordo de un
vehículo orbital, el cual, por medio de celdas solares, sistemas de control y telecomunicación
automatizados, proporciona la posibilidad de una cobertura regular y repetitiva de la superficie
terrestre. Las órbitas de este tipo de satélites son generalmente polares, por lo que el movimiento
combinado del satélite y el de rotación de la Tierra (Figura 4) hacen que la superficie de ésta sea
cubierta totalmente en periodos de dos a tres semanas. Además, la órbita está ajustada de tal manera
que la observación de una misma región se hace a la misma hora del día, 10:00 hrs local
aproximadamente, lo que provoca que se tenga como única variación en las condiciones de
iluminación de la escena las causadas por las estaciones del año, sobre todo en latitudes cercanas a las
polares donde el ángulo de elevación solar varía considerablemente de verano a invierno para una
misma hora del día.
9
Figura 4. Esquema del cubrimiento terrestre por un satélite de percepción remota con órbita
polar.
Figura 5. Estación rastreadora de satélites de órbita polar. El plato de esta antena va girando en
dirección norte-sur para captar continuamente las señales que envía el satélite durante su paso
sobre la antena.
Otra ventaja de este tipo de satélites es que el envío de datos se hace inmediatamente a la estación
terrestre más cercana (Figura 5), por lo que en principio las imágenes resultantes pueden quedar
disponibles en un lapso de tiempo de algunos días.
10
El sistema de procesamiento: los sensores remotos actuales son capaces de producir imágenes de alta
calidad en forma analógica o digital, es decir, pueden proporcionar una representación continua o
discreta de la escena. Una imagen continua es aquélla donde la variación de tonos de gris o color se
presenta sin discontinuidades, sin líneas, o fronteras, aparte de las que pudiera tener la escena misma.
Una imagen discreta, por su parte, es la que está compuesta por elementos definidos y diferenciados
como puntos o cuadrados. Es necesario aclarar que una escena siempre es continua, no así la imagen
respectiva. En realidad, una representación o imagen continua no es más que una idealización de lo que
realmente sucede, pues una fotografía a simple vista podrá verse continua, pero al ser amplificada se
aprecia que está formada por una colección de pequeños puntos de diferentes tonalidades que son los
que componen la imagen en forma similar a un rompecabezas. En general podemos decir entonces que
una imagen será catalogada continua o discreta dependiendo del grado de resolución que tenga el
sensor y del detalle que se desee discernir. De hecho, sólo las imágenes ópticas podrán considerarse
siempre como continuas. Por lo tanto, daremos el nombre de digital a aquellas imágenes discretas
donde cada punto que la compone está dado no por una tonalidad sino por un número, esto es,
asignando por ejemplo el 0 el al tono más oscuro y 127 al más claro. Es precisamente debido a esta
representación numérica de una escena que es posible el manejo por computadora de la imagen digital
correspondiente, con la consecuente rapidez y volumen en el análisis de una gran variedad de éstas. La
disponibilidad de computadoras digitales ha hecho que ahora se puedan analizar imágenes digitales de
gran dimensión y complejidad, lo que ha dado a la percepción remota un impulso notorio en los últimos
10 años. Más aún, este desarrollo ha demandado recursos computacionales cada vez más importantes,
llegando a ocurrir que los especialistas en ciencias de la computación hayan consagrado un esfuerzo
considerable al diseño y construcción de arquitecturas y lenguajes computacionales especiales para el
análisis de imágenes digitales, lo que ha propiciado lógicamente un impulso aún mayor la percepción
remota. Estos sistemas cuentan actualmente con un rango muy amplio de algoritmos3 para el análisis de
imágenes, los que a través de sistemas de despliegue (Figura 6) de color de alta resolución permiten
desplegar la imagen digital y proporcionan al usuario una comunicación de tipo interactivo con la
computadora. Esta comunicación interactiva produce información, resultado de dicho análisis, que
puede ser canalizada a bancos de memoria en la misma computadora, de donde puede ser extraída,
representada o manipulada lo más adecuadamente posible para la toma de decisiones acerca de uno o
varios aspectos del paisaje. A esto último se le llama sistema de información y convierte a la toma de
decisiones en un proceso cuantitativo y por tanto de rápido apoyo a la gestión de un recurso específico.
11
Figura 6. Representación de un sistema computacional acoplado a una pantalla de despliegue
para el análisis interactivo de imágenes digitales en actividad de percepción remota.
El apoyo de campo: las técnicas de apoyo de campo se refieren a la inspección cualitativa y
cuantitativa de lugares selectos del paisaje. Estas técnicas son resultado de los métodos de muestreo
estadístico y de medidas de propiedades físicas y químicas de los objetos que se encuentran en la
escena. Es claro que no es posible ni tiene sentido hacer una evaluación exhaustiva de todos los
objetos que se presentan en ésta pues, además de que esto sería costoso y consumiría una gran
cantidad de tiempo, dejaría de lado a la percepción remota, es decir, ya no tendría razón de ser la
observación a distancia desde una plataforma particular. Sin embargo, la observación directa de ciertos
puntos de la escena es necesaria para la correcta validación de las observaciones. Esto es así porque las
medidas hechas por un sensor remoto son en general relativas al sensor mismo, a la metodología usada
y pueden estar distorsionadas por una gran variedad de aspectos no controlables por el
experimentador, tales como interferencia atmosférica si se trata de una plataforma satelitaria, o de
interferencia de los tejidos blandos si se trata de obtener una radiografía. A partir de los hechos arriba
mencionados se desprende la necesidad de seleccionar un conjunto adecuado de puntos de la escena
que constituyan una representación realista del conjunto total que la componen, lo que se logra con
bastante exactitud por medio de técnicas de muestreo estadístico, que son las que proporcionan los
criterios pertinentes para hacerlo. Una vez seleccionado un número adecuado de puntos y habiendo
determinado sus posiciones respectivas se pasa a localizar los objetos que se encuentran sobre dichos
puntos. Hecho esto, se puede medir directamente una serie de propiedades de los objetos en cuestión.
De esta manera, en el caso de una radiografía, por ejemplo, una vez localizada una zona sospechosa, se
pasa a la extracción de un poco de tejido para someterlo al análisis de laboratorio, cuyos resultados
determinarán la acción correctiva adecuada. En el caso de estudios de silvicultura desde una
plataforma satelitaria, se procederá a inspeccionar un cierto número de árboles, y suponiendo que éstos
se encuentren infestados por una plaga, determinando propiedades como área foliar, diámetro mayor
del tronco o estado de salud. Todos estos datos son retroalimentados al sistema computacional, el que,
correctamente programado, dará la localización y extensión de un tumor, o proporcionará las zonas de
12
árboles enfermos. Desde luego, habrá ocasiones en las que el apoyo de campo no es posible o es
demasiado costoso, en cuya situación las inferencias que se hagan sobre la escena y el paisaje tendrán
que ser indirectas. Éste es el caso, por ejemplo, de regiones de difícil acceso en el planeta o de cuerpos
celestes muy alejados. Aquí es muy importante puntualizar que ni la medicina, ni la astronomía se han
convertido en percepción remota o ésta en astronomía y medicina, sino que aquélla es una
metodología científica multidisciplinaria cuyas técnicas y métodos son aplicables a diversas áreas del
conocimiento científico.
El nombre de percepción remota aparece inicialmente durante las primeras misiones interplanetarias
de sondas espaciales no tripuladas, a bordo de las cuales se instalaron cámaras de televisión para la
captura y envío a la tierra de imágenes correspondientes a regiones selectas de la superficie de otros
planetas. El desarrollo de esta ciencia, por su aplicación novedosa a la geología y a la geofísica, se ha
visto involucrado tradicionalmente al estudio de la superficie planetaria terrestre. De ahí que la
percepción remota se haya definido en su desarrollo histórico como la obtención de información
acerca de una superficie o escena, utilizando luz visible e invisible, por medio del análisis
automatizado de datos obtenidos a distancia por un sensor remoto. Esto se ha hecho, en general, con el
fin de evaluar el medio ambiente y, en muchas ocasiones, con el objeto de apoyar las labores de
prospección de los recursos terrestres, lo que la ha convertido en una herramienta valiosa para el
bienestar de a humanidad. De hecho, el avance tan grande que ha tenido la tecnología asociada a la
percepción remota ha traído como consecuencia que el método propio de esta moderna ciencia sea
aplicable a una gran variedad de escenas y paisajes, y que la evaluación ya no se restrinja solamente al
medio ambiente, sino que se pueda realizar en una gran diversidad de sistemas físicos.
NOTAS
1 Entendemos por objeto aquí todo ente físico (material) formado, en general, por una gran variedad
de elementos químicos y físicos.
2 Por resolución se entiende aquí la capacidad de un sistema sensor para separar los elementos de un
objeto bien definido como una sucesión de líneas equidistantes.
3 Un algoritmo es una sucesión lógica de instrucciones que, traducidas por medio de un lenguaje de
computadora como el FORTRAN, proporciona al sistema computacional las órdenes necesarias para
ejecutar una tarea específica.
13
I I .
S I S T E M A S
D E
C A P T U R A
D E
I M Á G E N E S
El desarrollo de la tecnología espacial, la electrónica y los sistemas de
comunicación, han diversificado y ampliado la capacidad del hombre para ver mundos
inimaginados.
DE LOS cinco sentidos que posee el hombre, probablemente la visión sea el más importante por la
utilidad y satisfacción que proporciona: nos aporta de inmediato un marco de referencia de la posición
que ocupamos en el espacio, y nos permite evaluar todo lo que nos rodea de acuerdo a su forma, tamaño
y color. Además, como está constituida por un sensor remoto como es el ojo humano y por el cerebro, tal
evaluación se puede hacer a distancia, lo que significa que las decisiones y acciones que ejecuta un ser
humano, incluso estando en movimiento, están relacionadas con el medio que le rodea; es decir, pueden
ser hechas sobre la marcha o desarrollo de una tarea. La emulación de esto por una máquina por medio
de un sensor optoelectrónico y una computadora debidamente programada constituye un buen ejemplo
de la inteligencia artificial que, plasmada en la robótica, ha facilitado la automatización de muchas tareas
en las plantas industriales.
Con base en los conceptos arriba desarrollados puede entonces considerarse al ojo como el sistema
natural para la obtención de imágenes de las escenas que nos rodean. Este sensor remoto natural está
constituido por dos subsistemas básicos (Figura 7): el de formación de imágenes, representado por el iris
y el cristalino, y el sensor de registro de imágenes, representado por la retina. Los sensores remotos
construidos por el hombre (Tabla 1) contienen también estos dos subsistemas, pero con ventajas
adicionales, puesto que las imágenes generadas por éstos pueden ser registradas permanentemente, es
decir, ser grabadas en un formato de naturaleza cuantitativa que deja abierto el camino para un análisis
automatizado por medio de computadora. Además, como ya se ha mencionado anteriormente, estos
sensores artificiales permiten "ver luz no visible por el ojo humano, ampliando con esto la capacidad de
captura de datos y de decisión inteligente al respecto de éstos.
14
Figura 7. El ojo humano como sensor remoto natural para la formación y captura de imágenes del
mundo que nos rodea.
Figura 8. Diagrama de bloques que muestra el proceso de captura de una imagen por medios
artificiales.
15
A partir de lo anterior, analicemos ahora un sistema artificial de captura de imágenes. Comenzaremos el
análisis por medio de una representación esquemática en bloques del proceso de captura de una imagen.
A su vez, cada bloque puede descomponerse en elementos básicos, los que, a través de su interrelación,
permiten entender la estructura lógica de un sensor remoto artificial. Para obtener esta descomposición
es necesario introducir ciertos elementos formales a los cuales se refieran la escena y la imagen (Figuras
8 y 9). Como puede apreciarse en las figuras, la escena está representada por una función matemática
f(α,β ), que a su vez está referida al sistema de ejes coordenados α(alfa) y β (beta), los que para un par
de valores (α, β) dan la posición espacial de un punto de ella. Así esta función representa la variación
espacial, es decir punto a punto, de los valores de intensidad de la luz proveniente de la escena para un
color dado. En otras palabras, se puede decir que si ésta se observa a través de un filtro que deje pasar un
sólo color, digamos el verde, entonces f(α,β ) proporciona la variación en tonos de verde de un lugar a
otro de ella misma. Puede también representar los diferentes tonos de gris de una escena en blanco y
negro, o bien, si ésta es vista en pleno color, los diferentes colores que la componen. Debe quedar claro
que f(a,b, ) se refiere a la escena independientemente de cómo se le vea, lo que quiere decir que f (α,β)
es una función matemática que la caracteriza y esta función se refiere exclusivamente a las variaciones
de intensidad de luz que provienen de ella, sin embargo estas variaciones son diferentes de color a color
pero propias de cada escena; el correspondiente filtro sólo las pone de manifiesto.
Figura 9. Subsistema de formación de imágenes.
Por otro lado sabemos que la escena se encuentra iluminada por una fuente y que aquélla refleja o
transmite la luz emitida por ésta. Hay que recordar que la escena puede ser al mismo tiempo la fuente de
luz, como sucede cuando se desea estudiar al sol mismo, o cuando se pretende obtener la fotografía de
un foco encendido. En este caso dicha luz emitida o reflejada es transmitida a través del espacio hasta
llegar al sensor remoto, que en la figura 9 se encuentra representado por un paralelepípedo. Este sensor
intercepta la propagación de la energía radiante de dicha luz y la transforma de tal manera que en el
plano de la imagen se forma la imagen de la escena. Este plano está dado por el sistema de ejes
coordenados (x, y) y la imagen por la función matemática g(x, y). En forma análoga a la escena, las
16
coordenadas (x, y) dan la posición de un elemento de la imagen y la función g(x, y) representa la
variación en tonos de gris o de color de elemento a elemento de dicha imagen.
Hasta aquí, la imagen dada por g(x, y) se encuentra formada en el plano (x, y), mas no se encuentra
registrada o capturada en forma permanente. Así, por ejemplo, al enmarcar una escena por medio de una
cámara fotográfica, la imagen correspondiente se encuentra formada en la plano de la película, pero no
es sino hasta que el obturador de la cámara es accionado que ésta queda registrada permanentemente, al
ser sensibilizada la película por la luz que proviene de la escena y que pasa a través de su sistema óptico.
Existen dispositivos sensores en los cuales la formación de la imagen y el registro de la misma se hace
por medios fotoeléctricos, es decir, la energía radiante de la luz proveniente de la escena es transformada
por el sensor en un voltaje, que a su vez es medido por un instrumento adecuado y que es el que registra
en forma permanente su valor. En este caso el proceso ya no es tan evidente ni tan visual como en el
ejemplo anterior, pero, sin embargo, constituye un método mucho más eficiente y cuantitativo que el de
la fotografía. A estos dispositivos fotoeléctricos se les denominan sensores no fotográficos o bien
sistemas optoelectrónicos.
Analicemos con más detalle este último método. Para ello es necesario referirnos a la sucesión de
fotografías de la figura 10. La escena está representada por la figura l0 (a), la que por simplicidad en esta
discusión se muestra sólo en distintos tonos de gris. Más aún, aunque sabemos que una fotografía está
formada siempre por diminutos puntos de diferentes tonalidades, hagamos una idealización y
supongamos que esta escena es continua, es decir, pensemos que los puntos son infinitamente pequeños.
El proceso se da entonces de la siguiente manera: a la escena original se le sobreimpone una rejilla
cuadrada (Figura 10(b)) que la subdivide en porciones iguales. Esta rejilla, de hecho, no existe
físicamente en la práctica, sino que más bien representa una subdivisión virtual y que aquí se muestra
para ilustrar el proceso de creación y registro de una imagen. También cabe aclarar que no
necesariamente debe ser cuadrada, hay casos especiales en situaciones complejas de la investigación en
donde puede ser rectangular o circular. Ahora bien, sobre cada cuadro de la rejilla se efectúa un
promedio de los tonos de gris en relación al área proporcional que ocupan dentro del cuadrado sujeto a
observación, con lo que se obtiene un cuadrado homogéneo (Figura 10(d)), es decir de un sólo tono de
gris. Esto que hacemos en forma cualitativa y aproximada es precisamente la tarea que ejecuta el sensor
optoelectrónico: recibe la energía luminosa de dicho cuadrado, la integra, la promedia y proporciona una
medida de ella a distancia. El siguiente paso es la construcción de una tabla de tonos de gris, de tal
manera que al tono más claro (el blanco) le asociamos el número 0 y al más oscuro (el negro) el número
7, es decir 8 tonos en total. Por tanto, a los matices intermedios les tocan los números correspondientes
entre el 0 y el 7. Esta escala puede ser más amplia: de 0 a 15, o de 0 a 31; pero eso sí, siempre en
múltiplos de dos, puesto que las computadoras trabajan sobre la base del número dos. Dado que el ojo
humano no puede distinguir más de 16 tonos de gris, dicha coloración entre tonos y números no podrá
efectuarse manualmente para más de 16. Es por esto que un sensor remoto no sólo permite realizar la
digitalización de la escena en una forma extremadamente rápida, sino también la separación de un gran
número de tonos.
17
Figura 10(a). Escena representada aquí a manera de ilustración en tonos de gris.
Figura 10(b). Imagen de la escena a la cual se le ha sobreimpuesto una rejilla para el registro
permanente por dispositivos fotoeléctricos.
18
Figura 10(c). Registro numérico de la imagen detectada y registrada por el sensor fotoeléctrico.
Figura 10(d). Representación visual de la imagen digital a través de una escala de niveles de gris.
Al ejecutar el proceso de integración de los tonos de gris sobre cada cuadrado de la rejilla y comparar
cada vez el resultado con la escala de gris previamente establecida, se obtiene entonces una colección de
números arreglados en forma matricial (Figura 10(c)), que son, por una parte, la representación numérica
de la escena y, por otra, la estructura de la imagen digital correspondiente. Es claro que esa
19
representación numérica es adecuada tanto para efectos de almacenamiento en computadora, como para
realizar un análisis cuantitativo de la escena por medio de algoritmos computacionales, los cuales
pueden llegar a ser muy complejos, además de permitir el transporte y el envío de datos correspondientes
a la escena, no sólo de una manera eficiente, sino a muy larga distancia, como ha sucedido en el caso de
las sondas espaciales que recién han explorado el sistema solar: han sido capaces de enviar imágenes de
casi todos los planetas y de sus respectivos satélites.
El proceso inverso a la digitalización de una escena puede llevarse a cabo, y de hecho se realiza, en
muchas de las etapas de la investigación en percepción remota. A este proceso inverso se le conoce con
el nombre de reconstrucción y con él se obtiene una representación visual aproximadamente continua de
la escena. Desde luego, la escena misma, que forma parte de la naturaleza, no se puede reconstruir a
partir de la imagen. La representación se hace de la siguiente manera: utilizando la misma escala de
grises con la que se digitalizó la escena, cada número de la representación numérica se usa para plasmar
un cuadrado cuyo tono de gris corresponde al número en cuestión, de tal manera que se obtiene una
representación visual (Figura 10(d)) de la imagen digital. Nótese que esto implica que ésta puede tener
una representación numérica o una representación visual (reconstrucción de la escena) y que en algunos
casos pueden existir ambas. En otras palabras, la imagen digital es una simplificación de la escena con
dos posibles representaciones: numérica y visual.
En el ejemplo de las figuras l0(a)-l0(d) el tamaño del cuadrado de la rejilla se ha escogido relativamente
grande y en consecuencia se han perdido los detalles más finos de la escena. Para preservarlos en la
imagen digital es necesario escoger el cuadrado con un lado tal que sea de por lo menos la mitad de las
dimensiones del detalle más fino de la escena. Este cuadrado define, pues, la resolución de la imagen
digital y se le conoce con el nombre de elemento de resolución o campo instantáneo de vista (CIV). Es
también un elemento físico con dimensiones físicas sobre la escena, a diferencia del número
correspondiente en la imagen digital de un campo instantáneo de vista, que constituye un elemento
lógico en la representación numérica de aquélla. A este elemento lógico se le conoce como pixel y de
por sí no tiene dimensiones físicas, sino que éstas son asignadas de acuerdo a una escala predeterminada
en la representación visual de la imagen digital. En resumen, el pixel es la representación numérica o
lógica del campo instantáneo de vista y es la medida de la energía promedio que proviene de dicho
campo; a cada pixel le corresponde sólo un campo y viceversa. El tamaño del campo instantáneo de vista
define la resolución espacial, es decir da el grado de detalle que se puede discernir de la escena, que es a
lo que se llama digitización; a su vez, la escala de grises define el número de tonos discernibles y el de la
resolución radiométrica, es decir proporciona una medida de qué tanto se puede distinguir una energía
luminosa de otra. Recordemos que el ojo humano puede reconocer 16 tonos de gris o bien 16 diferentes
niveles de energía luminosa integrada por todos los colores, esto es, sin haber sido filtrada por algún
filtro de color. A esta resolución radiométrica se le conoce como cuantización. Estos conceptos, la
digitización (resolución espacial) y la cuantización (resolución radiométrica), definen globalmente la
calidad de una imagen digital, es decir, dan el grado, parecido o resemblanza con la escena, o la
fidelidad con la cual la imagen digital representa adecuadamente a la misma. Este grado de fidelidad o
calidad es subjetivo, puesto que para ciertas aplicaciones no se requiere de una gran resolución, además
de que digitalizar y cuantizar a un gran detalle implica la generación de un volumen de datos que puede
ser innecesario o inconveniente. Por lo tanto, la calidad de una imagen digital se define más bien en una
aplicación específica, y la obtención de una calidad superior a la necesaria, o puede no tener sentido, o
resultar ser poco práctica en la realidad experimental. Hay que agregar a esto que la calidad de una
imagen digital depende también del contraste y del grado de definición de las líneas y cambios de tono
presentes en la imagen.
20
De acuerdo al desarrollo que ha tenido la percepción remota se puede asegurar que la representación
numérica de la imagen digital está enmarcada en un contexto lógico, muy adecuado para el análisis
matemático de los datos respectivos, a través de programas computacionales, que a su vez representan
un determinado análisis que se desea ejecutar sobre ella. Por otro lado, la representación visual de la
imagen digital es adecuada no sólo para realizar una inspección sobre la imagen, sino también para la
creación de mapas o de registros permanentes que fungen como referencias básica para la comparación
entre los diferentes aspectos de la evolución de una escena. En general, ésta se realiza después de haber
ejecutado uno o varios pasos del análisis matemático sobre la representación numérica.
Figura 11. Diagrama lógico de la captura, registro y análisis de imágenes en la percepción remota.
Una vez introducidos los conceptos anteriores estamos preparados para ampliar el esquema de captura y
análisis de datos de una escena determinada. Para esto consideraremos el diagrama mostrado en la figura
11, el cual constituye una representación lógica del diagrama mostrado en la Figura 1. Entonces, el
objetivo de estudio y principio del análisis en percepción remota es precisamente el paisaje, sistema
físico tridimensional, iluminado por una fuente de iluminación. Por medio del paisaje se encuentra la
escena, superficie de carácter subjetivo virtual, sobre la cual se encuentran los objetos de interés. Esta
superficie puede encontrarse en cualquier parte del paisaje y puede tener cualquier tamaño, siempre y
cuando se encuentre totalmente contenida en lo que se considere como tal. Sobre la escena se define un
elemento con dimensiones físicas, denominado campo instantáneo de vista (CIV), cuyo tamaño
depende de las dimensiones del paisaje, de la resolución del sensor remoto y de la distancia de éste al
CIV. En otras palabras, el tamaño del campo depende de la geometría particular paisaje/escena/sensor y
21
de la eficiencia de este último. La energía luminosa reflejada o emitida por el CIV incide entonces sobre
el sensor optoelectrónico, compuesto en primera instancia por un sistema óptico (generalmente un
telescopio) y por un conjunto de dispositivos de conducción de luz que hacen llegar a ésta directamente
hasta un juego de filtros de color. Todo esto con el fin de observar simultáneamente la escena a través de
ellos, de tal manera de registrar una imagen digital por cada filtro, y medir posteriormente sus
características. En el caso de radiación corpuscular, cómo protones o electrones, en lugar de filtros de
color se utiliza un espectrómetro para seleccionar la energía del haz de partículas empleado en la
formación de la imagen digital. Esto es similar a que se tomaran una sucesión de fotografías de la misma
escena, pero cada vez interponiendo un filtro diferente; el resultado sería un juego de fotografías
mostrando aspectos diferentes de la misma. Esto es muy importante, pues cada objeto de la naturaleza
tiene su muy particular manera de manifestarse cuando es visto bajo diferentes filtros de color, o bien
cuando es bombardeado con partículas de diferentes energías. Para ahondar más en estos concepto
supongamos que tenemos una escena cualquiera y que, siguiendo los pasos de las figuras l0(a)-l0(d),
construimos un conjunto de cuatro escalas de tonos de color, en forma análoga a como lo hicimos en la
de 16 niveles de gris. De esta manera tendríamos una escala con 16 tonos de verde, otra con 16 tonos de
azul y dos más con tonos de amarillo y rojo. Sobreponemos entonces una rejilla a la escena y,
observando a través de un filtro verde, hacemos el promedio sobre el CIV correspondiente, comparamos
el resultado con la escala previamente construida y asignamos, en consecuencia, el número que le
corresponde al tono de verde así obtenido. Repetimos el proceso sobre el mismo CIV pero con los otros
filtros y escalas del resto de colores y obtenemos los números correspondientes; así, a un mismo CIV le
asignaremos cuatro números; uno por cada color. ¿Qué quiere decir todo esto? Que si en dos CIV
diferentes se encuentran objetos diferentes, entonces se obtendrán dos diferentes juegos de cuatro
números. Este proceso puede generalizarse, pudiendo utilizarse tantos filtros de color como se requieran,
incluso en "colores" como el ultravioleta y en el infrarrojo que son invisibles al ojo humano, pero que
pueden ser detectados por un sensor remoto moderno. En conclusión, entonces, se obtendrán para una
misma escena tantas representaciones numéricas como filtros de color se hayan empleado, es decir que
si se emplearon cuatro filtros, se obtendrán cuatro imágenes digitales o si se utilizaron siete filtros, se
registrarán siete imágenes digitales. Resumiendo esto de una manera lógica se puede decir que al
conjunto de imágenes digitales (cuatro o siete) se les denomina "imagen multiespectral" y al conjunto de
números para cada CIV se les conoce como "firma espectral" (Figura 12; véase el pliego a color). De ahí
que una imagen multiespectral esté formada por un conjunto de imágenes digitales, cada una de ellas
conteniendo aquellos aspectos de la escena que corresponden a un color determinado y que, a su vez, la
firma espectral contenga las características del conjunto de objetos que se encuentran en el CIV, para
cada color empleado en la observación correspondiente de la escena.
Regresemos ahora a la figura 11. Es claro que para registrar simultáneamente los diferentes aspectos de
una escena se requieren no nada más diferentes filtros sino también varios sensores: al menos uno para
cada color. En el proceso de observación de la escena, cada sensor genera una imagen digital y el
conjunto de sensores, por tanto, una imagen multiespectral, la que a su vez queda registrada
permanentemente en algún dispositivo de memoria, como por ejemplo una cinta magnética. Una vez
teniendo la imagen multiespectral de una escena dada, almacenada en un dispositivo de memoria digital,
se puede entonces proceder a la manipulación de estos datos para la extracción de la información
deseada acerca de la escena. Al manipular la imagen correspondiente se generan nuevas imágenes
digitales que pueden, o bien ser almacenadas en la memoria de la computadora, o bien ser impresas en
tonos de gris o de color de acuerdo a la forma de representación visual de una imagen digital ya descrita
anteriormente. La extracción de información a partir de una imagen multiespectral puede arrojar
conocimiento nuevo que no necesariamente esté en forma de imagen; puede ocurrir que se obtengan
reportes de tipo estadístico, tablas o gráficas. Por ejemplo, se puede desear obtener el número de células
22
de una imagen de un microscopio de laboratorio o la distribución de áreas de un conjunto de lagos a
partir de una imagen satelitaria. Los resultados del análisis en la investigación en percepción remota
pueden ser igualmente válidos, o más bien complementarios, ya sea en su representación visual o en
forma de tablas y reportes. Cabe agregar aquí que al sistema optoelectrónico formado por un conjunto de
filtros y detectores se le conoce como barredor multiespectral.
La formación simultánea de varias imágenes de la misma escena requiere de un diseño avanzado para
los sistemas de percepción remota, puesto que es necesaria la adquisición, no nada más de la respuesta
espectral de cada CIV de la escena, sino también de una resolución espacial y temporal adecuadas a una
gran variedad de aplicaciones, por lo menos en lo que se refiere al medio ambiente geofísico y en lo que
concierne a la prospección de los recursos naturales del país. Para realizar esto se requiere, además de
detectores de alta eficiencia, de toda una metodología en la adquisición de datos a distancia. Esto es así
porque en los sistemas de percepción remota espacial y aerotransportada la velocidad relativa entre el
sensor remoto y la escena es muy alta, lo que impide al sensor capturar la energía que proviene de cada
CIV durante un tiempo relativamente grande. Lo mismo sucede en sistemas donde el sensor está estático
con respecto a la escena, como es el caso de un sistema de radiografía por medio de rayos X, ya que aquí
e desea que la captura de la imagen sea rápida, de tal forma que el tiempo que se invierte en medir cada
CIV sigue siendo muy pequeño. Es conveniente decir en este punto que al tiempo que le lleva al sensor
remoto medir la energía del CIV se conoce como tiempo de residencia o tiempo de integración y que, en
general, se desea que sea lo más corto posible, tanto por los factores arriba mencionados, como porque
existen situaciones de la investigación experimental donde la escena puede estar cambiando
rápidamente, como sucede en el caso de un cultivo de bacterias. Es claro entonces que el sensor remoto
debe responder rápidamente a la energía luminosa proveniente del CIV y debe operar también en niveles
de ruido muy bajos, así como operar en general a niveles muy altos de eficiencia.
Hemos estado discutiendo hasta este momento el esquema global para la adquisición de imágenes
simultáneas de una misma escena por medio de un dispositivo llamado barredor multiespectral; veamos
ahora los cuatro diseños fundamentales de barredores de este tipo, discutiendo en cada caso las ventajas
y desventajas de cada diseño e identificando los sistemas operativos actuales.
Para esto refirámonos a las figuras 13(a)-13(d) -donde se muestran esquemáticamente los cuatro diseños
mencionados. El barredor multiespectral (MSS) y el mapeador temático (TM) a bordo de los Landsat 4 y
51 son los ejemplos más relevantes de la configuración mostrada en la figura 13(a) y constituyen los
baluartes más avanzados de la serie de sensores orbitales Landsat (Tabla 4) diseñados para el estudio de
la superficie terrestre con fines de prospección de los recursos naturales. Los barredores de los Landsat
son sistemas optomecánicos compuestos por un determinado grupo de fotodetectores, los cuales, por
medio de un espejo oscilatorio, "barren" un conjunto de seis franjas perpendiculares a la dirección de
movimiento del satélite. En un momento dado, la luz, proveniente de seis CIV colocados sobre las franjas
y en la dirección de movimiento del satélite, es reflejada por el espejo oscilatorio, el cual la envía a un
sistema óptico formado por un espejo reflector, que en su plano focal tiene un conjunto de fibras ópticas
que transmiten la energía luminosa sin modificación hasta un grupo de 24 detectores para el MSS.
Enfrente de cada cuatro detectores hay un filtro diferente que define cuatro planos de color y de esta
manera se captura en forma simultánea la respuesta espectral de seis CIV en cuatro bandas diferentes. En
otras palabras, se van creando cuatro imágenes digitales, una para cada filtro; a cada una de estas
imágenes se les llama banda espectral o plano de color. A medida que se mueve el espejo oscilante, la
luz reflejada por los siguientes grupos de seis CIV es transmitida por el sistema óptico hasta los
23
detectores; de ahí que, con la mitad de una oscilación del espejo, se miden la respuesta espectral de todos
los CIV del conjunto de seis franjas que yacen sobre la escena o superficie terrestre. Para el TM el proceso
de medida es el mismo; sin embargo, el grupo de detectores es de 42, puesto que se barren seis franjas en
siete planos de color diferentes, siendo el tamaño del CIV de 50 x 50 m² para el MSS y de 30x 30 m² para
los primeros seis planos del TM y para el séptimo, 120x 120 m2. Los satélites Landsat han producido una
gran cantidad de datos sobre la mayor parte de la superficie terrestre en todas las épocas del año.
Figura 13(a). Medida en varias bandas de un CIV a la vez.
24
Figura 13(b). Medida de varios CIV, cada uno en diferentes bandas.
25
Figura 13(c). Arreglos lineales de detectores para medir en varias bandas un CIV a la vez.
(Figura 14; véase el pliego a color). Estos satélites han sido los primeros en operar rutinariamente y en
proporcionar en forma regular datos de gran valor para la comunidad científica, de tal manera que los
resultados que se han generado a partir de tales datos han hecho que se impulse la percepción remota a
escala mundial, siendo actualmente varios los países que ya cuentan o están desarrollando sus propios
satélites. El ímpetu que imprimen estos programas satelitarios a la ciencia de la percepción remota
permite actualmente realizar una supervisión rutinaria de varios fenómenos naturales terrestres, así como
el de apoyar adecuadamente las labores de exploración a gran escala en relación con los recursos
naturales y las actividades del hombre sobre el planeta.
26
Figura 13(d). Sistema avanzado para medir simultaneamente todos los CIV de una escena en varias
bandas.
Una concepción para aumentar el tiempo de residencia del sensor remoto sobre cada CIV es utilizar un
arreglo lineal de detectores, de tal manera que haya en esta configuración un elemento detector para cada
CIV de una franja perpendicular a la dirección de movimiento del sensor remoto. En la práctica se
utilizan tantos arreglos lineales para medir la energía luminosa como bandas se deseen registrar al
mismo tiempo. Con este diseño, el tiempo de residencia se incrementa al intervalo de tiempo que se
requiere para que el elemento detector cruce un CIV a lo largo de la trayectoria del sensor remoto, lo
cual permite reducir el tamaño del CIV y aumentar, en consecuencia, la resolución. Si se desea utilizar
este diseño para obtener una imagen multiespectral de tres bandas, suponiendo que cada franja de la
escena contiene 1 000 CIV, entonces el número de detectores requeridos será de tres arreglos lineales de
1 000 elementos sensores cada uno, es decir 3 000 detectores en total. Este instrumento espectral se
conoce con el nombre de barredor multiespectral modular de tipo optoelectrónico y ha sido probado en
forma experimental a bordo del transbordador espacial en una versión de dos bandas, y ya ha sido puesta
en órbita recientemente por Francia a bordo de un satélite llamado SPOT (Sistema Probatorio de
Observación de la Tierra); una de tres bandas, con una capacidad para medir CIV de 20 x 20 m². Al
referirnos a la figura 13(b) podemos clarificar aún más la operación de este tipo de barredor
multiespectral. Supongamos que se desea registrar una imagen multiespectral de cuatro bandas o planos
de color correspondientes al verde, amarillo, anaranjado y rojo, de tal manera que se requiere de cuatro
arreglos lineales de detectores, cada arreglo con los filtros adecuados para seleccionar los colores
mencionados. Consideremos ahora cuatro franjas sobre la escena perpendiculares al movimiento del
sensor remoto, constituido en este caso por los cuatro arreglos lineales de detectores; entonces, sobre la
dirección de movimiento, tomamos cuatro CIV, uno en cada franja de la escena; así, el primer CIV será
medido y asignado al plano de color rojo, el segundo al del anaranjado, el tercero al del amarillo y
finalmente el cuarto al del verde. A medida que avanza el sensor remoto en su trayectoria, el primer CIV
será ahora medido y asignado al plano de color anaranjado, el segundo al del amarillo y el tercero al del
verde. El arreglo lineal que tiene filtro rojo estará en este momento listo para medir los CIV que se
encuentran en la siguiente franja sobre la dirección de movimiento del sensor remoto; en este proceso,
cada CIV de las franjas de la escena es medido secuencialmente por los cuatro arreglos lineales que
corresponden a los planos de color arriba mencionados, por lo que finalmente se obtienen cuatro
imágenes digitales o bien una imagen multiespectral de cuatro bandas de la escena a medida que el
27
sensor remoto se mueve sobre ésta; es decir, la escena es "barrida" a lo largo de la dirección de
movimiento del sensor remoto y no perpendicularmente como en el diseño anterior, donde el espejo
oscilatorio es el que proporciona el "barrido" perpendicular sobre la escena.
El tercer diseño que deseamos considerar aquí (Figura 13(c)) es una especie de combinación de los dos
anteriores, en donde se utiliza un espejo oscilatorio para "barrer" la escena perpendicularmente a la
dirección de movimiento, pero se incorpora un elemento dispersor en lugar de los filtros considerados en
los dos primeros diseños. La luz que proviene de la escena es reflejada por el espejo y pasa, a su vez, por
un objetivo óptico formado por un cierto conjunto de lentes; éstos, por su parte, la dejan pasar hacia una
entrada y un colimador que la concentra sobre el elemento dispersor. Este elemento dispersor, que puede
ser un prisma o una rejilla óptica, la separa en los colores que la componen y la envía posteriormente a
un conjunto de detectores formados por un arreglo lineal; cada detector de este arreglo recibe la energía
correspondiente a cada color, de tal forma que si se desea registrar la escena en cuatro planos de color, se
requerirá entonces de un arreglo constituido por cuatro detectores. Desde luego, el diseño de cada
detector debe responder adecuadamente a la energía luminosa correspondiente al color considerado, ya
que uno que responda bien al verde puede no hacerlo eficientemente para el infrarrojo. Para terminar la
consideración de este diseño podemos agregar que en este caso se pueden medir varias franjas a la vez,
por lo que si se desea la medición de seis franjas en cuatro planos de color, se necesitarán por tanto seis
arreglos lineales de cuatro detectores cada uno.
Pasemos ahora al cuarto y último diseño (Figura 13(d) que combina de una u otra manera aspectos de los
tres diseños anteriores. En este caso se utiliza un arreglo lineal con tantos detectores como CIV tenga la
franja de la escena sujeta a medición, obviando con esto, al igual que en el segundo diseño, la necesidad
de un espejo oscilatorio, lo cual resulta ser muy interesante, pues con esto se constituye una
configuración sin partes móviles. Entonces, la luz de los CIV proveniente de la franja en cuestión es
guiada por un objetivo óptico y posteriormente por un colimador hasta un elemento dispersor en donde
es separada en colores para ser medida y registrada en tantos planos de color como se desee y se pueda,
de acuerdo a las características de los detectores; por lo que si se quiere una imagen multiespectral de
digamos cinco bandas y las franjas de la escena tienen 1 000 CIV, se requerirán por tanto cinco arreglos
de 1 000 elementos sensores. Cabe aquí puntualizar que, como se dijo arriba, cada arreglo debe estar
construido para responder eficientemente al color que se le asigne. Con el tremendo desarrollo
tecnológico que ha tenido en los últimos años la industria de los fotodetectores de estado sólido es
posible considerar una variante de este último diseño que actualmente está en operación experimental a
bordo de aeronaves y que probablemente sea la configuración que se utilice en los próximos años en las
plataformas satelitarias. Esta variante consiste en utilizar un arreglo bidimensional de detectoras para
cada plano de color, con una dimensión igual al número de CIV de cada franja por el número de franjas
en que se haya dividido la escena. Así que si la escena tiene 1 000 x 1 000 CIV y se necesita hacer
mediciones en cinco bandas, se requerirán por tanto cinco arreglos bidimensionales de 1 000 x 1 000
detectores, es decir un total de 5 000 000 de detectores. Con esta configuración la escena es registrada en
una imagen multiespectral en un tiempo equivalente al tiempo de residencia, es decir al tiempo que se
requiere para medir un solo CIV de la escena.
En todas las configuraciones discutidas aquí es necesario considerar un sistema de almacenamiento
digital para los datos producto de las medidas hechas sobre los CIV de la escena; tal sistema es de
particular importancia para el último diseño donde la escena es capturada prácticamente de "golpe". Al
realizar una medida sobre un CIV determinado, la energía luminosa para un color dado es transformada
por el fotodetector correspondiente en un pulso de voltaje cuya intensidad es proporcional a la energía
28
luminosa incidente; a su vez, y por medio de un dispositivo electrónico, llamado convertidor
análogo/digital (A/D), dicho voltaje es transformado a un número entero en una escala que
generalmente es de 0 a 127, con lo que un CIV oscuro emitirá poca energía luminosa y el voltaje
correspondiente será de baja intensidad, con lo que se obtendrá un número cercano al cero. En el
desarrollo de este proceso se va generando una cantidad enorme de números enteros que deben ser
almacenados en algún dispositivo de memoria al mismo ritmo que son producidos. Como el tiempo de
residencia es de una fracción muy pequeña de segundo, la velocidad a la que son generados estos
números es muy grande y por tanto el sistema de almacenamiento debe operar con una alta eficiencia.
En otras palabras, el fotodetector realiza una medida y ésta debe ser capturada en un tiempo tal que este
detector quede listo para realizar una nueva medida cuando así lo requiera el proceso. Con un sistema de
almacenamiento masivo de memoria controlado por un microprocesador se puede realizar una especie de
barrido sobre cada fotodetector, capturando el resultado de las medidas al mismo ritmo que se realiza el
barrido sobre la escena; dicho microprocesador no sólo capturará dicha medida, sino que la enviará al
sistema de almacenamiento masivo con un código lógico de orden para que el pixel generado y
almacenado guarde la misma posición relativa al CIV correspondiente, de otra manera se tendría una
especie de rompecabezas en desorden y sería imposible reconstruir la escena. Cuando la memoria
masiva es suficientemente grande, los datos ahí almacenados pueden ser posteriormente vaciados con un
ritmo relativamente menor a una cinta o un disco magnético donde la imagen multiespectral capturada
por el sensor remoto queda registrada en forma quasipermanente (se dice de este modo porque la imagen
puede continuar en la cinta o en el disco por un tiempo indefinido hasta que ya no sea de utilidad su
almacenamiento).
29
Figura 15. Imagen de radar en donde pueden apreciarse con claridad los rasgos del terreno, tales
como los cauces de los ríos, las montañas y los caminos.
Con el advenimiento de los viajes orbitales por medio de un transbordador espacial es posible, y de
hecho varios países así lo han hecho, verificar una serie de diseños de barredores multiespectrales que,
convenientemente probados, pueden ser posteriormente montados en una órbita satelitaria para la
captura rutinaria de imágenes de la superficie terrestre. En este mismo transbordador espacial se han
instalado instrumentos de gran precisión para llevar a cabo diversas misiones relacionadas con la
percepción remota y que han sido planeadas con gran antelación. Este es el caso de un radiómetro para
medir la energía infrarroja, invisible al ojo humano, con la que es posible identificar una variedad de
rocas sobre la superficie terrestre. Se han instalado también sensores remotos para detectar las
variaciones de color y temperatura del océano con el objeto de localizar concentraciones de algas y
bancos de pesca. Otros detectores cuidadosamente calibrados han sido de utilidad para medir
concentraciones de contaminación ambiental en diversas regiones del globo terráqueo. Fue montado
también un radar (Figura 15) que ha mostrado el potencial de la percepción remota en la exploración
geológica planetaria, además de demostrar la capacidad para estudios rutinarios en la identificación y
clasificación de hielo marino, para la medida de la dirección e intensidad del viento oceánico, para la
estimación de la cantidad de humedad del suelo y del potencial acuífero de zonas nevadas, todo esto con
aplicaciones precisas en diversas áreas de la investigación geofísica planetaria.
30
NOTAS
1 Landsat es el nombre de una serie de satélites lanzados por la agencia NASA de los EUA para la
observación de la Tierra. Landsat es un acrónimo de "Land Satellite" (Satélite de la Tierra).
I I I .
E L E M E N T O S
P A R A
E L
A N Á L I S I S
D E
U N A
I M A G E N
D I G I T A L .
Los elementos subjetivos del paisaje, como son vistos por un observador, son
cuantificados por un barredor multiespectral automatizado y sientan, con el
conjunto de datos resultantes, las bases para un análisis objetivo de la escena con
fines de gestión racional del paisaje.
VEAMOS ahora los elementos básicos para el análisis de una imagen multiespectral digital. Se ha dicho
anteriormente que una imagen digital es la representación lógica de una escena y que en general esta
representación tiene forma numérica y algunas veces visual. Se ha analizado también la mecánica de la
captura y registro de una escena en forma de imagen digital, pero, ¿qué significa físicamente en su forma
más general una imagen multiespectral digital? Esto es importante para entender el mecanismo de análisis
que se requiere para estudiar el funcionamiento de una escena. Así pues, puede decirse que es la variación
espacial y espectral de la "energía luminosa" proveniente de aquélla. Este concepto es igualmente válido
cuando la escena emite o refleja partículas como protones o neutrones o interacciona con señales
acústicas, en cuyos casos la frase entre comillas deberá leerse "energía penetrante" o "energía acústica".
Para entender esto hay que recordar que cuando un barredor multiespectral mide la energía luminosa,
penetrante o acústica) proveniente de un determinado CIV, obtiene en forma simultánea un conjunto de
números que dan en realidad el valor de la energía luminosa vista a través de un conjunto de filtros de
color, es decir que se observa la variación de color a color para un mismo CIV. La energía "luminosa" se
refiere a luz visible e invisible, como la infrarroja y la ultravioleta. Por su parte, aunque la energía
penetrante, como la de un haz de protones, y la energía acústica son seleccionadas por otros métodos
diferentes a los filtros de color, siempre se podrá hablar, en términos generales, de filtros para obtener una
energía determinada. Como la percepción remota utiliza principalmente la energía "luminosa", se
empleará este término con frecuencia, en la inteligencia de que otros tipos de energía pueden ser también
aprovechados por ella. Por tanto, podemos decir que para un mismo CIV el barredor multiespectral mide
el cambio de color a color (o de energía), o bien la variación espectral de la energía luminosa (penetrante
o acústica) respectiva. Entendemos aquí por variación espectral al cambio de energía de la radiación
luminosa, penetrante o acústica. A partir de esto es fácil comprender que de un CIV a otro la energía
31
luminosa será, en general, diferente y que, por tanto, la imagen digital es la medida del cambio de dicha
energía plasmada en el valor de un pixel a otro, lo que quiere decir finalmente que el conjunto de valores
de los pixels de una imagen digital forman el cambio o variación espacial de la energía proveniente de los
CIV de la escena. Al desplazar un punto de un lugar a otro sobre una imagen digital, se encontrarán
diferentes valores (Figuras 13 y 16) de los pixels, y esta variación espacial de la energía luminosa traerá
como consecuencia una variación espectral, ya que para cada pixel se tiene un juego de valores que son la
variación espectral del CIV correspondiente en la escena. Las variaciones espaciales y espectrales están
tan estrechamente ligadas que el cambio de una implica la otra.
Ahora bien, al adquirir una serie de imágenes multiespectrales de una misma escena, pero en diferentes
tiempos, se tendrá registrada una variación temporal de las características de aquélla, lo que implica que
las imágenes digitales correspondientes contendrán simultáneamente las variaciones espacial y espectral
de la energía proveniente de dicha escena a medida que ésta evoluciona en el tiempo. Para continuar con
el estudio de los elementos básicos de una imagen digital con fines de análisis es necesario ahora
introducir el concepto patrón espacial y patrón espectral. Un patrón es escencialmente un arreglo de entes
sin tomar en cuenta la naturaleza de éstos. Puede afirmarse, por otro lado, que el Universo está formado
por patrones. Por su parte, un ente es cualquier objeto físico o lógico; un número, una figura geométrica o
una ave son ejemplos de entes. Entonces, la sucesión de números 4, 17, 19, 16, es un patrón, diferente
desde luego al patrón 17, 4, 16, 19; queda claro en este ejemplo que lo que importa es el orden que
guardan los números entre sí y no si se trata de los mismos o no. El número de entes en un patrón puede
ser cualquiera entre dos e infinito; así, por ejemplo, la sucesión 4, 17, 16, 8 será un patrón diferente al
primero ejemplificado aquí. La variedad de patrones es por tanto infinita, pues cualquier combinación es
posible. Es importante hacer notar también que el arreglo de los entes puede ser de naturaleza lógica o
física; en los ejemplos que hemos mencionado se ha tratado del orden lógico de los números
involucrados. Si los entes son físicos, entonces el orden será también de naturaleza física, y por tanto éste
podrá darse a lo largo de un eje o sobre una superficie, como sucede en el caso del arreglo de objetos en
una escena. Es muy importante tener presente que en la representación numérica de una imagen digital
sólo podemos hablar de patrones lógicos, no así en la representación visual de la misma imagen, donde
éstos tienen una equivalencia física. Veamos ahora estos conceptos aplicados al caso de una imagen
multiespectral digital (Figura 16). La sucesión de números 42, 48, 59, 63, representa la variación espectral
del CIV correspondiente a este pixel en la imagen digital; a esta sucesión de valores sobre los diferentes
planos que componen la imagen digital multiespectral se le llama patrón espectral; dicho de otra manera
un pixel representa un patrón espectral. Por lo tanto, un patrón de este tipo está formado por la sucesión
de valores que presenta un CIV determinado cuando es visto bajo diferentes filtros y, como habíamos
dicho anteriormente; esta sucesión es única para cada objeto de la naturaleza, de tal forma que dicho
objeto tiene un patrón espectral único. De ahí que se haya hecho costumbre llamarle firma espectral.
(Figura 12.) Es claro que la firma espectral de un objeto cualquiera es un patrón de tipo lógico. En la
figura 16 se ha dibujado también un conjunto de pixels con una cierta variedad de valores; si bien en esta
simplificación puede observarse con facilidad que aquellos que tienen valores alrededor del 60 forman
una figura geométrica irregular, el resto tienen valores notablemente más bajos y como tales se
constituyen en una especie de fondo. El arreglo espacial de pixels con valores alrededor del 60 forman lo
que se conoce precisamente como patrón espacial. Es interesante hacer notar, como ya se apuntó arriba,
que en este ejemplo se trata de entes de tipo lógico pero con un orden físico, es decir, tienen una posición
definida en el espacio. En una imagen multiespectral digital los patrones espectrales son siempre de tipo
lógico y los patrones espaciales son lógicos en la representación numérica y físicos en la representación
visual. Desde luego, hay patrones espaciales formados por objetos físicos, como es el caso de un arreglo
particular de aves cuando éstas vuelan en una parvada, puesto que resulta suficiente con que una ave
cambie de posición relativa con respecto al resto para que el conjunto forme un nuevo patrón. En forma
32
intuitiva podemos decir también que desde el punto de vista físico existen patrones tanto espectrales
como espaciales (Figura 21) que no difieren mucho entre sí. Así, por ejemplo, el patrón espectral 4,17,19,
16 es muy similar al 4, 17, 19, 15, y probablemente se trate de dos objetos de la misma naturaleza física,
pero con pequeñas diferencias. Entre patrones espaciales también puede haberlas: únicamente mover de
posición un solo pixel del patrón espacial de la figura 17, se tendrá formalmente otro diferente, aunque
éste se parezca mucho al original.
Figura 16. Patrones espacial y espectral de una imagen digital multiespectral.
33
Figura 17. En esta imagen de un sensor aerotransportado se observa un conjunto de patrones
rectangulares que tienen características espectrales similares. Estos patrones rectangulares son los
asociados a una serie de edificios.
En la operación del barredor multiespectral, debido a variaciones de tipo estadístico, pueden ocurrir
pequeñas fluctuaciones en los valores respectivos para el patrón espectral, aun en el caso de objetos
iguales que se encuentren colocados en diferentes posiciones de la escena. Algo similar puede suceder
para patrones espaciales, en donde la naturaleza discreta de la imagen hace que algunos pixels queden
ligeramente desplazados resultando pequeñas diferencias en la imagen digital, aun cuando en la escena se
trate de lo mismo. A estas fluctuaciones estadísticas en el proceso de captura y registro de una imagen
digital se suman en general otros factores que pueden llegar a ser muy importantes. Por ejemplo, en el
caso de una imagen Landsat, la energía luminosa al viajar desde la superficie terrestre al barredor
multiespectral atraviesa la atmósfera, cuyas condiciones de visibilidad pueden ser diferentes de un lugar a
otro de la escena, de tal manera que en la práctica las condiciones de iluminación para la escena no son
homogéneas. En el caso de una radiografía del tejido óseo, los rayos X atraviesan el cuerpo humano, el
cual presenta no sólo diferencias en el espesor sino también diferentes condiciones del tejido blando,
34
haciendo con esto que los huesos aparezcan en diferentes tonalidades de gris; a esto hay que agregar el
hecho de que los huesos tampoco presentan condiciones de homogeneidad; así, el tejido óseo se muestra
con variaciones de densidad y espesor de un lugar a otro a lo largo del cuerpo humano. Todos estos
factores hacen que, tanto los patrones espectrales como los espaciales de una imagen digital se vean
formalmente diferentes, pero con características similares, y son precisamente estas características las que
permiten la comparación e identificación de objetos semejantes en la escena. Podemos decir ahora, que
una imagen digital multiespectral es una composición de patrones espectrales y patrones espaciales, y
junto con la interrelación que tienen éstos, es lo que constituye la estructura de una imagen digital
multiespectral. Esta interrelación se refiere a la relación que tiene el valor de un pixel con sus vecinos, es
decir, qué tan rápido varía el valor de un pixel a otro, y es, por tanto, una medida de qué tan rápido se
muestran visualmente las variaciones en tonos de gris o de color en la representación visual de una
imagen digital. De hecho existe un número tan grande de posibles interrelaciones entre patrones, que no
hay manera de describir en forma exhaustiva la variedad de estructuras que pueden resultar en una
imagen digital de regular tamaño, digamos de 1 024 x 1 024 pixels. Para ilustrar esto supongamos que,
como en un juego gigantesco de rompecabezas, tenemos 1 024 x 1 024 (1 048 546) juegos de cuadros de
128 posibles tonos de gris, con lo que entonces podemos formar más de un millón de imágenes con 128
niveles de gris, muchas de las cuales presentarán formas familiares a nuestra vida diaria. Si tenemos
muchos millones de pequeños cuadrados con 128 posibles tonalidades, entonces podremos formar más
imágenes de por ejemplo 1 024 x 1 024 pixels, pudiendo componer con esto casi cualquier figura que
conozcamos en la vida cotidiana. Por otro lado, es posible dar suficientes ejemplos para esclarecer este
tan importante concepto de estructura de una imagen digital, como introducir los elementos básicos con
los cuales descomponer una imagen para facilitar no nada más su comprensión, sino también su análisis.
Para esto partamos de un ejemplo extremadamente sencillo: supongamos que tenemos una imagen digital
multiespectral cuyos pixels son del mismo valor o tono, es decir, la imagen aparece homogénea a la vista.
¿Qué tipo de interrelación guardan en esta imagen los patrones espectrales y espaciales? Pues bien, todos
los patrones espectrales tendrán el mismo juego de valores numéricos a lo largo de los diferentes planos
de color: por ejemplo, 7, 13, 17, 21 y 22, para una imagen multiespectral formada por cinco bandas. La
relación de pixel a pixel será muy simple: uno; cualquier pixel será igual a sus vecinos. Veamos ahora un
ejemplo un poco más complejo: consideremos una imagen como la de la figura 16. En este caso existen
fluctuaciones relativamente pequeñas entre los patrones espectrales, tanto para los pixels que forman la
figura geométrica, como para el resto de la imagen o fondo. La relación de un pixel con sus vecinos no es
tan alta como en el caso anterior, pero sí es cercana al 100%: casi igual a uno. En otras palabras, ya sea
para la figura geométrica o para el fondo, las fluctuaciones de pixel a pixel son relativamente pequeñas,
entre el fondo y la figura geométrica la relación de los valores de los pixels es de aproximadamente 1/2,
lo que implica que hay un cambio brusco del fondo a la figura geométrica. Desde luego, esto significa que
la relación de los pixels que forman la figura geométrica con sus vecinos (los del fondo) es realmente
baja: aquí el cambio de un pixel a otro es bastante brusco, pues esto es precisamente lo que define en
forma clara la mencionada figura, o visto desde otra perspectiva, los pixels que forman el fondo tienen
poco que ver con aquéllos que forman la figura geométrica. De aquí podemos plantear que, en el primer
ejemplo, donde consideramos una imagen homogénea, la estructura es la más simple que puede existir, y
en el segundo (Figura 16), que la estructura es algo más compleja, esto es que es de tipo binario: sólo
existen dos patrones espaciales o dos grupos de patrones espectrales. Analicemos ahora imágenes con
estructuras más complejas y para esto vayamos a la figura 10, en la que vemos en tonos de gris y con
variaciones suaves el rostro de una mujer: ¿cómo podemos afirmar que diferenciamos el patrón espacial
"ojos, boca o nariz"? En estos casos un mismo patrón espacial no presenta fronteras tan definidas ni un
nivel de valores tan homogéneos como aquellos patrones de la figura 16. Por tanto, en primer lugar
podemos afirmar que los mencionados patrones del rostro de la mujer se encuentran embebidos en un
contexto que es precisamente el rostro, y en segundo, que el cerebro humano es capaz de suplir aquellas
partes faltantes o poco claras del patrón en cuestión. Esto quiere decir que distinguir dichos patrones está
35
íntimamente relacionado con un proceso cerebral que aún no se encuentra claramente entendido; en otras
palabras, la determinación o no de un patrón espacial no se debe nada más a su existencia física, sino
también al proceso o método de análisis de la imagen y, como el proceso cerebral mencionado no se
encuentra completamente clarificado, podemos afirmar que el reconocimiento o no de un patrón espacial
puede finalmente constituirse como un hecho subjetivo y, como tal, depende del observador, del barredor
multiespectral, de las condiciones de iluminación de la escena, del tamaño del CIV en relación con ésta y
del método de análisis. No puede obviarse esta subjetividad diciendo que un patrón espacial podrá
reconocerse automáticamente por medio de una computadora, puesto que los algoritmos computacionales
para hacer dicho reconocimiento los tiene que escribir un ser humano, que es quien va a plasmar en tales
algoritmos criterios de carácter subjetivo. ¿Qué podemos decir entonces acerca de estructuras más
complejas? Podemos afirmar tres cosas: 1) siempre habrá en una imagen digital patrones espaciales bien
definidos tanto en su forma y su frontera, como en la extensión que ocupan, los que podrán distinguirse
sin ambigüedad ya sea por cualquier observador, o por una computadora debidamente programada; 2)
ciertos patrones aparecerán como aquéllos de la figura 10, en donde es necesario el manejo de elementos
subjetivos para identificar los patrones espaciales sin anbigüedad; claramente será indispensable
introducir, debido a tal subjetividad, un conjunto de reglas que unifiquen en forma arbitraria, pero
práctica, dichos elementos y 3) un conjunto relativamente pequeño de patrones para los que no es posible
un análisis sin caer necesariamente en ambigüedades, de tal forma que el reconocimiento de esta clase de
patrones es realmente circunstancial; para este tipo de patrones se requiere por tanto de una unificación de
criterios y condiciones bajo las cuales se debe capturar la imagen digital correspondiente a la escena que
se desee analizar. Por ejemplo, ciertas condiciones de iluminación pueden hacer aparecer a una imagen
con sombras pronunciadas impidiendo la definición clara de varios patrones espaciales.
Puede afirmarse ahora que los patrones espectrales siendo lógicos y por tanto bien definidos no presentan
finalmente ningún grado de subjetividad, puesto que ésta ha sido ya previamente clarificada a través de
axiomas y definiciones concernientes al sistema de números naturales. De ahí que el patrón espectral 4,
17, 19, 16 sea clara y definitivamente diferente a cualquier otra combinación de cuatro números naturales
y por tanto esté constituido en un patrón espectral único. Ahora bien, como ya habíamos comenzado a
estudiar en el párrafo anterior, la situación para los patrones espaciales no es tan sencilla cuando se trata
de imágenes con estructuras relativamente complejas. En relación a esto habíamos mencionado que
existen tres grados o clases de patrones de esta clase de acuerdo a la objetividad o subjetividad
involucrada en su reconocimiento y que los tres podían estar presentes en una imagen digital, lo que traía
como consecuencia que la interrelación entre un patrón espacial y el resto de la imagen, o bien entre un
patrón y otros, ya no sea tan sencilla como el que tiene el patrón geométrico de la figura 16 con el resto
de la imagen. En casos más complejos, la interrelación es variable de un pixel a otro y de un patrón
espacial a otro, como sucede por ejemplo en una radiografía, en donde tanto una costilla va cambiando de
tono de un lugar a otro, como la relación entre un pixel-costilla y un pixel-tejido blando. En la práctica,
esta variedad en los patrones espaciales hace que se impongan necesariamente reglas en el proceso de
captura y registro de imágenes, reglas tales que garanticen la uniformidad en las características de una
clase de patrones, al menos para un conjunto especifico de ellas como lo pueden ser las radiografías o las
imágenes satelitarias. Supongamos ahora que se han ya uniformizado los criterios para un cierto conjunto
de imágenes multiespectrales y que se han establecido reglas para evitar al máximo la anbigüedad. Hecho
esto podemos plantear fácilmente que la estructura de una imagen multiespectral está dada por el
conjunto de patrones espectrales y espaciales que la componen y por la interrelación que guardan entre
ellos, siendo esta interrelación la razón de valores numéricos que un determinado pixel guarda con todos
sus vecinos en cada una de las bandas de la imagen. En una imagen como ésta dicha razón será diferente
de un plano de la imagen a otro, aun cuando se trate del mismo pixel. Así, por ejemplo, suponiendo dos
pixels contiguos cuyos valores a través de los diferentes planos de color de una imagen multiespectral
36
forman los patrones espectrales 4, 17, 19, 16 y 8, 15, 13, 10, tendrán la razón de valor 1/2 para el primer
plano, pero una razón diferente para los planos segundo, tercero y cuarto respectivamente 17/15, 19/13 y
8/5. La interrelación de los pixels que componen un patrón espacial con los pixels vecinos es muy
importante, puesto que si la razón es cercana a uno, el patrón difícilmente podrá distinguirse, mientras
que si la razón es diferente de uno, tendrá un contraste mayor con respecto al resto de la imagen y será
fácil identificarlo. Es necesario decir que dado que dicha razón cambia de plano a plano, es posible que
un patrón sea identificable en un plano pero no en otro. Hay que puntualizar aquí, que sólo es importante
para la diferenciación de un patrón espacial, la razón de los pixels que lo componen con los pixels
vecinos próximos; no tiene sentido hablar de la razón de tales pixels con vecinos alejados, puesto que
éstos no contribuyen al contraste del patrón espacial en cuestión.
Otra manera de ver a un patrón de este tipo es a través del concepto de estructura, es decir considerando a
un patrón espacial como una estructura elemental que forma parte de una imagen o estructura compleja.
Por tanto, una imagen digital multiespectral podrá ser vista como la superposición de estructuras
elementales o semielementales cuya forma y tamaño se mantiene, en principio, de plano a plano de color,
pero cuya interrelación cambia en forma dependiente a la variación espacial de los valores de los pixels
que componen dicha estructura. Esto significa que un plano de color determinado conteniendo una
estructura elemental podrá tener buen contraste, pero que, en otro plano, éste será de tal magnitud que, o
aparecerá en forma tenue, o tal vez ni siquiera pueda distinguirse. De hecho no existe un juego básico de
estructuras elementales; la variedad de patrones espaciales es tal que hace imposible la definición de
dicho juego. Más bien lo que se establece es un conjunto característico o típico de estructuras elementales
con relación a una aplicación específica, con lo que, por ejemplo, tratándose del problema de la forma de
un determinado virus, no se manejarán todas las formas posibles que éste adopta a lo largo de su
existencia, sino más bien un subconjunto suficiente para determinar, digamos, la forma que adquiere
cuando se encuentra en un claro estado de virulencia. En resumen, establecer un conjunto de estructuras
elementales se hace por medio de una decisión arbitraria, pero con sentido práctico; en la suposición,
claro está, de que los criterios para la identificación unívoca de tales estructuras han sido ya seleccionados
y cuantificados. En una imagen de la superficie terrestre tomada desde un satélite, los diferentes patrones
de drenaje del agua que escurre hacia las partes bajas podrían ser consideradas como estructuras
elementales. También lo serán las formas de las cadenas montañosas cuya forma y tamaño son relevantes
en la exploración geológica. Los diferentes tipos de cobertura vegetal pueden ser también consideradas
como patrones espaciales elementales; éstos, combinados con información a la cual se encuentran
localizadas las diferentes especies vegetales, forman elementos de considerable importancia en el estudio
de la superficie terrestre y los recursos naturales. De hecho, cuando el hombre observa con la vista al
medio que le rodea, establece de inmediato un conjunto básico de patrones o estructuras elementales, lo
que hace en forma arbitraria, pero con sentido práctico, dependiendo del contexto en que se encuentre;
así, por ejemplo, un transeúnte en la calle definirá a los automóviles como estructuras elementales, pero
un mecánico en su taller verá el automóvil como una estructura compleja y a las diferentes partes del
motor y la carrocería las verá como estructuras elementales. A manera de recapitulación de estas ideas
podemos decir que una imagen digital multiespectral está formada en su totalidad por un conjunto de
patrones espaciales complejos, tantos patrones como planos de color haya, y que cada plano es, a su vez,
el resultado de la interrelación de estructuras espaciales semielementales o quasielementales, definidas
éstas de acuerdo al contexto en el cual se desea analizar dicha imagen.
Ahora bien, por medio de la visión y del sentido del tacto un ser humano es capaz de distinguir en forma
intuitiva diversos tipos de textura. En una muestra de diferentes telas, se puede establecer una
clasificación cualitativa, desde las más rugosas hasta las más lisas. ¿Cuáles son los criterios que se
37
utilizan en esta clasificación? Una tela completamente lisa es aquélla que no presenta ninguna variación
del relieve a la hora de deslizar los dedos por su superficie; esto quiere decir que si viéramos a la tela de
perfil, la veríamos completamente plana, como la superficie de un vidrio; en cambio, una tela rugosa
presentará variaciones abruptas en todas las direcciones, y de perfil se verá una línea accidentada. Sin
embargo, la textura no puede entenderse únicamente como un cierto grado de rugosidad, en ella también
interviene el tipo de variación de tal rugosidad y en qué dirección o direcciones se presenta ésta. De esta
manera, una sucesión lineal de crestas y valles no será lo mismo que un cuadriculado de crestas y valles;
el número de posibles combinaciones para dichas variaciones es prácticamente ilimitado. Puede decirse
entonces que el patrón espacial que presenta la rugosidad en una tela es lo que determina la textura de la
misma, o en otras palabras, la rugosidad de una tela se presenta a la vista como una sucesión de tonos que
forman un patrón espacial y esta sucesión tiene una correlación estrecha con la rugosidad perceptible al
tacto. ¿Qué puede decirse ahora en cuanto a la textura de una imagen digital? En una imagen continua no
podemos hablar directamente de rugosidad, sólo podemos hacerlo de cambios de tono de color a medida
que uno se desplaza de un punto a otro de la imagen. Sin embargo, en una imagen digital podemos
imaginar cuantitativamente que aquellos pixels que tiene un valor alto forman un pico o cresta y que los
que tienen un valor bajo forman un valle o sima, de tal manera que puede establecerse una analogía clara
entre la rugosidad de una tela y esta "rugosidad" imaginaria de la imagen digital. Recordemos ahora que
una imagen de este tipo tiene una representación visual, y que los pixels de valor alto se traducen en tonos
claros y los de valor bajo en tonos oscuros, de aquí que finalmente las variaciones espaciales en tono o
color de una imagen digital pueden entenderse como un cierto grado de "rugosidad" o textura. Veamos
ahora algunos ejemplos para ahondar en estos conceptos de tipo intuitivo y difíciles de cuantificar.
38
Figura 18. Imagen obtenida de un detector plástico donde se observa una serie de patrones
circulares que corresponden a partículas .
39
Figura 19. Los patrones circulares de esta imagen corresponden a las trazas de partículas vistas a
través de un microscopio electrónico.
Comencemos por las imágenes mostradas en las figuras 18 y 19 que presentan estructuras o patrones
espaciales relativamente sencillos. En ambas figuras se pueden apreciar una serie de patrones circulares
oscuros rodeados de un halo bastante claro; de acuerdo a los conceptos que acabamos de desarrollar
podemos decir que tanto los patrones circulares como los halos tiene la misma textura y con esto queda
asentado algo muy importante: la textura es independiente del tono o color de la imagen, ya que en este
ejemplo la variación espacial de los tonos de gris es la misma aunque en un caso sea clara y en el otro
oscura. En la figura 18 se puede ver una sucesión de líneas algo oscuras aproximadamente paralelas y
separadas entre sí por zonas un poco más claras. Las regiones que contienen estas líneas serán
catalogadas como una clase de textura aparte; también serán clasificadas de esta manera aquéllas que
tienen una especie de "moteado", en donde se alternan, en forma aproximadamente regular y en todas
direcciones, una sucesión de pixels oscuros y grises. En la figura 18, por tanto, diremos que hay tres
clases de textura y, siguiendo razonamientos similares, lo mismo podríamos decir de la figura 19. Algo un
poco diferente se tiene en la figura 20; en ella se ven, en una especie de cuadriculado, una serie de
patrones espaciales, donde cada cuadrado tiene estructuras rayadas y "moteadas" además de que se
pueden apreciar también algunas zonas muy claras, de las cuales se podría plantear que tienen una textura
"lisa". No obstante estas clasificaciones intuitivas, resta algo de subjetividad en el concepto de textura,
puesto que el cuadriculado de la figura 20 que contiene a las otras clases de textura, puede ser una clase
de por sí; de aquí que este concepto dependa siempre del contexto bajo el cual se le mire. Aun así
podemos decir que existen tres elementos objetivos en el concepto de textura, y es que ésta depende de:
1) la frecuencia de cambio de los tonos en los pixels; 2) de la dirección o direcciones de cambio, y 3) del
contraste entre un pixel y sus vecinos.
40
Figura 20. Zona de cultivos en el valle del Yaqui, Sonora, captada por el satélite Landsat 2.
41
Figura 3. Imagen de la glándula tiroides obtenida con un detector de rayos gamma. La parte
superior es una representación de dicha glándula en tonos de grises y en la parte inferior se aprecia
la misma en colores; es evidente que la representación a color es mucho mejor.
Figura 12. Muestra de cuatro "firmas espectrales" extraídas de los valores asociados a diferentes
rasgos de la imagen de la ciudad de México, obtenida por un sensor aerotransportado.
42
Figura 14. Imagen del satélite Landsat (TM) del área donde está localizado el reactor nuclear de
Chernobyl (ver flecha). La imagen fue tomada el 29 de abril de 1986, a las 18:52 hora local). La
región central de la imagen que aparece en negro es el estanque de enfriamiento asociado a la
operación del reactor.
43
Figura 26(a). En la parte inferior de esta imagen del Valle del Yaqui, Sonora, se aprecia una
delgada nube que impide ver con claridad los cultivos y los canales de riego.
44
Figura 26(b). En esta imagen, la nube ha sido filtrada, habiéndose recobrado buena parte de la
información que estaba cubierta por la nube.
45
Figura 28(b). Este es el tipo de productos que se puede ofrecer la percepción remota en la
cartografía de una ciudad como México. En los diferentes colores se ven las comunicaciones viales,
las zonas urbanas y las zonas arboladas.
46
Figura 29(a). En esta toma del reactor de Chernobyl, antes de su explosión, se aprecia en rojo la
descarga de aguas calientes producto de la operación del reactor. En anillo, verde y azul se
observan las aguas gradualmente más frías, con lo que queda clara la distribución particular de
temperaturas del estanque de enfriamiento.
47
Figura 29(b). Después del accidente en el reactor nuclear, la distribución de temperaturas del
estanque es más uniforme, lo que indica que el reactor ha cesado de operar puesto que ya no hay
descarga de aguas calientes.
48
Figura 30. La apariencia rojiza de la cobertura vegetal de esta imagen se debe a que se utilizó un
filtro infrarrojo y esto permite evaluar con facilidad el estado de la vegetación.
Pasemos ahora a estudiar otro elemento básico para el análisis de una imagen digital: la noción de forma
de un patrón espacial. El concepto de forma tiene más aspectos objetivos que el concepto de textura, ya
que todos entendemos la diferencia entre un triángulo y un cuadrado debido a que estas figuras tienen
propiedades geométricas bien definidas que nos permiten determinar sus diferentes formas en una imagen
digital, cuando se trata de figuras geométricas regulares e irregulares es, posible distinguir una forma de
otra, puesto que una figura geométrica siempre puede verse como un polígono con ángulos interiores y
lados claramente definidos. Cabe aclarar que la naturaleza discreta de una imagen digital hace imposible
que puedan considerarse líneas continuas para figuras geométricas; éstas estarán siempre representadas
por líneas quebradas o polígonos. Esto puede verse claramente al referirnos a la figura 21, en donde, por
simplicidad en la discusión, se ha representado una figura binaria (sólo dos valores de pixels) y en donde
los unos representan el contorno de una figura geométrica cualquiera. Consideramos también el diagrama
de ocho posibles direcciones que pueden presentarse en una imagen digital y que se conoce como código
de Freeman. Por medio de este código y comenzando por cualquier pixel de la figura geométrica,
digamos el de la extrema derecha, podemos asociar una cadena de números a dicha figura. El proceso de
asociación es como sigue: el pixel remarcado en la figura 21 es el que se toma como punto de partida.
49
Figura 21. Patrón espacial y su correspondiente representación numérica por medio del código de
Freeman.
Se inicia un recorrido hacia arriba en sentido contrario a las manecillas del reloj y se va asignando un
número según el código de Freeman; de esta manera, al siguiente pixel se le asigna el número tres, ya que
se encuentra en la dirección tres del mencionado código. El pixel que sigue se halla en la misma dirección
y por tanto se le otorga también el número tres; el siguiente se encuentra hacia arriba, por lo que se le
asigna el número dos. El proceso se continúa hasta recorrer completamente los pixels que componen la
figura geométrica; en este caso la cadena asignada resultante se muestra en la figura 21. Con esta cadena
de números o código de Freeman hemos logrado un resultado muy importante, puesto que en ella se
encuentra la información cuantitativa acerca de la forma de la figura geométrica; haber planteado las
cosas así permite objetivar el concepto de forma aun para polígonos irregulares. Analicemos ahora con
más detalle esta cadena de números para verificar que esta representación numérica de la forma es
realmente única para el ejemplo planteado y que no existen ambigüedades en el esquema planteado. En
primer lugar, esta cadena de números constituye un patrón espacial (recuérdese que un patrón es un
arreglo de entes de la misma naturaleza lógica, que se refiere al espacio físico), puesto que recorrimos la
figura geométrica de pixel a pixel, es decir de un punto a otro en la representación visual de la imagen
digital. ¿Qué sucede si la cadena la construimos a partir de otro pixel, digamos el que se encuentra en el
extremo superior derecho de la figura geométrica? Con la convención de hacer el recorrido en el sentido
contrario a las manecillas del reloj, se obtiene la siguiente cadena: 44644460664466002006600113322.
¿Acaso es esta cadena esencialmente la misma que la anterior? ¿se trata del mismo patrón? Hablando
superficialmente y en el contexto en el cual definimos a un patrón la respuesta parecería ser no. Sin
embargo, estamos considerando un patrón espacial y por tanto tenemos que pensar en la posición relativa
que guarda cada pixel de la figura geométrica; además, no olvidemos que la cadena obtenida representa
un patrón espacial y no un patrón lógico, en el cual el cambio de un solo ente implica un patrón realmente
diferente. Con estas consideraciones pasemos ahora a comparar las dos cadenas y para ello iniciemos el
50
siguiente proceso de rotación: comenzando con el número de la extrema derecha de la última cadena,
pasémosla al principio de la misma, a la izquierda de ésta, y comparemos número a número las dos
cadenas; así continuamos pasando número a número los elementos de la segunda cadena y comparándolas
entre sí cada vez, es claro que después de haber pasado a la izquierda los números 33222, las dos cadenas
serán exactamente iguales. En este momento podemos decir que si dos cadenas de dos figuras se
comparan idénticamente una vez durante una rotación completa de los números de cualquiera de las dos,
entonces las dos figuras tienen la misma forma, es decir constituyen el mismo patrón espacial, ya que los
pixels guardan la misma posición relativa, aun cuando se rote la figura. En otras palabras, esta
conceptualización de las formas para las figuras geométricas hace también que la representación
respectiva, por medio de las mencionadas cadenas, sea independiente de la orientación de la figura,
puesto que al girar la Figura 21, se obtiene una cadena igual a la que corresponde a la figura no girada,
por supuesto, una vez hechas las rotaciones necesarias en cualquiera de ellas. El último problema que
tenemos que resolver es el relativo al tamaño de las figuras geométricas que se consideren, ya que
intuitivamente sabemos que la forma de una figura es independiente de las dimensiones de ésta; este
concepto queda completamente clarificado cuando se amplifica el negativo de una fotografía a diferentes
escalas: obviamente las formas de las figuras presentes en la foto serán las mismas independientemente
del tamaño de las impresiones correspondientes. Para estudiar este último problema supongamos que
tenemos dos rectángulos concéntricos (5 x 4 y 7 x 6 pixels), con lo que aseguramos que sean de la misma
forma pero de tamaño diferente; entonces, siguiendo el código de Freeman, las cadenas correspondientes
serán: 00002224444666 y 0000002222244444466666, que se obtiene comenzando con el pixel del
extremo izquierdo inferior y recorriendo los rectángulos en sentido contrario a las manecillas del reloj.
Las cadenas así obtenidas lucen similares, mas no iguales; si hiciéramos una comparación como la
planteada más arriba, concluiríamos erróneamente que las figuras consideradas tienen formas diferentes.
Sin embargo pueden observarse que estas dos cadenas tienen estructuras semejantes: los dígitos 0, 2, 4, 6
que intervienen en ambas guardan una relación de proporción en cuanto al número de veces que aparecen
en cada cadena. Esto es así debido a que al aumentar de tamaño el rectángulo se requieren de más pixels
para representar cada lado y en consecuencia la cadena que caracteriza la forma correspondiente será
proporcionalmente más grande. Es necesario aclarar que a diferencia de las posibles orientaciones que
puede tener una figura donde los patrones espaciales correspondientes son los mismos, en el presente
caso, donde los patrones respectivos son verdaderamente diferentes, éstos resultan ser semejantes gracias
a que están relacionados a formas iguales. Lo que hemos hecho finalmente es introducir una
conceptualización lógica que nos permite comparar dos formas de manera cuantitativa. En resumen,
podemos decir que una cadena de números, producto de aplicar el código de Freeman a un polígono
cualquiera en una imagen digital, representa de manera adecuada y cuantitativa la forma asociada a dicho
polígono, de tal manera que esta representación es independiente de la orientación y tamaño que pudiera
tener dicho polígono. Así pues para comparar una forma con otra será necesario analizar la proporción de
los dígitos que aparecen en las cadenas respectivas, efectuar todas las rotaciones requeridas y comparar
dígito a dígito las dos cadenas: las formas serán iguales, si aquéllas son semejantes, y serán
progresivamente diferentes a medida que difieran dígito a dígito. Cabe anotar aquí que aunque
lógicamente se ve sencillo comparar dos formas o clasificarlas de acuerdo a un patrón de formas, la tarea
computacional se vuelve sumamente difícil, pues la implantación de los algoritmos correspondientes a las
rotaciones, proporciones y comparaciones no es directa ni obvia. Lo importante, sin embargo, es que en
principio podemos cuantificar el concepto de forma y que éste resulta ser un elemento de extrema
importancia en el análisis de imágenes digitales.
51
Figura 22. Banda de una imagen multiespectral sintetizada en un conjunto de estructuras
quasielementales.
Imaginemos ahora que tomamos un plano cualquiera de una imagen multiespectral en la cual se encuentra
una estructura espacial relativamente compleja. Pensemos también que hemos logrado conceptualizar esta
estructura de tal manera que es posible sintetizarla por medio de un conjunto de estructuras
quasielementeos (figura 22). En el plano original se muestra una imagen donde están representados una
montaña, un bosque, un lago y una red de drenaje por donde fluye el agua que escurre desde la montaña.
En la sucesión de imágenes mostradas en la figura 22, aparecen cada uno de estos patrones espaciales o
estructuras quasielementales. Como se había dicho anteriormente, en la práctica estos patrones pueden no
aparecer ni tan claros ni tan bien definidos como se muestran en la figura. La síntesis mencionada
consiste básicamente en que cada estructura quasielemental ha sido aislada o separada del resto de la
imagen original y puesta en una imagen aparte; a este proceso se le llama segmentación de la imagen
digital. En otras palabras, la segmentación es la representación de una estructura compleja por medio de
un conjunto de estructuras quasielementales. Cabe preguntar aquí: ¿cuál es el objeto de segmentar una
imagen digital? Aparte de conceptualizar una estructura compleja en sus partes, lo cual es muy útil puesto
que el desglose de cualquier objeto en sus componentes básicos es un método de estudio bien establecido,
se tienen otras consecuencias importantes en el análisis de una imagen digital. Al separar cada objeto
estamos en posibilidades de evaluarlo en forma automatizada sin tener complicaciones innecesarias en la
ejecución de algoritmos computacionales; al evaluar la forma del bosque, la montaña o el lago, lo
hacemos por separado sin tener que escribir un programa de computadora que "reconozca" que se trata de
tres objetos diferentes. Además de que si bien para fines cuantitativos la forma de un bosque puede ser la
52
misma que la de un lago, no es así para las consecuencias que trae una forma determinada en el área de la
silvicultura o en el de la geohidrología, respectivamente. Por otro lado, es muy posible que se desee o se
requiera aplicar diferentes criterios de análisis a diferentes estructuras: así, por ejemplo, será necesario
determinar el área boscosa y la superficie cubierta por el lago, pero para el caso de la montaña será más
importante determinar su forma y para la red hidrológica el número de cauces por unidad de superficie
que permita obtener el flujo de agua hacia las partes bajas.
Podemos ahora decir que la segmentación de una imagen no es nada más un recurso lógico para
conceptualizar una estructura compleja, sino también un recurso para simplificar el análisis
computacional de las propiedades geométricas de las estructuras quasielementales. Las propiedades
geométricas de un patrón espacial, tales como forma, perímetro, área cubierta y textura, son las que
constituyen la morfología de tal patrón, y su determinación es necesaria en la solución de problemas
específicos. La morfología de un tumor, por ejemplo, puede ser indicativa del tipo de tejido y de la
malignidad correspondiente, y la morfología de una cadena montañosa puede dar indicios sobre la
historia geológica de una región determinada. No es necesario que la segmentación se realice en forma
física; en muchos casos es suficiente una separación lógica, en donde a cada estructura quasielemental se
le asigne un plano virtual; esto es, sólo existe una representación numérica de las estructuras y a esta
representación se le asigna un código diferente que simboliza un plano virtual determinado.
Un patrón espacial en una imagen digital multiespectral es en realidad un conjunto de patrones
espectrales con características similares. Para clarificar esto y estudiarlo con mayor detalle regresemos a
la figura 16, la cual muestra un patrón espacial simple que bien podría catalogarse como una estructura
quasielemental. A lo largo de este patrón, las características de los patrones espectrales son
aproximadamente las mismas, por lo que los juegos de números que los representan son muy parecidos
entre sí a través de los planos de color de la imagen multiespectral. En la figura 16 se han representado
cuatro patrones espectrales, contiguos entre sí, que forman parte del patrón espacial; estos juegos de
números son, yendo de izquierda a derecha sobre la imagen digital, los siguientes: (64, 59, 47, 38), (63,
59, 48, 42), (61, 58,47, 39) y (60, 58, 46, 37). Es claro que podemos esperar juegos parecidos para el resto
de los patrones espectrales que conforman al patrón espacial mostrado en la figura 16. Con todo existen
pequeñas diferencias entre estos patrones que podríamos atribuir a variaciones provenientes del sensor
remoto o a cambios ligeros del objeto correspondiente en la escena. Estas pequeñas diferencias se
muestran como fluctuaciones estadísticas de rango pequeño que no afectan en la separabilidad (en este
ejemplo) del patrón espacial del resto de la imagen. Desde luego, existen criterios de tipo estadístico que
nos permiten en forma cuantitativa determinar cuándo un patrón espacial tiene fluctuaciones de rango
pequeño y cuándo no, o bien establecer cuándo un patrón espectral pertenece o no a un patrón espacial.
En forma intuitiva podemos afirmar que el patrón espectral (62, 58, 47, 38), que se encuentra un poco
arriba de la forma geométrica mostrada en la figura 16, tiene características parecidas a los patrones
espectrales que forman dicha figura geométrica o patrón espacial. De tal manera, puede decirse que este
último patrón espacial pertenece también a la figura geométrica, con lo que es evidente que un patrón
espacial puede ser tan complejo como se quiera, además de que nos demuestra que los pixels de un patrón
espacial determinado pueden estar en diversas partes de la imagen digital, sin ser necesario que sean
vecinos próximos. Más aún, un patrón de este tipo puede estar formado por un conjunto de pixels vecinos
entre sí y cubriendo una área determinada como sucede en el caso de la zona boscosa y el lago de la
figura 22, o mostrarse como una sucesión de pixels formando una red de líneas, algunas confluyentes y
otras no, como en el caso de la red de drenaje de la misma figura. Un patrón espacial se forma, cuando se
tiene un conjunto de patrones espectrales con características semejantes a través de una imagen digital
multiespectral. Por tanto en una misma imagen pueden ocurrir varios patrones espaciales con semejanza;
53
así, por ejemplo, podría haber varios lagos o varias zonas boscosas de diferentes especies de árboles, de
tal forma que cada lago o cada zona boscosa formen de por sí un patrón espacial o estructura
quasielemental. Con esto que hemos discutido podemos introducir ahora un nuevo concepto: al conjunto
de patrones espaciales o de estructuras quasielementales con patrones espectrales parecidos se le
denomina clase de cobertura. Esta definición es adecuada para cuando el patrón espacial presenta
condiciones de homogoneidad, cuando los patrones espectrales que forman la clase de cobertura tiene
características parecidas. Por ejemplo, si los lagos contienen todos ellos la misma calidad de agua o si los
bosques tienen la misma especie de árboles formarán una clase de cobertura; si no fuera así, habría tantas
clases de cobertura como tipos de agua hubiera o especies de árboles se presentarán. Sin embargo, hay
casos notables donde no se tienen condiciones de homogeneidad; este es el caso, de una radiografía en
donde los huesos o algún otro tejido no presentan en general una clase de cobertura pareja, sino que más
bien se muestran con variaciones de tono. ¿Cómo es entonces que un ser humano distingue a pesar de ello
los diferentes huesos y los asocia con una misma clase de cobertura? Pues bien, esto se debe a que el
cerebro humano no sólo está entrenado para distinguir variaciones de tono y de color, sino también otras
cualidades con base en el contexto en el que se encuentra él o los objetos que le interesan. Esto significa
que los huesos pueden ser distinguidos por su tono, por su forma, por su textura, por el área que ocupan y
por la frontera definida que presentan con respecto al resto de los tejidos. En otras palabras, los huesos
son percibidos con base en las características espectrales del patrón espacial que forman, por la textura
que presentan y por su morfología. En este ejemplo queda claro que las variaciones espectrales y las
espaciales están interrelacionadas estrechamente y que es adecuado entender a una imagen como el
conjunto de patrones espaciales y espectrales, aunado a la interrelación que guardan entre ellos. Ahora ya
puede ser ampliada nuestra definición de clase de cobertura para incluir casos generales como el de los
huesos de una radiografía. Diremos entonces que una clase de cobertura es la manifestación espacial de
patrones espectrales con variaciones continuas de valor en un contexto de textura y de morfología
parecidas.
54
Figura 23. Región del semiárido mexicano, al norte de San Luis Potosí, captada por el satélite
Landsat 2.
La figura 23 es una impresión fotográfica de un plano de color o banda de una imagen digital
multiespectral registrada por el sensor satelitario Landsat, en donde, para esta representación visual, se
utilizan 128 niveles de gris, correspondiendo al negro el valor cero y al blanco el valor 127. Dicha
imagen, tomada desde un altura de poco más de 900 km sobre la superficie terrestre, muestra una zona
que se encuentra al norte de la ciudad de San Luis Potosí y cubre parte de una región del semiárido
mexicano. La imagen se muestra como aparentemente continua, pero el tamaño físico asociado a cada
pixel, en esta representación visual, es tan pequeño que no puede distinguirse en esta impresión
fotográfica. Esta figura es un buen ejemplo para poner en práctica los conceptos desarrollados hasta
ahora, además de que nos permitirá aplicar claramente los elementos de análisis para entender la
estructura de esta imagen de acuerdo a un fin específico.
Aun en este ejemplo sencillo donde sólo se considera un plano de una imagen multiespectral compuesto
originalmente por cuatro bandas, podemos distinguir diversos patrones espectrales que se presentan bajo
diferentes tonalidades de gris. En el cuadrante inferior derecho pueden observarse varias estructuras de
aspecto circular que presentan un tono muy oscuro, casi negro; estas estructuras forman un único patrón
espectral y constituyen en conjunto una clase de cobertura. A partir de aproximadamente el centro de la
imagen y yendo hacia el cuadrante superior izquierdo se puede apreciar otra clase de cobertura con un
tono menos oscuro, el cual, a diferencia de la anterior, se encuentra más o menos conectada desde el
55
punto de vista espacial. A su vez, esparcidos a través de la imagen, en diversas tonalidades de gris,
aparecen varios patrones espectrales que forman clases de cobertura no conectadas espacialmente; dichas
tonalidades representan varias coberturas vegetales con diferentes densidades en cuanto al área
proporcional de la escena que ocupan. En el otro extremo, en tonos de gris muy claros casi blancos, e
encuentran un par de regiones de aspecto circular: una casi en el centro de la imagen y la otra en el
cuadrante superior derecho; estas dos regiones, que representan lechos de lagos secos, además de un
conjunto de líneas que indican caminos y cauces secos de ríos, forman otra clase de cobertura que
tampoco está conectada espacialmente. En este sencillo ejemplo de clasificación espectral podemos
observar varias cosas: en primer lugar es claro que en esta última clase de cobertura están incluido tres
tipos diferentes de objetos: los lechos, los cauces y los caminos, lo que nos enseña que una clase espectral
(clase de cobertura) no necesariamente está relacionada unívocamente con un sólo objeto de la escena,
sino que en general lo estará con varios de ellos. Otro aspecto interesante es el de las clases que, teniendo
diferentes tonalidades de gris, representan en forma aproximada varias densidades de vegetación. En este
caso, la clase espectral no está constituida por objetos de diferente forma, como en el caso anterior, sino
por la suma proporcional de dos clases de ellos: la de la vegetación y la del suelo, y que diferentes
densidades implican más bien una variación en la proporción de estos objetos desde el punto de vista del
área que ocupan en cada CIV de la escena. Al agregar más bandas, hasta considerar todas las que
componen una imagen multiespectral satelitaria (cuatro en el ejemplo de la Figura 23), es posible que las
clases de cobertura se separen o fraccionen; de esta manera es probable que los lechos de los lagos se
diferencien de los cauces de los ríos, pero también que éstos se sigan confundiendo con los caminos. Esto
se debe a que de banda a banda un mismo objeto presenta diferentes tonalidades de gris, y que si en una
banda se confunde con otros objetos, en otra tal vez pueda diferenciarse, de tal manera que al considerar
la imagen multiespectral en su conjunto se pueden distinguir una mayor variedad de objetos que si
únicamente se considera una banda por separado. Aun así, casi nunca puede decirse que una clase de
cobertura corresponde nada más a un sólo objeto, puesto que recordemos (Figura 11) que el sensor
remoto mide la energía luminosa que proviene de un CIV, el cual, para el caso de una imagen satelitaria
moderna, puede tener 30 x 30 2, además de que, como puede verse, lo más probable es que en él haya
varios objetos. Así pues, en un CIV puede haber algunos árboles, suelo y rocas; todos estos objetos
contribuyen, en forma proporcional, al área que ocupan dentro del CIV y a la energía luminosa que,
finalmente, mide el sensor remoto. Nada más en ejemplos como el de los lechos o de los lagos o en el
caso de cuerpos de agua donde el área que cubren es mucho mayor que el tamaño del CIV puede
asegurarse que la clase de cobertura contiene un sólo objeto de la escena, y esto, claro está, en el supuesto
de que un lecho o un cuerpo de agua no se confunde con algún otro objeto que tenga características
espectrales similares. En este caso diremos entonces que una clase de cobertura se equipara con una clase
espectral individual; en general consideraremos que una clase de cobertura está compuesta por varios
objetos de la escena o por varias clases espectrales. Algo más compleja es la situación que se presenta en
la formación de una radiografía, ya que los rayos X pasan a través del tejido óseo y del tejido blando; en
este caso la energía que mide el sensor sobre el CIV correspondiente no es ya la superposición
proporcional de las respuestas espectrales de los objetos que se encuentran en él, puesto que aquí ambos
tejidos lo cubren enteramente; esto se debe a que los rayos X los atraviesan y no son reflejados como en
él caso de una escena terrestre iluminada por luz visible. Por tanto, en una radiografía la superposición de
respuesta espectrales de los objetos contenidos en un CIV ya no es lineal, depende más bien de la manera
cómo interaccionan los rayos X, primero con el tejido blando, después con el óseo y al final nuevamente
con el tejido blando. En otras palabras, estos rayos X al llegar al tejido óseo llevan ya información del
tejido blando, puesto que ya interaccionaron con ésta, y posteriormente llevan información del tejido
blando y del óseo; los rayos X interaccionan con el tejido blando que está de un lado del tejido óseo,
después interaccionan con éste y finalmente con el tejido blando que se encuentra del otro lado del tejido
óseo. Sumémosle a estos hechos el que ambos tejidos tienen espesores variables y que se encuentran a
56
diferentes distancias de la fuente de rayos X y tendremos una situación compleja, difícil de analizar, en
forma automatizada. Todo esto hace que en ningún caso de radiografía se plantee que una clase de
cobertura corresponde únicamente a un sólo objeto o clase espectral.
Hemos estudiado hasta ahora los datos que están relacionados con los patrones espectrales de la figura. 23
y hemos dilucidado algunos aspectos interesantes de la escena, pues el análisis, clasificación y
segmentación de dichos patrones nos han permitido entender varias características importantes de los
objetos de la escena y de su comportamiento a partir de cómo son vistos por un sensor remoto a través de
cada CIV. La naturaleza cuantitativa de la imagen digital correspondiente a la escena de interés es la que
hace posible dicha clasificación espectral, la que conduce, a su vez, a la separación o segmentación de
varias clases de cobertura. Esta segmentación es la que da lugar finalmente a que puedan ser extraídas
varias propiedades de la clase de cobertura, tales como extensión o área cubierta, localizada en la escena
y frontera con otras clases; estos datos, junto con medidas puntuales hechas directamente en la escena,
son los que dan información sobre la situación o aspecto que presentan los diferentes objetos del paisaje,
como ya se discutió en algunos ejemplos anteriores expuestos. La clasificación espectral deja pendientes,
sin embargo, algunas ambigüedades que sólo pueden ser resueltas cuando se toman en cuenta las
propiedades de los patrones espaciales, esto es cuando se integran al análisis espectral las consideraciones
pertinentes en cuanto a textura y morfología de tales patrones.
En cuanto a la morfología existe una clara diferencia que presenta un camino con respecto a la forma de
los cauces de los ríos y a la forma de los lechos de los lagos secos y que es lo que permite segmentar en
tres clases diferentes lo que antes era una clase obtenida por consideraciones puramente espectrales. Al
agregar consideraciones de forma lo que estamos haciendo es poner en más planos (Figura 22) estructuras
cada vez más elementales, tan elementales como queramos o como nos lo permita nuestra capacidad de
análisis automatizado, ya que en algunas ocasiones no se requiere de una síntesis de la imagen (Figura 22)
con un detalle demasiado elevado, y en otras la dificultad de tipo computacional es tan grande que hace
imposible la separación de la imagen en una cantidad mayor de un número dado de planos o estructuras
quasielementales. Tal vez se podría decir que en el otro extremo de nuestro análisis sobre la morfología se
encuentra la consideración de que la forma de los lechos de los lagos se confunde con la forma de los
patrones oscuros que se encuentran en el cuadrante inferior derecho, y que con esto se produce,
aparentemente, un retroceso en el proceso de segmentación que deseamos realizar sobre la imagen digital
original. En apariencia, la consideración de la forma nos hace retroceder en la síntesis deseada, pero aquí
sucede algo similar a lo que pasó cuando consideramos los aspectos espectrales de la imagen: el
considerar un sólo tipo de clasificación conduce necesariamente a ambigüedades. El uso combinado de la
clasificación espectral y de la clasificación morfológica debe entenderse en el sentido de la utilización de
ambas clasificaciones o de una de ellas; en todo caso la que proporcione la mejor segmentación. La
separación de los lechos, cauces y caminos es un ejemplo de la aplicación de la clasificación espectral
seguida de la clasificación morfológica, pero, en el caso de los lechos y de los patrones oscuros
mencionados, la decisión está sobre una de las clasificaciones: la espectral. Cuando el uso combinado de
estos criterios de clasificación, en el sentido arriba expuesto, no permite segmentar más la imagen, es
decir, no permite definir estructuras más elementales, decimos entonces que hemos agotado nuestra
capacidad de análisis lógico. Aquí hay que hacer una distinción clara entre este tipo de capacidad y la
capacidad de análisis computacional, puesto que puede suceder, y de hecho sucede en algunos casos, que
la estructura de cierto patrón espacial esté poco clara o poco definida, de tal manera que la clasificación
de su forma por medios automatizados arroje resultados ambiguos, aun cuando, tal vez, por medio de la
interpretación humana directa es posible la clasificación correspondiente. En general, la limitante en la
capacidad de análisis, pero no por ello en la rapidez, se encuentra, quizás dada por problemas en la
57
implantación computacional de los esquemas lógicos de análisis, o quizás, en que no se ha logrado
todavía imitar con la adecuada eficiencia los criterios cerebrales de interpretación humana.
La clasificación con base en consideraciones de textura añade elementos interesantes al análisis de la
imagen digital mostrada en la figura 23. De nueva cuenta, aquellas regiones oscuras se confunden con las
que presentan el tono más claro, puesto que la textura para ambos extremos de tono se presenta en un
aspecto similar, haciendo notar que aledañas a las zonas más claras se encuentran manifestaciones
texturales de aspecto muy peculiar que denotan un relieve del terreno diferente al de los lechos de los ríos
en donde la superficie es bastante plana, y esta diferencia se presenta aun cuando el tipo de suelo sea
aparentemente el mismo. Este hecho nos enseña que en lo que a la superficie de la Tierra se refiere, la
textura es un indicador de la topografía del terreno, y la topografía a su vez tiene que ver con propiedades
geofísicas de la misma superficie, propiedades que se refieren básicamente a la dureza del suelo y a las
fuerzas que modelan el relieve de tal superficie. En el caso de una radiografía, la textura que presenta una
determinada región del sistema óseo puede dar información acerca del estado de desarrollo de los huesos,
o del estado de salud en el que se encuentren. Tanto la superficie de la Tierra como un tejido humano
determinado presentan una variedad de texturas relacionadas con propiedades geofísicas y biomédicas
relativamente bien conocidas, de tal manera que la clasificación textural es un elemento de información
más en el estudio de un sistema físico por medio de percepción remota. Los cauces de los ríos y los
caminos se ven como líneas quebradas y rectas respectivamente y éstas son tan delgadas que cabe
preguntarse si se puede asociar una textura a un patrón espacial con estas características. Habíamos dicho
que la textura estaba determinada por tres aspectos en una imagen: la frecuencia de cambio de tono, la
dirección del cambio y el contraste de un pixel con sus vecinos próximos; de ahí que una línea, ya sea
recta o quebrada, sea considerada como un caso particular y especial de un conjunto de texturas. Tal vez
tengamos la tendencia a pensar que una clase de textura requiere, para ser considerada como tal, de un
patrón que presente un aspecto repetitivo de una u otra manera y, sin embargo, en el caso de una sola
línea no se tiene tal repetición, aunque de todas maneras satisface los tres aspectos determinados para que
exista una clase de textura; es debido a estas consideraciones que decimos que una línea es un caso
particular y especial del concepto de textura. Con base en estos mismos criterios aplicados al caso de una
línea, puede decirse que en el resto de la imagen (Figura 23) se tienen tres o cuatro texturas más
relacionadas con la densidad de la vegetación; pues aunque el aspecto "granuloso" es semejante para toda
la cobertura vegetal, no así el contraste que varia de una densidad a otra. Los criterios completamente
diferentes para establecer una clasificación espectral y una clasificación textural hacen que al menos en el
caso de la cobertura vegetal de la figura 23, la segmentación que producen sea más bien complementaria
y no excluyente.
¿Qué podríamos decir ahora, en forma comparativa, de las tres clasificaciones posibles: espectral, textural
y morfológica, que pueda ser aplicable en el proceso de análisis de una imagen digital multiespectral?
Para responder a esto consideremos la Tabla 2 donde se muestran varios elementos de información física
acerca del terreno, y que aporta cada clasificación para el caso de una imagen satelitaria de la superficie
terrestre.
Tabla 2. Matriz comparativa del tipo de clasificación en una imagen digital vs atributos del terreno.
58
Elemento
información
de
Clasificación
Topografía
Textural
Espectral
Morfológica
X
Reflectancia
X
Actividades del
hombre
X
X
X
Cobertura Conjunción
Red de drenaje
vegetal suelo/vegetal
X
X
X
X
X
X
X
El atributo cobertura vegetal se considera aquí para cuando se tienen densidades de vegetación muy altas,
lo suficiente para que cubra enteramente el suelo, y, por conjunción suelo/vegetación se entiende el
aspecto físico que presenta un cierto tipo de vegetación desarrollada sobre un cierto tipo de suelo para una
variedad amplia de densidades de vegetación, pero sin que ésta cubra totalmente al suelo. Las condiciones
topográficas y del tipo del suelo determinan no nada más la especie o especies vegetales presentes, sino
también el aspecto que presentan en cuanto a la textura, además de que la respuesta espectral será la
combinación ponderada de las respuestas individuales de la vegetación y del suelo, como ya se había
mencionado. En el caso de que un atributo sea cubierto por más de una clasificación, debe entenderse que
es en el sentido complementario a como se discutió más arriba. Debe quedar claro que cada clase de
imagen tiene un conjunto de atributos predeterminados por el contexto bajo el cual se adquirió la
información de la escena correspondiente y que, una vez definido dicho conjunto, la matriz comparativa,
análogamente a la de la Tabla 2, se construye con base en las características particulares del problema que
se desea analizar a través de la imagen digital respectiva. El manejo de una tabla de clasificación como la
Tabla 2 constituye un recurso general y amplio de una metodología adecuada para el análisis de una
escena dada, ya que es a través de estas tres posibles clasificaciones que se realiza la segmentación de la
imagen digital correspondiente a la escena y son las estructuras quasielementales las que dan información
cuantitativa de cada clase de objetos en la escena. Si una o varias estructuras de este tipo cambian en la
imagen digital, también lo hace la clase o las clases de objetos correspondientes en la escena. La manera
particular como se presentan las estructuras quasielementales de una imagen define claramente la
situación en la que se encuentran los objetos de la escena en el contexto de un problema dado, es decir
que las estructuras correspondientes, digamos al sistema óseo, se presentan de una manera característica y
única dependiendo de la situación general de salud en la que se encuentre dicho sistema. En este contexto
podemos decir que la manera particular en la que se presentan las estructuras quasielementales de una
imagen digital multiespectral definen lo que llamaremos estado espacial de la imagen, y que el camino de
cualquiera de dichas estructuras da como resultado un cambio en el estado espacial de la imagen, lo que
se traduce en que un cambio en el estado espacial implica que en la escena ha ocurrido una modificación
y que por tanto el análisis correspondiente arrojará resultados diferentes. Todo esto dejando claro que,
como la imagen ha sido sintetizada en estructuras quasielementales, se puede definir y cuantificar
exactamente de que tipo y de que extensión ha sido la modificación que ha experimentado la escena.
Veamos ahora cómo se pueden resumir esquemáticamente los conceptos desarrollados aquí para el
análisis de una escena; para ello consideremos la Tabla 3.
Tabla 3. Orden lógico para el análisis de una imagen digital y para la evaluación integral de la
escena correspondiente.
59
En la Tabla 3 se han marcado con sendos óvalos el análisis de una imagen digital y, por tanto, el de la
escena correspondiente, puesto que el análisis de la primera implica el de la segunda. La clasificación en
tres posibles contextos: espectral, textural y morfológica es el comienzo del proceso, pues la tabla de
clasificación correspondiente se construye a partir de la imagen dada y de los atributos del problema; la
solución correspondiente se encuentra por medio de la segmentación de la imagen digital en estructuras
quasielementales hasta llegar a la evaluación de la situación de la escena a través de la diferenciación del
estado espacial correspondiente a dicha situación. No debemos olvidar, desde luego, que el análisis de la
escena requiere de la observación directa de un número selecto de objetos que se encuentren en la misma.
Se han vertido hasta aquí una serie de conceptos muy importantes para comprender lo que es la
percepción remota, la cual involucra en forma integral la captura de la imagen de una escena que se
encuentre bajo condiciones relativamente bien conocidas, el manejo de la más moderna tecnología para el
diseño y construcción de los sensores remotos adecuados a cada problema y, desde luego, el análisis de
las imágenes digitales por medios automatizados utilizando una computadora digital. Dichos conceptos
nos permiten retomar la definición de la percepción remota y replantearía en términos más amplios y
generales; para esto diremos que la percepción remota espacial y aerotransportada está diseñada para
obtener datos, en un experimento controlado, acerca de una escena, la que puede estar constituida por una
superficie física o virtual. Las medidas involucradas a distancia no son encontradas para establecer
nuevas leyes físicas, sino más bien para identificar, discriminar y caracterizar (matemática y físicamente)
las clases de objetos que yacen sobre dicha superficie. Las observaciones hechas de esta manera se
refieren básicamente a las propiedades espectrales y espaciales (texturales y morfológicas) de los
mencionados objetos. Es posible que varias de las observaciones sean repetitivas, con lo que se pueden
considerar también las propiedades temporales de la escena en el conjunto de medidas. La interacción de
la superficie sensada con los mecanismos de "iluminación" está en buenos términos bien entendida. La
interacción puede ser complicada para sistemas activos, como el radar, las señales acústicas, los rayos X o
los haces corpusculares, o simples para sistemas pasivos, como es el caso de la teleobservación de la
escena terrestre cuando se encuentra iluminada por la radiación solar. En cualquier caso, el mecanismo de
generación de imágenes depende, primeramente, de la interacción arriba mencionada, segundo, de la
geometría particular (Figuras 1 y 2) de iluminación; fuente-objeto de la escena/sensor remoto, y tercero,
del método de observación y del dispositivo sensor. Las propiedades espaciales y espectrales de la escena
60
están quasipermanentemente registradas en forma digital o analógica y la imagen resultante contiene
mucha información relacionada con los tres factores mencionados. El proceso de formación de imágenes
arriba descrito es aplicable tanto en percepción remota, como en la física nuclear, las ciencias biomédicas
y en la industria, pues, como se ha visto a lo largo de este trabajo, todas estas ramas de la ciencia y la
tecnología utilizan las técnicas y la metodología de la percepción remota en el desarrollo experimental de
la investigación básica y aplicada. Por razones históricas, la percepción remota es actualmente un término
reservado para cuando se estudia el medio ambiente geofísico y para cuando las observaciones
mencionadas se hacen desde el espacio y desde el aire.
Figura 24. La porción inferior de esta figura muestra la banda 5 (rojo) de una imagen satelitaria
que ha sido degradada por la interferencia de la luz solar por la atmosfera. En la parte superior se
muestra la misma pero restaurada después de haber modelado físicamente dicha interacción.
Es necesario insistir que la percepción remota es una ciencia aparte con métodos y elementos propios que
han sido aplicados exitosamente en otras ramas de la investigación experimental. Cabe añadir también
que cuando esto se ha hecho así se habla en términos generales de teleobservación: de la generación de
imágenes digitales multiespectrales acerca de una escena cualquiera. El proceso de extracción de
información (análisis de imágenes) está conectado a los tres factores mencionados con anterioridad y a
los mecanismos de degradación (Figura 24) involucrados en la formación de la imagen. El estudio y
61
comprensión de esto facilita el camino hacia la evaluación de las clases de objetos de la escena, de
acuerdo a la representación esquemática de la figura 25:
Figura 25. Etapas en el análisis de una imagen digital para la evaluación y modelado de las clases
de objetos de la escena.
Una vez que se obtiene la descripción simbólica de una imagen o el de su estado espacial, la relación de
una cierta cobertura de clase de objetos con un recurso particular puede no ser directa ni fácil de encontrar
en la mayoría de los casos. Esto implica el modelaje del medio ambiente geofísico relacionado a tal
recurso natural. Cuando este modelaje se complementa adecuadamente con observaciones directas (apoyo
de campo) acerca de las clases de objetos, entonces se puede obtener información valiosa acerca de la
superficie sensada. Es en esta etapa en donde se puede realizar una planeación adecuada de los recursos
naturales por medio de un Sistema Geográfico de Información, con consecuencias muy importantes en el
desarrollo socioeconómico de un país.
En forma global podemos decir también que la percepción remota se compone de cinco elementos
básicos: el paisaje, la escena, el sensor remoto, el tratamiento de la información relativa a la escena y la
modelación (cuantificación física y matemática) de las clases de objetos relativos a aquélla con fines de
conocimiento del paisaje. Todos estos elementos han sido ya discutidos, sin embargo es conveniente
retomar algunos y considerarlos en otro contexto con el objeto de complementar y ahondar lo dicho hasta
ahora. En lo que se refiere al sensor remoto podemos considerarlo como un dispositivo capaz de
caracterizar adecuadamente la escena, y la lista de instrumentos (Tabla 1) que pueden clasificarse como
tales es muy grande y variada: cubre desde la cámara fotográfica hasta el explorador espacial más
refinado. Pero lo más importante es que para caracterizar adecuadamente una escena es necesario que el
sensor pueda medir un conjunto de variables físicas que aquélla contiene. Por supuesto no es
indispensable ni práctico que éste mida todas las variables, pues una escena es comúnmente muy
62
compleja y contiene una gran cantidad de ellas. Una caracterización adecuada será entonces aquélla que
sea capaz de medir un número selecto de variables que son de interés para el investigador, y cuyo papel es
seleccionar y aislar la información necesaria y suficiente para entender el fenómeno que le interesa, a fin
de comprender el comportamiento del paisaje en un problema específico. Pero como un sensor remoto
guarda su distancia respecto a la escena, las variables medibles por él se reducen a dos: la intensidad y la
energía de luz o radiación emitida o reflejada por los objetos que se hallan en ella; la intensidad
corresponderá a la brillantez y la energía al color (esto para el caso de la luz visible). Así, la percepción
remota se reduce a medir la variación espectral, espacial y temporal de la radiación que proviene de la
escena. La intensidad de esta radiación, para cada energía, depende, en forma compleja, de los
componentes de aquélla y de la intensidad de la radiación que emite la fuente de iluminación. En algunos
casos es posible que la escena absorba parte de la radiación incidente y después de un cierto tiempo la
reemita en una forma de energía diferente. Los sensores más sensibles (espectroradiómetros) permiten
estudiar este fenómeno de absorción y reemisión. En general, para un CIV determinado de la escena y en
un instante dado, se puede medir la intensidad de la radiación que corresponde a cada valor de la energía,
es decir a cada color de la luz incidente, obteniendo así lo que se conoce como respuesta espectral de ese
CIV.La finalidad del uso del sensor remoto consiste en medir esta respuesta para cada punto de la escena.
A este conjunto de medidas se le llama imagen multiespectral digital de la escena. Dicho en otras
palabras, el sensor, mediante un sistema optoelectrónico, divide la región del espectro de colores de la luz
que proviene de ellas en varios intervalos llamados bandas y a cada uno le asigna un valor proporcional a
la intensidad de la radiación que proviene de cada CIV de la escena. Este valor de intensidad se aproxima,
a su vez, mediante un convertidor que traduce la señal analógica (continua) a un valor numérico digital.
Estos valores pueden ser por su parte almacenados en algún dispositivo conveniente, cómo una cinta
magnética, o en el caso de un sensor satelitario, ser transmitidos a la estación de rastreo del satélite más
próxima. El desglosar el espectro de luz en varias bandas o planos de color facilita la obtención de
información a partir de los datos de la escena, ya que el grado de luminosidad de cada uno de los
elementos que la componen varía de banda a banda, como ya se había explicado. Este método forma en
un proceso en paralelo, varias imágenes de la misma escena, produciendo lo que se conoce como imagen
multiespectral de la misma.
Para fines de representación visual (despliegue) de la imagen digital multiespectral, en cada una de las
bandas, puede asignarse a sus elementos o pixels un color arbitrario, lo que ayuda, entre otras cosas, a la
clasificación y realce de dichos elementos. La superposición de estas imágenes en un sistema de
despliegue (Figuras 6, 18, 19, 20, 23 y 24) constituye una reconstrucción de la escena y la información
contenida en tales bandas, separable o interrelacionada, permite el análisis (visual) y modelado (físico y
matemático) de los objetos que la componen. Los datos de cada banda de la imagen multiespectral, con
sus respectivas correlaciones acerca de todos los elementos de una escena, son numerosísimos, por lo que
es necesario utilizar una computadora digital para que los procese. Un sistema de computación con una
programación adecuada puede examinar y clasificar rápida y sistemáticamente los datos obtenidos por el
sensor remoto. La potencialidad de un sistema de este tipo estriba en su capacidad para manejar la
información cuantitativa relativa a la escena. Antes de evaluar las imágenes de ésta es necesario procesar
los datos obtenidos por el sensor y prepararlos a fin de que puedan ser analizados. Esto se realiza en tres
etapas: primera, la corrección de defectos debido a la distorsión de la geometría particular que guarda la
plataforma y el sensor con la escena y la fuente de iluminación; segunda, el realce por transformación de
los datos de la imagen con el objeto de poner en evidencia ciertos patrones en la imagen, y tercera la
agregación o clasificación de los datos relativos a la escena. Una vez así procesadas, las imágenes se
encuentran listas para el trabajo de evaluación y modelado, el que se realiza precisamente en la parte que
se ha denominado descripción simbólica de la imagen digital (Figura 25) y que culmina con la
construcción de una tabla similar a la 2. El tratamiento de los datos relativos a la escena en el contexto de
63
lo que se esquematiza en la figura 25 se realiza por medio de un paquete de programas formado por una
variedad de algoritmos computacionales instalados en una computadora digital. Dicho paquete puede
operar con los valores provenientes de cada banda que hayan sido adscritos a las repuestas espectrales de
cada CIV de la escena. Mediante el examen automático de estos valores, las áreas sobre ella que muestren
respuestas similares pueden ser relacionadas, clasificadas y modeladas en el contexto del medio ambiente
geofísico, físico, biomédico e industrial.
En principio, el comportamiento temporal de la respuesta espectral de los puntos de la escena, permitirían
identificar los elementos que la componen, con la sola limitación de la resolución espectral y espacial del
sensor remoto. Sería una tarea formidable medir directamente la gran variedad de objetos, con sus
respectivas variaciones estadísticas, que forman los diferentes sistemas físicos susceptibles de estudio por
medio de la percepción remota y posteriormente almacenar en un banco de datos el resultado de estas
medidas con el objeto de utilizarlos en el análisis de los sistemas físicos mencionados. Así, es necesario
establecer un compromiso entre la teleobservación de la escena y las medidas directas efectuadas sobre
ella misma. Las medidas directas son indispensables en la correcta identificación de los objetos
teleobservados. Las medidas directas o medidas puntuales son un conjunto de datos, tomados
directamente sobre la superficie que forma la escena y que permiten establecer una correlación unívoca
entre los datos que produce el sensor y la realidad física de la misma. Es claro que si se contara con
"toda" la información directa de la escena, la percepción remota sería inútil por redundante, y que si las
medidas puntuales fuesen desconocidas, los datos obtenidos por el sensor remoto no tendrían todo el
potencial y la utilidad que tienen cuando se combinan con dichas medidas puntuales. Más aún, con la
carencia de este tipo de medidas, algunos datos del sensor remoto faltarían de sentido por no saber
exactamente a qué corresponden. Las medidas puntuales sirven de calibración al experimento realizado
por medio de la percepción remota. Un factor muy importante en la percepción remota en geofísica es la
atenuación de la luz proveniente de la Tierra debido a la atmósfera y a las nubes. Aunque esta atenuación
se debe principalmente a la dispersión de la luz por las moléculas que forman el aire, hay algunas
regiones del espectro de luz donde se produce por absorción, fundamentalmente debida a moléculas de
agua, ozono, oxígeno y bióxido de carbono. A esto hay que agregar que en el caso de las nubes la luz que
proviene del Sol es reflejada hacia el espacio y no alcanza por tanto a iluminar la superficie terrestre.
Estos problemas implican que las regiones del espectro de luz donde no hay absorción forman varias
"ventanas" que se aprovechan para denominar las bandas más convenientes en operación del sensor
remoto (Tabla 4). Así, por ejemplo, en los Landsat 4 y 5 la banda número 4 se ha reducido con respecto a
la que utilizaban los Landsat 1 y 2 para evitar la absorción debida a las moléculas del agua en
semisuspensión en la atmósfera terrestre. El problema que presentan las nubes es más complicado, ya que
además de la atenuación por dispersión y absorción, la luz reflejada por ellas se superpone a la que
proviene directamente de la tierra y que incide en el sensor remoto. Este efecto es muy importante, ya que
en cualquier momento la Tierra se encuentra cubierta por nubes en un 50% de su superficie. Cuando la
nube es delgada, y permite al menos un 50% de transmisión de la luz, es posible recobrar (Figuras 26(a) y
26(b), véase pliego a color) parte de la información que se encuentra debajo de ella. En los Landsat 3, 4 y
5, una banda en el infrarrojo térmico ayudará, en parte, a resolver esta dificultad puesto que las nubes y la
atmósfera son más transparentes en esta región del espectro de luz invisible al ojo humano, que en aquella
región de la luz visible.
Tabla 4. Comparación de algunos datos de plataformas espaciales y sus respectivos sensores.
64
Plataforma
Dato
Skylab
Landsat 1 y 2 Landsat 3
Landsat 4 y 5
Fecha de
Julio,1972 y
Julio, 1982 y
Febrero, 1973
Marzo, 1975
lanzamiento
Enero 1975
Marzo, 1984
Altura sobre
435 km
la tierra
920 km ambos912 km
Periódo de
93 minutos
la órbita
103 minutos
99 minutos
103 minutos
ambos
ambos
variable y
Tamaño del
comparable a
elemento de
57x79 m²
os Landsat 1 y
resolución
2
57x79 m²
238x238 m²
para la 5a.
banda.
SPOT
Noviembre 1985Octubre, 1978
700 km ambos 822 km
30x30 m²
120x120 m²
para la 6a.
banda
Nimbus 7
GOES 6
Abril, 1983
955 km
36000 km
107 minutos
24 horas
20x20 m²
10x10 m²
para la 4a.
banda.
800x800 m²
14x14 km²
para la 1a.
banda,8x8 km²
para la
2a. banda
16000 x
16000 km²
18000 x
20000 km²
101 minutos
Tamaño de
variable
la imagen
185x185 km² 185x185 km² 185x185 km²
60x60 km²
13 bandas
espectrales
Bandas
espectrales entre 0.4 y
12.5 μm
1)0.45-0.52μm
1)0.5-0.6μm 2)0.52-0.60
1)0.5-0.6μm
2)0.6-0.7
3)0.63-0.69
2)0.6-0.7
3)0.7-0.8
4)0.76-0.90
3)0.7-0.8
4)0.8-1.1
5)1.55-1.75
4)0.8-1.1
5)10.4-12.6 6)10.4-12.5
7) 2.08-2.35
1)0.43-0.45μm
2)0.48-0.50
1)0.50-0.59μm 3)0.51-0.53
2)0.61-0.69
4)0.55-0.57
1)0.55-0.75μm
3)0.79-0.90
5)0.58-0.60
2)10.5-12.5
4)0.51-0.73
6)0.66-0.68
7)0.75-0.79
8)0.84-0.89
Nota: la correspondencia aproximada "colores" y longitudes de onda es la siguiente:
Violeta
Azul
Verde
0.40-0.45 μm
0.45-0.51
0.51-0.56
Amarillo
Anaranjado
Rojo
0.56-0.59 μm
0.59-0.63
0.63-0.70
Infrarrojo cercano
Infrarrojo térmico
0.70-3.0
3.0-14.0
65
Hemos desarrollado y estudiado hasta ahora los elementos más importantes para el análisis de una imagen
multiespectral con el objeto de entender los mecanismos del funcionamiento de la escena y del paisaje.
Cabe aclarar que las dificultades matemáticas y computacionales para el análisis digital de una imagen
multiespectral pueden ser enormes. De hecho en algunos casos los requerimientos en computación y
matemáticas son de una importancia tal que implican que un laboratorio de percepción remota necesite de
personal altamente calificado y requiera de los más avanzados sistemas computacionales. Por otro lado
diremos también que de las clasificaciones mostradas en la Tabla 2, la que es relativamente más fácil de
llevar a cabo es la espectral, ya que la definición de respuesta espectral es de una naturaleza que no
permite ambigüedades. La definición que se dio aquí es claramente cuantitativa y conduce a establecer
reglas precisas para la separación de clases espectrales que finalmente pueden ser asociadas con las de
cobertura de la escena, de acuerdo a la serie de ejemplos dados con anterioridad. Las dificultades
matemáticas y computacionales se incrementan a medida que se enfrentan problemas de clasificación
textural o morfológica y esto se debe básicamente a que aún no se comprenden cabalmente los
mecanismos que utiliza un ser humano para analizar en general una imagen. A medida que se vayan
entendiendo dichos mecanismos, se irán eliminando elementos de subjetividad y se obtendrán criterios
claros y cuantitativos para las clasificaciones textural y morfológica; esto traerá como consecuencia un
incremento notable en la velocidad de análisis, sin dejar de lado que, en una simbiosis estrecha, entender
los mecanismos cerebrales de reconocimiento de patrones también traerá un mejoramiento en el diseño de
los sistemas computacionales, tanto en su arquitectura como en los lenguajes de operación de la
computadora respectiva.
En la captura y registro de una imagen multiespectral de una escena dada existen siempre fenómenos o
medios de interferencia (Figuras 24 y 26) que degradan de cierta manera la información contenida en la
imagen digital. Éste es el caso mostrado en la figura 24, en donde se presenta una impresión fotográfica
del plano de color o banda que corresponde al rojo de una imagen multiespectral satelitaria de cuatro
bandas. De hecho, todas las imágenes satelitarias son degradadas por la interacción de la luz con la
atmósfera, lo que consiste en que la luz se dispersa al interaccionar con las moléculas que componen el
aire de aquélla, siendo mayor el grado de dispersión para el azul y disminuyendo gradualmente hacia el
rojo, lo que significa que los planos de una imagen multiespectral estarán degradados de manera diferente
de acuerdo al filtro de color con que fueron tomadas. Al modelar físicamente dicha interacción se logra
entender y cuantificar la dispersión de la luz solar en función del color y de las componentes
atmosféricas, lo que permite entonces restaurar la imagen al estado que tendría si no hubiera ocurrido
dicha dispersión. La restauración consiste en construir una imagen que llamamos restaurada a partir de la
imagen degradada y de la comprensión del fenómeno de degradación, de tal forma que el producto
resultante sea como si el fenómeno de degradación hubiese estado ausente al momento de la captura de la
escena correspondiente. En la mayoría de los casos de degradación los efectos se manifiestan como si la
imagen resultante estuviese borrosa, fuera de foco o carente de contraste. Al observar la parte superior de
la figura 24 vemos que estos efectos han sido minimizados. En otros casos de degradación la imagen
resultante puede aparecer como "embarrada" por el movimiento relativo entre el sensor y la escena, como
es el caso de un sensor orbital donde la captura de ésta debe hacerse en forma extremadamente eficiente
para minimizar este efecto de "embarramiento". La figura 26 nos enseña un caso interesante de
degradación, puesto que en la parte (a) se puede apreciar una imagen similar a la mostrada en la figura 24,
pero con una nube cubriendo la parte inferior. Esta nube es bastante delgada, es decir deja pasar más del
50% de la luz que proviene del sol. Aun así constituye un verdadero obstáculo; el resultado es que
difícilmente se aprecia. lo que se encuentra debajo de dicha nube. Con un modelo matemático y físico,
66
una buena parte de la nube ha sido "removida" (Figura 26(b), logrando con esto una imagen restaurada.
Tal restauración es sólo para casos relativamente simples, puesto que para nubes gruesas o con espesor
altamente variable es prácticamente imposible recobrar la información pertinente a la imagen digital. En
el caso de la radiografía de un ser humano o de un motor en donde se pretenden observar patrones
internos como huesos o defectos, los mecanismos de degradación son más complejos, ya que el medio o
los medios de interferencia están estrechamente ligados con los patrones que se desean estudiar. Aun en
este caso la restauración es posible cuando son bien conocidas las circunstancias bajo las cuales fueron
tomadas las radiografías.
I V .
A P L I C A C I O N E S
Todos y cada uno de los aspectos de la escena y el paisaje están relacionados e
integrados entre sí, por lo que la visión sinóptica que proporciona la percepción
remota ha permitido estudiar, no sólo las manifestaciones de la escena. y el
paisaje, sino también la interrelación que hay entre dichas manifestaciones.
NO EXISTE autonomía entre los diferentes aspectos del paisaje, sino una interdependencia que modula
la existencia de cada uno de ellos; así, la cobertura vegetal de una escena terrestre está delimitada y
determinada, entre otros factores, por la red hidrológica, las topoformas y los tipos de suelo, además del
resultado del régimen de lluvias, aunque esto no queda plasmado directa y abiertamente en la escena
terrestre y, por tanto, en las imágenes correspondientes. De aquí podemos afirmar que una clase de
cobertura es el resultado de la estructura del terreno, la que a su vez se manifiesta por medio del estado
espacial de la imagen; es por esto que a esta clase de cobertura se le conoce también como unidad
integrada del terreno, hablando en el contexto geofísico. Sin embargo, estas consideraciones se aplican
por igual a cualquier tipo de escena, al utilizarse la terminología a cada caso. Es precisamente esta
unidad integrada del terreno o de la escena la que es percibida y manipulada a través de la visión
sinóptica que proporciona la percepción remota. Es claro también que el sistema óseo no puede existir
como tal sin el concurso del resto de los tejidos, y que una modificación de éstos incide en aquél, ya
que los elementos de la escena son parte integrante de un sistema físico complejo, que hemos
denominado el paisaje, que evoluciona siempre como un todo; de ahí que la imagen digital
multiespectral, siendo una representación de la escena, permita estudiar y supervisar la evolución como
un todo de dicho sistema. A partir de este contexto integral pasemos ahora a discutir varias de las
aplicaciones más importantes de la percepción remota, comenzando por aquéllas que se refieren al
medio ambiente geofísico.
GEOHIDROLOGÍA
El crecimiento rápido de la población nacional, conjuntamente con la expansión de las áreas agrícolas
irrigadas y el desarrollo industrial, han impuesto condiciones de degradación al sistema geofísico
natural, tanto en extensión como en lo que se refiere a la calidad del medio ambiente. Debido a estos
problemas de magnitud creciente, se ha comenzado a comprender que no se puede continuar con la
67
práctica de usar y desechar los recursos naturales; en particular el uso de los recursos acuíferos
superficiales y subterráneos que es cada vez más delicado y que en los últimos años ha cobrado una
importancia nacional en nuestro país. Como resultado de esto, es evidente que una política sustentada
por métodos científicos para la administración racional de los recursos acuíferos es indispensable para
mantener la expansión socioeconómica de la nación y para evitar la degradación creciente de nuestro
ecosistema. Por otro lado, el manejo racional de estos recursos debe basarse en un amplio conocimiento
de la disponibilidad del agua y del flujo o ciclo que tiene en la naturaleza. Esto debe cubrir no nada más
los procesos hidrológicos en su interacción con el medio ambiente y las actividades antropogénicas,
sino también los aspectos científicos concernientes al ciclo completo del agua, puesto que no obstante
que se supone que la cantidad total de ésta en la Tierra permanece constante, su distribución en el
espacio y en el tiempo es inconveniente en muchas ocasiones, de ahí que diversos periodos de flujo y
sequía deben ser afrontados con el objeto de controlar y manejar los recursos acuíferos que se tienen a
la mano. Es cierto, y lo sabemos, que no existe una escasez global de agua, puesto que
aproximadamente las tres cuartas partes del globo terráqueo están cubiertas por ella pero, el problema
no consiste en esto, sino más bien en que ésta no es de la calidad adecuada, ni se encuentra en muchas
ocasiones en el lugar y momentos oportunos. Por ejemplo, alrededor del 20% de la superficie terrestre
está clasificada como árida y un 15% adicional como semiárida, siendo la situación para México aún
peor, puesto que un 60% del territorio nacional está clasificado como semiárido y árido, de ahí que el
agua haya sido un factor limitante considerable en el desarrollo de la agricultura y la industria para
aquellas regiones del país con carencia de este recurso.
El uso de los satélites de percepción remota en relación con el problema geohidrológico ha crecido
continuamente desde 1970; al principio este uso se basó en operación de satélites polares de baja órbita,
llamados de recursos naturales", con órbitas de entre 700 y 1 500km de altura sobre la superficie
terrestre. Poco después los satélites llamados del "medio ambiente", con órbitas ecuatoriales y
geoestacionarias a una altura de 35 400 km vinieron a complementar los datos para las aplicaciones en
recursos acuíferos. Las restricciones prácticas de estos satélites resultan generalmente estar en un
compromiso entre el área del CIV, la frecuencia de observación de zonas individuales y la resolución
espacial y temporal. Los satélites de tipo ambiente observan a una frecuencia relativamente alta: dos
veces al día, su resolución temporal es relativamente alta; sin embargo, la resolución espacial es
relativamente baja, ya que el CIV correspondiente es bastante grande: 1 km². Este tipo de satélites ha
contribuido a la geohidrología por medio de observaciones de varios aspectos del clima global, como
son las clases de nubes y los patrones de movimiento de las mismas, la formación y desarrollo de
huracanes y los patrones de movimiento de los vientos atmosféricos. También proporcionan
información sobre fenómenos superficiales de gran escala, como son efectos de sequías prolongadas,
inundaciones, variaciones en el contenido de humedad de la vegetación y amplitud de depósitos de
nieve y de hielo en invierno, todo ello con el objeto de cuantificar el flujo de agua cuando ocurre el
deshielo en verano. Por su parte, los satélites de recursos naturales hacen observaciones a una
frecuencia relativamente baja: de 16 a 18 días, esto es, una misma región del planeta es registrada cada
dos semanas aproximadamente (Figura 4). La resolución de estos satélites es relativamente alta:
comprende tamaños del CIV que van desde 57 x 79 m² para el barredor multiespectral (MSS), hasta
30x30 m² en el mapeador temático de los Landsat 4 y 5 y de 20 x 20 m² para el SPOT. En otras
palabras, pueden registrar toda la superficie de la Tierra en un periodo de entre 16 y 18 días con un CIV
bastante pequeño, lo que permite atacar una gran variedad de problemas. Este tipo de satélites ha
contribuido enormemente a la evaluación de las condiciones del terreno para la prospección de los
recursos naturales en general, ya que las imágenes que se obtienen cubren buena parte del espectro de la
luz visible y parte del infrarrojo térmico, con lo que se pueden establecer tanto los tipos de rocas (en
zonas semiáridas), las geoformas como son los valles, las montañas y las mesetas, así como observar
68
los lineamientos, los patrones de textura de drenaje y las anomalías en la vegetación. Cuando estos
atributos del terreno son mezclados adecuadamente con medidas puntuales hechas en el campo, se
pueden modelar las mencionadas clases de cobertura que están interrelacionadas con el problema
geohidrológico, y a partir de aquí dilucidar los indicadores necesarios para la identificación y
cuantificación de las manifestaciones acuíferas tanto superficiales como subterráneas. En los últimos
años se han sumado a los satélites arriba mencionados varios más que trabajan con señales de radar.
Estos satélites son de órbita polar y de baja altura, hacen observaciones a una frecuencia relativamente
baja: cada dos semanas, y la resolución espacial es relativamente alta: con un CIV que va de 20 x 20 m²
a 25 x 25 m². Los sensores que operan en la región del radar proporcionan información complementaria
a la que producen los sensores que trabajan con luz visible e infrarroja, con la característica única de
que, tratándose de sistemas activos, tienen acoplada su propia fuente de "iluminación", con lo que se
tiene independencia con respecto a la luz solar, lo que garantiza no solamente la posibilidad de
operación tanto en el día como en la noche, sino también la obtención de imágenes con condiciones de
"iluminación" homogéneas y bajo diferentes ángulos de observación; esto último es muy importante, ya
que al traer su propia fuente de "iluminación" esta puede ser orientada, directamente hacia la superficie
terrestre, o en forma lateral con relación al movimiento de la plataforma satelitaria. De hecho las vistas
laterales o "iluminaciones" laterales son las más frecuentes en la operación del radar. Además de todo
esto, la medida de la respuesta espectral en la región del radar permite establecer la distribución
espacial de las litologías, los patrones de textura del terreno, las áreas de drenaje, las pendientes de las
geoformas (con apoyo de campo) y la distribución espacial de la humedad superficial del suelo. La
determinación de las estructuras quasielementales como las que acabamos de mencionar es de gran
importancia para la geohidrología y la geofísica, principalmente en prospección de los recursos
naturales terrestres. Los satélites del medio ambiente, los de recursos naturales y los de radar,
proporcionan los datos suficientes como para elaborar modelos del comportamiento atmosférico y con
ello establecer los mecanismos de evolución del clima terrestre, todo esto con consecuencias notables
para determinar el ciclo completo del agua para una región específica. Junto con la información
cuantitativa sobre este ciclo, se encuentran los indicadores del terreno arriba mencionados (estructuras
quasielementales) relacionados con la geohidrología del lugar, con lo que se tiene entonces un
panorama completo de las manifestaciones acuíferas, que apoyan la administración racional de los
cuerpos de agua superficiales y subterráneos.
GEOTERMIA
Según las estadísticas poblacionales, en el año 2000 la población de México sobrepasará los 100
millones de habitantes. Satisfacer las necesidades de agua y energía para usos domésticos, municipales,
agropecuarios e industriales de esa población representa un serio problema, ya que el desarrollo
socioeconómico va ligado siempre a los recursos acuíferos y energéticos. Para enfrentar este desarrollo
se requiere del aprovechamiento máximo de los recursos hidrológicos subterráneos principalmente y de
la exploración y explotación de fuentes "limpias" de energía como lo es la geotermia. Un trabajo de esta
naturaleza, desde el punto de vista de la percepción remota, consta básicamente de tres etapas:
prospección, cuantificación y predicción. Veamos cada una de ellas a la luz de la teleobservación
terrestre. La prospección se refiere a la identificación y delimitación de las fuentes geotérmicas, labor
que ha sido realizada con apoyo de campo y fotografías aéreas, dando como resultado que en México
ya se conozcan todos los campos geotérmicos. La cuantificación de un campo de este tipo es una tarea
difícil, ya que se requiere conocer, entre otros parámetros, la temperatura y la presión del agua del
manto geotérmico, que son datos de campo, y la energía liberada por el campo geotérmico, la cual
puede establecerse por medio de imágenes satelitarias con bandas en el infrarrojo térmico tomadas tanto
69
en el día como en la noche, lo que proporciona una estimación del potencial generador de energía
hidrotérmica. La cuantificación es la etapa más importante en la evaluación, ya que involucra la
rentabilidad del campo geotérmico en términos de costos de explotación en relación con la energía
eléctrica generada. Otro factor importante es la predicción, la cual se refiere al comportamiento
esperado del campo geotérmico durante el proceso de explotación. Para esto es necesario determinar,
utilizando los datos satelitarios en el contexto geohidrológico arriba discutido, la recarga de agua del
campo en cuestión, pues una sobrexplotación traería como consecuencia el abatimiento en la energía
generada, con la consecuente reducción de su vida útil. Es decir que la predicción es equivalente a
establecer las condiciones de operación óptimas de rendimiento del campo, bajo un control que puede
estar apoyado por los datos satelitarios en el infrarrojo térmico. En la predicción no puede dejarse de
lado el hecho de que la prospección y explotación geotérmica traen una modificación substancial del
ecosistema circundante al campo geotérmico específico. El control cuidadoso que debe llevarse para no
alterar demasiado la zona aledaña a tal campo se refiere a la modificación de las clases de cobertura de
dicha zona, y que puede ser supervisada y controlada por medio de satélites de recursos naturales,
puesto que son los que tienen las bandas y la resolución espacial adecuadas para soportar este tipo de
supervisión.
Hay que agregar que el recurso geotérmico es tácitamente un recurso renovable, mientras que los
hidrocarburos no lo son, por lo que es importante acelerar el uso de este energético hidrotérmico. Para
ahondar en los conceptos desarrollados diremos que el empleo correcto de técnicas geofísicas de
campo, conjuntamente con la utilización combinada de imágenes satelitarias, permiten calcular en
forma confiable el potencial de un campo geotérmico y predecir su comportamiento para diversas
posibilidades de explotación. El potencial de la percepción remota se ve claro en estas consideraciones,
y más cuando se toma en cuenta que el número de manifestaciones hidrotermales reportadas en México
sobrepasa las 300, algunas con manantiales de hasta 87°C; resulta pues imperativo seleccionar cuáles
de entre las de más amplio potencial recibirán primeramente el esfuerzo de la explotación y la
operación correspondiente. Es importante hacer notar que una fuente geotérmica trae como subproducto
la salmuera y el cloruro de potasio, ambos materiales de actual importancia en México y, útiles en su
desarrollo industrial. En una de las raras plantas geotérmicas en explotación en el mundo, el complejo
de Cerro Prieto en la península de la Baja California, se trabaja ya en el desarrollo de una instalación
industrial que permitirá extraer a niveles adecuados el cloruro de potasio. Por otro lado, las aguas
subterráneas con temperaturas de entre 35 y 40°C, que sólo pudieran proporcionar un rendimiento
regular de energía, serían de utilidad en proyectos agrícolas para calentar los suelos y acondicionar
invernaderos. Esta técnica ha sido ya utilizada en el desierto del Negev, Israel, en donde se ha
aumentado el rendimiento agrícola hasta en un 50%; en otras palabras, la percepción remota puede no
sólo apoyar la selección de campos de alto rendimiento, sino intervenir también en la clasificación de
aquellos campos susceptibles de ser utilizados en otras áreas de la prospección de los recursos naturales
de México, como es el caso de la agricultura.
AGRICULTURA
Las condiciones demográficas del país han impuesto una degradación al ecosistema natural y han
introducido condiciones que requieren optimizar la utilización de los recursos naturales con el objeto de
sustentar el desarrollo socioeconómico que demanda el crecimiento poblacional. En este contexto se
encuentra la gestión de los productos de la tierra que implica la identificación, delimitación,
cuantificación y predicción de cosechas; este último rubro en relación al tonelaje esperado de un cultivo
y los tres primeros, a la distribución espacial del mismo cultivo. Dentro de las primeras aplicaciones de
70
la percepción remota se encuentra precisamente la que se refiere a la agricultura, tanto por la relativa
facilidad con la que una clasificación espectral puede separar un cultivo dado, como por lo que
representa en la alimentación de una comunidad nacional. Con imágenes satelitarias se han obtenido
precisiones de hasta 90% en la identificación de un cultivo específico, en estudios donde se analizaron
grandes áreas, homogéneas, con campos de cultivo regulares y con monocultivos en cada predio
sembrado, como es el caso de las grandes extensiones agrícolas de los Estados Unidos, sobre todo en
los estados centrales de ese país. En México, sin embargo, sólo algunas áreas tienen la estructura de los
campos agrícolas estadunidenses; tal es el caso de los valles de Mexicali en Baja California; Yaqui
(Figura 20) y Mayo en Sonora y Toluca en el Estado de México; en ellos se cuenta con la
infraestructura necesaria para sostener cultivos de irrigación en zonas relativamente planas. De hecho,
en México, la mayoría de los cultivos son de temporal, establecidos en lugares topográficamente
accidentados, con predios pequeños e irregulares y en donde generalmente se siembran dos o tres
especies vegetales. A esta complejidad hay que agregar que muchas especies agrícolas tienen respuestas
similares, por lo que en medios accidentados y complejos las imágenes satelitarias pueden proporcionar
datos insuficientes para la identificación de tales cultivos. Aun cuando se incremente la complejidad
computacional, se pueden obtener mejores resultados al mezclar varias imágenes de diferentes fechas;
esta técnica ha producido precisiones que llegan hasta de un 95% para áreas simples y entre un 75% y
un 80% para áreas complejas. Desde luego, agregando clasificaciones texturales y morfológicas los
resultados pueden ser todavía mejores, pero esto está todavía en vías de exploración en el área de la
prospección agrícola. Pueden anticiparse mejoras adicionales en México al incluir datos extras para
cada área cultivada, como son el calendario general de cultivo que incluye, el barbechado, la siembra, el
abono, y la irrigación natural o artificial, el tipo de suelo y el tipo de semilla. Estos datos, combinados
con las más modernas técnicas de muestreo y validación estadística y junto con las imágenes de gran
resolución de los Landsat 4 y 5 (TM) y del SPOT, mejorarán seguramente las precisiones alcanzadas
hasta ahora. La percepción remota tiene, no obstante, limitaciones en relación a este problema de
evaluación agrícola que es necesario mencionar. Cuando la complejidad de las áreas cultivadas no
rebasa cierto limite es posible obtener resultados razonables, sin embargo, para policultivos irregulares,
en zonas montañosas, donde priva una gran variedad de condiciones topográficas, litológicas y
climatológicas, es muy difícil asegurar que aquélla pueda aportar elementos unívocos en la
identificación de cualquier tipo de cultivo. Como ya habíamos dicho, en México la mayoría de los
plantíos son de temporal, lo que significa que una buena parte del desarrollo del cultivo se encuentra
bajo la sombra de las nubes formadas en la época de lluvias; estas nubes, del tipo cumulonimbo,
impiden el registro de imágenes multiespectrales de los cultivos bajo estudio, ya que la luz solar es
reflejada en su mayor parte por dichas nubes y la luz que proviene de los cultivos mismos es absorbida
y dispersada casi en su totalidad por ellas, de tal manera que la información que llega al sensor remoto
se refiere prácticamente a la cobertura nubosa. En recientes estudios empleando sensores remotos con
señales de radar se han obtenido resultados prometedores, puesto que este tipo de señales penetra la
cobertura nubosa casi sin distorsión, lo que permite captar los cultivos que se encuentran bajo las
nubes; si se considera además que este tipo de sensores operan con un CIV del orden de 20 x 20 m², la
resolución espacial asociada a las imágenes resultantes puede ser más que adecuada para estudios de
campos agrícolas irregulares y complejos. La identificación de un cultivo, conjuntamente con la
extensión y localización que ocupa en una región determinada, no es más que un paso previo en el
proceso de estimación del volumen de producción de un campo dedicado a un cultivo determinado.
Tener los datos del tonelaje aproximado con suficiente anticipación y de la producción que se espera
para un cultivo tiene consecuencias precisas en la economía de una región, o inclusive del país puesto
que permite una gestión racional de un recurso natural estrechamente ligado con la problemática
alimentaria. Los estudios que se han hecho hasta ahora indican que, en la mayoría de los casos, las
imágenes satelitarias no son por sí mismas suficientes para proporcionar datos que permitan una
estimación confiable de rendimientos agrícolas para la mayoría de los cultivos. Para poder contar con
71
una estimación confiable es necesaria la combinación de datos satelitarios, principalmente de radar y de
aquellos satélites llamados del medio ambiente y de recursos naturales, con los que se pueden obtener
parámetros tales como la insolación solar, la distribución de la humedad del suelo y vegetación y los
patrones de circulación de las nubes, con observaciones en el campo, que permiten, a su vez, determinar
el tipo de suelo, la topografía y la evapotranspiración de la cubierta vegetal. Con esto estamos diciendo
una vez más que las imágenes multiespectrales de la escena, convenientemente registradas en diversos
planos de color o bandas, y las observaciones pertinentes realizadas directamente en ella, son las que
hacen posible el visualizar cuantitativamente una variedad de aspectos del comportamiento del paisaje,
en general, y de los recursos naturales del planeta Tierra, en particular.
GEOLOGÍA
La utilización de las imágenes obtenidas por los satélites de percepción remota en México comenzó
poco después del lanzamiento del Landsat 1. Desde entonces, las aplicaciones de estas imágenes han
crecido rápidamente hacia la mayor parte de las áreas de investigación en usos del suelo y prospección
de recursos naturales. Es probable que el área de investigación más difícil en percepción remota desde
satélite o avión sea la geológica, puesto que requiere de varias transformaciones en la imagen
multiespectral, que cubren las tres clasificaciones ilustradas en la Tabla 2, y de la integración de datos
topográficos, geofísicos, geoquímicos, petrográficos y geobotánicos, todos ellos coordinados con un
buen apoyo de campo. En general, la geología demanda la obtención de datos de satélites de recursos
naturales y del radar, manipulados conjuntamente con lo arriba mencionado; debido a esto, la
complejidad computacional puede convertirse en una gran tarea; sin embargo, las aplicaciones de la
investigación geológica se hallan en los importantes dominios de las prospecciones minera y petrolera.
De hecho, las grandes compañías petroleras y mineras a escala mundial son las que más demanda
tienen de imágenes satelitarias para los fines de prospección mencionados. El trabajo de investigación
geológica está dividido en dos grandes categorías: la primera que concierne esencialmente a fenómenos
estáticos, como lo es la distribución, carácter y estructura de cuerpos rocosos, geoformas, litologías y
fallas estructurales, y la segunda que tiene que ver con fenómenos dinámicos, como el vulcanismo, las
modificaciones en la plataforma continental y la sismología. En las observaciones de fenómenos
estáticos, uno de los atributos de mayor valor de los datos espaciales y espectrales de sensores remotos
se deriva simplemente de la gran distancia desde la cual es observada la Tierra, con la consecuente
visión sinóptica del área cubierta por una sola observación. En geología es particularmente importante
la visión de conjunto, pues las geoformas, tales como las cadenas montañosas; los valles, las cuencas o
las mesetas, están estrechamente interrelacionadas y su extensión puede abarcar una gran área; de
manera que para evaluar geológicamente una región se requiere de una visión sinóptica.
De hecho, unas cuantas imágenes Landsat pueden cubrir una cadena montañosa, mientras que algunos
cientos de imágenes alcanzan a cubrir un continente completo; como resultado de esto, estas imágenes
satelitarias proporcionan un panorama de la constitución geológica de los continentes que es compatible
con la moderna teoría de tectónica de placas. Diversos elementos estructurales, tal vez irregulares o aun
discontinuos, dentro de los confines de una área pequeña, pueden revelarse como lineamientos de
extensión regional y en algunos casos semicontinental, además de que las unidades rocosas prominentes
pueden ser trazadas mucho más allá de su reconocimiento original. Los geólogos pueden seguir todos
esos rasgos estructurales a través de un plegamiento completo sin tener que trabajar con una gran
cantidad de aerofotografías, las que en muchas ocasiones son tomadas bajo diferentes condiciones de
ángulo de vista e iluminación. Dichos rasgos pueden variar en importancia geológica, pero a menudo
pueden ser observados a simple vista en una impresión fotográfica de una imagen satelitaria de zonas
72
donde prevalezcan condiciones de aridez o semiaridez, ya que la cubierta vegetal es escasa y permite
apreciar directamente las estructuras geológicas. Para aquellas regiones cubiertas con vegetación densa
son más apropiadas las imágenes de radar, puesto que, además de proporcionar una penetración
adecuada de la vegetación, permiten con mayor facilidad establecer los patrones de textura del terreno
(Figura 15), que es un elemento estructural complementario a los ya mencionados. Cabe anotar que
aparte de sus aplicaciones en meteorología e industria militar, los radares han sido utilizados
extensivamente para cartografiar estructuras y rasgos geológicos, particularmente en aquellas regiones
de la Tierra donde la cobertura nubosa presenta un problema serio a sensores que operan en la región
visible e infrarroja como el Landsat. Es por esto que varias compañías de exploración, así como algunas
agencias gubernamentales, en colaboración con organizaciones industriales, han utilizado radares para
cartografía a gran escala, especialmente en regiones ecuatoriales con gran cobertura nubosa. Por
ejemplo, casi todo el Brasil, Venezuela, Ecuador, Panamá, Nigeria y Togo, han sido estudiados y
cartografiados geológicamente con imágenes de radar; varias partes de los Estados Unidos han sido
también observadas en este contexto.
Ahora bien las observaciones desde el espacio de fenómenos estáticos tienen dos aplicaciones prácticas
de consecuencias inmediatas: una mejoría en la cartografía geológica y la obtención de recursos más
eficientes para la exploración en campo. Estas aplicaciones traen consecuencias directas en el diseño y
desarrollo de proyectos tales como líneas de ferrocarril, carreteras, presas y, en general, de plantas
industriales. Las aplicaciones de la percepción remota a la geología misma, en el marco referencial de
los fenómenos estáticos referidos a los recursos naturales, se dirigen a dos grandes recursos de los
cuales México es un importante productor: la minería y el petróleo. Dichas aplicaciones datan de varios
decenios atrás, comenzando con el desarrollo de la fotografía aérea, continuando con sensores
magnéticos y gravímetros a bordo de aviones y culminando con la puesta en órbita de sensores
radiométricos capaces de medir con gran detalle la respuesta espectral de diferentes unidades litológicas
y rocosas en un rango muy amplio, desde la luz visible hasta el infrarrojo térmico. A bordo de satélites
se han montado también sensores capaces de medir anomalías en el campo magnético y gravimétrico de
la Tierra, las que complementan los datos que se obtienen desde plataformas aerotransportadas. Estas
anomalías son, entre otros, indicadores de posibles mineralizaciones y existencia de mantos
petrolíferos. Hay que hacer notar que la información proporcionada por los diversos sensores remotos
arriba mencionados raramente conducen de por sí a una localización directa de fuentes minerales o
petrolíferas, más bien permiten establecer zonas de máxima probabilidad de existencia de los
mencionados recursos, reduciendo con esto el universo de búsqueda y abaratando en consecuencia los
gastos correspondientes en exploración.Con esto queda claro que las observaciones directas en la
escena no son obsoletas, al contrario, gracias a ellas se optimiza el proceso de exploración en el campo.
De ahí que la localización de elementos geológicos mayores, generalmente surge como una guía en la
selección de áreas más pequeñas y promisorias, las cuales vale la pena estudiar en mayor detalle como
posibles zonas de explotación. Más aún, se pueden utilizar datos satelitarios adquiridos en diferentes
épocas del año para tomar ventaja de los aspectos revelados por las diferencias en vegetación y
humedad del suelo que ocurren de estación a estación. En general podemos decir que un gran
porcentaje de la información potencial aplicable a fenómenos estáticos puede ser obtenida a partir de
una sola captura de la escena cuando ésta se encuentra libre de nubes.
La segunda gran área de aplicaciones geológicas está relacionada con fenómenos dinámicos, en donde
el valor particular de las imágenes satelitarias está precisamente en la capacidad de hacer observaciones
repetitivas y de gran precisión que hacen posible la detección de cambios relativamente rápidos en el
terreno, permitiendo no nada más su identificación sino también la cuantificación de dichos cambios.
73
Así, por ejemplo, se pueden evaluar los cambios ocurridos en el curso de una intensa corriente de agua
después de una avalancha, como ocurrió en la explosión del volcán Santa Elena, donde la violenta
erupción fundió intempestivamente una gran cantidad de nieve, además de arrojar tierra y rocas sobre
una corriente lodosa que modificó el paisaje en sólo cuestión de horas. También es posible determinar
los cambios que ocurren en las regiones costeras después de haber sido azotadas por un huracán; o bien,
a través de satélites del medio ambiente, es posible seguir la evolución y cuantificar la nube de
desechos gaseosos emitidos por acción volcánica, como se hizo en las recientes erupciones de los
volcanes Santa Elena y El Chichón, en cuyos casos, a partir de medidas cuidadosas de los datos
satelitarios, se determinan los posibles impactos que las respectivas nubes de desechos tienen y tendrán
sobre el clima terrestre, ya que hubo una modificación a la interacción de la radiación solar con la
atmósfera terrestre por la presencia de las partículas emitidas por dichos volcanes, las cuales están y
estarán en semisuspensión en la atmósfera por más de un año. En este ejemplo queda clara la relación
que existe siempre entre un fenómeno geológico dinámico y el comportamiento global del clima
terrestre. De ahí que los datos meteorológicos y de insolación obtenidos por satélites del medio
ambiente, más los geohidrológicos de la superficie terrestre obtenidos por satélites de recursos
naturales, conjuntamente con los de contaminación ambiental y de gases atmosféricos y los de
corrientes y vientos marítimos proporcionados por satélites oceanográficos, permiten en conjunto
elaborar modelos climatológicos muy complejos y a gran escala, con los que se pueden estudiar
fenómenos globales del terreno como son la desertización y la erosión, puesto que estos fenómenos
están ligados no sólo con actividades antropogénicas o del hombre, sino también con el clima terrestre
en su conjunto. Dos aspectos más de la geología dinámica, relacionados entre sí, y que han recibido
atención en los últimos años por los sensores remotos especializados, son la geodesia y la sismología.
En lo que se refiere a la geodesia, con la utilización de las señales de varios satélites y de un conjunto
de estaciones receptoras es posible obtener las coordenadas geográficas de un punto del terreno, así
como su elevación sobre el nivel del mar, es decir, se pueden determinar las coordenadas (x, y, z) de un
punto sobre la superficie terrestre, con una precisión extraordinariamente alta. Con estos datos se
construye una imagen digital de la topografía de la superficie terrestre, con lo que se obtiene lo que se
conoce como modelo numérico del terreno (Tabla 5). Esta imagen digital topográfica es entonces
combinada con imágenes multiespectrales o con imágenes de radar, con lo que las imágenes resultantes
tienen dimensión estereoscópica necesaria en la elaboración y manipulación de información
cartográfica y geográfica y también en la obtención de mapas temáticos relativos a los recursos
naturales de una zona determinada, ya que recursos como el forestal y el agrícola tienen mucho que ver
con la altura sobre el nivel del mar. El desarrollo que están teniendo los satélites para posicionamiento
(x, y, z), junto con sistemas de referencia a base de rayos láser, prevén que en un futuro próximo será
posible medir la posición de un punto en el terreno con un error no mayor de un centímetro, con
consecuencias muy importantes para la sismología y la tectónica continental. Se sabe, aunque no con la
claridad necesaria todavía, que los desplazamientos que sufren los puntos que se encuentran a lo largo
de fallas y zonas de subducción constituyen indicadores de actividad sísmica e incluso desplazamientos
considerables, del orden de varios centímetros en sólo algunos meses; parece ser que éstos son el
preludio de una actividad sísmica importante. Es necesario plantear que únicamente con la obtención
precisa de imágenes digitales de la topografía de zonas sísmicas será posible evaluar la modificación en
el tiempo de tal topografía con la consecuente correlación que ésta tenga con la actividad sísmica de la
zona. Contar con la variación temporal de la posición de puntos selectos en un continente hace posible
la supervisión de la deriva continental relacionada claramente con la teoría de placas que establece que
la corteza terrestre no es rígida, sino que más bien está formada por placas, que embonan como en un
rompecabezas, pero desplazándose continuamente unas con respecto a las otras. Esto ha facilitado la
comprensión de la geología terrestre y de la evolución del planeta Tierra, incluso con respecto a la
evolución de los otros miembros del sistema solar, aun cuando éstos no estén geológicamente formados
de igual manera que la Tierra.
74
Tabla 5. Aplicaciones regionales de la percepción remota en relación a los indicadores relevantes
en la escena y el sensor satelitario requerido.
Aplicación
regional
Producción de
información
geográfica y
cartográfica
Indicadores relevantes
Topoformas, modelos numéricos del terreno, unidades integradas del
terreno.
Sensor satelitario * o
aerotransportado
Landsat 4 y 5 SPOT
Landsat 4 y 5 SPOT
Geoformas, lineamientos, patrones de textura, litologías,Unidades
Prospección
Sensores magnéticos y
integradas del terreno, Anomalías magnéticas ygravimétricas, anomalías
minera y petrolera
gravimétricos
en la distribución de la vegetación.
aerotransportados
Patrones de textura de drenaje, geoformas, unidades integradas del
terreno, litologías, anomalías en la distribución de la vegetación,
anomalías magnéticas y gravimétricas, topoformas, lineamientos,
biomasa de la vegetación.
Landsat 4 y 5 SPOT
Sensores magnéticos y
gravimétricos
aerotransportados
Geotermia
Distribución de temperaturas superficiales, distribución de capacidad
térmica del suelo, extensión y localización de alteración hidrotermal,
anomalías magnéticas y gravirnétricas.
Mapeador de
capacidad
térmica Landsat 4 y 5
Sensores magnéticos y
gravimétricos
aerotransportados
Silvicultura y
agricultura
Área foliar y biomasa de la vegetación, unidades integradas del terreno,
Landsat 4 y 5 SPOT
anomalías en la distribución de la vegetación, litologías.
Metereología
Patrón de nubes, patrón de vientos.
Nimbus 7 GOES 6
Oceanografía y
estudios
Distribución de temperaturas del océano, concentración de clorofila,
patrón de corrientes marinas.
Landsat 4 y 5
Nimbus 7
Radarsat
Geohidrología
*Ver Tabla 4
75
CARTOGRAFÍA
Los Landsat 4 y 5 con CIV de 30 x 30 m2, las pruebas realizadas con simulaciones del SPOT y los
primeros resultados de las imágenes estereoscópicas que comienza a obtener este satélite francés, han
demostrado capacidades para la elaboración de mapas cartográficos que exceden las expectativas a este
respecto. Las imágenes multiespectrales producto de estos satélites tienen varias características que las
hacen adecuadas para la cartografía a pequeña escala: es entre 1: 30 000 y 1: 50 000, con errores no
mayores al tamaño del CIV correspondientes; incluso de acuerdo al desarrollo de la tecnología, es muy
posible que dichas imágenes se conviertan en el único insumo para la cartografía convencional. Las
características de las imágenes de la superficie terrestre que las hacen adecuadas para este tipo de
trabajo son las siguientes: a) uniformidad de vista sobre una gran área; b) ángulo de vista casi vertical;
c) fidelidad geométrica y radiométrica; d) buena definición de rasgos naturales del terreno; e) capacidad
para obtener un producto final en un tiempo cercano al de la toma, y f) forma digital de los datos, lo que
garantiza una reproducibilidad de los mapas y una capacidad de comparación de mapa a mapa en el
transcurso del tiempo, ya que la forma digital de los datos permite su manipulación matemática por
computadora. Así, por ejemplo, se puede determinar cuantitativamente la magnitud y zonas de
crecimiento de la mancha urbana de la ciudad de México, por ejemplo, estableciendo claramente las
regiones absorbidas por la ciudad, con la consecuente pérdida de áreas agrícolas o forestales. También
se puede observar el cambio de la infraestructura industrial y de vías de acceso asociadas a ella. Junto
con un modelo numérico del terreno, los mapas topográficos resultan ser un apoyo fiel para el diseño
del desarrollo socioeconómico, en general, del país. Como complemento a los mapas que se pueden
obtener por medio de los Landsat y del SPOT, se encuentran aquéllos generados por radar en zonas con
alta concentración nubosa, donde sólo los sistemas activos que operan con señales de radar pueden
captar y obtener una descripción de la escena cubierta por nubes. Cabe agregar aquí que esta
metodología es adecuada no nada más para generar mapas, sino también para hacer correcciones a los
ya existentes. Un nuevo tipo de mapa a escala pequeña ha sido posible gracias a la capacidad única de
la banda del infrarrojo térmico de los Landsat y que consiste en poder delinear la frontera de los
cuerpos de agua superficiales. Esta banda puede definir cuerpos de agua tan pequeños como los que
tienen alrededor de 100 metros de diámetro con gran confiabilidad y lo que permite identificar
corrientes de agua con una anchura tan pequeña como una de 20 metros. Tal potencial de la banda
térmica de los Landsat 4 y 5 es particularmente importante para poner al corriente las cartas
concernientes a los estuarios en zonas costeras y para delinear los lagos interiores, todo esto con
suficiente prontitud como para detectar los cambios ocurridos en un lapso de algunas semanas. Para
países en desarrollo, el valor de las imágenes Landsat y SPOT para cartografía puede ser bastante alto,
puesto que existen áreas geográficas de Asia, África y Latinoamérica que no han sido cartografiadas
con una variedad de escalas suficiente y muchos de los mapas base ya elaborados se encuentran
obsoletos. Podemos decir también que la generación de cartas y mapas geográficos y cartográficos es
un proceso laborioso y altamente dinámico que sólo puede llevarse a cabo eficientemente y a bajo costo
con imágenes satelitarias de alta resolución (Figura 27).
76
Figura 27. Requisitos fundamentales en cuanto al periodo de cobertura y de tamaño del CIV para
diferentes aplicaciones.
En la actualidad el tamaño de los CIV de los Landsat 4 y 5 y del SPOT (Tabla 4) proporcionan una
resolución espacial suficiente como para establecer la disposición y las relaciones entre las pequeñas
unidades espaciales propias de una ciudad (Tabla 5), tales como áreas verdes, red de comunicaciones
urbanas y diversas densidades de edificios y viviendas. La disposición e interrelación entre dichas
unidades pueden cambiar a un ritmo relativamente alto para una ciudad como México, incluyendo los
suburbios para los cuales hay que considerar las áreas agrícolas que son absorbidas, o las zonas que se
deforestan a expensas del crecimiento urbano.
77
Figura 28(a). Infraestructura vial y habitacional de una zona al sur de la ciudad donde se
distingue un club de golf. Esta imagen fue tomada por un barredor multiespectral
aerotransportado. La imagen se muestra orientada en la dirección este-oeste después de haber
sido corregida por el efecto de la atmósfera.
Además de esta dinámica citadina es posible considerar la dinámica socioeconómica que compone la
infraestructura de una ciudad (Figura 28(a)), como son el número y localización de centros de salud,
escuelas, líneas del metro, centros culturales, museos, delegaciones, centros deportivos y de
esparcimiento y edificios públicos. Todos estos datos, manejados en varios planos de información,
componen la cartografía completa de una ciudad, la que puede ser actualizada al ritmo que lo requiera
el crecimiento urbano y, desde luego, con las consecuencias obvias en el apoyo a la planeación urbana
y regional de las zonas metropolitanas. Aparte de la resolución espacial y temporal y la exactitud de los
datos, las imágenes satelitarias en su naturaleza digital establecen la capacidad para la impresión y
reproducción de la información cartográfica urbana y provincial en mapas de gran precisión,
susceptibles de ser actualizados todas las veces que se requiera o se solicite en el número y escala que
demanda una aplicación específica. A estas características de la cartografía satelitaria hay que agregar
que el costo por kilómetro cuadrado de dichos mapas es bastante menor que el que se tiene por métodos
convencionales. Las aplicaciones específicas en cartografía que requieren de alta resolución espacial,
con un CIV del orden de 5x 5 m2, y de alta resolución temporal, del orden de 1 a 3 semanas, como son
la supervisión y control de la construcción de presas y puertos, pueden realizarse por medio de
barredores montados en aviones, los cuales llevan a cabo misiones necesarias en el tiempo y lugar
adecuados, proporcionando los datos en forma digital para ser procesados en un lapso de varias horas
con un sistema computacional dedicado a tal fin.
Es posible afirmar en general que aquellas imágenes digitales de naturaleza multiespectral derivadas de
sensores aerotransportados y satelitarios proporcionan actualización periódica a las bases de datos
originalmente concebidas por las técnicas de cartografiado tradicional, y establecen los principios para
la creación de bancos de datos susceptibles de ser revisados automáticamente de acuerdo a las normas
78
estadísticas desarrolladas para una serie de aplicaciones en censos de población, datos socioeconómicos
e infraestructura industrial. Las naciones en desarrollo requieren en forma ascendente del inventario
actualizado del uso del suelo, para mantener el flujo de información al ritmo del cambio
socioeconómico. Donde los datos para ser adquiridos por medios convencionales requieren de la
inversión de cobertura aérea y fotointerpretación y donde el costo involucrado junto con el
entrenamiento en personal especializado rebasen los límites económicos de lo razonable, es entonces el
lugar donde los datos digitales multiespectrales pueden llegar a ser vitales en la planeación del uso de
los recursos del suelo, particularmente en aquellas naciones donde el crecimiento de la población y el
esparcimiento de los asentamientos humanos (China e India, por ejemplo) han traído cambios
significativos en las relaciones hombre-suelo. Los datos satelitarios pueden servir de base también para
estudios demográficos, de tal forma que las cartas de densidad poblacional pueden ser generadas y
actualizadas en combinación con los censos periódicos de población. En la medida en que las categorías
de clasificación urbana pueden ser identificadas por medio de imágenes de satélite, es posible asignar
una densidad poblacional a cada categoría con base en muestreos directos cuidadosamente diseñados.
Los datos satelitarios son útiles para identificar nuevas áreas urbanas y para establecer la frontera
urbana-rural, siendo esto de particular importancia en países en desarrollo, en donde los censos
demográficos no sirven sólo para establecer los incrementos poblacionales, sino también para
determinar el número, localización y densidad de población de nuevos y viejos asentamientos humanos.
Esto es de interés para un país como México donde el 40% de la población es urbana. En aquellos
países donde los asentamientos humanos son compactos, como es el caso de India y China, la
estimación de la población rural es más adecuada por medio de la percepción remota que por cualquier
otra técnica tradicional hasta ahora empleada. Por su parte en países donde la población rural es
dispersa, como en los Estados Unidos, la percepción remota puede proporcionar los patrones de uso del
suelo, a partir de los cuales es posible inferir la densidad de población con una precisión razonable.
OCEANOGRAFÍA Y RECURSOS MARINOS
Al comienzo de la percepción remota satelitaria los datos provenientes de diferentes satélites
meteorológicos o del medio ambiente fueron utilizados extensivamente en investigaciones marinas y
costeras, ya que los primeros satélites Landsat carecían de sensores capaces de detectar radiación
infrarroja térmica, que es de utilidad particular en el trabajo oceanográfico. Por medio de la detección
de la radiación proveniente del mar y de la captura sinóptica de la temperatura superficial sobre grandes
áreas del océano y sobre extensas franjas de aguas costeras y de la plataforma continental, los satélites
meteorológicos y actualmente los Landsat 4 y 5 han proporcionado información o han confirmado
teorías acerca de la distribución de las masas de agua, de los patrones de circulación mundial de las
aguas, de la estructura de las corrientes costeras y de zonas de convergencia y divergencia de masas de
agua donde existen cambios notables en la temperatura o gradientes de temperatura muy pronunciados.
Toda esta información es de gran utilidad en la determinación de concentraciones de peces, en la
navegación de buques, en la determinación de los patrones de circulación de los vientos, y en la
creación y movimientos de masas nubosas a nivel planetario, con consecuencias importantes para
entender el comportamiento climático mundial. Los datos satelitarios son útiles también para
determinar el estado del mar, en general, y de las áreas de generación de ondas marinas, en particular,
lo que puede resultar importante para una prevención temprana de inundaciones potenciales o de daños
posibles a zonas costeras por las olas de gran envergadura. La determinación de la generación de ondas
y corrientes, conjuntamente con la evolución que tienen en el tiempo, es útil para determinar los
remolinos y los cambios bruscos en la dirección de corrientes, lo que tiene consecuencias relevantes en
el derramamiento de contaminantes y en la localización y extensión que alcanzan en un momento dado.
79
Éste es el caso de los derrames importantes de petróleo que ha habido a lo largo de la prospección
petrolera, donde por medio de satélites se ha podido tanto supervisar la extensión de la mancha de
aceite sobre el mar, como ayudar a las tareas de recolección y disolución del aceite. La distribución de
corrientes y los patrones de remolinos, combinados con la distribución del color de la superficie del
océano, permiten establecer los valores de concentración de clorofila, particularmente en las zonas
costeras y de la plataforma continental, lo que a su vez da información sobre los bancos de pesca en
ciertas zonas donde existe transición de temperaturas producidas por corrientes marinas. Esto es útil
para apoyar las tareas de pesca no sólo en el lugar y el tiempo adecuados, sino también en las tareas de
recolección óptimas. Los satélites meteorológicos proporcionan también la evolución de la cobertura
nubosa con suficiente detalle como para establecer la cantidad de radiación solar por unidad de área y
por unidad de tiempo que incide sobre la superficie del agua y de la tierra, y a partir de estos datos es
posible inferir la evaporación que experimentan los océanos y las consecuencias que esto trae en la
formación de nubes de corrientes marinas. Los satélites meteorológicos han demostrado la capacidad
para delinear la cobertura nubosa, el tipo de nubes, la persistencia de éstas, la temperatura del aire, la
radiación solar y el flujo de humedad en la atmósfera. El conocimiento de estos factores apoya la
elaboración de estimaciones sobre la precipitación y evaporación necesarias en los proyectos que
conciernen al uso del agua en general.
En la actualidad, las imágenes de los Landsat 4 y 5 se usan cada vez con mayor frecuencia en el análisis
de áreas costeras, especialmente en desembocaduras de ríos, en aguas bajas, en esteros y lagunas
costeras, en donde el color y la temperatura difieren notablemente de las aguas locales, por lo que las
peculiaridades de dichas aguas pueden ser rápidamente identificadas y delimitadas. Esta información es
aplicable a problemas de protección ambiental, navegación y pesquería. De esta manera es posible
observar manchas locales de aceite, flujo de contaminantes, transporte de sedimentos, erosión y
subsidencia o desaparición de pantanos. Se han hecho también varios estudios, para analizar el hábitat
de cierto tipo de especies marinas en lagunas costeras, determinando con esto los elementos de
producción primaria para la explotación racional de esto recursos pesqueros. Además con imágenes
Landsat se pueden determinar los canales de navegación y observar el cambio en la distribución de
profundidades de las aguas costeras; esto, conjuntamente con la información sobre el patrón de
corrientes, ayuda a la navegación, tanto de buques de gran calado, cómo a las flotas pesqueras. Desde
luego, estos estudios proporcionan datos interesantes para el desarrollo y administración de complejos
portuarios en la explotación de los recursos costeros y en el flujo de productos a través de vías
marítimas. Es así como en el diseño y construcción de un puerto o en la ampliación de uno ya existente
es necesario conocer la distribución de profundidades de la bahía, la distribución de corrientes y
temperaturas del agua y, desde luego, la posible sedimentación del área portuaria; todos estos datos
pueden ser fácilmente obtenidos por medio de imágenes de radar y de los Landsat 4 y 5.
PREVENCIÓN Y EVALUACIÓN DE DESASTRES
Una serie de resultados experimentales han indicado que las imágenes satelitarias tienen suficiente
valor como para establecer indicadores de prevención y evaluación de cierto tipo de desastres (Tabla 6)
que ocurren (Figura 29, véase pliego a color) en nuestro planeta. Una de las áreas más promisorias de
aplicación en este sentido es la que se refiere a las inundaciones y avenidas repentinas y de gran
magnitud, que son, los desastres más frecuentes, y de mayor intensidad en cuanto a daños materiales y
costo en vidas. Estas inundaciones y avenidas pueden provenir, como producto de tormentas, huracanes
y tifones, tanto en zonas costeras como tierra adentro. Las imágenes producto de la percepción remota
hacen posible la demarcación de áreas inundadas y, en combinación con mapas de uso del suelo, se
80
identifican entonces la topografía y el tipo de tierras inundadas y la estimación de las consecuencias
socioeconómicas sobre todo con respecto a la agricultura y a la ganadería. De ahí que los datos
satelitarios proporcionan información útil para el diseño y construcción de medidas de protección y
control de inundaciones y avenidas. Las modificaciones de zonas costeras causadas por huracanes y
tifones, así como la erosión y depositación de diversos materiales a lo largo de las zonas afectadas,
pueden ser identificadas y evaluadas oportunamente después de la tormenta. Con los satélites
disponibles es posible hacerlo algunos días después del desastre respectivo, con las consecuencias
obvias en la toma de decisiones y medidas precautorias para futuras estaciones de tormentas,
particularmente las tropicales que siguen un patrón definido a lo largo de las estaciones del año.
Tabla 6. Desastres naturales y análisis correspondiente en relación al tipo de sensor satelitario.
Tipo de desastre
Avenidas
Terremotos
Erupciones volcánicas
Sequías
Incendios
Desastres agrícolas
Tormentas y huracanes
Movimientos de glaciares
Contaminación de aguas
Deslizamiento de terreno
Maremotos
Plagas
Tipo de satélites y posibles resultados
Tipo de
GOES/NIMBUS
Landsat 4 y 5
análisis
prevención
evaluación
prevención
evaluación
prevención
evaluación
prevención
evaluación
prevención
evaluación
prevención
evaluación
prevención
evaluación
prevención
evaluación
prevención
evaluación
prevención
evaluación
prevención
evaluación
prevención
evaluación
sin probar
excelente
sin probar
posible
sin probar
posible
posible
posible
posible
excelente
no se aplica
posible
posible
excelente
no se aplica
posible
no se aplica
adecuado
no se aplica
adecuado
no se aplica
posible
no se aplica
excelente
no se aplica
no se aplica
no se aplica
no se aplica
sin probar
excelente
posible
adecuado
posible
adecuado
no se aplica
no se aplica
excelente
adecuado
no se aplica
no se aplica
no se aplica
no se aplica
no se aplica
no se aplica
no se aplica
posible
no se aplica
posible
resultados RADARSAT
no se aplica
adecuado
posible
posible
posible
posible
no se aplica
adecuado
no se aplica
adecuado
no se aplica
adecuado
no se aplica
adecuado
posible
excelente
no se aplica
posible
posible
excelente
no se aplica
posible
no se aplica
adecuado
81
La detección de sequías severas por medio de imágenes satelitarias es alcanzable sólo por métodos
indirectos; esto se hizo en el Sahel africano, donde por varios años se presentó un fenómeno de sequía
que ocasionó daños considerables al ecosistema del lugar. Con imágenes de satélites de recursos
naturales y del medio ambiente se ha establecido que ese fenómeno está conectado con la evolución del
clima a escala mundial y que junto con las actividades antropogénicas relacionadas con el desmonte
para tareas agrícolas, el pastoreo, la deforestación y los desarrollos urbano e industrial, desembocan en
un fenómeno gradual llamado desertización, que no por ser paulatino deja de ser un desastre también,
con la característica de que no sólo es natural sino que además esta influenciado por las actividades del
hombre. La desertización es un fenómeno complejo, de lenta evolución y que puede ser inferido en
extensión y grado a través de la manipulación adecuada de datos satelitarios, climáticos y de uso del
suelo. El análisis comparativo de imágenes satelitarias indica precisamente el cambio que apunta hacia
una sequía o desertización probables, en donde se manejan indicadores tales como decremento en el
contenido de agua superficial, disminución en el área y vigor de la vegetación, pérdida del suelo,
decremento en las tasas de precipitación pluvial anual y, en algunas áreas de desertización en progreso,
el movimiento en extensión y el volumen de dunas de arena. Dentro del marco de algunas de estas
situaciones de desertización, las imágenes Landsat han sido útiles en la búsqueda de fuentes adicionales
de abastecimiento de agua, en la evaluación de las condiciones del suelo para fines de pastoreo y
ganadería, en la identificación de áreas recuperables a bajo costo y, en general, en la supervisión y
cartografiado del proceso mismo.
Las imágenes de los Landsat 4 y 5 son particularmente útiles para la identificación y evaluación directa
de incendios forestales y de la vegetación en general, esto por medio del manejo sencillo de la banda
del infrarrojo térmico de dichos Landsat. Esta banda también es empleada para establecer las
condiciones de cultivos y zonas forestales dañadas como consecuencia de alguna condición forzante,
como lo pueden ser la falta de humedad y agua, las áreas infectadas por plagas o regiones devastadas
por fenómenos tales como erupciones volcánicas, tormentas o talas ilegales. Es necesario anotar, sin
embargo, que a través de las imágenes satelitarias se establecen las condiciones del estado de una zona
determinada y no así las causas que originaron o causaron dicho estado; esto último se logra sólo por
medio de observaciones selectas y directas en el campo.
El uso combinado de satélites de recursos naturales Landsat 4 y 5) y de satélites del medio ambiente
(GOES y NIMBUS), unido con información de imágenes de radar (Radarsat) y, en algunos casos, en
combinación con datos tomados en campo, es factible establecer las condiciones para la evaluación de
desastres naturales (Tabla 6), así como el de poder determinar la probabilidad de ocurrencia de un
fenómeno dado con fines de prevención. Desde luego, no todos los desastres naturales pueden ser
evaluados, algunos, por su naturaleza en el tiempo, con ocurrencia demasiado rápida y azarosa, otros,
por ser demasiado localizados en el espacio, no pueden ser detectados por métodos de percepción
remota. En muchos casos, sin embargo, ésta es realmente útil como instrumento de apoyo en las labores
de evaluación y prevención de desastres naturales. Una técnica complementaria a la percepción remota,
similar a ésta, que ha venido desarrollándose en los últimos cinco años es la colección y envío de datos
de campo en forma automatizada y por medio de satélites retransmisores dedicados a tal fin. Esta
técnica funciona de la siguiente manera: en la posibilidad de ocurrencia de un evento relacionado con
82
un desastre natural o en zonas donde se sabe que ocurren fenómenos de este tipo, como los son las
regiones sísmicas o volcánicas, se instalan estaciones autónomas alimentadas con celdas solares. Estas
estaciones colectan datos del medio ambiente geofísico, como por ejemplo: irradiación solar, actividad
sísmica, precipitación pluvial, emanación de gases, temperatura del aire y del suelo, humedad relativa
del aire, intensidad y dirección del viento, o el nivel del mar, los cuales son enviados regularmente y en
forma automática a un centro de cálculo y de investigación; el envío se realiza por medio de una red de
satélites retransmisores. En el centro de cálculo dichos datos son procesados y combinados con
imágenes satelitarias, de tal forma que es posible establecer las condiciones de actividad volcánica de
un volcán determinado u observar el posible incremento de la actividad sísmica de una zona que
presente frecuentes movimientos telúricos. Con los modelos físicos y matemáticos adecuados se
evalúan entonces las probabilidades de ocurrencia de un fenómeno volcánico o sísmico con las
consecuentes medidas de prevención de posibles desastres. Para la prevención y evaluación de otro tipo
de desastres se pueden seguir técnicas similares.
SILVICULTURA
Entre los principales aspectos relacionados, en general, con la teleobservación de una cobertura vegetal
(Figura 30; véase pliego a color) y, en especial, con aquellos que se refieren al estudio de los bosques,
se encuentran las que se relacionan con: 1) la detección de zonas deterioradas por plagas, incendios o
tala inmoderada; 2) el cambio en el tiempo y en el espacio del vigor de los árboles, tanto en lo que se
refiere al área foliar como a la biomasa; 3) la ubicación y delimitación de las áreas boscosas, y 4) la
identificación de las especies en relación al tipo de suelo, altura sobre el nivel del mar, condiciones
climatológicas y localización geográfica. Estos cuatro aspectos de la silvicultura desde el punto de vista
de la percepción remota, constituyen la base para establecer una metodología capaz de proporcionar
censos de bosques con regularidad y oportunidad. Todo esto con fines de control y explotación racional
por especie de árbol, de supervisión de zonas dañadas por desastres naturales o por acciones ilegales
como la tala inmoderada, además de que permite definir las políticas de conservación y reforestación.
El recurso forestal es similar al agrícola, en el sentido de que puede ser explotado para beneficios muy
específicos en el desarrollo socioeconómico del país, sin embargo, el ciclo del crecimiento y madurez
es mucho más largo que el de cualquier cultivo alimenticio; también es atacado por plagas que pueden
acabar con áreas considerables de bosques y la contaminación ambiental por desechos industriales
afecta notablemente a los árboles de un bosque. De aquí que las áreas de explotación boscosas tengan
que ser mucho más grandes que las agrícolas, por lo que el control y supervisión de tales áreas sólo
puede llevarse a cabo con el apoyo de la percepción remota. En esencia, lo que deseamos conocer de un
bosque por esta vía es la especie o las especies de árboles que contiene, la extensión que cubren y su
localización, ya que con estos datos podemos elaborar un modelo para estimar la cuota de producción
en volumen de madera, y con esto definir el ritmo de reforestación requerido. Este ritmo debe incluir, el
volumen de explotación y las pérdidas por incendios, plagas y talas prohibidas, con lo que se puede
conservar un equilibrio racional del bosque. Un equilibrio de esta naturaleza tiene consecuencias
directas en el comportamiento del ecosistema, ya que una amplia cobertura vegetal, como lo es un
bosque, mantiene factores de evapotranspiración y de reflectancia que inciden en los patrones de
formación y movimiento de masas nubosas, las que son necesarias para mantener la estabilidad del
clima regional. Esto es tan importante que, por ejemplo, la cobertura vegetal de la Amazonia influye en
el clima a escala mundial; la eliminación de una buena parte de la Amazonia traerá consecuencias muy
graves a nivel planetario. Además de todo esto, las áreas boscosas retienen el suelo e impiden la
erosión, evitando con esto el azolve de presas, ríos y canales de riego y, por otro lado, alimentan con
valiosos minerales, a través del ciclo del agua, a los valles dedicados al cultivo. También podemos decir
83
que en el cartografiado de los árboles de un bosque estamos interesados en la discriminación de las
clases que forman las diferentes especies de árboles en relación al tipo de suelo, las posibles variaciones
de cada clase que puedan reflejar diferentes volúmenes de biomasa y determinar las fronteras y la
extensión de cada clase de árbol. Entre más clases podamos discriminar, mejores serán nuestras
aplicaciones en silvicultura.
A todas estas preguntas no hay respuestas simples debido a la manera compleja en la que las diferentes
especies de árboles interaccionan con el medio ambiente, ya que las condiciones climáticas,
topográficas y litológicas pueden variar tanto en el espacio como en el tiempo. Al analizar las
relaciones que involucran estas condiciones, es necesario estudiar también el concepto multiespectral
de la vegetación y, en particular, evaluar la variación en el tiempo de la respuesta espectral de las
diferentes especies de árboles que componen un bosque. En otras palabras, el proceso de madurez de
una clase de árboles, desde su crecimiento, trae como consecuencia un cambio en la respuesta espectral
asociada a dicha clase, de manera que la variación de esta respuesta es un indicador de la clase de
árboles y del particular estado de crecimiento, el que se manifiesta en el vigor del área foliar. Al
considerar la delimitación de las clases en el contexto arriba explicado, establecemos entonces un orden
jerárquico que conduce a la predicción de la razón de explotación de una área boscosa, tomando en
cuenta las condiciones del entorno geofísico donde reside el bosque.
Ahora bien en la teleobservación de los recursos forestales es necesaria la obtención de imágenes
multiespectrales a diferentes resoluciones espaciales proporcionadas básicamente por los Landsat 4 y 5
y por el SPOT; además de que la capacidad estereoscópica de este último satélite complementa en forma
muy adecuada la información del infrarrojo térmico que brindan los Landsat 4 y 5. El inventario del
volumen aproximado de madera disponible requiere de información detallada, producto de los pares
estereoscópicos del SPOT obtenidos en modo pancromático con CIV de 10x 10 m², conjuntamente con
un muestreo cuidadoso en campo. Al mismo tiempo, esta muy detallada información necesita de ser
extrapolada sobre áreas mucho más grandes que las utilizadas en las zonas piloto para la estimación del
volumen de madera. Para grandes áreas de aplicación, la muy alta resolución espacial requerida puede
involucrar la manipulación y el procesamiento de enormes cantidades de datos, de tal forma que no
resulta costeable procesarlos todos, de aquí que de toda la zona cubierta por las imágenes de satélites,
se seleccionen al azar regiones sobre las cuales se aplica el método de estimación del volumen de
madera, y a partir de esto se obtenga el volumen para la zona completa. Para la determinación de zonas
infectadas, pero no para la definición de la plaga en cuestión, es necesaria la interpretación de los datos
de la banda infrarroja térmica; lo mismo sucede para las áreas destruidas o devastadas. La clasificación
de especies de árboles requiere de la combinación de datos Landsat, SPOT y del muestreo selecto en
campo. La identificación y delimitación de las áreas susceptibles de ser reforestadas requieren de todo
lo anterior, además de datos climatológicos y de los tipos del suelo de la zona potencialmente
considerada; el proceso de reforestación puede ser supervisado por una inspección simple de imágenes
satelitarias obtenidas a intervalos regulares de tiempo.
En cuanto al uso del radar en silvicultura, se han realizado una serie de experimentos para estudiar la
interacción de sus señales, con la vegetación, y en especial, en relación al área foliar de los árboles y a
la textura que éstos presentan cuando son teleobservados desde un satélite o un avión. Estos
experimentos se llevaron a cabo en una variedad de condiciones topográficas y climáticas.
84
Al analizar las imágenes de radar, así como la textura de las áreas boscosas, fue posible determinar
varios tipos de cobertura vegetal, que iban desde pastizales, pasando por arbustos, hasta diferentes
clases de árboles. Es necesario puntualizar que la longitud de onda utilizada en estos casos para las
señales de radar fue de tan sólo algunos centímetros, ya que si se utilizan señales de longitud de onda
mayor, es decir de varias decenas de centímetros o de algunos metros, la vegetación resultaría
"transparente" y sólo se observaría el suelo. En estos estudios quedó claro también que las zonas
quemadas por incendios y la frontera de los bosques con otros objetos de la superficie terrestre
quedaban muy delimitadas. Sin embargo, las variaciones debidas a cierta clase de árboles, tales como
diferentes tipos de pinos, no pudieron ser diferenciadas en las imágenes de radar. Por otro lado es
también posible observar las variaciones debidas al grado en el cual un determinado bosque ha sido
talado, la presencia de árboles muy antiguos y altos, y el tamaño y patrón de zonas reforestadas. Las
imágenes de radar son especialmente útiles para determinar patrones de textura de una cierta cobertura
de clase, de tal forma que la que aparece en una imagen de radar es generalmente bastante fina para
áreas no boscosas y bastante más rugosa para zonas de cobertura vegetal. La variación en los valores de
los pixels de una imagen de radar es relativamente pequeña para varios tipos de vegetación, por lo que
estos tipos se distinguen más bien por las diferencias en la textura. Para aquellas regiones con una
topografía más o menos plana, las diferencias en tonalidad de zonas con escasa vegetación se refieren
esencialmente al tipo de suelo y al contenido de humedad superficial. Debido a la sensibilidad del radar
para detectar diferentes texturas de una escena en general, es posible establecer con bastante precisión
las variaciones en la densidad de la vegetación, ya que éstas se presentan como diferentes tipos de
textura; de ahí que sea factible determinar diferencias en la densidad y altura de varias comunidades de
árboles en bosques y selvas. En resumen, podemos afirmar que los estudios hechos hasta ahora con
imágenes de radar, de los Landsat 4 y 5 y del SPOT, indican que estas pueden jugar un papel importante
en las siguientes áreas de la silvicultura, desde el punto de vista de la percepción remota: a) preparación
de mapas a escalas pequeñas y regionales relacionados a varios tipos de vegetación y en especial en la
elaboración de cartas y mapas donde existen pronunciadas diferencias estructurales entre comunidades
de plantas; b) delimitación de zonas de vegetación que dependen de la altura sobre el nivel del mar; c)
trazado de patrones de incendios, plagas, talas, regeneración y reforestación de coberturas vegetales; d)
determinación de la línea de altura de una especie de árbol; e) producción de estimaciones de densidad
de vegetación en áreas con coberturas escasas y estimación del área foliar para áreas con coberturas
abundantes, y f) suplementación de fotografías de alta resolución en las cuales las diferencias de textura
relacionadas con la vegetación son débilmente expresadas. Además de esto, podemos decir que la
silvicultura y la evaluación de coberturas en general constituyen áreas de la percepción remota donde
las imágenes de radar se complementan con las producidas por los Landsat 4 y 5 y por el SPOT.
IDENTIFICACIÓN DE HIELO MARINO
El notable incremento del tránsito de barcos de investigación, mercantes y de exploración, en
combinación con las labores de exploración del petróleo en aguas árticas y subárticas, ha incrementado
drásticamente la necesidad de información oportuna referente a las condiciones de la cobertura del hielo
marino. Las condiciones globales del clima requieren de información rápida acerca de las capas polares
y regiones circundantes para la predicción del tiempo en diversas zonas del planeta. Así, las
condiciones de la cobertura del hielo deben ser conocidas en general por los exploradores y los
meteorólogos, y podemos afirmar que la percepción remota, especialmente la satelitaria, es la única
manera práctica de cartografiar las condiciones del hielo sobre una base regional y repetitiva.
85
La teleobservación del hielo marino en regiones árticas y subárticas tiene que enfrentar las siguientes
limitaciones y requerimientos: 1) durante varios meses del año (invierno) se tienen condiciones de
iluminación solar muy pobres; 2) las nubes y la neblina persisten por una buena parte del año; 3) se
requiere de una cobertura amplia, regional y oportuna, y 4) es necesaria la cobertura repetitiva a una
alta frecuencia, al menos una vez a la semana, para analizar el movimiento del hielo sobre todo en
primavera cuando ocurren rompimientos importantes de la capa formada en el invierno. Estos
requerimientos son satisfechos y las limitaciones son salvadas en su mayor parte por imágenes
satelitarias de radar (Radarsat), pero es necesario complementarla con imágenes Landsat. La evaluación
del hielo marino es una de las pocas aplicaciones de la teleobservación terrestre donde no es necesario
ni práctico el apoyo de campo, no al menos para el proceso de análisis de las imágenes satelitarias, las
cuales deben ser estudiadas de inmediato, pues la cobertura de hielo cambia en tan sólo algunos días.
En cuanto a las imágenes Landsat, éstas pueden ser obtenidas hasta latitudes de 81°, tanto norte como
sur, a una frecuencia y condiciones de iluminación correcta durante poco más de la mitad del año. Las
ventajas de las imágenes Landsat estriban en su bajo costo, su cobertura espectral, su alta resolución
espacial y el de poder contar con una red adecuada de estaciones receptoras y satélites de enlace con lo
que las imágenes respectivas pueden ser obtenidas y procesadas oportunamente. Las condiciones
pobres de iluminación y la cobertura nubosa son las dos limitaciones que presentan las imágenes
Landsat para dichas latitudes. En cuanto a la cobertura nubosa y de neblina, comunes en las latitudes
extremas, se encuentran que tienen respuestas similares a las del hielo. No obstante, siguiendo algunos
criterios simples de forma y textura, es posible diferenciar al hielo marino; estos criterios son los
siguientes: 1) la brillantez del hielo es generalmente más uniforme que la de las nubes; también las
fracturas y canales del hielo pueden ser utilizadas para discriminarlo de las nubes; 2) las sombras de
éstas pueden ser reconocidas en la imagen Landsat; 3) las nubes tienen márgenes desvanecidos,
mientras que los fragmentos de hielo y icebergs presentan contactos muy precisos con el agua, y 4) en
general los patrones y texturas de distribución espacial de los hielos difieren de aquellos de las nubes.
En lo que se refiere a la evaluación del hielo marino por medio de imágenes de radar, podemos decir
que las principales ventajas son la posibilidad de adquirir imágenes en condiciones de oscuridad o
cuando también prevalecen condiciones de nubosidad o neblina, ya que estos objetos son transparentes
a las señales de radar. En la actualidad, sin embargo, no se cuenta aún con una cobertura satelitaria de
radar suficientemente amplia en espacio y tiempo como para que las imágenes de radar constituyan un
elemento de análisis rutinario del hielo marino. Pronto será salvada esta dificultad, pues se prevén
lanzamientos de satélites de esta naturaleza que proporcionarán datos a bajo costo y en forma oportuna;
cuando esto se tenga a la mano, es muy posible que la cobertura de hielo marino sólo pueda estudiarse
con imágenes de este tipo. No obstante que la rugosidad de la superficie de los hielos explica la
mayoría de las diferencias observadas en las clases de hielos marinos, el contenido de salmuera en el
hielo ejerce una influencia notable en la señal de radar. El hielo joven tiene un alto contenido de
salmuera, la cual va reduciéndose hasta un mínimo para el que ya tiene varios años, de tal forma que el
hielo joven aparece más brillante en la imagen de radar que el hielo viejo, aun cuando ambos tengan la
misma rugosidad. Con estas características del hielo marino es posible distinguir una variedad muy
adecuada de clases, observar los canales y las grietas que aparecen en una cobertura de hielo, y
distinguir el agua que resurge entre los diferentes hielos.
86
V .
C O N C L U S I O N E S
LAS contribuciones de la percepción remota en la evaluación de los recursos naturales dependen de la
simplicidad o complejidad del recurso bajo estudio y del tipo de medidas o contribuciones que el
sensor remoto pueda realizar. En el extremo de la simplicidad pueden encontrarse situaciones que
involucran a un sólo objeto de fácil detección y evaluación, como lo son la identificación de hielo
marino, la evaluación de áreas inundadas o las porciones de un bosque devastado por un incendio. Por
el otro lado, en el extremo de la complejidad, se encuentra el análisis de todo un sistema relacionado
con un recurso natural, como lo es la prospección petrolera y minera, o la inferencia de cuerpos de
agua subterránea, las que emplean contribuciones de varios tipos de sensores aerotransportados y
satelitarios, que utilizan medidas y muestreos en campos, que requieren del modelaje físico y
matemático del sistema geofísico que caracteriza la presencia de tales recursos, que manipulan una
gran cantidad de datos por medio de computadora y requieren de técnicas refinadas de la teoría
estadística. Entre estos extremos se encuentran una gran variedad de aplicaciones de la percepción
remota. Hasta ahora, la mayoría de las aplicaciones se han concentrado principalmente en el extremo
de las situaciones simples.
Esto es razonable, pues siempre es más fácil la implantación de tareas sencillas relacionadas con
evaluaciones simples de un recurso natural específico, además de que de ellas se obtienen resultados
directos y explícitos de fácil interpretación. Por otro lado, algunas de las aplicaciones de la percepción
remota se encuentran aún en etapa exploratoria, por lo que es natural que se escojan sistemas físicos de
fácil observación; éste es el caso de la evaluación de algunos cultivos agrícolas, en donde se estudia la
interacción de la radiación solar con el área foliar para fines de estimación de biomasa y producción de
cosechas.
La aplicación de la percepción remota como parte de un sistema complejo e integrado de captura
extensa de datos acerca de varios parámetros físicos, del modelaje, de la administración de proyectos y
de la predicción de resultados, constituye una herramienta valiosa que demanda de una alta
especialización científica; éste es el caso de la geohidrología, donde la conjugación de muchos
elementos permite la explotación racional del recurso agua tan necesario en nuestro país. Para atacar
problemas complejos se requiere de extensiva investigación y desarrollo de nuevos métodos y
técnicas; cuando un conjunto de metas bien definidas son alcanzadas, entonces el nuevo sistema
integrado de datos teleobservados puede modificar significativamente, o incluso reemplazar, los
procedimientos existentes en una aplicación dada. En aquellos países del mundo desarrollado con
establecimientos científicos y estructuras institucionales efectivas, o en aquellos capaces de integrar
esfuerzos a nivel regional, estarán capacitados para absorber la alta tecnología que implica la moderna
ciencia de la percepción remota, con fines de evaluación total de los recursos existentes para la
planeación del desarrollo socioeconómico. En países en vías de desarrollo, como lo es el nuestro, un
considerable esfuerzo tendrá que ser invertido para la creación de los recursos técnicos y humanos
necesarios para la adopción de la percepción remota en las tareas de estudio y análisis de los recursos
naturales y de las estructuras del soporte en general del país. Para lograr esto es necesaria la cuidadosa
87
selección que ofrecen los diferentes aspectos del desarrollo tecnológico de la percepción remota. Esta
moderna ciencia está en rápida expansión, por lo que la formación de jóvenes científicos y el
establecimiento de los laboratorios adecuados para el procesamiento de imágenes multiespectrales, en
combinación con los datos de campo, deben hacerse no sólo rápida sino también sólidamente y no por
la vía de la apariencia. En general puede decirse que la percepción remota es una ciencia moderna de
gran potencial y dinamismo, que no debe descuidarse. Hay que tener reservas, sin embargo; ya que es
frecuente la idea de que la prospección de los recursos del planeta desde el espacio tiene algo de
mágico, o que puede llegar a resolver en forma autosuficiente los problemas que se resuelven hasta
ahora por métodos tradicionales. En su justa dimensión, la percepción remota es una herramienta
cuantitativa que facilita la interpretación y la elaboración de modelos ambientales predictivos y que
por tanto coadyuva en el proceso de planeación socioeconómica.
Hemos podido observar últimamente una serie de espectaculares aplicaciones de la percepción remota
cuando un conjunto de sondas espaciales nos ha hecho llegar imágenes de todo el sistema solar,
incluyendo el famoso cometa Halley. Hemos apreciado lo insospechado de la estructura de este
sistema, además de la extraña apariencia de los satélites que orbitan los planetas gigantes; las
imágenes enviadas por dichas sondas han aportado muchos millones más de datos de los que se habían
recolectado por los telescopios y estaciones terrenas; muchas incógnitas han sido despejadas, pero
otras han surgido, llamando a la necesidad de más sondas y más datos. Todo esto ha ayudado
enormemente a la comprensión de la creación y evolución del sistema solar y en particular nos ha
permitido entender con más detalle la estructura de nuestro planeta. Otras muchas aplicaciones de la
percepción remota han posibilitado al hombre la observación de sus mismas partes internas, como el
estómago, el intestino, el corazón y los pulmones. Se han obtenido imágenes de la extraordinaria
evolución del ser humano desde la concepción hasta el alumbramiento del feto, y ahora hasta es
factible la evaluación cuantitativa de diversos tejidos del cuerpo humano, como el cerebro y los
huesos, esto sin la destrucción de dichos tejidos, pues la percepción remota permite crear imágenes de
diferentes secciones del cerebro (tomografías) al detectar la radiación corpuscular que proviene de
elementos radiactivos inyectados al sujeto bajo estudio. También los sensores modernos detectan los
rayos X, creando sin necesidad de placas fotográficas, radiografías de alta calidad procesables por
computadora. Una serie de áreas del desarrollo industrial también se benefician de la percepción
remota al poder detectar los defectos o fisuras internas de diferentes componentes de maquinarias y
herramientas. La percepción remota encontrará, confiamos y esperamos, un lugar adecuado en el
espacio de las ciencias. Como cualquier disciplina nueva, la percepción remota demanda de científicos
y profesionales dedicados a la difícil e ingrata tarea de convencer a los demás de la seriedad y valor de
las ideas que involucran esta moderna ciencia; pensamos que este trabajo es una aportación a dicha
tarea.
88
C O N T R A P O R T A D A
En los últimos años el hombre ha podido ver con asombro fotografías tomadas por sondas espaciales
que muestran, a distancias relativamente cortas, imágenes de las lunas de Júpiter, de los anillos de
Saturno, de la superficie de planetas tan lejanos como Urano y, más recientemente, del núcleo del
cometa Halley. Las imágenes recibidas han aportado tantos datos —una proporción abrumadoramente
superior a la obtenida con los telescopios— que los científicos aún trabajan en su recopilación,
elaboración y análisis. Todo esto ha ayudado considerablemente a la comprensión de cómo se formó
nuestro Sistema Solar en general y, en particular, ha permitido entender con más detalle la estructura
de nuestro planeta.
El término percepción remota que da título a este libro es también de acuñación muy reciente: se
utilizó cuando los primeros satélites artificiales comenzaron a tomar fotos de la Tierra y de la Luna,
mostrando al hombre aspectos, visiones, que los antiguos jamás hubieran imaginado, entre ellas el lado
oculto de nuestro satélite. De hecho, como dice el doctor Jorge Lira, la percepción remota ha
alcanzado el status de ciencia nueva que estudia, además del espacio que nos rodea, la manera como
están distribuidos los recursos naturales del planeta, así como campos ligados con la salud del hombre,
dado que la medicina y la biología hacen uso creciente de las técnicas desarrolladas por esta nueva
ciencia.
La metodología que emplea la percepción remota es la derivada de la investigación espacial. Los muy
complejos detectores montados en los satélites de observación permiten observar la superficie
terráquea con un alto grado de detalle, "Parece —dice Lira— como si la percepción remota fuera una
extensión del sentido de la vista."
El autor presenta en esta obra los logros y el estado en que se halla actualmente la ciencia de la
percepción remota, así como sus perspectivas a futuro. Y lo hace desde el punto de vista conceptual, es
decir, sin recurrir a las matemáticas sino, como dice "apelando a la intuición y sentido común del
lector". " Sin embargo, se presenta la nueva ciencia en profundidad, haciéndose un examen minucioso
y claro de todos sus aspectos.
Jorge Lira estudió física en la Facultad de Ciencias de la UNAM y, gracias a una beca, hizo su maestría y
doctorado en la Universidad de Lovaina. En la actualidad dirige el Departamento de Percepción
Remota del Instituto de Geofísica de la UNAM. Trabaja también en un libro sobre el procesamiento
digital de imágenes.
En la portada Primera imagen del SPOT tomada el 23 de febrero de 1986. La región mostrada
corresponde a los montes Atlas situados a 300km. al sur de Argelia.
89
Descargar