NUESTRO HOGAR EN EL ESPACIO

Anuncio
1
N U E S T R O
H O G A R
E N
E L
E S P A C I O
Autor: JOSÉ FRANCISCO VALDÉS ( COMPILADOR)
http://bibliotecadigital.ilce.edu.mx/sites/ciencia/menu.htm
COMITÉ DE SELECCIÓN
EDICIONES
INTRODUCCIÓN
I. LOS SATÉLITES, LAS NAVES ESPACIALES Y NOSOTROS
II. EL SOL Y SU DOMINIO
III. LA ATMÓSFERA QUE NOS RODEA
IV. LA COMPOSICIÓN Y EDAD DE LA TIERRA
V. LA SISMOLOGÍA Y LOS SISMOS DE MICHOACÁN DE
SEPTIEMBRE DE 1985
VI. PALEOMAGNETISMO, DERIVA CONTINENTAL .Y TECTÓNICA DE
PLACAS
BIBLIOGRAFÍA
CONTRAPORTADA
2
C O M I T É
D E
Dr. Antonio Alonso
Dr. Gerardo Cabañas
Dr. Juan Ramón de la Fuente
Dr. Jorge Flores Valdés
Dr. Leopoldo García-Colín Scherer
Dr. Tomás Garza
Dr. Gonzalo Halffter
Dr. Raúl Herrera
Dr. Jaime Martuscelli
Dr. Héctor Nava Jaimes
Dr. Manuel Peimbert
Dr. Juan José Rivaud
Dr. Julio Rubio Oca
Dr. José Sarukhán
Dr. Guillermo Soberón
Coordinadora:
María del Carmen Farías
S E L E C C I Ó N
3
E D I C I O N E S
Primera edición (La Ciencia desde México), 1988
Tercera reimpresión,1995
Segunda edición (La Ciencia para Todos), 1997
Se prohíbe la reproducción total o parcial de esta obra —incluido el diseño
tipográfico y de portada—, sea cual fuere el medio, electrónico o mecánico,
sin el consentimiento por escrito del editor.
La Ciencia para Todos es proyecto y propiedad del Fondo de Cultura
Económica, al que pertenecen también sus derechos. Se publica con los
auspicios de la Secretaría de Educación Pública y del Consejo Nacional de
Ciencia y Tecnología.
D. R. © 1988 FONDO DE CULTURA ECONÓMICA, S. A. DE C. V.
D. R. © 1997 FONDO DE CULTURA ECONÓMICA
Carretera Picacho-Ajusco 227, 14200 México, D.F.
ISBN 968-16-5238-X
Impreso en México
4
I N T R O D U C C I Ó N
México es un país que cuenta con dos millones de kilómetros cuadrados de
superficie, casi nueve mil km de costas, grandes recursos minerales y
petroleros y zonas áridas extensas en donde hay graves problemas de
abastecimiento de agua. Nuestra costa occidental es una de las de mayor
riesgo sísmico en el mundo y no es necesario subrayar lo que ello ha
representado para la población. Dentro del territorio mexicano se suceden
alrededor de quince erupciones volcánicas por siglo, distribuidas a todo lo
largo y ancho de su geografía.
Tanto para el mejor entendimiento de lo que significan los recursos ya
conocidos para la exploración de otros nuevos y para prevención o
amortiguamiento de los desastres causados por los fenómenos naturales, es
indispensable un mejor conocimiento de las ciencias de la Tierra, desde las
que estudian su interior, pasando por las que investigan los océanos y la
atmósfera, hasta las que se dedican al conocimiento del Sistema Solar y en
particular del Sol y su influencia en nuestro planeta. Los métodos que estas
ciencias utilizan son muy diversos, en ocasiones muy elaborados, con
necesidades de tecnologías muy avanzadas o de vastos recursos
económicos como las grandes perforaciones de los fondos marinos o los
satélites y naves espaciales con su multiplicidad de aplicaciones.
En nuestro país, con casi 80 millones de habitantes, el número de personas
que se dedica a las ciencias de la Tierra no pasa de unas cuantas centenas.
La Unión Geofísica Mexicana surgió hace 25 años con el propósito de unir
los esfuerzos de todos los geofísicos de México para fomentar el
fortalecimiento y desarrollo de la investigación sobre la Tierra en nuestro
país y al mismo tiempo para difundir en la sociedad el conocimiento que
hasta el momento se tenga en estas ramas del saber. El presente volumen
tiene como propósito contribuir a la realización de los objetivos anteriores
pues, al mismo tiempo que pretende instruir en algunos aspectos de los
fenómenos terrestres y los métodos que se emplean para estudiarlos, es
también su intención motivar a algunos de nuestros lectores a que se nos
unan en este empeño por desentrañar los misterios de nuestro planeta.
Parte del material aquí compilado sirvió como base para un ciclo de
conferencias que bajo el mismo título que el de este libro fueron impartidas
en el Museo Tecnológico de la Comisión Federal de Electricidad y
organizadas por la Unión Geofísica Mexicana. El interés mostrado por el
público asistente a las conferencias fue un estímulo constante para
conformar la publicación que hoy está en sus manos.
JOSÉ FRANCISCO VALDÉS GALICIA
Compilador
I .
L O S S A T É L I T E S , L A S N A V E S
E S P A C I A L E S Y N O S O T R O S
5
RUTH GALL
TREINTA años han pasado desde el lanzamiento al espacio del Sputnik 1, el
que inicia la era espacial. Desde esta fecha han sido lanzados al espacio
más de 3 000 satélites y naves espaciales que, equipados con instrumentos,
realizaron innumerables misiones.
De allí surgen las preguntas sobre qué importancia tiene el uso de vehículos
espaciales, qué misiones se han realizado hasta la fecha y qué ventajas
ofrece la era espacial al mundo y en particular a los países cómo los
nuestros.
Es un hecho que la era espacial abrió al hombre dos nuevas perspectivas:
una nueva visión de la Tierra y una nueva visión del Universo.
Como lo veremos, los descubrimientos producidos en la era espacial
revolucionaron tanto a las ciencias básicas como a las aplicadas y a las
sociales. Así, se abrieron nuevos rumbos para la geofísica, la astronomía, la
física del Sistema Solar, la climatología y las comunicaciones; e incluso se
abrieron nuevas disciplinas satelitarias como la cometología, la
telecomunicación y el derecho espacial, entre otras.
Cabe señalar que, como sabemos, mientras los satélites giran alrededor de
una órbita fija, las naves espaciales suelen adentrarse en el espacio.
Algunas de estas naves están destinadas a abandonar nuestro Sistema
Solar y a seguir su camino a través de la Vía Láctea.
Para entrar al mundo de las misiones espaciales debemos mencionar que en
la explotación espacial se utilizan básicamente dos métodos. Uno, la
detección "in situ", que consiste en la exploración directa con instrumentos,
ya sea a lo largo de la trayectoria del vehículo espacial o mientras éste
explora los cuerpos o espacios de interés. Dos, la teledetección, es decir, la
detección a grandes distancias.
Para terminar esta breve introducción, debemos confesar que nuestro
propósito es ante todo dirigir la atención de nuestros investigadores y —
¿por qué no?— de los estudiantes, hacia las diferentes disciplinas
espaciales, para uso y exploración del espacio con nuestros propios fines.
Nos parece urgente la formación de cuadros y recursos humanos, tanto en
ciencias básicas y aplicadas espaciales, como en tecnologías de este tipo, no
sólo porque representa uno de los quehaceres científicos y tecnológicos de
vanguardia sino, además, porque conllevan implicaciones económicosociales de gran trascendencia. No podemos olvidar que el siglo XXI está
acercándose a pasos agigantados.
DESCUBRIMIENTO DEL DOMINIO TERRESTRE: UN NUEVO CONCEPTO
SOBRE NUESTRO PLANETA
Como dijimos en la introducción de este artículo la era espacial ha traído
consigo cambios revolucionarios sobre los conceptos que teníamos con
respecto al espacio que rodeaba la Tierra. Para poder entender a fondo este
cambio tenemos que retroceden en el tiempo.
6
Antes de la era espacial se creía que el espacio interplanetario1
era una
región de quietud y vacío, alterada sólo durante las perturbaciones solares.
Como lo muestra la figura 1, se pensaba también que nuestro planeta
ocupaba en el Sistema Solar un espacio del dominio terrestre de forma
esférica de aproximadamente 7 870 km de radio. Se creía que este espacio
estaba supuestamente constituido por la Tierra y las capas atmosféricas que
la rodeaban donde la exósfera era la capa externa y fronteriza.
Al margen de este concepto se creía también que las líneas cerradas del
campo magnético terrestre rebasaban esta frontera y que se iban
extendiendo —cada vez más tenues— a través del medio interplanetario
(Figura 2).
Las exploraciones mediante satélites, entre 1958 y 1961 mostraron la
falacia de estos conceptos y dieron origen a la geofísica exterior.
Lo que quisiéramos señalar de antemano es que encima de las capas
atmosféricas existen otras de fundamental importancia, y que el campo
geomagnético no penetra al espacio interplanetario, sino que actúa como un
centinela fronterizo del dominio terrestre.
Entre los descubrimientos de mayor trascendencia figura "el viento solar"
compuesto de partículas tales como los electrones, protones y iones, que
emanan continuamente del Sol y que se propagan a través del espacio
interplanetario a una velocidad de 400 km por segundo.
Figura 1. La atmósfera terrestre confinada en una cáscara esférica
de aproximadamente 1 500 km de grosor.
7
Figura 2. La imagen preespacial del espacio circumterrestre.
La población de estas partículas, que se conocen como plasma, es tan
escasa que entre ellas no ocurre colisión alguna. También se descubrió la
magnetósfera —la región externa del dominio terrestre— que se encuentra
embebida en las líneas del campo magnético de la Tierra.
La magnetósfera va acompañada de la magnetopausa, que es la línea
fronteriza. Esta línea fronteriza es el resultado de la lucha que libra
continuamente la fuerza del campo magnético contra la fuerza del "viento
solar". Se conforma así un centinela fronterizo que inhibe la penetración del
viento solar al dominio terrestre, separándolo del espacio interplanetario.
Sin embargo como lo muestra la figura 3 la presión que ejerce el viento
solar logra limitar el dominio terrestre situándolo en una cavidad en forma
de cometa.
El viento solar comprime parcialmente del lado día las líneas del campo
magnético dejando un espacio de sólo 64 000 kilómetros de ancho. En
cambio del lado noche, el viento solar se desliza a lo largo de la
magnetopausa. Ésta transmite la presión al interior del dominio terrestre
induciendo así —del lado noche— un estiramiento de las líneas del campo
magnético terrestre. Estas líneas son las que se ven envueltas en una cola
magnetosférica de unos 3 millones de kilómetros de largo.
Además, durante las exploraciones mediante satélites, aún anteriores a las
ya descritas, se descubrió una zona de partículas ionizadas, altamente
energéticas —conocidas como Anillos de Radiación o Anillos de Van Allen—
que están confinadas por el campo magnético terrestre en forma de una
dona y que se encuentran entre 700 y 48 000 kilómetros encima de la
superficie terrestre. Esta población, relativamente densa, es letal. Por ello
se debe evitar la permanencia de los astronautas —aun siendo de pocos
días— en esta región, (Figura 3).
Actualmente se afirma que los Anillos de Van Allen son producto de
subtormentas magnetosféricas que energetizan y desplazan partículas de
origen ionosférico, normalmente de baja energía. Asimismo se señala que
son el resultado de un bombardeo de rayos cósmicos a la atmósfera
terrestre.
8
Y para terminar pasemos a un descubrimiento del dominio geofísico que
nada tiene que ver con el espacio pero sí con la geodesia. En marzo de
1958 un satélite geodésico descubrió que la Tierra no es esférica, sino que
tiene forma de pera, como lo muestra la figura 4.
Figura 3.
Figura 4. La Tierra no es exactamente una esfera. En esta figura se muestra una
visión exagerada de la forma real de nuestro planeta. La deformación aquí
mostrada no es notoria a simple vista.
LAS NUEVAS VENTANAS ASTRONÓMICAS
Las atmósferas son las guardianas de la vida en la Tierra porque logran
inhibir el paso de radiaciones letales a la superficie terrestre; tal es el caso
de los rayos gamma, los rayos X y los ultravioleta. Inhiben también el paso
de un amplio espectro del infrarrojo, aunque éste no representa peligro
para la vida en la Tierra. Sin embargo, todas estas frecuencias son
portadoras de una información muy valiosa para la exploración del
Universo.
9
La observación del espacio desde la Tierra mediante el telescopio, la deben
los astrónomos a tres belgas que inventaron este instrumento al principio
del siglo XVII. A pesar de que con los años los telescopios se han ido
perfeccionando, la observación de cuerpos celestes a través de estos
instrumentos sólo se puede realizar en el espectro visible y algunas franjas
del infrarrojo. No fue sino hasta después de la segunda Guerra Mundial que
la astronomía se enriqueció con los radiotelescopios que proporcionaron una
observación "más transparente" del Universo mediante todo el espectro2
en radiofrecuencias.
Finalmente, con el inicio de la era espacial, los satélites astronómicos, que
orbitan la Tierra a unos 1 000 km, abrieron al astrónomo las ventanas de
todo el espectro electromagnético para la observación del Universo.
Permítaseme mostrar la importancia de esta apertura mediante dos
interesantes ejemplos que han resultado de la observación de los rayos X y
de algunos rayos infrarrojos.
Los astrónomos han podido percibir en algunas estrellas —de atmósfera
muy
extendida—
súbitos
desprendimientos
de
materia.
Estos
desprendimientos van asociados con emisiones discontinuas de rayos X que
los astrónomos observan y las asocian con la presencia en las vecindades
de la estrella, de un cuerpo —hasta ahora hipotético— llamado "hoyo
negro". Su campo gravitacional es tan fuerte que absorbe y no permite
escapar ni la radiación ni la materia que emite la estrella vecina. De ahí
nuestra incapacidad para observarlo.
Las recientes observaciones en el infrarrojo realizadas con instrumentos a
bordo de satélites astronómicos han permitido descubrir la presencia de
discos de materia que giran alrededor de algunas estrellas. Siendo que los
planetas del Sistema Solar fueron formados mediante este tipo de materia,
se cree que en un futuro muy lejano estas estrellas estarán acompañadas
de sus planetas.
Como se puede apreciar, la exploración en el espacio mediante satélites
astronómicos ofrece nuevas perspectivas de fundamental importancia. Es
más, próximamente se pondrá en órbita un telescopio estadounidense que
permitirá la observación astronómica a más de mil millones de años luz del
Sistema Solar, porque aumenta 350 veces la profundidad observable del
Universo, con respecto a lo que se tiene a la fecha.
Por lo pronto los astrónomos no pueden explorar los espacios celestes con
métodos in situ. Sin embargo, tomando en cuenta que algunas naves
espaciales —en lo que resta del siglo XX— se internarán en la Vía Láctea,3
existe la posibilidad de que estas técnicas se desarrollen más y puedan
ayudar al astrónomo en sus exploraciones.
LOS INSTRUMENTOS ESPACIALES DEL HOMBRE: LOS SATÉLITES
1. La telecomunicación satelitaria
La telecomunicación mediante satélites
problemas de comunicación en el planeta.
resolvió
prácticamente
los
Mucho antes de la era espacial se usaban elementos naturales portadores
de comunicación como la ionósfera y algunos medios como los cables
10
submarinos. Sin embargo éstos no cuentan con suficiente ancho de banda,
por ejemplo para la comunicación televisiva.
Las microondas resolvieron parcialmente este problema por su amplia
capacidad de transmisión. Sin embargo, aun en la comunicación por este
medio se tienen ciertas limitaciones. Como estas ondas no son reflejadas
por la atmósfera, no tienen la capacidad de comunicar directamente a dos
estaciones situadas una debajo del horizonte de la otra. De ahí que este
tipo de transmisión se logra mediante una red muy densa de estaciones
repetidoras de microondas colocadas en tierra firme, pero, por supuesto,
nunca en mares y océanos.
Más aún, hay regiones que carecen de estas estaciones de microondas, por
ejemplo en las altas montañas y en las selvas. De allí que antes de la era
espacial, para comunicar Chile con Argentina la comunicación se lograba
sólo vía Nueva York.
Sin embargo los satélites de comunicación —como decíamos— resuelven
todos estos problemas, ya que desde la órbita geostacionaria éstos
funcionan como altas torres cuya "visión" abarca tanto mares y océanos
como continentes.
Actualmente la comunicación internacional y nacional se realiza mediante
satélites pertenecientes a organismos internacionales. Sólo algunos países
cuentan con sus propios satélites de comunicación, en general para servicio
nacional, entre ellos, México con el Sistema Morelos.
Las aplicaciones de la telecomunicación mediante satélites son múltiples.
Entre otras figuran la telefonía, la televisión y la telegrafía ya sea a nivel
regional, continental o transoceánico; también la comunicación entre
pueblos remotos que antes estaban incomunicados. Canadá por ejemplo, es
uno de los países de mayor extensión territorial con población esquimal al
norte que, antes de la era espacial; carecían de medios de comunicación.
Hoy en día no sólo pueden comunicarse entre sus diferentes pueblos sino
también con grandes urbes.
Aparte de la comunicación terrestre y oceánica existe también la
comunicación entre estaciones terrenas y satélites o naves espaciales. Por
ejemplo, es fundamental captar la información sobre la exploración
realizada por naves espaciales en planetas, lunas y cometas y en la
exploración de los espacios mismos.
También la comunicación que se logra con los astronautas, durante su
permanencia en el espacio es trascendente. Tal es el caso de los
astronautas que permanecieron varias horas en el suelo lunar, o por
ejemplo, la comunicación frecuente que se establece con los astronautas
rusos, que llegan a quedarse unos nueve meses abordo del MIR, hasta
ahora la única estación orbital permanente.
2. La teleobservación y los recursos naturales
Como lo indica su nombre, la teleobservación significa observar, detectar o
percibir a distancia. De ahí que también se le conozca por teledetección.
Cuando se trata de la observación de los recursos naturales terrestres se le
llama percepción remota.
11
Figura 5. Campo maderero con plaga, detectado por satélites de Percepción
Remota.
En general, para realizar la percepción remota (PR), los satélites
coleccionan los datos mediante un código digital para después transmitirlos
a la Tierra, donde son transformados en imágenes. El logro de una imagen
terrestre de unos 34 225 km² se obtiene en aproximadamente dos horas.
Con la percepción remota es posible detectar todos los recursos naturales,
sus deterioros y transformaciones. Por esto es que la PR cobra una
importancia impresionante no sólo por las posibilidades que ofrece de
exploración y conocimiento de dichos recursos, sino también dentro de los
procesos productivos y económicos de los países. De hecho, con la PR se
han enriquecido muchas disciplinas. A continuación presentamos un listado
que por si mismo habla del amplio y variado espectro en que la PR es útil.
Aparecen solamente unos cuantos ejemplos.
Objetos y disciplinas de la percepción remota
Agricultura.
Energéticos
Oceanografía.
Asentamientos
(hidrocarburos y
Rutas viales.
humanos.
geotermia)
Selvas.
Cartografía.
Erosión.
Silvicultura.
Climatología.
Meteorología.
Suelos.
Desertificación.
Minería.
Ecología.
Pesca.
Entre todas las innovaciones tecnológicas la PR es una de las más
importantes ya que a cada país le interesa conocer a fondo el estado de sus
propios recursos naturales.
Sin embargo, hasta la fecha sólo cinco países cuentan con satélites de
percepción remota, los cuales pueden explorar todo lo que encuentran a lo
largo de sus órbitas.
12
Los países que cuentan con satélites de percepción remota son: la India, los
Estados Unidos, la URSS, Japón y Francia. Entre éstos, la serie de dos
satélites franceses Spot destaca por su gran avance tecnológico. El Spot 2
logrará la detección de casi todos los recursos de la mayoría de los países
en aproximadamente 24 horas y estará ubicado en la órbita polar. La
rapidez con la que efectuará sus operaciones, le permitirá fácilmente
observar los recursos naturales temporales como —por ejemplo— el cultivo.
Los países que, como el nuestro, no cuentan con satélites de PR, se ven
obligados a comprar los datos que detectan los satélites de otros países.
Asimismo necesitan comprar la infraestructura tecnológica para poder
interpretar dichos datos. La compra por parte de nuestros países de los
datos y de tecnología soluciona momentáneamente sus necesidades de
exploración, que resulta muy costosa cuando trata de la exploración de
recursos naturales temporales, tan importantes en la economía nacional de
cualquier país.
3. Meteorología, navegación marina y oceanográfica
Antes de la era espacial, la información sobre el estado del tiempo se
realizaba mediante contadas estaciones terrestres, que sólo aportaban una
información local ocasional. Con base en esta información se solían hacer
pronósticos del tiempo muy deficientes, según los propios meteorólogos.
Además resultaba imposible establecer estaciones en las montañas altas,
océanos, mares y en los desiertos.
Existen dos tipos de órbitas donde actualmente se sitúan los satélites
meteorológicos: la órbita geoestacionaria y la órbita polar.
La altura de la órbita geoestacionaria4
le posibilita a los satélites una
perspectiva que abarca particularmente toda una cara del planeta —de
continentes, océanos y nubosidad.
Por las características de la órbita polar,5
los satélites meteorológicos
situados en ella pueden hacer una "revisión de arriba hacia abajo de la
Tierra", aunque por su escasa altura tienen una perspectiva mucho menor
que los situados en órbita geoestacionaria.
Para lograr una visión global y simultánea del estado meteorológico del
planeta es necesario contar —por lo menos— con tres satélites situados en
distintos puntos de la órbita geoestacionaria.
La meteorología mediante satélites se inicia a partir de los años setenta con
el lanzamiento de Tiros 1 en órbita polar. Su misión fue explorar y recoger
23 000 fotografías del estado del tiempo. Con ello, se inicia una era de
predicciones meteorológicas de mucha mayor confiabilidad.
La serie de satélites Tiros en órbitas polares no sólo toman fotografías del
estado del tiempo sino además cuentan con instrumentos que detectan la
temperatura y evalúan el contenido del ozono en la atmósfera.
Se cuenta con satélites en órbita geoestacionaria desde 1966, que detectan
ante todo el estado de nubosidad a nivel global.
13
La exploración meteorológica se realiza simultáneamente mediante satélites
en órbitas polares y en órbitas geoestacionarias. Todo este avance logró
que la exploración meteorológica fuera tridimensional y global.
Por ello los satélites meteorológicos actualmente sirven para conocer el
estado del tiempo tanto en la tierra como en mares y océanos. De allí que la
navegación se guía hoy con base en la información satelitaria que
proporciona los datos sobre el estado del tiempo, así corno sobre el estado
de las corrientes marinas.
Este avance en navegación marina y oceanográfica va tan lejos que hoy
existen compañías que se dedican, con base en los datos de satélites, a
señalar a los buques rutas de mayor seguridad y menor uso de combustible.
Finalmente es posible, por la pronta y simultánea detección del estado del
tiempo a través de satélites, la existencia de un sistema de alerta
meteorológica mundial, para la prevención de daños posibles causados por
fenómenos naturales de alto riesgo huracanes, tormentas, etcétera.
LAS NAVES ESPACIALES EXPLORAN LOS PLANETAS DEL SISTEMA SOLAR
Antes de la era espacial, el hombre, para la exploración de los planetas,
sólo contaba con telescopios ópticos y de radiofrecuencia. Estos aparatos le
proporcionaban una información no nítida debido, en parte, a las distancias
de centenas y hasta miles de millones de kilómetros existentes entre los
planetas observados y la Tierra.
Con el advenimiento de la era espacial el hombre logró enviar al espacio
múltiples naves dotadas de instrumentos para realizar misiones de
exploración de los planetas del Sistema Solar. Tanto las naves como los
instrumentos fueron totalmente automatizados, sin presencia ni
participación de astronautas.
La exploración de los planetas se realizó con diversos métodos. Para ello,
las naves algunas veces solamente pasaban en la cercanía de los planetas;
y algunas otras, las naves tenían una permanencia relativamente larga en
órbita planetaria.
En el caso de la exploración de los planetas de suelo sólido, se usó además
el método de impacto con el suelo planetario, utilizando instrumentos para
la exploración del mismo y del medio ambiente. Se usó también, desde la
nave en órbita, un descenso suave de una "cápsula"6
o un "lander"7
que se depositaba en el suelo planetario y ejecutaba la exploración también
mediante instrumentos automatizados.
En los planetas gaseosos o líquidos como Júpiter, Saturno y Urano la
exploración se realiza básicamente desde las alturas de las atmósferas
planetarias.
Los instrumentos a bordo de las naves de las cápsulas, de los "landers" o de
los globos se utilizaron principalmente para la exploración de las atmósferas
y su composición, así como del campo magnético, la magnetósfera, los
Anillos de Van Allen, los vientos planetarios, la interacción con el viento
solar y la presencia de rayos cósmicos.8
14
Otros de los instrumentos de exploración utilizados fueron los relacionados
con los que exploraban las superficies planetarias, los satélites de dichos
planetas, los asteroides y meteoritos. También las naves estaban equipadas
con instrumentos indispensables para la telecomunicación con la Tierra
radio, imagen televisiva y por supuesto, aparatos para la toma y envío de
datos y fotografías.
Y para terminar con los métodos de exploración planetaria el hombre
aprovechó los "instrumentos naturales". Usó la fuerza de gravedad de
algunos planetas para impulsar y encaminar las naves hacia otros planetas,
ya sea para enviarlas en dirección perpendicular a la eclíptica o bien para
dirigirlas hacia la frontera del espacio interplanetario, —hasta ahora
desconocida— y para que éstas posteriormente se adentraran en el espacio
interestelar.
La exploración de los planetas se realizó por medio de las naves espaciales
de la URSS y de los Estados Unidos empezando con los planetas más
cercanos al Sol, a saber Venus, Marte y Mercurio y terminando con Júpiter,
Saturno y Urano, que se encuentra a unos 3 000 millones de kilómetros de
distancia del Sol. La exploración de los primeros se realiza entre 1961 y
1984, mientras que de los segundos entre 1972 y 1986.
La exploración de Venus, Marte y Mercurio
La serie de naves soviéticas Venera que exploraron Venus lograron en orden
cronológico: el primer acercamiento a Venus; el impacto con el suelo
venusiano; el descenso de una cápsula dotada de un paracaídas y
finalmente la colocación de la nave en órbita venusiana y el subsecuente
descenso a la superficie venusiana de un "lander".
Además en 1984 la URSS envía las naves Vega 1 y Vega 2 hacia Venus,
mismas que, como veremos, exploraron el cometa Halley dejando, cada
una, un globo dotado de instrumentos para la exploración de la atmósfera.
Los Estados Unidos en cambio envían primero a Venus los Mariner 2 y
Mariner 10, que pasan a miles de kilómetros del planeta. En 1978 enviaron
un orbitador9
venusiano, el Pionero-Venus, que mediante un radar
exploró la atmósfera y realizó el estudio de la superficie por medio de
cuatro sondas, dos del lado día y dos del lado noche.
La exploración de Marte se realizó entre 1965 y 1974 mediante tres naves
estadunidenses Mariner y siete naves soviéticas Marte. Los Mariners se
limitaron al acercamiento al planeta mientras que la serie de naves de la
URSS iniciaron su exploración colocándose en órbita y descendiendo después
lentamente a la superficie marciana.
Mercurio, el planeta más pequeño y cercano al Sol fue explorado en 1973
por el Mariner 10, que pasó tres veces cerca de este planeta fotografiando y
enviando los datos a la Tierra.
Exploración de Júpiter, Saturno y Urano
Estados Unidos fue el único país que exploró Júpiter, Saturno y Urano. Para
ello se utilizaron las naves Pionero 10 y 11 y Voyager 1 y 2. Nótese que la
exploración de estos planetas —en contraste con los cercanos al Sol— se
15
basa en datos no siempre directos debido ante todo al hecho de que las
naves no se pueden adentrar en las regiones más internas de los planetas.
La exploración de Júpiter comienza con Pionero 10 lanzado en marzo de
1972 desde Cabo Kennedy. Después de once horas de vuelo cruza la órbita
lunar y entra en la zona de los anillos de asteroides —que se encuentra
entre Marte y Júpiter— la que atraviesa durante siete meses. Nueve meses
más tarde inicia la exploración de Júpiter a una distancia de 209 600
kilómetros del planeta. La comunicación con la Tierra se logra mediante una
antena que cuenta con un sensor solar como fuente de energía. El Pionero
10 abandonó Júpiter después de siete días de exploración. Se espera que
cruzará la órbita de Plutón, y seguirá a lo largo de la eclíptica para
posteriormente abandonar el Sistema Solar. Por su lado, la nave Pionero 11
—después de un viaje de 20 meses— llegó a Júpiter a fines de 1974, donde
penetró hasta 36 800 kilómetros dentro de las nubes, desde donde exploró
muchas de las características de Júpiter, superando lo realizado por Pionero
10.
Terminando la exploración de Júpiter, e1 Pionero 11, también llamado
Pionero-Saturno llegó a Saturno en 1979, después de recorrer
aproximadamente tres millones de kilómetros en el espacio. La nave logró
el mayor acercamiento al planeta al llegar hasta 20 000 kilómetros de
profundidad debajo del techo de nubes. Terminando la misión, la fuerza de
gravedad del planeta impulsó a la nave en la dirección perpendicular a la
eclíptica.
El mayor acercamiento de los Voyager 1 y 2 a Júpiter ocurre entre marzo y
agosto de 1979 o sea unos 20 meses después de sus lanzamientos. Los
grandes descubrimientos logrados mediante estas naves fueron observados
en pantallas televisivas tanto en Estados Unidos como en México.
Terminando la exploración, que duró más de 100 días, se logró enviar a la
Tierra un número extraordinario (de 250 mil millones de bits) de datos.
Realizada la misión en unos 100 días, se utilizó la fuerza de gravedad de
Júpiter para dirigir los Voyager hacia Saturno, logrando así el encuentro con
este planeta en agosto de 1980, exploración que termina en diciembre del
mismo año. Acabada la misión, el Voyager 1, seguirá su camino a lo largo
de la eclíptica, para llegar a la heliopausa; cruzando esta frontera —aún
desconocida— la nave tomará el rumbo del espacio galáctico.
Por otro lado y aprovechando una situación coyuntural, la que sólo ocurre
una vez cada ,175 años, se logró mediante el uso de gravedad de Saturno
encaminar al Voyager 2, hacia Urano.
Así, después de ocho y medio años de viaje a través del espacio
interplanetario esta nave se acercó en enero de 1986 a 107 000 kilómetros
de este planeta, y durante 5 meses realizó la exploración del mismo.
La transmisión a la Tierra de fotografías y datos obtenidos tomó dos horas y
45 minutos, siendo la distancia entre Urano y Tierra del orden de 294 mil
millones de kilómetros. Para mejorar la transmisión de las señales
provenientes del Voyager 2, se instalaron unas nuevas antenas parabólicas
en Australia, España, California y en los Estados Unidos.
16
Después de terminar la misión, el Voyager 2 cruzará la heliopausa para
iniciar una historia de navegación a través del espacio interestelar.10
LA EXPLORACIÓN DE LA LUNA
La exploración de la Luna sin duda es hasta la fecha una de las hazañas
espaciales más extraordinarias del hombre. En ella participaron tanto las
naves norteamericanas como las soviéticas.
La exploración de la Luna por parte de los Estados Unidos se inició en 1961
con dos tipos de misiones: las que se realizaron por medio de naves
automatizadas y que podríamos llamar "auxiliares": los Rangers, los
Surveyors y los orbitadores lunares. Estas misiones auxiliares sirvieron de
apoyo a la serie fundamental —y de todos conocida— de las 18 naves
Apolo. Como veremos más tarde, la exploración de la Luna por parte de los
soviéticos se hizo mediante 24 naves, totalmente automatizadas conocidas
con el nombre de Lunas.
Las misiones de los Rangers estadounidenses y que comenzaron —como
decíamos— desde 1961, consistían en una especie de hara-kiri: las naves
se iban acercando a la Luna hasta impactarse y destruirse contra el suelo
lunar. Durante los últimos 10 minutos anteriores a la colisión, lograban
fotografiar la superficie del satélite y enviar las imágenes a la Tierra.
Las misiones de los orbitadores lunares duraron muy poco por fallas
ingenieriles. Sus misiones —desde la órbita lunar— eran nuevamente
fotografiar la superficie para las futuras y apropiadas zonas de alunizaje de
las naves Apolo y de los Surveyors. Esto comenzó en agosto de 1966 para
terminar en 1967.
Casi paralelamente, en mayo de 1966, se inician también las misiones de
exploración de las naves Surveyors, que entraron en órbita lunar
cumpliendo con proyectos de exploraciones ingenieriles y científicas así
como de toma de imágenes. La finalidad de estas exploraciones era también
la selección de las zonas más adecuadas para el alunizaje de las naves
Apolo. Para ello, estas naves utilizaron el método de descenso suave a la
superficie lunar. En estas mismas misiones se realizaron también algunas
excavaciones del suelo lunar para su análisis químico.
Otro de los elementos auxiliares para el proyecto Apolo fueron los satélites
tripulados Gemini, de órbita baja, que cumplían con diversas misiones, de
las cuales sólo algunas estaban asociadas al proyecto Apolo. Se centraron
en la exploración de las "condiciones de acoplamiento" entre naves, mismas
que se esperaba después lograr entre el módulo lunar,11
que bajaría a la
Luna, y la nave Apolo, que se quedaría en órbita lunar.
El programa se inició en l966, con la serie de seis naves Apolo totalmente
automatizadas y sin tripulación a bordo. Sus principales misiones fueron las
pruebas ingenieriles de funcionamiento de cohetes de la nave y de descenso
y ascenso del módulo lunar.
Los vuelos tripulados comenzaron con el Apolo 7, en el que los astronautas
realizaron —desde la nave— las pruebas del funcionamiento de la misma y
experimentaron con el sistema de rastreo, comando y comunicación.
También se llevaron a cabo experimentos médicos sobre la
17
desmineralización de los huesos y los cambios celulares de la sangre de los
astronautas.
El Apolo 8 fue la primera nave que además de ser tripulada, pudo
permanecer en la órbita lunar durante 20 horas. Ya con las naves Apolo 9 y
10, los astronautas realizaron pruebas ingenieriles en el módulo lunar y
pruebas de alunizaje de los astronautas. Finalmente, estas naves hicieron
un vuelo de ocho horas en el que los astronautas permanecieron en el
módulo orbitando la Luna, a la altura de 14 km sobre la superficie de
nuestro satélite.
No fue sino hasta julio 20 de 1969, cuando el Apolo 11 se cubre de gloria
por lograr el primer descenso del hombre a la superficie lunar. Esta misión
tuvo también como objetivo la exploración del suelo de la Luna, sus
características y del medio. Así el Apolo 11 mostró la capacidad del hombre
de salir al espacio, trabajar en éste para regresar después sano y salvo a la
Tierra.
Las siguientes misiones de la serie Apolo se concentraron en exploraciones
seleneológicas y la exploración y colección de muestras del suelo lunar,
incluyendo aquellas que fueron traídas a la Tierra. Además se estudiaron las
variaciones gravitacionales de la Luna, el medio lunar, la penetración del
viento solar, la presencia de protones, iones y electrones en el espacio lunar
y las actividades sísmicas de la Luna. Fueron muy importantes también las
exploraciones del ambiente lunar, mismas que se lograron por la interacción
del hombre con el vehículo de transporte "Rover", con éste, los astronautas
podían trasladarse a distintas partes de la Luna.
El proyecto termina en 1975 con el lanzamiento de la nave Apolo 18 y la
permanencia temporal de astronautas en el suelo lunar. En este último
proyecto participaron también los soviéticos. Con el amarizaje en el Océano
Pacífico y el exitoso regreso de los astronautas a la Tierra, concluyen las
enriquecedoras misiones de la serie Apolo.
En contraste con la exploración estadounidense de la Luna, la Unión
Soviética se basó en naves e instrumentos robotizados.
La exploración de la Luna, mediante 24 naves llamadas Luna la iniciaron los
soviéticos en 1959 con el lanzamiento de Luna 1, la que pasó a 6 500 km
de nuestro satélite mientras iba coleccionando fotos del mismo y
enviándolas a la Tierra.
La nave Luna 2 chocó con el suelo lunar pero logró una exploración
mediante instrumentos que mostraron la ausencia en nuestro satélite de las
radiaciones de los Anillos de Van Allen. La Luna 3 pasó a 7 000 km, de la
Luna, logrando fotografiar su lado obscuro.
Entre 1963 y 1965 se lanzaron cinco naves; todas éstas intentaban
descender suavemente en la Luna: algunas no lo lograron porque se
alejaron demasiado y otras porque chocaron con la superficie lunar.
La nave 9 lanzada en 1966 y enviada a la órbita lunar, alrededor de la cual
orbitó 460 veces, seleccionó durante un semestre datos circunlunares que
envió a la Tierra. En cambio, Luna 10 logró un estudio mediante
instrumentos y descubrió que el campo magnético de la Luna es muy débil
18
y que alrededor de ésta existe una ínfima densidad de micrometeoroides.
Las siguientes misiones de las naves Luna se concentraron en datos
científicos tales como la densidad del suelo, el campo gravitacional de la
Luna y las relaciones masa-Tierra-Luna. Para conocer la tercera dimensión
del suelo lunar se utilizó un taladro automático que penetró hasta 35 cm de
profundidad del suelo, enviándose 100 gr de muestras lunares a la Tierra.
La robotización de las naves e instrumentos soviéticos en la exploración
lunar, desempeñó un papel fundamental para el mayor conocimiento de la
Luna.
En noviembre de 1970 se logró el descenso al suelo lunar, por medio de
una rampa, del vehículo robotizado Lunakhod, que contó con un radio que
transmitió y recibió las instrucciones, dos sistemas de televisión para lograr
imágenes panorámicas, cámaras fotográficas, un sistema de antenas,
telescopio de rayos x, detectores de protones, electrones y partículas alfa.
La misión del Lunakhod 2 fue similar a la del anterior Lunakhod, pero viajó
a través de zonas accidentadas y a lo largo de distancias más grandes. Por
ello el Lunakhod 2 pudo obtener un mayor número de datos.
La exploración de la Luna por los soviéticos terminó en 1976 con las
misiones de las naves 22, 23 y 24 de la serie y que se abocaron a la
exploración de la Luna desde la órbita. Así terminan estas interesantes
misiones soviéticas robotizadas.
EL COMETA HALLEY
En su larga historia de 30 viajes alrededor del Sol, en noviembre 27 de
1985 el cometa Halley se encontró con una serie de naves espaciales
esperando su aparición.
19
Figura 6. Cometa Halley, explorado por medio de satélites de diferentes países.
Entre éstas figuraba el Giotto de la ESA (Agencia Espacial Europea), los dos
satélites japoneses Sakigake y Suisei, la nave internacional ICE y las dos
naves rusas Vega 1 y Vega 2, una de las cuales, como ya lo mencionamos,
antes de llegar al Halley pasó cerca de Venus dejando en la superficie del
planeta un "lander" y dos globos (Figura 6).
Tomemos como ejemplo la exploración realizada por las dos naves
espaciales Vega 1 y Vega 2, en la que cooperaron los Estados Unidos con la
Unión Soviética.
En menos de dos horas las naves Vega atravesaron el cometa a 280 000
km/seg cruzando la cola del cometa y acercándose hasta unos 5 000
kilómetros del núcleo. Este cuerpo sólido en forma de una papa, resultó ser
el objeto más oscuro del Sistema Solar.
El Sol, al calentar el material del núcleo, da lugar a que se emita un gas con
pequeñas partículas de polvo. La lista de elementos de la cola incluye entre
otros CN, C, CH, H20, NH2 y HCN; se detectó también que la componente
principal del gas ionizado está formada por agua.
Además, con los aparatos a bordo se descubrió también la presencia del
plasma y de una onda de choque que se extiende a un millón de kilómetros.
Para resumir, de la exploración del Halley se concluye que los cometas son
pequeños cuerpos de polvo y hielo, que quedaron de la temprana formación
del Sistema Solar.
20
El calentamiento del cometa en la cercanía del Sol y la aureola que se forma
alrededor del núcleo es en parte responsable de toda la mística de siglos
que se asocia a los cometas.
NOSOTROS EN LA ERA ESPACIAL
Nos gustaría presentarles el panorama actual de las actividades espaciales
en nuestro país.
La Universidad Nacional Autónoma de México forma cuadros de alto nivel
académico en múltiples disciplinas espaciales, tanto en ciencias básicas y
aplicadas especiales, como en sociales. Recientemente la UNAM está
desarrollando tecnología espacial;12
al mismo tiempo, atiende sus
necesidades haciendo uso de la infraestructura tecnológica espacial ya
existente en el país.
También, dentro de sus actividades espaciales, participa el sector
gubernamental y algunas otras instituciones del país. Veamos esto con más
detenimiento.
El sector universitario
La trayectoria espacial de la UNAM, se inicia en 1962 con la fundación del
Departamento del Espacio Exterior —hoy Departamento de Física Espacial—
en el Instituto de Geofísica. Además, en esa fecha se integró al Plan de
Estudios de la Facultad de Derecho, la cátedra de derecho en aeronáutica y
astronáutica. Actualmente, el Instituto de Geofísica ofrece cursos de
maestría y doctorado en Física Espacial.
Conviene señalar que las ciencias espaciales básicas, como la Física Espacial
del Sistema Solar y la Astrofísica, se desarrollan exclusivamente en los
Institutos de Geofísica y el de Astronomía de la UNAM.
La climatología y meteorología satelitarias se realizan en el Centro de
Ciencias de la Atmósfera de la UNAM.
Diversos institutos de la UNAM utilizan los datos obtenidos de percepción
remota: el instituto de Geografía, el Instituto de Geología, la Facultad de
Ciencias, el Instituto de Ciencias del Mar y Limnología, el Instituto de
Investigaciones en Matemáticas Aplicadas y en Sistemas, y el Instituto de
Geofísica. Sólo en los últimos se investiga sobre ella y en el de Geofísica se
imparten cursos de posgrado sobre percepción remota.
La tecnología, que comprende por ejemplo el diseño de construcción de
antenas parabólicas, se realiza en el Centro de Instrumentos, y el desarrollo
de sistemas de codificación, para la comunicación satelitaria, en la Facultad
de Ingeniería.
Grupo Interdisciplinario de Actividades Espaciales (GIAE)
Por otro lado, el Grupo Interdisciplinario de Actividades Espaciales de la
UNAM, fundado en 1985 por la Rectoría, coordina proyectos en ciencias
básicas aplicadas y sociales y de tecnología satelitaria con muchos de estos
institutos y con otras instituciones de investigación y tecnológicas del país.
21
Uno de sus principales proyectos es la realización de experimentos
espaciales automáticos para ser realizados en estado de microgravedad y
vacío relativo. Otro de los proyectos de gran importancia del GIAE es el
diseño y construcción de un satélite experimental de colección y envío de
datos en el que participan algunas cifras instituciones científicas del país.
Además, está especialmente interesado en la formación de recursos
humanos en el área espacial. Desarrolla investigaciones sobre la
comunicación satelitaria y sobre la repercusión social de la era espacial,
tanto en México como en Latinoamérica. Estos últimos proyectos los realiza
en coordinación con las facultades de Ciencias Políticas y Sociales y la de
Filosofía y Letras.
Asimismo, el GIAE cuenta con proyectos de cooperación latinoamericana de
tecnología espacial.
El sector estatal
Dentro del sector estatal son cuatro las secretarías implicadas en las
actividades espaciales; a saber: la Secretaría de Relaciones Exteriores
(SRE), la Secretaría de Comunicaciones y Transportes (SCT), el Instituto
Nacional de Estadística, Geografía e Informática (INEGI), dependiente de la
Secretaría de Programación y Presupuesto, y la Secretaría de Agricultura y
Recursos Hidráulicos (SARH).
Desde el advenimiento de la era espacial, la SRE juega un papel importante
en lo que se refiere al derecho internacional del espacio. Se ha
caracterizado por su clara pronunciación para que éste sea utilizado con
fines pacíficos y por su insistencia en el desarme mundial. También esta
Secretaría cuenta con la Dirección General para la Organización de las
Naciones Unidas que se encarga de establecer relaciones con la División de
Asuntos del Espacio Exterior de la ONU.
La Secretaría de Comunicaciones y Transportes (SCT) se ocupa de las
comunicaciones mediante satélites en México. Maneja el sistema de
telefonía, telex y televisión a través del Sistema Morelos, desde su
adquisición en 1985. La estación de control y telemetría está ubicada en
Iztapalapa, Distrito Federal. Por otro lado, cuenta desde 1968 con la
estación terrena en Tulancingo para la comunicación satelitaria
internacional, utilizando el Sistema Intelsat13
También imparte esta
Secretaría cursos sobre comunicaciones, basados generalmente en
tecnología importada en la Escuela Nacional de Telecomunicaciones.
El Instituto Nacional de Estadística y Geografía (INEGI) y la Secretaría de
Agricultura y Recursos Hidráulicos (SARH) utilizan datos satelitarios para la
exploración y conocimiento de los recursos naturales nacionales.
El INEGI se dedica principalmente a la elaboración, cartográfica y al
procesamiento de imágenes digitales.
La SARH, por su parte, cuenta con el Servicio Meteorológico Nacional (SMN)
a través de su estación receptora de imágenes de los satélites
meteorológicos Geos y Tiros. Éstos proporcionan gratuitamente su servicio
por medio de la Organización Mundial Meteorológica. Igualmente hacen uso
22
de la PR (percepción remota) para estudiar y evaluar los índices de
desforestación del país.
El servicio que presta la SARH, a través del Sistema Meteorológico Nacional,
resulta de gran utilidad para el Servicio Aeronáutico Nacional (SENEAM).
Instituto Politécnico Nacional
El Instituto Politécnico Nacional (IPN) se dedica principalmente al desarrollo
de antenas y equipo terreno de recepción de señales de satélites. Imparte a
su vez cursos de licenciatura y maestría en comunicaciones eléctricas y
electrónicas del área espacial. El Departamento de Física y Matemáticas del
IPN desarrolló modelos matemáticos para control de la estabilidad en órbita
del Morelos I.
Instituciones regionales
En la provincia mexicana existen instituciones dedicadas al área espacial
que se circunscriben a actividades concretas y regiones específicas.
En Jalapa, Veracruz, se encuentra el Instituto de Investigaciones de
Recursos Bióticos (INIREB) que utiliza imágenes de percepción remota para
estudiar el clima y la vegetación tropical.
En el Centro de Investigaciones Científicas y Estudios Superiores de
Ensenada, Baja California (CICESE) se realizó un plan de telefonía rural
regional y se creó el primer laboratorio nacional de electrónica para
comunicaciones espaciales y estaciones terrenas de baja capacidad para
recepción de imágenes del satélite Morelos. Se ofrecen cursos de maestría y
doctorado y comunicaciones.
En Cuernavaca, Morelos, el Departamento de Comunicaciones del Instituto
de Investigaciones Electrónicas (IIE) ha realizado diversas actividades
espaciales: un programa de computadoras para diseño de redes de
comunicación vía satélite, el diseño de una antena parabólica y un
programa para la automatización de mediciones del Sistema Morelos.
Si bien el panorama general de las actividades espaciales en México no es
muy desarrollado, también es cierto que cuenta con una base científica
espacial bastante fuerte que tiene las condiciones para un desarrollo
tecnológico propio. De allí nuestro interés en que los jóvenes participen y
reconozcan la importancia del quehacer espacial en nuestro pais, además,
de lo atractivo que puede resultar el trabajar en esta área de vanguardia.
EL PRESENTE Y EL FUTURO DE LA ERA ESPACIAL
Para completar la información sobre el uso del espacio; nos gustaría señalar
cuáles son las corrientes recientes en esta rama y los futuros proyectos
espaciales.
Los vehículos de transporte espacial y el sistema de la primera estación
permanente
En 198l, los Estados Unidos iniciaron los vuelos de transbordadores:
vehículos espaciales tripulados de gran capacidad de carga, que se colocan
23
y permanecen unos siete días en órbita, a una altura de 300 km, antes de
su retorno a la Tierra.
Los transbordadores cuentan con un compartimento de carga —que puede
abrirse al espacio— y desde el cual se pueden lanzar los satélites y
enviarlos a su órbita,14
realizar ejercicios extravehiculares, así como
experimentos expuestos al medio espacial. La nave cuenta también con un
espacio interior para la tripulación y para los llamados "expertos de carga",
quienes son los responsables de la realización de experimentos científicos.
Después de múltiples lanzamientos de transbordadores estadounidenses,
los vuelos fueron suspendidos en 1986, por el lamentable accidente
sucedido al Challenger.
En ese mismo año, los soviéticos lanzaron al espacio la primera estación
permanente MIR, que orbita la Tierra a 340 km de altura. Esta estación,
hasta ahora la única en su género, cuenta con una capacidad de
acoplamiento con 6 naves espaciales. Dicho enlace puede lograrse
automáticamente o mediante la acción del hombre.
La estación permanente MIR es parte de un sistema que cuenta con dos
tipos de naves auxiliares que tienen distintas funciones. El Soyuz M
tripulado, que ya una vez acoplado cumple con la misión de permanecer
algún tiempo en la estación intercambiando astronautas y experimentos,
para posteriormente regresar a la Tierra. En cambio, las naves Progreso
tienen como función la revitalización y abastecimiento de la estación
permanente. Para ello, logran el acoplamiento automático y retornan
también automáticamente a la Tierra.
MIR cuenta con cubículos para astronautas, un comedor y diversos espacios
dedicados a la realización de experimentos científicos y obtener datos
fotográficos. Actualmente, en la estación suelen permanecer dos
astronautas unos diez meses, quienes realizan experimentos tanto dentro
como fuera de la estación.
Figura 7.
24
Figura 8.
Experimentos en estado de microgravedad y vacío
Entre los experimentos actuales figuran el posible aprovechamiento de las
condiciones del estado de microgravedad y vacío que ofrece el espacio a las
naves espaciales en órbita terrestre. Tal es el caso de los transbordadores y
del MIR.
Estas naves logran por ejemplo la perfecta aleación de múltiples metales,
así como la excelencia de fármacos.
En la Tierra estos procesos distan de ser perfectos por la fuerza de
gravedad, las corrientes convectivas y los contactos con el crisol, que
provocan que dichas aleaciones sean impuras.
Los proyectos futuros de la era espacial
Hasta aquí hemos descrito brevemente algunos de los proyectos espaciales
ya realizados o en marcha. Pero la investigación por medio de satélites
contempla proyectos aún más ambiciosos a futuro, como ejemplo
mencionaremos el proyecto que existe para ser realizado a fines de los 80 y
principios de los 90 y que consiste en un estudio exhaustivo sobre el estado
actual de la Tierra, de su medio, sobre los elementos cambiables con el
tiempo y sobre los que el propio hombre induce.
Así también existen proyectos espaciales a largo plazo pero que se perfilan
en un futuro relativamente cercano.
Para asegurar las fuentes de energía para la Tierra, se planea un "sistema
de satélites de energía solar", que coleccionarían y enviarían la energía
solar a la Tierra. Este proyecto resultaría factible, siempre y cuando se
pudiera solucionar el deterioro del medio espacial inducido por los
materiales de propulsión de dichos satélites. Se propone también la
elaboración en el espacio de estructuras altamente ligeras para usos
múltiples.
Se planea además el envío y utilización de minerales de Marte y de la Luna,
ante todo los que escasean en la Tierra, como es el aluminio y el uranio. Se
25
prevé también el establecimiento de estaciones de lanzamiento de naves
espaciales desde la Luna y desde Marte.
Entre los proyectos a largo plazo, figura una renovada exploración de los
planetas y sus satélites, para estudiar no sólo sus características actuales,
sino también los elementos de su deterioro.
Finalmente, se prevé en un futuro no muy lejano la construcción e
instalación de múltiples estaciones espaciales en donde, se creen
artificialmente las condiciones necesarias para que el hombre pueda vivir.
De ahí los proyectos de agricultura espacial y la posibilidad de que nazcan
niños en estos hogares. De ahí surge esta pregunta ¿por qué antes de
pensar en hogares en el espacio, no tratamos de proteger y cultivar más la
Tierra?, ciertamente el planeta más bello e importante para nosotros.
26
I I .
E L
S O L
Y
S U
D O M I N I O
EL NUEVO MUNDO QUE SE VA A EXPLORAR
SILVIA BRAVO*
EL SOL se encuentra a 150 millones de kilómetros de la Tierra, una distancia
tan grande que cabrían en ella más de 10 000 Tierras. Es una estrella más o
menos joven, de mediano tamaño y de luminosidad mediocre, que en el
marco general de la población estelar no tiene nada de especial. Sin
embargo, a los habitantes de su planeta, la Tierra, su familiar imagen, su
regular aparición sobre el horizonte nos hace sentir seguros del mañana y
no podemos dejar de considerarlo hermoso.
El Sol, como fuente de luz y calor, fue reconocido seguramente desde
tiempo muy remoto, desde que el hombre adquirió conciencia de lo que le
rodeaba. Los antiguos humanos adoraron al Sol como un dios en todas las
culturas, conscientes de que sin él la vida sería imposible. Pero el hombre
tardó muchos siglos en darse cuenta de que el Sol hace algo más que
enviar calor y luz a la Tierra. Hace apenas tres siglos que, gracias a los
trabajos sobre la gravitación realizados por Newton, la humanidad aprendió
a ver también al Sol como el origen de la fuerza que mantiene a nuestra
Tierra y a muchos otros cuerpos celestes en órbita alrededor de él. Sin la
fuerza gravitacional del Sol, la Tierra y todos los cuerpos del Sistema Solar
escaparían, perdiéndose en los negros confines de un espacio inhóspito. Así,
el Sol mantiene unidos a él, girando armoniosamente, a un gran conjunto
de cuerpos entre los que están los planetas y sus satélites, un gran número
de asteroides y una infinidad de cometas, que juntos constituyen el Sistema
Solar.
Figura 9. Grupo de manchas solares (zonas oscuras) mostrando la granulación
convectiva.
Desde que Galileo apuntó su telescopio al Sol hace casi cuatrocientos años,
éste dejó de ser sólo un objeto mítico o un centro geométrico para
27
convertirse en un objeto físico digno de un estudio científico. El
descubrimiento de las manchas solares representó para algunos una
desilusión —¡el Sol no es perfecto!—. Pero para otros representó un reto a
la investigación. ¿Qué son las manchas solares? ¿Cómo se producen ¿Cómo
y por qué evolucionan? Significó el descubrimiento de la gran actividad en la
superficie del Sol, la posibilidad de medir su altísima temperatura y
observar su campo magnético. La inferencia de la existencia de un gran
reactor natural de fusión en su núcleo, y la búsqueda de explicaciones
físicas coherentes para los procesos que en él se dan, abrieron para el
hombre un vastísimo campo de investigación en el cual todavía hay camino
por andar.
Se sabe ya que la actividad del Sol es periódica, con épocas de gran
actividad seguidas por épocas de calma en ciclos de aproximadamente once
años. La aparición, desplazamiento y final desaparición de las manchas
solares son un buen fenómeno indicativo de esta actividad. El Sol, por ser la
estrella más cercana, representa además un botón de muestra de los
procesos que se deben estar dando en los miles de millones de estrellas que
componen nuestro Universo. Y es un gran laboratorio para el desarrollo de
varias de nuestras teorías fundamentales del mundo físico.
Para el hombre de hace 30 años, el Sol era un enorme cuerpo masivo que
mantenía una gran corte a su alrededor. Un gran horno nuclear lleno de
actividad que prodigaba calor y luz y muchas otras formas de radiación
electromagnética. La radiación electromagnética que emite el Sol ocupa
todo el rango de frecuencias, desde los energéticos rayos gamma, hasta las
enormes ondas de radio, pasando por el intervalo de luz visible y los rayos
infrarrojos y ultravioleta. Algunas de estas radiaciones son nocivas para la
vida, pero nuestra atmósfera nos proporciona una coraza protectora que
sólo permite la llegada a la superficie de la Tierra de dos tipos de
radiaciones: la radiación visible (la luz), con algo de ultravioleta e infrarrojo,
y cierto rango de microondas. El hombre de hace 30 años sabía muy bien
esto y se alegraba de vivir en la superficie y de haber pertenecido a la
especie afortunada que generó ojos para ver uno de estos dos tipos de
radiaciones y ser favorecido en la selección natural respecto a otras
especies que quedaron en tinieblas.
Pero el hombre de hace 25 años ya sabía algo más. Con el advenimiento de
la era espacial, los sentidos del hombre pudieron orientarse hacia el
espacio. Y aunque no se esperaban mayores sorpresas, la era espacial ha
cambiado muy profundamente la imagen que el hombre tenía del mundo
que lo rodea cuando sólo lo observaba desde la Tierra. Así, hace más de 25
años que el hombre pudo, gracias a sus exploradores espaciales, detectar la
existencia del viento solar. Supo que el Sol, además de emitir radiación
electromagnética, emite partículas en forma continua. Un velocísimo viento
de 400 kilómetros por segundo fluye constantemente por el medio
interplanetario procedente del Sol. Este viento solar no es más que la
continua expansión de la corona (la parte más alta de la atmósfera solar), la
cual es demasiado caliente para poder ser retenida por el campo
gravitacional del Sol. El viento solar, que a la altura de la Tierra tiene una
densidad del orden de 10 partículas por centímetro cúbico, consiste
principalmente de hidrógeno ionizado, esto es, protones y electrones libres
de la unión atómica y mezclados en lo que se conoce como un plasma. Este
plasma, un trillón de veces más tenue que nuestra atmósfera, es capaz de
28
trasmitir hacia el espacio interplanetario muchas de las características de la
actividad solar hasta una distancia mayor que la órbita de Plutón. Su
alcance delimita lo que se conoce como heliósfera y su continuo fluir es
responsable en gran medida del llamado clima heliosférico.
Una de las características más impresionantes de este viento solar es su
capacidad de deformar y confinar el campo magnético de los planetas que
lo tienen, como la Tierra, en cavidades alrededor del planeta; impidiendo su
extensión en el medio interplanetario. Estas cavidades, llamadas
magnetósferas, no pueden ser observadas ópticamente y su descubrimiento
y mapeo es posible solamente por medio de mediciones magnéticas in situ
proporcionadas por vehículos espaciales. Estas magnetósferas sirven a su
vez de corazas protectoras del viento solar que impiden que éste penetre
hacia los planetas que las poseen, como es el caso de nuestra Tierra.
Júpiter, con un campo magnético 19 000 veces más intenso que el de la
Tierra tiene una magnetósfera mucho mayor. Saturno, Urano y Neptuno
tienen magnetósferas de tamaños intermedios entre la de la Tierra y la de
Júpiter. Al pequeño Mercurio se le ha descubierto también una
magnetósfera y éstos parecen ser los únicos planetas que las tienen, pues
son los únicos que poseen campos magnéticos intrínsecos considerables. En
los planetas donde no hay campo magnético importante, el viento solar
choca directamente con la parte alta de la atmósfera, como en el caso de
Venus y posiblemente el de Marte. Y en cuerpos como los satélites, como la
Luna, que carecen en general de atmósfera, el viento solar golpea
directamente sobre su superficie.
Figura 10. Fotografía del Sol en H mostrando su granulación y una enorme
protuberancia.
El plasma emitido por el Sol es también responsable de los cinturones de
radiación atrapada que rodean a los planetas con campos magnéticos
importantes, y que en el caso de la Tierra son dos, llamados Cinturones de
Van Allen. Es también el causante de los bellísimos espectáculos conocidos
como auroras, que llenan de ondulantes cortinas de luz los cielos de las
regiones cercanas a los polos. Y es el viento solar también el que define la
orientación de las colas que los cometas adquieren al pasar cerca del Sol,
las cuales se orientan radialmente hacia afuera a lo largo de su órbita.
29
Pero no sólo sabemos más del Sol ahora que hemos entrado en la era
espacial. Nuestro conocimiento de los planetas mismos también se ha
beneficiado con las técnicas que han sido desarrolladas en los últimos 30
años. Hace más de 400 años, Copérnico había ya reconocido al Sol como
centro de nuestro sistema y ordenado alrededor de él a los seis planetas
más cercanos Mercurio, Venus, Tierra, Marte, Júpiter y Saturno, los cuales
son observables a simple vista. Urano, Neptuno y Plutón debieron esperar al
telescopio para poder ingresar legalmente a la familia. La Luna, reconocida
ya como satélite de la Tierra, fue observada por Galileo a través de un lente
hace casi cuatrocientos años, descubriendo grandes irregularidades en su
superficie, algunas de las cuales se llamaron "mares" por considerarlas
cuencas llenas de agua. La Luna fue el primer cuerpo exterior al que se
envió un vehículo espacial y el único hasta ahora fuera de la Tierra donde el
hombre ha dejado su huella.
Ahora sabemos que nuestro satélite es un mundo desolado, sin aire ni agua
y aparentemente sin ningún tipo ya de actividad interior. Sus "mares" son
sólo cuencas vacías y su superficie, marcada por hondos cráteres y altas y
agudas montañas, cubierta totalmente de arena, nos muestra un mundo
inhóspito donde no pueden existir ni las formas más simples de vida. Con
un campo gravitatorio de alrededor de un sexto del de la Tierra, ha perdido
su atmósfera y con ello su capacidad de almacenar calor y mantener una
temperatura relativamente constante. Debido a esto, la superficie de la
Luna se encuentra por encima del punto de ebullición del agua durante el
día y su temperatura desciende a 140°C bajo cero durante la noche.
El análisis de las rocas lunares, traídas por los astronautas que han pisado
su suelo, revela una composición química y una historia geológica muy
diferente a la de la Tierra; por lo que ya no se cree en la posibilidad de que
alguna vez haya sido parte de nuestro planeta, como se pensó.
Pero aunque la huella del hombre sólo se ha estampado en la Luna, sus
vehículos exploradores han visitado ya casi todos los planetas.
Mercurio, por su diminuto tamaño y su cercanía al Sol, ha sido muy difícil de
observar telescópicamente en detalle. Pero cuando el vehículo espacial
Explorador X se acercó a él y envió imágenes de su superficie, se encontró
un mundo muy semejante a la Luna. Seco y sin atmósfera, con cráteres y
mares, con temperaturas de casi 400°C del lado día y cercanas a -200°C
del lado noche, Mercurio es aún más inhóspito que nuestro satélite. Siendo
su periodo de rotación dos terceras partes de su periodo de traslación
alrededor del Sol, el día mercuriano resulta ser más largo que su año y
como su eje es prácticamente perpendicular a la elíptica, las estaciones en
Mercurio se alternan por longitudes y no por latitudes como en la Tierra.
30
Figura 11. Un astronauta con su equipo de exploración sobre la superficie de la
Luna.
Venus, la estrella de la mañana que Galileo descubrió que era un cuerpo
opaco que sólo refleja la luz del Sol, es, a pesar de su bello aspecto, lo más
parecido a un infierno. Con una atmósfera de bióxido de carbono
sumamente densa, con lluvias corrosivas de ácido sulfúrico y tan caliente
que el hierro en la superficie está fundido, no sólo impide cualquier tipo de
actividad orgánica sino que ha estropeado muy rápidamente el
funcionamiento de los vehículos espaciales que se han logrado posar en su
superficie. Sólo los Venera rusos han logrado permanecer activos durante
un corto periodo, soportando una presión noventa veces mayor que la de la
Tierra y nos han dado a conocer las terribles condiciones ambientales de
este planeta que alguna vez fue considerado el gemelo de la Tierra.
Sondeos realizados por medio de radar han revelado la presencia de
abruptas cordilleras y hondos barrancos y han mostrado que Venus gira
alrededor de su eje una vez cada 245 días y en sentido contrario al de la
Tierra.
Marte, el pequeño planeta rojo, cuyos canales han hecho desbordar la
imaginación de los autores de ciencia ficción y han agitado el interés de los
científicos, es ahora un mundo bastante conocido. Las misiones espaciales
Mariner y Vikingo nos han mostrado un mundo muy distinto a lo que
sugerían
las
observaciones
telescópicas,
aunque
con
parajes
sorprendentemente similares a algunos desiertos de nuestro planeta. Marte
es un planeta árido y frío con casquetes de hielo carbónico, sin agua en su
superficie ni oxígeno en su ligera atmósfera y poseedor de la montaña más
alta que conoce el hombre, con más de tres veces la altura del monte
Everest. Su suelo rojizo, lleno de arenas y pedruscos se ve azotado por
veloces vientos que levantan grandes tormentas de polvo que pueden durar
varios meses. Ahora seco y aparentemente estéril se especula que tal vez
en el pasado pudo haber tenido condiciones adecuadas para mantener la
vida y se plantean posibilidades de volver a convertirlo en un mundo fértil.
Mercurio, Venus, la Tierra y Marte constituyen los planetas terrestres,
pequeños y de superficies sólidas, que son los que se encuentran más
cercanos al Sol. Más allá se encuentran los gigantes gaseosos, Júpiter,
31
Saturno, Urano y Neptuno, animados de rápidos movimientos de rotación y
cuyas atmósferas están constituidas principalmente de hidrógeno y helio —
aunque es posible que posean núcleos sólidos— de tipo terrestre. Las
misiones espaciales del hombre, Pioneer y Voyager, también nos han
ayudado a conocer mejor a estos enormes y lejanos parientes.
Figura 12. Fotografía de Júpiter mostrando la gran mancha roja de su atmósfera.
Júpiter, el hermoso gigante de nuestro Sistema Solar, que concentra más
del 70% de la masa planetaria, ha proporcionado las fotografías más bellas
que han resultado de las misiones espaciales. Es el único planeta que tiene
una cierta emisión de luz propia, semejante a una estrella, y posee una
superficie turbulenta y agitada, arrastrada por un movimiento de rotación
sumamente rápido que hace que un día en Júpiter dure menos de 10 horas.
El gran gigante anaranjado presenta tempestades violentísimas y
perturbaciones electromagnéticas intensas que descargan en forma de
relámpagos, y su conocida mancha roja, en el hemisferio sur, no es más
que un virulento torbellino cuyo origen aún se desconoce.
Los satélites de Júpiter, visibles casi todos ellos a través del telescopio,
revelaron grandes sorpresas cuando fueron observados de cerca por los
exploradores espaciales. Io, su satélite más cercano, posee una intensa
actividad volcánica que lanza bocanadas de gases sulfurosos a grandes
distancias. Europa y Calisto, otros dos de los grandes satélites de Júpiter,
están dando ahora mucho tema de estudio a los geólogos planetarios por
sus interesantes configuraciones superficiales. Júpiter tiene además otras
lunas pequeñas, como Amaltea, que hacen un total de por lo menos 14, y
un anillo tenue, como el de Saturno, que no es visible desde la Tierra.
Saturno, el planeta de los anillos, también nos ha sido acercado por los ojos
de los vehículos espaciales. El bello espectáculo que este planeta ofrece a
través de un telescopio, es aún superado por una visión cercana que nos
muestra la estructura de sus anillos extensos y planos, compuestos de
infinidad de rocas de hielo. Saturno, un gigante menos grande que Júpiter,
parece tener una atmósfera menos turbulenta y es de una densidad tan
baja que si se pudiera colocar en un gran estanque todo él flotaría. Tiene
por lo menos 10 satélites; el mayor, Titán, es el único satélite del Sistema
32
Solar que posee una atmósfera. Ésta está constituida principalmente de
nitrógeno, como la nuestra, y ha proporcionado tema para especulaciones
sobre sus posibilidades de generar vida en el futuro.
Urano, un apacible gigante verdoso, poseedor de 11 satélites y unos
hermosos aunque tenues anillos, ha resultado una sorpresa al descubrirse
que su eje de rotación está casi acostado sobre el plano de su órbita; La
reciente visita del Voyager 2, en enero de 1986, mostró que Urano tiene
también un campo magnético y un anillo semejante a los anillos de Van
Allen de la Tierra. Sin embargo, la inclinación tan grande entre su eje
magnético y su eje de rotación ha resultado una sorpresa y un misterio que
aún no ha podido resolverse. La variedad de características superficiales
que se observaron en sus satélites muestran historias geológicas muy
diversas e interesantes.
Más allá, Neptuno, el gigante gaseoso más lejano, es un mundo muy similar
a Urano, al cual se le conocen dos satélites y parece también tener anillos.
Y finalmente, Plutón, el extraño de la familia, es un pequeño planeta de tipo
terrestre que se cree que fue un satélite de Neptuno. Frío y sin atmósfera
se encuentra a su vez acompañado por un pequeño satélite y es poco aún lo
que sabemos de él.
Es indudable que ahora, el hombre conoce mucho mejor el espacio en el
que habita. Sabe que su Sol es sólo una de las miles de millones de
estrellas de una galaxia entre las miles de millones de galaxias que pueblan
nuestro Universo. Y en búsqueda del conocimiento de su entorno, ha
recurrido a su ciencia y a su capacidad técnica, a su valor y pericia, y ha
echado mano de todo tipo de posibilidades observacionales por medio de
telescopios ópticos, radiotelescopios, laboratorios espaciales, y aun
detectores de radiación cósmica, para explorar y comprender mejor la parte
del Universo donde le tocó nacer.
Desde los tiempos de la adoración primitiva hasta la época de los ojos
electrónicos de los viajeros espaciales, mucho hemos aprendido ya del Sol y
su dominio. El enorme ámbito de la familia planetaria del Sol nos es ahora
un paisaje familiar y el vasto Universo que se encuentra más allá ya no se
nos antoja inaccesible. Lo que alguna vez perteneció a la ciencia ficción no
sólo nos parece ahora posible, sino que nos resulta familiar. Y algún día tal
vez no muy lejano, la casa del hombre se extenderá hacia un espacio que
sentimos que ya nos pertenece. Pero podemos estar seguros de que a pesar
de nuestro espíritu aventurero, aún durante muchas generaciones más, este
hermoso planeta azul seguirá siendo "nuestro hogar en el espacio".
33
I I I .
L A
A T M Ó S F E R A
R O D E A
Q U E
N O S
CARLOS GAY*
EL INTERÉS por el aire que nos rodea se ha despertado en el común de la
gente no hace mucho tiempo. No resulta difícil explicarse este hecho; el
aire, siendo una mezcla de gases, no puede observarse, manejarse o
estudiarse de la misma manera que una roca, o una muestra de líquido, así
que es relativamente fácil olvidarse de él. Sin embargo, esta delgada capa
de nuestro planeta que representa una millonésima parte de su masa, tiene
un papel tan importante en la naturaleza, que es incluso fundamental en el
sostenimiento de los procesos vitales. La atmósfera, por ejemplo, nos
protege de los rayos X y la luz ultravioleta que provienen del Sol y que
serían fatales si éstos alcanzaran la superficie. Esto tiene que ver con un
tema de gran actualidad y al que se le ha dado muy amplia difusión y que
es el de la presencia de la capa de ozono en la estratósfera. Es
precisamente esta capa la que no deja pasar la radiación ultravioleta al
absorberla en su totalidad defendiéndonos de sus efectos nocivos. Entre
éstos podemos contar la posible producción de cánceres de piel, la
destrucción del plancton marino y, por ende, modificaciones a la fauna del
planeta. Como se puede uno imaginar, las ocurrencias de los efectos
mencionados tendrían consecuencias catastróficas. Muy recientemente se
ha reportado en la bibliografía científica los resultados de observaciones que
indican que una disminución muy importante de la capa de ozono ocurre
durante la transición de invierno a primavera en el Polo Sur y que parece
ser producida, al menos en parte, por la acción de sustancias que el hombre
deja escapar a la atmósfera. Estos resultados alarmantes han motivado que
se realicen múltiples investigaciones para tratar de determinar el efecto que
las mencionadas disminuciones tendrían sobre la salud y el ambiente y, al
mismo tiempo, están obligando a que la humanidad llegue finalmente a un
acuerdo para controlar las sustancias que afectan la capa de ozono.
Los rayos X son detenidos mucho más alto en la atmósfera, donde causan
ionizaciones en los gases presentes. Éstas consisten en que partículas
eléctricamente neutras pierden electrones por impacto con un fotón de
rayos X, convirtiéndose en iones, que vienen a formar parte de la ionósfera.
La atmósfera también evita que el bombardeo meteorítico constante sobre
nuestro planeta nos afecte, destruyendo los meteoros antes de que lleguen
a la superficie. Hay otras maneras en que la presencia del aire se hace
manifiesta, algunas de ellas muy sutiles.
Podemos ver las nubes, pero no el aire; el cielo se ve azul debido a la
dispersión selectiva que de la luz solar realiza el aire. Esta sensación de
estar cubiertos por una bóveda azul, condujo a los antiguos a proponer que
el cielo era una especie de techo que, en el caso de los griegos, descansaba
sobre los hombros de Atlas y que distaba solamente algunos metros de las
cimas de las montañas.
34
No tenemos la sensación de estar rodeados de aire a menos que sople el
viento; sin embargo, éste representa un gran peso sobre nosotros. La
evidencia de esto fue encontrada hace tres siglos y medio por Evangelista
Torricelli, quien, con su famoso experimento del tubo de vidrio y el
mercurio, descubrió la presión atmosférica e inventó el barómetro. Éste, en
su forma más simple mide la presión atmosférica a través de la altura del
nivel de mercurio en un tubo de vidrio.
En la actualidad seguimos midiendo la presión de la atmósfera en términos
de milímetros de mercurio, que al nivel del mar es de 76O mm. Esto
significa, en otras palabras, que la columna de aire que hay por encima de
cada centímetro cuadrado de la superficie terrestre pesa 1.033 kg, así que
la presión total sobre nuestro cuerpo es del orden de 10 toneladas. Claro
está que la presión dentro de nuestros cuerpos que empuja hacia afuera es
más o menos igual y opuesta a la presión atmosférica, así que no notamos
el peso del aire.
Si no notamos el peso del aire y no sopla el viento, tenemos una tendencia
a olvidarnos de que estamos inmersos en una masa de gas. Sin embargo,
en tiempos modernos y viviendo en alguna gran urbe, como puede ser la
ciudad de México, es muy difícil olvidarnos de él, y la razón es muy simple
aunque no positiva. La contaminación, el polvo, los gases, los óxidos de
nitrógeno producidos en combustiones incompletas en fábricas y autos y el
hollín, son algunas sustancias que se mezclan en nuestra atmósfera,
ensuciándola, y que nosotros, al respirar, padecemos.
Entonces, preocupados, desarrollamos estudios para entender primero
cómo se produjo el deterioro de nuestro ambiente respiratorio y después
cómo arreglarlo. Las soluciones posibles no siempre son viables pues el
problema de la contaminación del aire está íntimamente ligado a la manera
en que se plantea el desarrollo tecnológico de las diferentes regiones del
planeta y éste a su vez depende de situaciones socio-económico-políticas
que para un científico de la atmósfera le son incontrolables. En otras
palabras, los problemas de contaminación pueden tener soluciones técnicas
que no sean política o socialmente viables en un momento dado. Y, por lo
tanto, las soluciones siempre representan un compromiso entre lo que se
sabe, se debería hacer y lo que se puede hacer.
35
Figura 13.
Figura 14. Caricatura del inglés James Gillray hecha hacia 1808.
La atmósfera en nuestro alrededor se encuentra en constante movimiento;
éste contribuye a determinar el estado del tiempo, que a su vez regula, de
alguna forma, nuestras rutinas diarias. ¿Quién no escucha en las noticias el
pronóstico del tiempo y quizá se obliga a cargar el paraguas pues se
anuncia lluvia?
Se gasta mucho dinero en ajustarse a las condiciones del tiempo y el clima
para vivir confortablemente.
Las condiciones del tiempo pueden ser agentes de pesar y destrucción, pero
también de bienestar y bonanza. Esto lo ha sabido la humanidad desde
tiempo inmemorial. El viento, la lluvia, los relámpagos, han sido
observados, temidos y venerados por el hombre, pues su misma
sobrevivencia ha dependido de éstos. Pueblos antiguos, esencialmente
agrícolas, entendían que las lluvias eran fundamentales para sus cosechas.
Por ello no es difícil comprender que el culto a los dioses del agua y de la
vegetación absorbiera gran parte de su vida religiosa.
36
Figura 15.
Figura 16.
Las explicaciones de carácter mágico de los fenómenos atmosféricos han
quedado atrás. Ahora éstas se fincan en el más riguroso proceso de
observaciones y análisis, y en la interpretación por medio del uso de
modelos físicos y químicos de estos fenómenos. Gran trecho hemos
recorrido desde la interpretación aristotélica basada en los cuatro
elementos, tierra, agua, aire y fuego, del mundo.
Contestando la pregunta ¿cuán alto es el cielo? se puede decir que la
atmósfera no tiene una frontera superior muy bien definida. A medida que
aumenta la altitud el aire se vuelve más y más tenue y la presión baja,
como pueden atestiguar los alpinistas. Esto se debe a la naturaleza misma
de los gases que, a diferencia del agua, son muy compresibles. En otras
palabras, una cantidad de gas puede ocupar menos volumen (espacio)
cuando se aplica una presión. De aquí se sigue que la atmósfera será más
densa en la región que tenga que soportar un mayor peso y esto ocurre en
la superficie.
37
En el siglo XVII Blas Pascal comprobó esto cuando envió a su hermano a un
paseo en el que subiría una montaña de aproximadamente 1 000 m de
altura acompañado de un barómetro. La columna de mercurio se desplomó
más de siete centímetros y medio debido a la disminución del peso del aire
por arriba de la cima de la montaña.
En teoría, la atmósfera de nuestro planeta se extiende hasta donde la
densidad y la presión se confunden con las condiciones prevalecientes en el
espacio interplanetario, donde existe plasma (un plasma está constituido
por una población de partículas completamente ionizadas en la que no
ocurren colisiones) y en donde los procesos físicos más importantes están
dominados por el viento solar. Sin embargo, la noción sostenida hace un
siglo de que la atmósfera terminaba a una altura de unos 50 km no es del
todo incorrecta: 80% de la atmósfera se encuentra comprendida en una
capa que tiene un espesor en promedio de unos 10 km, y el 1% se
encuentra por arriba de los 30 km.
La exploración desde el espacio, realizada por medio de satélites, ha
revelado la presencia de la atmósfera a distancias de miles de kilómetros.
La cubierta gaseosa de nuestro planeta se puede dividir en varias capas
cuyas fronteras o límites están más o menos definidos. Esta clasificación de
las partes de la atmósfera se puede realizar con base en la estructura de la
temperatura en cada una de ellas o, también, tomando en cuenta los
fenómenos característicos que ocurren en ellas.
La troposfera es la capa más baja y densa; su espesor varía entre unos 8
km en los polos, hasta unos 16 km en el ecuador. Contiene la mayoría de la
masa de la atmósfera y casi todo el vapor de agua atmosférico. Además, es
turbulenta, con vientos poderosos y corrientes convectivas que determinan
el estado del tiempo. La temperatura disminuye gradualmente a medida
que la altura aumenta.
Hasta finales del siglo pasado y principios del presente se consideraba que
la temperatura continuaba decreciendo hasta unos 50 km, donde la
atmósfera se confundía con el frío espacio interplanetario. Sin embargo,
experimentos con termómetros a bordo de globos, como los efectuados por
L. P. Teisserenc de Bort, en 1898, revelaron una región casi isotérmica de
cerca de 220°K con un principio cercano a los 11 km a latitudes medias.
Esta región ha sido llamada estratosfera, teniendo como base a la
tropopausa. La existencia de una región con una inversión de temperatura
por encima de la estratosfera, fue sugerida por las observaciones de
propagación de sonido a distancias de 100 km o más, que parecían ser el
resultado de efectos de refracción de las ondas de sonido en la atmósfera
superior. Ahora sabemos que esta inversión resulta por la presencia de
ozono en la atmósfera, que además como ya se dijo antes, actúa como un
escudo contra la radiación solar ultravioleta.
38
Figura 17.
A esta región de elevada temperatura se le conoce como mesosfera. Su
límite inferior no está bien definido, pero su frontera superior, definida por
las temperaturas más bajas que se encuentran en la atmósfera, es la
mesopausa, que se encuentra entre los 80 y 85 km de altura.
La radiación ultravioleta de longitud de onda más corta, se absorbe a
mayores alturas en la termosfera dando lugar a temperaturas muy
elevadas.
Figura 18.
39
Figura 19.
La descripción dada anteriormente está basada en la estructura térmica de
la atmósfera; sin embargo, una descripción paralela puede darse en
términos de la composición. El término ozonosfera puede aplicarse a la
mesosfera, pero en estos términos no queda muy bien definida pues trazas
de ozono se pueden encontrar en otras regiones de la atmósfera.
La ionosfera puede definirse como la parte superior de la atmósfera, donde
iones y electrones están presentes en cantidades suficientes para afectar las
comunicaciones por radio. La ionosfera actúa en cierto sentido como un
espejo, que puede reflejar las ondas de radio. En efecto, estas reflexiones
son las que permiten que se reciban señales que provienen de estaciones
muy lejanas que no podrían llegar en línea recta por encontrarse la estación
más allá del horizonte; sin embargo, lo hacen al ser reflejadas desde arriba
por la ionosfera. Esta capacidad de reflexión de la ionosfera depende de su
estado eléctrico (conductividad) que a su vez depende de la concentración
de iones y electrones y, por lo tanto, modificaciones a éstos (cambios en el
número de iones y electrones) alteran las comunicaciones. La ionosfera se
extiende hacia abajo hasta los 50 km, donde se traslapa con la ozonosfera;
hacia la parte superior, la ionosfera se confunde con la heliosfera donde se
encuentra helio y helio ionizado. Más arriba aún se encuentra la
protonosfera constituida principalmente por hidrógeno ionizado. La
atmósfera puede también describirse en términos de los procesos físicos
dominantes en ella. Por ejemplo, la atmósfera está bien mezclada por
turbulencia hasta los 100 km aproximadamente, donde ésta cesa
abruptamente; a este nivel se le conoce entonces como turbopausa. Por
encima de esta región los gases se distribuyen básicamente de acuerdo a su
peso molecular y es una región donde dominan procesos de difusión.
Finalmente se encuentra la magnetosfera, región terrestre dominada por el
campo magnético de la Tierra. Debido al control magnético, puede
considerarse que la atmósfera termina en la magnetopausa, frontera que se
encuentra como a diez radios terrestres en el lado día de la Tierra, y a
distancias mucho mayores en el lado noche.
La multiplicación y el perfeccionamiento de los instrumentos para observar
los fenómenos atmosféricos, así como el crecimiento en capacidad para la
acumulación de datos, y en rapidez para manejar éstos por medio de
40
computadoras, han permitido que las ciencias de la atmósfera progresen
notablemente.
En México se realizan esfuerzos para la instalación de observatorios y
estaciones meteorológicas que aporten constantemente datos sobre
fenómenos atmosféricos.
La UNAM realiza investigaciones sobre los fenómenos atmosféricos en el seno
del Centro de Ciencias de la Atmósfera. La meteorología moderna se inició
en México hace unos 100 años al constituirse el Servicio Meteorológico
Nacional.
En la UNAM los estudios sistemáticos sobre los fenómenos atmosféricos
comenzaron en los años 50 en el Instituto de Geofísica.
La importancia creciente de estos estudios en relación con las actividades
humanas, el interés por colaborar en el entendimiento de los procesos
atmosféricos que intervienen en los procesos agrícolas, la preocupación
relativamente reciente por la limpieza del aire que respiramos, son algunos
de los motivos que han impulsado la integración de esfuerzos dispersos y la
consolidación de cuadros de investigación.
Una vez que se consideró que las ciencias atmosféricas en el Instituto de
Geofísica habían alcanzado madurez, se decidió que éstas contaran con
organización e instalaciones propias, así nació en 1977 el Centro de Ciencias
de la Atmósfera.
Figura 20.
El Centro de Ciencias de la Atmósfera fue creado para realizar
investigaciones básicas y aplicadas dentro del ámbito de las ciencias
atmosféricas y ambientales y con el propósito de desarrollar instrumental de
investigación. Dentro de sus objetivos generales se pueden mencionar el de
conocer los fenómenos atmosféricos globales y en especial los que ocurren
en México y sus mares adyacentes, el de estudiar la forma de prever y
aminorar la contaminación ambiental en la República Mexicana, y el de
contribuir a la difusión del conocimiento meteorológico haciéndolo extensivo
al mayor número de personas y usuarios. (Figura 20).
41
42
I V . L A
C O M P O S I C I Ó N Y
T I E R R A
E D A D
D E
L A
D. J. TERRELL*
INTRODUCCIÓN
PARA poder entender la relación entre el ser humano y su medio es
necesario conocer los procesos que actúan en la Tierra. Por otro lado, estos
conocimientos también son útiles para un mejor aprovechamiento de los
recursos naturales. Es de especial importancia conocer a fondo los procesos
que dan origen a los recursos no renovables pues de ese conocimiento
depende el aprovechamiento correcto de los recursos. También son
necesarios estos conocimientos para determinar los efectos que las
actividades humanas causan sobre el medio y así poder evitar muchas de
las causas de la contaminación.
Los procesos físicos y químicos de la Tierra son muy variados y ocurren en
muy diversas escalas de tiempo. Algunos ocurren con una duración de poco
tiempo (segundos-días) de tal manera que son perceptibles por el ser
humano (tormentas, temblores, explosiones volcánicas, etc.); otros ocurren
lentamente y son casi imperceptibles, tal es el caso del movimiento de los
continentes. Algunas manifestaciones que se dan en un tiempo
relativamente breve, como la erupción de un volcán, están íntimamente
ligadas con fenómenos de larga duración. Aunque estos fenómenos ocurren
lentamente, se manifiestan algunas veces con efectos notables en corto
tiempo. Es principalmente por medio de estas manifestaciones que el
proceso puede ser estudiado.
Los procesos que actualmente se manifiestan no pueden ser entendidos en
profundidad si no se conoce el origen mismo del proceso, tanto desde el
punto de vista de la energía como del momento en que dio principio. Un
aspecto que permite acercarnos a estos dos conocimientos es la
composición de los materiales geológicos. Puesto que en la composición se
tiene una gran información física y química, ésta puede ser utilizada para
proponer modelos que expliquen la generación y evolución de ese material
geológico.
ORIGEN DE LA TIERRA
El origen de nuestro planeta está ligado al origen del Sistema Solar. Por lo
tanto, no pueden separarse las teorías de formación del Sistema Solar de
los conocimientos sobre la composición de los cuerpos que lo componen. La
mayor parte de los conocimientos sobre la composición química de otros
planetas y cuerpos del Sistema Solar se obtienen indirectamente. Sólo
casos muy aislados se tienen en donde se han realizado mediciones directas
de la abundancia de algún elemento en otro planeta. Por ejemplo, ya se han
explorado varios elementos en rocas traídas de la Luna.
Afortunadamente ha sido posible recuperar algunas muestras de objetos
que han caído a nuestro planeta. Se ha sugerido que la mayoría de estos
objetos provienen de una región en el Sistema Solar en donde se
43
encuentran los asteroides. Estos cuerpos de tamaños variados se
encuentran en la órbita que teóricamente debería ser ocupada por un
planeta. De aquí se generan dos clases de teorías que tratan de explicar la
existencia de los asteroides; por un lado, se propone que originalmente un
planeta existió allí y fue desintegrado por la colisión con otro cuerpo; por
otro lado, se propone que los asteroides son el material de un planeta que
no llegó a formarse. Este material representa al que intervino en la
integración de cuerpos planetarios de tipo terrestre, como Marte y la Luna.
Independientemente de los modelos propuestos para explicar el origen de
los asteroides se ha podido encontrar cierta correspondencia entre su
composición y la de algunos materiales terrestres. Se ha sugerido que el
material contenido en un tipo de meteoritos (condritas) representa el
material primitivo que dio origen al planeta Tierra.
ELEMENTOS MAYORES Y ELEMENTOS TRAZA
Aproximadamente el 99% de nuestro planeta está constituido solamente
por 14 elementos que son: Si, Ti, Al, Fe, Mn, Mg, Ca, Na, K, P, C, O, H, N.
Éstos son llamados elementos mayores. Los otros elementos naturales (más
de 70) son tan escasos que prácticamente no intervienen en la
caracterización de los materiales. Éstos son llamados elementos traza; esto
es: las características como mineralización, densidad, etcétera, son
principalmente determinadas por la abundancia de los elementos mayores.
De esta manera se puede definir una composición tipo para rocas y
minerales; así por ejemplo las rocas riolitas contienen aproximadamente
70% de SiO2 y de 4 a 5% de K2O mientras que las rocas basálticas tienen
aproximadamente 45-50% de Si02 y ~1% de K20. Así se puede ir
numerando una a una las concentraciones típicas para cada tipo de roca.
Sin embargo, el argumento inverso no es aplicable pues un granito (roca
intrusiva) tiene una composición (~70%, SiO2 y ~4% K20) parecida a la
riolita, una roca extrusiva, pero por tratarse de ambientes de
emplazamiento diferente son rocas diferentes. Una de ellas cristalizó
enterrada (intrusiva), la otra fue emplazada en la superficie (extrusiva).
Figura 21.
Aunque los elementos traza no determinan las características que definen a
las rocas y minerales, sí contienen información muy valiosa para el
entendimiento de los procesos fisicoquímicos ocurridos. Esta información
puede ser ejemplificada con la huella dactilar que en un dedo identifica a un
44
individuo sin que en sí misma forme parte material de un dedo. Las
características físicas y químicas de cada elemento traza permitirán obtener
cierta información del proceso; así algunos elementos pueden ser usados
para estudiar temperaturas, presión, tiempo y otros parámetros
fisicoquímicos.
MÉTODOS EXPERIMENTALES DE ANÁLISIS
Para poder entender las bases que determinan la abundancia de un
elemento es necesario saber cómo está constituido. Los elementos son
conjuntos de átomos cuyo comportamiento químico es similar. Los átomos,
como pequeñísimos sistemas planetarios, están formados por un núcleo
"central" y electrones que se mueven en órbitas a diferentes distancias de
núcleo. Los electrones son partículas con carga eléctrica negativa, el núcleo
está formado por partículas eléctricas positivas y partículas sin carga
eléctrica.
Figura 22.
El comportamiento químico está relacionado con la distribución de los
electrones en las últimas —más externas— capas. Por otro lado, el
comportamiento físico esta relacionado a sus propiedades físicas tales como
tamaño y masa. Cuando un átomo es perturbado puede cambiar su nivel de
energía moviendo uno o varios electrones de lugar. También existen átomos
que teniendo la misma configuración electrónica son diferentes en la
cantidad de partículas en el núcleo, a tales átomos se les da el nombre de
isótopos. Estos átomos isótopos tendrán por lo tanto el mismo
comportamiento químico (esto es, que son del mismo elemento) pero sus
propiedades físicas como su masa son diferentes. Algunos átomos tienen
una configuración nuclear tal que son inestables y decaen emitiendo
radiación. Éstos son llamados "radiactivos" y son estudiados utilizando la
radiación que emiten.
Las técnicas analíticas para determinar la composición química de una roca
o mineral son tan variadas como las propiedades mismas de los elementos.
Algunas técnicas se basan en la facilidad que ciertos elementos tienen para
combinarse mostrando ciertas preferencias con el resto. Otras técnicas se
basan en la distribución de los electrones en los átomos y en las emisiones
45
características de energía implicadas en el cambio de posición de los
electrones. Algunas más, usan las propiedades físicas características de los
átomos para cuantificarlos, así un espectrómetro de masa se basa en la
medición de la relación entre masa y carga de un átomo cargado
eléctricamente.
Antes de poder analizar cualquier material es necesario obtenerlo por medio
de un muestreo planeado. En la colección misma del objeto por estudiar se
obtiene información, tal como su posición geográfica, que será utilizada
posteriormente en la interpretación de los resultados analíticos. Los
métodos de colección de muestras son determinados por las características
de la localización de la muestra; así se tienen perforadoras de roca,
submarinos, dragas de barco, botellas, martillos y marros, etc., como
instrumentos de muestreo. Sólo una característica común tienen todos los
métodos de muestreo, y es que el trabajo se desarrolla en el campo o en el
mar, fuera de una habitación cerrada.
LA CONFIGURACIÓN DE LA TIERRA
Aunque todavía no se tiene una idea única sobre la formación de la Tierra,
puede decirse que el nacimiento de nuestro planeta ocurre en el momento
que su solidificación produce la reunión de la mayor parte del material que
aún la constituye. Sabemos que algo de material ha sido capturado
posteriormente, como se dijo con anterioridad, meteoritos han caído en la
Tierra, pero su cantidad en relación a la masa del planeta es prácticamente
despreciable. Lo mismo puede decirse de los gases ligeros que como el helio
han sido perdidos hacia el espacio, en algunas ocasiones constituyendo una
fracción de la parte más exterior de la atmósfera. Cabe mencionar que en
los sesenta, los satélites descubrieron una capa atmosférica tenue que
contiene helio.
El nivel de solidificación de nuestro planeta varía con la profundidad. Por
medio de los estudios de las ondas sísmicas*
se ha propuesto una
configuración de la Tierra como la de esferas concéntricas definidas por su
estado de solidificación y composición. Así se propuso que el interior de la
Tierra está formado por un núcleo sólido de composición metálica fierroníquel, rodeado por una capa de alta viscosidad. Más allá del núcleo está
una esfera caracterizada por minerales silíceos llamada "manto", sobre la
cual se encuentra una capa rocosa más o menos rígida relativamente
delgada que contiene a la corteza terrestre incluyendo a los suelos marinos
y oceánicos. Esta capa definida con base en la transmisión de las ondas
sísmicas, recibe el nombre de litosfera.
Para establecer, estas hipótesis sobre la configuración, se hace uso de
métodos indirectos como el estudio del magnetismo, la gravedad y la
sismicidad de la Tierra. En forma directa no es posible colectar muestras a
gran profundidad ya que sólo ha sido posible perforar unos cuantos
kilómetros. Sólo materiales que salen por fenómenos naturales, como
volcanes, son estudiados y en ellos se basa todo el conocimiento químico
directo. En algunos casos la evidencia obtenida de varias fuentes coincide
de tal manera que no es aventurada la proposición de algunas hipótesis. Por
ejemplo podemos citar a la tectónica de placas como una teoría que vino a
explicar fenómenos observados aisladamente dentro de un sólo marco de
referencia. Así los volcanes y los temblores se estudian en ese contexto
46
regional. La composición de las rocas contiene información sobre la fuente y
el proceso que las formaron.
MEDICIÓN DE LA EDAD
En las ciencias biológicas ha sido posible demostrar que ciertas especies de
plantas y animales han desaparecido y que en forma natural existe una
evolución. Por condiciones especiales geológicas y de clima, algunas
especies vivieron durante ciertos periodos de tiempo geológico dando lugar
a posteriores especies venidas por evolución. Así es posible identificar estos
tiempos geológicos con los restos de especies que vivieron en esa época.
Los nombres de las épocas y edades geológicas se basan en muchos casos
en el tipo y nombre de las especies que las caracterizan.
Existe, sin embargo, un problema en esta forma de clasificar las edades.
Sólo el tiempo relativo puede ser medido, así puede ser ordenada una era
geológica con respecto a otra usando el grado de evolución de las especies
que vivieron entonces. Pero la magnitud —en años— del tiempo
transcurrido no puede ser cuantificada. Para lograr esto, es necesario
hacerlo indirectamente
Algunos elementos tienen isótopos radiactivos naturales. Esto significa que
sus núcleos se descomponen por decaimiento radiactivo sin que haya
habido alteración externa alguna. La forma de decaimiento, incluyendo la
velocidad de descomposición, es independiente del medio físico y químico
en el que el elemento se encuentra. Así, por ejemplo, el decaimiento de los
átomos del uranio-238 que constituyan un mineral que se encuentre a 1
000 km de profundidad será, igual al decaimiento de otros átomos de
uranio-238 que se encuentren formando una sal u óxido en el laboratorio a
presión atmosférica.
Esta independencia del decaimiento de las condiciones en las que se
encuentra el elemento permite introducir el factor tiempo en el estudio de
los fenómenos geológicos. Estadísticamente puede construirse una relación
uniforme y constante entre la actividad de los elementos radiactivos y su
abundancia. La constante dependerá sólo del elemento en cuestión y será
diferente para cada elemento. Por esta razón pueden tener mediciones
independientes de un mismo fenómeno geológico utilizando los mismos
materiales y sus diversos compuestos. Como ejemplo podemos mencionar
que la fecha de cristalización de una roca puede ser determinada utilizando
el decaimiento de potasio-40, e independientemente por el decaimiento de
rubidio-87.
47
CONCLUSIÓN
El conocimiento de la composición química de los materiales geológicos nos
permite entender el origen y la evolución de nuestro planeta y de nuestro
Sistema Solar. Para conocer la composición se utilizan diversos métodos de
análisis basados en las propiedades físicas y químicas de los elementos en
los distintos materiales geológicos que podemos disponer. Las relaciones
entre las concentraciones de los elementos son usadas para elaborar los
modelos que permitan explicar las observaciones. A final de cuentas todos
los modelos teóricos sobre el nacimiento y el desarrollo de la Tierra deben
tener alguna confirmación con observaciones y mediciones realizadas
experimentalmente.
48
V .
D E
L A S I S M O L O G Í A Y L O S S I S M O S
M I C H O A C Á N D E S E P T I E M B R E D E
1 9 8 5
JUAN MANUEL ESPÍNDOLA CASTRO*
ZENÓN JIMÉNEZ*
SISMOLOGÍA Y TECTÓNICA DE PLACAS
LA CIENCIA que estudia los aspectos relacionados con la ocurrencia de
temblores de tierra o sismos es llamada sismología. Ésta es una ciencia
joven ya que gran parte de sus métodos e instrumental fueron
desarrollados durante este siglo. A pesar de esto, la sismología ha logrado
avances notables. Quizá una de sus más valiosas contribuciones al
entendimiento de nuestro planeta lo constituya su aportación a la llamada
tectónica de placas.
Para esbozar esta teoría, consideremos en primer lugar la estructura interna
de la Tierra. En la figura 23 podemos ver esquemáticamente su
constitución. El núcleo terrestre esta probablemente compuesto de fierro y
níquel. El manto terrestre tiene una composición a base de silicatos
ferromagnesianos, mientras que la corteza está compuesta por silicatos
abundantes en potasio, sodio y calcio. El cascarón externo de la Tierra, el
cual comprende la corteza y parte del manto, con un espesor de
aproximadamente 100 km parece comportarse como un cuerpo rígido
"flotando" en el resto del manto, en donde pueden presentarse movimientos
como si se tratara de un fluido. Esta conducta semejante a la de un fluido
tiene sentido solamente en tiempos geológicos, es decir, en tiempos del
orden de millones de años.
El cascarón exterior llamado litósfera no es continuo sobre la superficie de
la Tierra sino que está formado por diferentes "placas" en contacto una con
otra.
Las placas sufren movimientos relativos debidos a fuerzas, de origen aún no
completamente conocido, aplicadas a lo largo de las mismas. Estos mismos
esfuerzos producen en algunos de sus márgenes la subducción de una placa
bajo la otra y en otras, la creación de nueva litósfera. Debido a estos
movimientos los continentes han variado su posición relativa a través del
tiempo geológico y se cree que en un tiempo estuvieron todos reunidos en
un gran continente llamado Pangea. Esto nos explica el ajuste que existe
entre, por ejemplo, las costas de Sudamérica y África. ¿Cuál es la
distribución geográfica de estas placas? La figura 24 nos la muestra. Las
zonas de creación de nueva litósfera se presentan como cordilleras
submarinas y las zonas de subducción forman a menudo trincheras
submarinas de gran profundidad. Podemos también notar que las diferentes
placas no coinciden con los continentes y los océanos, sino que pueden
tener corteza continental y oceánica.
49
Figura 23. Estructura de la tierra.
Figura 24. Sismicidad mundial y placas tectónicas.
No se sabe con certeza qué causa los esfuerzos que producen los
movimientos de las placas pero se cree que éstos son producidos por
transferencia de calor, de la misma manera como ocurre cuando se hierve
agua o cualquier otro líquido. El fluido más cercano a la fuente de calor se
expande, se vuelve de esta manera menos denso y tiende por lo tanto a
subir a la superficie, donde es enfriado y desplazado hacia el fondo por
nuevas parcelas ascendentes.
Este tipo de corrientes de convección pueden existir en el manto terrestre
aunque no debe por esto suponerse que el mismo se encuentra en estado
de fusión como las lavas. Ya se ha mencionado que esto sólo tiene sentido
en tiempos muy largos. Una manera de visualizarlo es considerar una roca
de cierto volumen. Si aplicamos a ésta un esfuerzo tensional por un tiempo
50
corto, la roca vuelve a su posición inicial. Si por el contrario aplicamos el
esfuerzo por un periodo prolongado de tiempo, la roca quedará deformada
permanentemente. En este último caso la roca "fluye" y se parece, en este
sentido, a un fluido, ya que en éstos las deformaciones son permanentes.
Esto nos explica también los plegamientos que observamos muchas veces
en las grietas hechas en las carreteras.
Figura 25.
Figura 26. Diagrama del mecanismo de rebote elástico; en (a) las líneas
topográficas son rectas, en (b) las líneas se deforman debido a la deformación del
terreno, en (c) la ruptura comienza y en (d) el terreno está fracturado.
¿Cuál es la relación de esto con los temblores? En primer lugar, notaremos
que en una zona de subducción el movimiento de una placa bajo la otra se
realiza venciendo las fuerzas de fricción generadas en el contacto entre
ambas. A lo largo de este contacto, llamado zona de Wadati-Benioff (WB),
el movimiento de una placa contra la otra tiene lugar discontinuamente, por
"brincos". Es esto precisamente lo que genera los temblores en esas
regiones. Para visualizar estos procesos pensemos en un bloque de cemento
sobre una mesa como se muestra en la figura 25.
Si colocamos un peso pequeño en la canastilla el bloque no se moverá
debido a la fuerza de fricción entre el bloque y la mesa. Conforme
aumentamos el peso, la tensión en el cable continúa acumulándose hasta
que iguala a la fuerza de fricción, a partir de ese momento el bloque
empezará a moverse.
51
Análogamente, en la zona WB se acumula gradualmente hasta que rebasa
un límite, en ese momento comienza a presentarse un fallamiento en algún
punto llamado foco, desde donde se propaga a toda una superficie.
Este comportamiento puede ser observado cuando el contacto entre placas
aflora en la superficie de la Tierra como en la famosa Falla de San Andrés,
en California. De hecho, fue en observaciones hechas en esta falla que pudo
deducirse este mecanismo que es conocido como la teoría del rebote
elástico. Esto ocurrió durante el sismo de San Francisco en 1906.
Aunque este proceso puede parecer intuitivamente obvio, en realidad no lo
es. Durante mucho tiempo, se pensó que el fallamiento de la corteza era un
efecto de los temblores y no su origen. Como fuentes de éstos se pensaba
en intrusiones de magma o colapso de volúmenes por cambios de densidad
de las rocas que componen la corteza. Aunque estos mecanismos pueden
ocurrir, se piensa en la actualidad que la mayoría de los temblores en las
regiones de subducción se originan por el mecanismo expuesto y son
llamados "tectónicos". Otros tipos de sismos están asociados a fenómenos
locales, como son los volcánicos, o algunos otros se asocian, por ejemplo, al
colapso del subsuelo por pérdida de agua, etcétera.
ONDAS SÍSMICAS
Si desplazamos un diapasón de su posición de equilibrio y lo soltamos
repentinamente, percibimos su sonido característico.
Lo mismo sucede en la Tierra, hemos visto que el fallamiento de la roca
consiste precisamente en la liberación repentina de los esfuerzos impuestos
al terreno. De esta manera, la Tierra es puesta en vibración y dicha
vibración se debe a la propagación de ondas como en el caso del diapasón.
Ahora bien, en un sólido pueden transmitirse dos tipos de ondas. El primer
tipo de ondas es conocido como compresional porque consiste en la
transmisión de compresiones y rarefacciones, como en el caso de la
transmisión del sonido, en este caso las partículas del medio se mueven en
el mismo sentido en que se propaga la onda. El segundo tipo es conocido
como ondas transversales o de cizallamiento: las partículas se mueven
ahora en dirección perpendicular a la dirección de propagación de la onda.
Las ondas compresionales y transversales han sido llamadas P y S
respectivamente, por razones que se verán más adelante. Son también
conocidas como ondas internas porque pueden viajar en el interior de un
sólido elástico.
Además de estas dos clases de ondas pueden existir otros dos tipos más,
llamadas superficiales. Estas ondas viajan en la superficie de la Tierra y su
amplitud decrece con la profundidad. Se les ha denominado con el nombre
de los científicos que demostraron teóricamente su existencia.
¿Cuál es la velocidad de estas ondas Se puede demostrar teóricamente y se
observa experimentalmente que la velocidad de las ondas es tal que:
VL < VS < VP
donde VL, VS y VP son las velocidades de la onda P, S, y superficiales,
respectivamente.
52
Las velocidades de las diferentes ondas dependen de las características del
medio; por ejemplo, en rocas ígneas la velocidad de las ondas P es del
orden de 6 km/seg mientras que en rocas poco consolidadas es de
aproximadamente 2 km/seg o menor. Así, las ondas P de un terremoto
originado en la costa de Acapulco serían sentidas en la ciudad de México en
alrededor de 2 minutos.
Figura 27. Ondas compresionales y transversales.
SISMÓGRAFOS Y SISMOGRAMAS
Los mecanismos para detectar los temblores fueron ideados a fines del siglo
pasado y perfeccionados a principios de éste. Actualmente estos
instrumentos han alcanzado un alto grado de desarrollo, pero el principio
básico empleado no ha cambiado. Si tomamos en cuenta que al ocurrir un
temblor el suelo se mueve, entonces para poder observar este movimiento
tendríamos que estar en un punto fijo fuera de la Tierra para no sufrir
nosotros mismos ese movimiento y poder detectarlo; esto obviamente es
imposible. Sin embargo, es posible construir un mecanismo que pueda
medir este movimiento relativo.
53
El mecanismo consiste de una masa suspendida de un resorte atado a un
soporte acoplado al suelo; cuando el soporte se sacude al paso de las ondas
sísmicas, la inercia de la masa hace que ésta permanezca un instante en el
mismo sitio de reposo. Posteriormente, cuando la masa sale del reposo,
oscila. El movimiento posterior del péndulo no refleja el movimiento del
suelo, por lo cual se ha ideado un método para volver a la masa a su sitio
original, esto es lo que se conoce como amortiguamiento del aparato. En la
figura 28 se representa el amortiguamiento como una lámina, sumergida en
un líquido (comúnmente aceite).
Figura 28. Diagrama esquemático del funcionamiento de un sismógrafo para la
componente transversal de las ondas sísmicas.
Figura 29.
Si se sujeta un lápiz de la masa suspendida para que pueda inscribir sobre
un papel pegado sobre un cilindro que gira a velocidad constante, se podrá
registrar sucesivamente el movimiento del suelo. El instrumento aquí
descrito para detectar la componente vertical del movimiento del suelo, se
conoce como sismógrafo vertical y el papel donde se inscribe se llama
registro o sismograma.
54
Los movimientos del suelo también tienen componente horizontal y para
medir este movimiento se requiere de péndulos horizontales que oscilan
como una puerta que tiene su eje inclinado.
Los sismógrafos que se emplean actualmente tienen, en general, masas que
pueden ser de unos gramos hasta de l00 kg y los sismógrafos antiguos de
amplificación mecánica solían tener grandes masas con el fin de vencer las
fuerzas de rozamiento, tal es el caso del sismógrafo horizontal Wiechert de
17 000 kg de la Estación Sismológica de Tacubaya; el amortiguamiento se
hace por corrientes parásitas, imanes etc., la amplificación por medio de
palancas y galvanómetros y la inscripción se hace en papel ahumado, papel
fotográfico o cinta magnética.
Los sismómetros son los sismógrafos cuyas constantes físicas son
conocidas, de tal manera que se puede conocer el movimiento real del suelo
calculado directamente de los sismogramas.
Para determinar con precisión el epicentro de un temblor se requiere del
auxilio de varias estaciones sismológicas, por lo cual los observatorios
sismológicos requieren por lo menos de tres estaciones sismológicas o de
redes de éstas. Un ejemplo de estas redes es la Red Sismológica Mexicana
(Figura 30) que controla el Servicio Sismológico Nacional, organismo
encargado de la generación de datos e información sismológica. En México
existen
otras
redes
de
proyectos
específicos
como
RESMAC*
y
SISMEX.**
En el nivel mundial existen convenios para el intercambio de
datos entre los diferentes observatorios, formando así todas las estaciones
la red mundial.
Figura 30.
DETERMINACIÓN DEL EPICENTRO
Hemos mencionado que el lugar en que comienza el fallamiento que
produce los temblores es llamado foco. A grandes distancias el plano
completo de ruptura aparece como un punto y lo llamamos foco; la
proyección de éste sobre la superficie terrestre recibe el nombre de
epicentro.
55
¿Cómo determinan los sismólogos la ubicación del epicentro? Ya se dijo que
los sismógrafos amplifican e inscriben el movimiento del suelo en una tira
de papel (o cualquier otro tipo de material similar) que se llama registro o
sismograma. En el sismograma se registran en orden sucesivo los
diferentes tipos de ondas generadas por un temblor y que arriban a la
estación sismológica. La ubicación del epicentro de un temblor se hace
analizando sus registros e identificando los diferentes tipos de ondas. Se ha
mencionado ya que la velocidad de las ondas P es mayor que la de las
ondas S; este hecho es utilizado en una de las técnicas más comunes de la
sismología para determinar el epicentro. En afecto, supongamos que la
persona A es más veloz que la persona B. Si ambas empiezan a correr
desde el punto 0 en que están juntas, a medida que se alejan de 0 la
distancia entre ellas será mayor. Puede utilizarse la separación entre ellas
en un punto dado para calcular la posición del origen a partir de ese punto.
Sobre la superficie de la Tierra, una estación puede proporcionar la
distancia al epicentro pero no su dirección, de manera que son necesarias,
al menos, tres estaciones para determinarlo sin ambigüedad.
En la práctica, la intersección de los círculos correspondientes a las tres
estaciones no coincide en un solo punto sino que comprende una región
más o menos grande, dependiendo de la calidad de los datos utilizados. La
información obtenida de estaciones adicionales es tratada estadísticamente
con otras técnicas sismológicas para precisar la posición.
Figura 31.
Figura 32.
ESCALA DE MAGNITUD E INTENSIDAD
Las escalas de magnitud e intensidad son utilizadas para cuantificar o medir
los temblores. La escala de magnitud está relacionada con la energía
liberada como ondas sísmicas; la de intensidad, con los daños producidos
por el sismo. Ambas escalas son necesarias puesto que miden aspectos
diferentes de lo ocurrido en un temblor. Así, la escala de magnitud está
relacionada con el proceso físico mismo, mientras que la de intensidad lo
56
está con el efecto del acontecimiento en la población, las construcciones y la
naturaleza.
Como es natural, una clasificación de los temblores por medio de sus
efectos observables, fue el primer intento de catalogarlos. Escalas de
intensidad fueron propuestas desde los últimos años del siglo pasado. En
1902 Mercalli propuso una tabla, que fue posteriormente modificada en
1931 y desde entonces se le ha llamado escala Modificada de Mercalli (MM).
Ésta no es la única, pero sí la más frecuentemente usada en nuestro
continente. Consta de 12 grados como puede apreciarse en la tabla 1,
donde se muestran también las características de cada grado.
Podemos ver que la escala de intensidad es en gran medida subjetiva. No
nos da información sobre la energía liberada en el temblor, puesto que por
ejemplo un sismo pequeño puede causar más daños a una población si está
cercana al epicentro, que uno grande pero a mayor distancia.
Así pues, es necesario catalogar temblores de acuerdo con los procesos
físicos de la fuente; pero también de manera tal que puedan ser medidos.
Desde el punto de vista físico sería conveniente clasificar los temblores de
acuerdo con la energía que disipan y aunque podríamos hacerlo, no
tenemos instrumentos que puedan medirla directamente.
TABLA 1. Escala modificada de Mercalli.
I.
II.
III.
IV.
V.
VI.
VII.
VIII.
IX.
X.
XI.
XII.
Microsismo, detectado por instrumentos
Sentido por algunas personas
(generalmente en reposo)
Sentido por algunas personas dentro de
edificios
Sentido por algunas personas fuera de
edificios
Sentido por casi todos
Sentido por todos
Las construcciones sufren daño moderado
Daños considerables en estructuras
Daños graves y pánico general.
Destrucción en edificios bien construidos
Casi nada queda en pie
Destrucción total
Resulta entonces necesario encontrar una metodología para poder precisar
no sólo el epicentro del sismo sino la magnitud y fecha del mismo.
Poseemos sin embargo sismogramas y éstos pueden ser utilizados para
catalogar temblores de una manera racional, como se verá a continuación.
De dos temblores ocurridos en el mismo epicentro y registrados en el
mismo lugar, el más débil producirá un trazo pequeño en el papel y el más
fuerte un trazo grande. Para un mismo sismo y estaciones que se alejan
57
gradualmente del epicentro la máxima traza que se encuentra en un
epicentro se hace igualmente menor.
Si se grafican los valores del logaritmo de la amplitud de la traza contra la
distancia, se obtienen gráficas como las mostradas en figura 33. En esa
misma figura, la curva más baja representa un temblor más pequeño.
Resulta entonces lógico tomar cualquiera de estos sismos como el mismo
patrón y asignarle la magnitud cero los demás pueden ser medidos a partir
de éste, midiendo la separación entre ellos para cualquier distancia del
epicentro. Se tiene entonces que:
M = log a – log A0
Figura 33
Figura 34.
El temblor patrón, de magnitud cero se define como aquel que teniendo su
epicentro a 100 km de distancia deja una traza de una micra, en un
sismógrafo específico, conocido por el nombre de sus diseñadores, WoodAnderson, y elegido también como sismógrafo patrón.
58
Se tiene ahora una fórmula que nos proporciona un valor relacionado con el
"tamaño" del sismo e independiente de los daños que pueda ocasionar. Este
mismo valor ha sido relacionado por los sismólogos con la energía liberada
por el sismo. Existen diferentes fórmulas que relacionan la energía con la
magnitud de un sismo, éstas varían porque la amplitud medida en el
sismograma puede ser la de cualquiera de las distancias fases (P, S,
superficiales) que son registradas.
Un temblor de magnitud 5.5 libera una energía del orden de magnitud de
una explosión atómica, como la de Hiroshima, es decir unos 1020 ergs. Sin
embargo, la energía de un sismo de magnitud 8.5 no es tres veces esa
energía sino la equivalente a unas 27 000 de estas bombas atómicas, esto
es, la energía aumenta aproximadamente 30 veces por cada grado. Esto
puede verse más claramente en las fórmulas que relacionan magnitud y
energía; éstas son de la forma
log E = a + bM
donde a y b dependen de la forma en que es calculada M.
Notemos que la escala de magnitud no tiene límites; sin embargo, no se
han encontrado temblores mayores de 8.6. Esto está relacionado con el
hecho de que la corteza tiene un límite de ruptura más allá del cual ya no
pueden acumularse más esfuerzos. Un ejemplo de un temblor de esta
magnitud es el de Alaska del 28 de marzo de 1964.
Notemos también que pueden existir temblores de magnitud negativa,
puesto que el sismo patrón (de magnitud cero), es elegido, hasta cierto
punto arbitrariamente.
La magnitud ML sólo puede aplicarse a sismos cercanos y someros porque
para sismos lejanos o profundos la amplitud de las ondas tiene una gran
dispersión. Sin embargo, Gutenberg y Richter encontraron que podía
extenderse la escala si se medían otras ondículas presentes en el
sismograma. Así, estos investigadores utilizaron las ondas superficiales para
definir una magnitud apropiada a sismos lejanos o telesismos y que es
llamada magnitud de ondas superficiales y se denota MS. Posteriormente se
diseñó otra escala que toma en cuenta la profundidad a que ocurre el sismo
y que es llamada magnitud de ondas de cuerpo y se denota mb.
Las escalas mb y MS no coinciden más que en magnitudes de alrededor 6.8.
La de MS es mayor que mb para magnitudes superiores a ésta (6.8) y
viceversa para magnitudes menores.
La diferencia entre estas escalas, que puede ser de hasta una unidad, y la
existencia de la escala de intensidades, ocasionan frecuentemente confusión
entre el público y la prensa.
SISMICIDAD
En los últimos 80 años se han podido registrar todos los temblores más
importantes (en cuanto a energía) de manera que se han podido hacer
estudios cualitativos de la sismicidad de la Tierra, así se ha obtenido un
esquema global de la sismicidad mundial. Se puede observar que la mayor
parte de energía sísmica se libera en las costas del Océano Pacífico, región
59
que se conoce como cinturón de fuego debido a que en esta zona ocurre
también gran actividad volcánica. Hay otras regiones, como el Atlántico
Medio y el cinturón Eurásico pero con una actividad sísmica menor. Nótese
que estas franjas definen los límites de placas. Existen también regiones
donde la actividad sísmica es casi nula o desconocida; a estas regiones se
les suele llamar escudos. Desde luego que los países que se sitúan en zonas
sísmicas serán más afectados por los sismos.
Figura 35.
60
SISMICIDAD GLOBAL
Observando la actividad sísmica mundial
temblores de cierta magnitud que ocurren
menos ocurren dos grandes terremotos
parte están ocurriendo varios cientos de
inferior a 3 que pasan desapercibidos.
se puede estimar el número de
en un año. Se ha visto que por lo
anualmente (Tabla 2). Por otra
miles de temblores de magnitud
TABLA 2. Promedio anual de
temblores.
Magnitud
Número
promedio
8
2
7
20
6
100
5
4
3
3
000
15
000
150
000
SISMICIDAD DE MÉXICO
A fines del siglo pasado se conocía la historia acerca de la actividad sísmica
de México desde 1400. Posteriormente, con el desarrollo técnico
sismológico, hacia 1910 se inauguró la red sismológica mexicana. De esta
fecha a la actualidad se han generado sismogramas que se conservan en la
Estación Sismológica de Tacubaya del Servicio Sismológico Nacional.
Figura 36. Sismicidad de México, de 1900 a 1974.
61
Durante los últimos 70 años se han registrado y localizado a través de los
datos de la red sismológica mexicana, la inmensa mayoría de sismos
ocurridos en el país, por lo cual actualmente se conoce bastante bien su
sismicidad.
PREMONITORES Y RÉPLICAS
Los sismólogos han observado que inmediatamente después de que ocurre
un gran temblor, éste es seguido, por temblores de menor magnitud
llamados réplicas, que ocurren en las vecindades del foco del temblor
principal. Se piensa que esto se debe probablemente al reajuste mecánico
de la región afectada. Inicialmente la frecuencia con que ocurren es grande,
pero decae gradualmente con el tiempo, dependiendo de la magnitud del
temblor principal. Por ejemplo, para el temblor de Oaxaca del 29 de
noviembre de 1978, de magnitud 6.8, inicialmente se observaron hasta 200
réplicas de magnitud mayor que 2.0 diariamente y fue decayendo esta
actividad durante los cinco meses siguientes aproximadamente. El estudio
de las réplicas de un gran temblor se ha aprovechado para estimar las
dimensiones de la región focal.
Con frecuencia algunos temblores grandes son precedidos por temblores de
menor magnitud, llamados temblores premonitores, que comienzan a
fracturar la región focal del gran temblor. No es fácil determinar cuando un
temblor pequeño es un premonitor de un gran temblor ya que se suele
confundir con cualquier otro no relacionado. En la generalidad de los casos
se sabe que un temblor es premonitor sólo en el contexto de la actividad
posterior.
PREDICCIÓN
¿Se pueden predecir los temblores? La respuesta a esta pregunta depende
de lo que se entienda por predicción. Año tras año podemos leer en los
periódicos las declaraciones hechas por adivinadores, mediums y otras
gentes por el estilo, sobre temblores en algún lugar del planeta. Estas
declaraciones distan mucho de ser predicciones. Se ha visto (Tabla 1) que
en promedio ocurren cerca de l20 temblores anualmente de magnitud
mayor que 6. Se conocen tan bien las zonas sísmicas del planeta, de
manera que, por ejemplo, se puede afirmar que durante el año de 1989
ocurrirá un temblor en la costa occidental de México. La frase anterior,
como puede verse, no contiene información novedosa ni útil.
En la última década el desarrollo de la sismología ha llevado a los
sismólogos a la convicción de que éstos pueden ser predichos. La
investigación en este aspecto es relativamente nueva a pesar de la cual se
han logrado resultados prometedores.
Existen, esencialmente, dos maneras de atacar el problema. En una de ellas
se estudia la variación de ciertos parámetros físicos debido a la acumulación
de los esfuerzos cuya relajación ocasiona el temblor. Así, por ejemplo, se ha
observado que la región focal sufre una dilatación que altera la velocidad de
las ondas que se propagan en ella. Otros de los parámetros que se alteran
son, por ejemplo, la resistencia del terreno al paso de corriente eléctrica y
el nivel freático. Todos estos factores pueden ser medidos y correlacionados
con el temblor final.
62
Otra de las formas de enfrentar el problema se ha estudiado en la
sistematicidad de la ocurrencia de los temblores. Se ha observado que los
epicentros a lo largo de una zona de subducción no se distribuyen al azar,
sino siguiendo un patrón geográfico y temporal. Puede entonces estudiarse
la historia sísmica de una región, estimar los periodos de recurrencia de
temblores de cierta magnitud y evaluar de esta manera la posibilidad de
que ocurra un temblor.
Este breve bosquejo trata solamente de poner de manifiesto que los
sismólogos actuales se encuentran trabajando sobre bases científicas para
la futura predicción de temblores. Cuánto tiempo tomará el desarrollar un
sistema eficiente para predecir temblores es difícil de precisar pero
seguramente será de algunas décadas. Indudablemente esto requerirá del
desarrollo de nuevas metodologías, tanto teóricas como instrumentales.
LAS ZONAS DE QUIETUD SÍSMICA
En su estudio de la sismicidad global, los sismólogos encontraron algunas
características generales en la ocurrencia de temblores. En particular
notaron que los terremotos muy grandes (magnitud mayor a 7.5) ocurren
en ciertas áreas con intervalos de tiempo parecidos. Este tiempo, al que
llaman tiempo de recurrencia, es el que transcurre entre dos temblores
grandes en un área dada. Las áreas en las que han ocurrido uno o varios
temblores en el pasado pero que no han presentado uno reciente son
llamadas zonas de quietud sísmica. A grosso modo, los científicos explican
esta actitud suponiendo que las placas de las zonas de subducción están
segmentadas y penetran bajo las otras de manera semiindependiente. En
México existen zonas de este tipo en las regiones de Jalisco, Guerrero,
Ometepec, Tehuantepec y hasta hace poco en Michoacán.
LOS TEMBLORES DEL 19 y 20 DE SEPTIEMBRE
Los sismos del pasado 19 y 20 de septiembre de 1985 ocurrieron en la,
hasta entonces, zona de quietud de Michoacán. El sismo del 19, con una
magnitud MS de 8.1 ocurrió el jueves 19 a las 7:18 a.m. y tuvo lugar a lo
largo de una falla de unos 9000 km². Los datos muestran que el sismo en
realidad tuvo dos focos que ocurrieron con unos segundos de diferencia, o,
sea, se puede decir que realmente ocurrieron dos sismos muy cercanos en
distancia y tiempo. Esto desde luego no quiere decir que por fuerza hayan
ocurrido independientemente uno del otro, y ya que el efecto fue la suma
de los efectos causados por ambos, podemos seguir hablando del sismo en
singular. Éste fue particularmente destructivo en la ciudad de México y es
probable que los siguientes factores hayan tenido un papel importante:
1) El temblor del 19 de septiembre fue muy eficiente en la generación de
ondas superficiales de gran intensidad.
2) Las ondas fueron amplificadas en la región central del país a lo largo del
cinturón volcánico mexicano y particularmente en la ciudad de México, por
la naturaleza de su terreno. El acelerógrafo instalado en el edificio
colapsado de la SCT registró aceleraciones en el movimiento del suelo con
máximos de hasta 17% del valor de la gravedad.
63
3) Muchos de los edificios de 6 a 15 pisos tienen periodos de resonancia
natural de alrededor de 2 segundos por lo cual el efecto sobre ellos fue
particularmente severo.
Figura 37. Localización de los epicentros de los sismos de septiembre de 1985 y red
sismológica para determinarlos.
Figura 38. Sismogramas del temblor del 19 de septiembre de 1985 detectados con
sismógrafos localizados en la ciudad de México.
El sismo del viernes 20 ocurrió a las 19:37 hrs. y fue causado por el
fallamiento de unos 2 500 km2 en el borde de la zona de ruptura del sismo
anterior. La relación de causalidad entre estos temblores es clara y por esto
se le ha considerado como una réplica del anterior. Su magnitud MS fue de
7.5 y como es sabido causó gran alarma entre la población, aunque sus
mayores efectos desastrosos tuvieron lugar en edificios ya anteriormente
dañados.
Los sismólogos aún continúan analizando y estudiando las características de
estos temblores, y los resultados obtenidos sin duda ampliarán nuestra
comprensión sobre estos fenómenos y ayudarán a mitigar sus efectos
destructivos.
¿QUÉ HACER CUANDO OCURRE UN TEMBLOR?
64
Existen varias medidas que deben tomarse en caso de ocurrir un temblor,
pero ante la eminencia de un suceso de esta naturaleza, en regiones
sísmicamente activas, es mejor prepararse mentalmente para su
eventualidad. Por otra parte, conviene buscar las condiciones adecuadas de
seguridad de los sitios donde se permanece más tiempo como son la casa,
el trabajo, la escuela, etcétera.
La seguridad de las casas en caso de temblores se garantiza siguiendo los
códigos de construcción antisísmica de la región; si en los centros de
trabajo se observa poca seguridad en las instalaciones hay que pedir que
sean reforzadas. En México, las escuelas y, en general, las obras civiles, son
construidas tomando en cuenta el código de construcción pero si se observa
alguna anomalía conviene reportarla a las autoridades competentes. Debe
evitarse colocar objetos pesados o peligrosos como lámparas, libros, etc.,
en repisas y lugares elevados a no ser que estén bien sujetos.
Cuando ocurra el temblor es conveniente tomar en cuenta lo siguiente:
1) Conservar la calma y tratar de serenar a las personas que nos rodean.
Evitar dar gritos ya que éstos infunden pánico.
2) Dirigirse rápido, pero no precipitadamente con pánico, al sitio que
previamente y con la asesoría de un experto, se haya determinado como
sitio más seguro, siguiendo el plan de evacuación ensayado anteriormente.
3) Cuando lo anterior no es posible por ser sitios públicos o por encontrarse
en lugares no familiares; es necesario:
a) No desplazarse precipitadamente en interiores, es mejor buscar sitios
que ofrezcan seguridad (debajo del dintel de puertas, debajo de mesas
robustas, lugares con techumbres livianas, etcétera).
b) Tener cuidado de no permanecer debajo de objetos colgantes u objetos
mal colocados. Alejarse de las ventanas ya que los vidrios se rompen con
las sacudidas; tampoco permanecer cerca de objetos que se puedan
desplazar o derribar (como armarios altos, vitrinas, muebles con ruedas,
etcétera).
4) En las escuelas, los maestros deben conservar la serenidad, tratar de dar
confianza a los alumnos, pedir a éstos que se alejen de las ventanas y, de
ser posible, protegerse debajo de las mesas o los dinteles de las puertas y
seguir las indicaciones mencionadas en el punto 2. Si están en los patios de
recreo, pedir que permanezcan lejos de los edificios. Estas explicaciones y
un simulacro deberán constituir práctica ordinaria al inicio de clases en
todas las escuelas.
5) En otros centros de mucha concentración se aconseja no salir
precipitadamente ya que ésta es la respuesta de la mayor parte de las
personas y se ha visto que causa muchos accidentes personales. Lo mejor
es buscar sitios seguros debajo de estructuras reforzadas, mesas o
escritorios fuertes.
6) Se debe tomar en cuenta que a un temblor puede suceder otro, de
manera que debe obrarse con cautela al final de uno.
¿QUÉ HACER DESPUÉS DE UN TEMBLOR?
65
Después de ocurrir el temblor se debe revisar si hubo daños y accidentados
y proveer ayuda, si es necesario cerrar las líneas de gas y electricidad, y
posteriormente revisar si las diferentes instalaciones eléctricas, gas, agua,
etc., no sufrieron daños. Si es de noche, no prender fósforos para
alumbrarse hasta no estar seguro que no existen fugas de gas. No use el
teléfono si no es para transmitir un mensaje de mucha urgencia.
En las escuelas, antes de movilizar a los alumnos, conviene inspeccionar el
estado de los lugares de acceso como puertas, escaleras, barandales, etc.
Posteriormente se evacua la escuela para una revisión detallada de sus
instalaciones. Esto mismo se debe hacer en el caso de edificios altos.
Para concluir, debe recordarse que el estar preparados mentalmente para
un desastre reduce mucho sus consecuencias desastrosas para nosotros. En
nuestras casas no acumulemos objetos cerca de las puertas y corredores.
Cuando se asista a lugares públicos (cines estadios, etc.) observemos
cuidadosamente las salidas, lámparas, construcción, concentraciones de
gente, etc. y hágase un plan mental de acción en caso de siniestro.
66
V I . P A L E O M A G N E T I S M O , D E R I V A
C O N T I N E N T A L Y T E C T Ó N I C A D E
P L A C A S
J. URRUTIA FUCUGAUCHI*
INTRODUCCIÓN
LOS ESTUDIOS en ciencias de la Tierra están caracterizados frecuentemente
por el misterio y la sorpresa. Muchas de las hipótesis consideradas en las
investigaciones resultan tan fascinantes como las leyendas de la
Antigüedad. Entre ellas, se tienen los estudios paleoclimáticos, que revelan
que existieron grandes cambios climáticos con la Tierra cubierta de hielo
como en las épocas glaciares de hace unos miles de años o una Tierra sin
casquetes polares y un clima cálido y uniforme como en la época hacia el fin
de la era de los dinosaurios. Hace unos cien millones de años, no sólo había
muchos otros organismos distintos habitando el planeta, como los
dinosaurios, que disfrutaban de un clima diferente, sino que además su
mundo era distinto. La distribución de océanos y continentes era muy
diferente a la que podemos observar en nuestros mapas actuales y que nos
es tan familiar. Viajando más hacia el pasado, la geografía nos enseñaría
que el proceso de cambio es la pauta dominante en nuestro planeta. Hace
unos 280 millones de años, los continentes se encontraban unidos en un
supercontinente ahora conocido como Pangea y un superocéano que lo
rodeaba. La historia del rompimiento de este supercontinente, los
movimientos de separación y formación de nuevos océanos, forma parte de
la teoría de la deriva continental. Una de las formas más importantes en
que estos movimientos han podido documentarse es por medio de los
estudios paleomagnéticos. En el paleomagnetismo se hace uso de una
"memoria" magnética de las rocas que permite aprovechar al campo
magnético terrestre como un sistema de orientación. Estos estudios han
permitido recientemente el desarrollo de la teoría de la tectónica de placas,
en la cual se basa la hipótesis de que las capas exteriores del planeta, o la
litosfera, está dividida en grandes porciones o placas que están en
movimiento relativo. Como resultado de estos movimientos se tienen la
generación de temblores, la actividad volcánica, la formación de montañas y
la deriva de los continentes. Los estudios paleomagnéticos han permitido
aun hacer inferencias o predicciones sobre los movimientos de placas en el
futuro y visualizar una geografía cambiante en los millones de años por
venir, tan cambiante como en los millones de años del pasado geológico.
Con ello, los estudios geofísicos de nuestros días se asemejan en ocasiones
a las antiguas profecías de sibilas u oráculos. En las siguientes líneas, en
una forma muy resumida, se comentan algunos de los aspectos de los
estudios paleomagnéticos relacionados con la deriva continental y la
tectónica de placas.
67
PALEOMAGNETISMO
Una de las formas más sencillas de orientarse, usada comúnmente por
marineros, exploradores, topógrafos, geólogos, oceanógrafos, etc., es
aquella que aprovecha el campo magnético terrestre por medio de la
brújula. El campo magnético terrestre se aproxima al campo producido por
un dipolo magnético situado en el centro de la Tierra (Figura 39). Cualquier
cuerpo magnetizado dejado en libertad de movimiento dentro de este
campo tenderá a orientar sus respectivos polos magnéticos en la forma
ilustrada en la figura. De esta manera, es posible conocer la dirección en la
cual se encuentra el polo geomagnético en cualquier lugar de la superficie
terrestre. En un punto dado, el campo magnético puede expresarse en
función de tres parámetros (figura 40): dos definiendo la dirección,
declinación (medida positiva al este del norte geográfico) e inclinación
(medida positiva hacia abajo de la horizontal) y uno definiendo la
intensidad.
Figura 39. Representación esquemática del campo magnético terrestre. Se muestra
la comparación de las direcciones de dos campos magnéticos para un dipolo
geocéntrico axial (campo adoptado para el cálculo de polos paralelomagnéticos) y
un dipolo geocéntrico inclinado con el campo magnético observado para el año
1945.
68
Figura 40. Componentes del vector representativo del campo magnético terrestre.
La inclinación, como se puede observar, varía con la latitud, desde
horizontal cerca del ecuador hasta vertical cerca de los polos. Ello
proporciona una forma de estimar la latitud de un punto dado y de posibles
movimientos relativos entre dos puntos cualesquiera. Imaginemos que nos
encontráramos en un lugar cuya latitud desconociéramos; si determinamos
la inclinación magnética y conocemos las variaciones del campo magnético,
podríamos estimar la latitud. Ahora, si nos trasladáramos a otro lugar y en
él determinamos la inclinación, su comparación con el valor determinado
previamente nos permitiría estimar el cambio relativo en latitud. Estas
propiedades del campo magnético pueden ser utilizadas en un gran número
de problemas geológicos y geofísicos. Por ejemplo, imaginemos que una
parte de México, digamos la península de Baja California, experimenta por
alguna causa un movimiento hacia el norte, o bien el Golfo se ensancha,
con un mayor crecimiento en la boca del mismo, mientras que la península
continúa unida al resto del continente (Figura 41). Simples mediciones de
cambios en inclinación y declinación nos ayudarían a estudiar y cuantificar
estos movimientos.
Ahora bien, supongamos que movimientos de este tipo y más complejos
han ocurrido en el pasado, digamos hace varios millones de años, ¿podría
nuestro método ayudar a estudiarlos y cuantificarlos? En principio podemos
decir que sí se podría, siempre y cuando el campo magnético hubiese
existido en el pasado y presentado características similares a las observadas
actualmente. Además si ello se cumpliese, tendríamos el problema de quién
podría ir al pasado y tomar las medidas necesarias para nuestro estudio. El
problema aparenta no tener fácil solución ya que los registros escritos sólo
cubren los últimos miles de años. Los chinos (y quizá los olmecas y mayas),
al parecer, ya conocían las propiedades de la magnetita (imán natural)
desde quizá el segundo siglo antes de Cristo y conocían la existencia y
algunas características del campo magnético. Así es que el campo
magnético ya se conocía en aquellos tiempos, aunque mediciones
sistemáticas del mismo no comenzaron hasta hace relativamente poco
tiempo. Afortunadamente, aunque no se cuenta con evidencia de esta clase
sobre la existencia del campo magnético en el pasado geológico, ni sobre
sus características, ni se puede enviar a alguien a tomar mediciones, en la
69
naturaleza ocurren ciertos procesos capaces de registrar la dirección e
intensidad de un campo magnético. Por ejemplo, durante una erupción
volcánica el magma sale del volcán a elevadas temperaturas, alrededor de
unos 1 200°C; al comenzar a enfriarse diversos minerales cristalizan, entre
ellos, los óxidos de fierro y titanio, los cuales tienen propiedades
magnéticas. Una vez formados, y a temperaturas inferiores al punto de
Curie, estos minerales adquieren una magnetización proporcional al campo
magnético ambiental en ese momento; al continuar descendiendo la
temperatura del magma esta magnetización se "congela", es decir, se
convierte en una propiedad de la roca, capaz de existir en forma
independiente del campo magnético que la indujo. Esta magnetización se
conoce como magnetización remanente térmica (MRT). Porciones de roca
se comportan entonces como débiles imanes, cuyas direcciones de
magnetización son paralelas a la dirección del campo magnético. Estudiar
estas direcciones es equivalente a tomar una medición con brújula. El
emplazamiento de rocas ígneas extrusivas e intrusivas ha sido un fenómeno
común en la historia de la Tierra, de aquí que sea factible estudiar sus
magnetizaciones remanentes para obtener información sobre el campo
magnético terrestre para diversos periodos.
Figura 41. Ejemplos de movimientos relativos con (a) cambios en latitud y (b)
cambios en orientación relativa. En el primer caso se tienen cambios
principalmente en inclinación (I) y en el segundo en declinación (D).
Además de este mecanismo para generar magnetizaciones remanentes en
rocas ígneas, se conocen muchos otros que actúan en estas y otras clases
de rocas. Así, en el caso de rocas sedimentarias, al tiempo de depositación
las partículas de minerales magnéticos tienden a orientarse en la dirección
del campo magnético local, dando lugar a una magnetización remanente
detrital (MRD). En el caso de procesos químicos que impliquen cambios de
volumen y composición de los minerales magnéticos, se puede tener una
magnetización remanente química (MRQ). A las magnetizaciones adquiridas
cuando se forma una roca se les conoce como magnetizaciones remanentes
primarias (MRP). Además de éstas, se pueden tener otras magnetizaciones
adquiridas después de la formación de la roca, las cuales son consideradas
secundarias (MRS). Dentro de éstas se tienen la magnetización remanente
viscosa (MRV), generada por la exposición a un campo magnético por
largos periodos de tiempo; la magnetización remanente isotérmica (MRI),
adquirida por la acción de campos magnéticos fuertes a bajas temperaturas,
70
(por ejemplo, debido a la acción de un rayo); y la magnetización remanente
anistérica (MRA), la cual se genera por la acción de dos campos magnéticos,
uno de polaridad constante y otro de polaridad alterna y de intensidad
decreciente. En una roca dada, puede ocurrir que varias de estas
magnetizaciones estén coexistiendo y la magnetización resultante sea la
suma vectorial de las varias magnetizaciones, la cual se conoce como
magnetización remanente natural (MRN). Tanto las MRP como las MRS
proporcionan, información sobre el campo magnético, siempre y cuando
éstas puedan ser identificadas y las edades de adquisición de todas ellas
sean conocidas.
Figura 42. Ejemplo de desmagnetización por campos magnéticos alternos
decrecientes de dos muestras de roca. En la parte superior se representan los
cambios de dirección en una proyección estereográfica. La declinación se mide de
0° a 180° al este (E) o al oeste (W), a lo largo de la circunferencia externa. La
inclinación se mide de 0° a 90° de la periferia al centro de la proyección.
Inclinaciones positivas ( hacia abajo de la horizontal) y negativas (hacia arriba de
la horizontal) se representan con símbolos llenos y vacíos, respectivamente. Los
valores de la muestra MF1.2.1 para el punto inicial (marcado con N) son:
Declinación = 175° E, e Inclinación = 8° . En la parte inferior se representan los
cambios en intensidad de la magnetización normalizados con respecto al valor
inicial (J0). El campo magnético alterno decreciente aplicado en cada caso está
indicado en el eje horizontal (en Oersteds). Las muestras fueron colectadas cerca
71
del poblado de Jonacatepec, Morelos y pertenecen al Grupo Volcánico Tepexco de
edad Miocena.
Gran parte del trabajo de laboratorio se dedica a la medición e identificación
de las componentes vectoriales del MRN. Para ello se emplean diversas
técnicas, conocidas como técnicas de desmagnetización o de análisis de
estabilidad; las más usadas son: desmagnetización por campos magnéticos
alternos decrecientes (cmad), en la cual las muestras de roca que se van a
estudiar se someten a la acción de cmad, cuya intensidad se va
aumentando progresivamente (Figura 42); desmagnetización por altas
temperaturas, en la cual las muestras se sujetan a diversas temperaturas a
partir de la temperatura ambiental hasta unos 700°C (Figura 43); y
desmagnetización por medios químicos, en la cual las muestras se sujetan a
un tratamiento con ácido clorhídrico, incrementando el tiempo de inmersión
de las muestras en el ácido (Figura 44). Además de estos análisis, las
muestras son sujetas a otros estudios con el fin de determinar la clase y
propiedades de los minerales magnéticos responsables de la MRN, así como
determinar otras características de las muestras que podrían afectar la
adquisición de las magnetizaciones.
Las rocas no se magnetizan de una forma uniforme, sino que tienen
generalmente pequeñas diferencias debidas a heterogeneidades en la
composición mineralógica o variaciones en las condiciones ambientales al
tiempo de formación de la roca o posteriores. Además, a estos factores
tenemos que añadir errores asociados con la recolección de muestras y
medición en el laboratorio. Debido a esto, es necesario analizar un número
de muestras (un mínimo de tres muestras por unidad) y emplear métodos
estadísticos para estimar los valores de declinación, inclinación e intensidad
de las diversas componentes del MRN. Para la aplicación de los métodos
estadísticos es frecuente utilizar diagramas vectoriales o proyecciones
estereográficas (como las presentadas en las figuras 42, 43 y 44), las
cuales permiten una ayuda visual para analizar y comparar los resultados.
Por último, cabe mencionar que a cada dirección o grupo de direcciones es
posible calcular el correspondiente polo magnético (Figura 39), lo cual es
útil para comparar resultados obtenidos de puntos distantes entre si.
72
Figura 43. Ejemplo de desmagnetización por altas temperaturas de tres muestras
de roca. Los signos y convenciones son iguales a los descritos en la figura 42.
Puede observarse que dos de las muestras (JG3.1 y JG4.2.1.) presentan pocos
movimientos en dirección con la desmagnetización, lo cual sugiere que el MRN de
estas muestras tiene una componente dominante,(MRT) con la adición de otras
componentes de magnitud reducida (MRVS).En el caso de la muestra JG6.1.2, se
tiene un cambio sistemático de la dirección, la cual se asocia a dos componentes
dominantes (MRTS) adquiridas a tiempos distintos durante el enfriamiento en la
roca. La dirección del campo magnético terrestre en la zona tiene polaridad normal
para direcciones cercanas a las presentadas por JG3.1 y JG4.2.1, y polaridad
reversa para direcciones como las presentadas por MFT1.2.1 y MF2.1.2 (Figura 44),
por lo que la muestra JG6.1.2 presenta una componente normal (destruida en el
tratamiento) y una componente reversa. Las muestras son de un cuerpo ígneo
intrusivo de la misma zona (Figura 42).
73
Figura 44. Ejemplo de desmagnetización por medios químicos (inmersión en ácido
clorhídrico). El tiempo de inmersión está indicado en horas en el eje horizontal del
diagrama inferior. Las muestras son rocas sedimentarias de una localidad en
Acatlán, estado de Puebla .
74
Figura 45. Escala de polaridad del campo magnético terrestre en los últimos tres
millones de años.
Estudios del campo magnético terrestre con observaciones directas tomadas
durante los últimos cientos de años y con mediciones paleomagnéticas en
rocas y materiales arqueológicos de diversas edades, han permitido
determinar que las características de este campo varían en el tiempo. Las
variaciones observadas van desde aquellas de baja magnitud y periodo
corto (segundos), hasta variaciones mayores y con periodos largos
(millones de años). Mediciones paleomagnéticas efectuadas a principios de
siglo en rocas de diversas edades, indicaron la presencia de
magnetizaciones anómalas, las cuales presentaban una polaridad opuesta a
la actual, es decir, que la posición polar correspondiente presentaba un polo
sur en donde se tiene actualmente el polo norte y viceversa. El investigador
japonés M. Matuyama sugirió en 1906 que estas magnetizaciones,
conocidas como reversas, habían sido creadas en un tiempo en el que el
campo magnético terrestre tenía polaridad reversa. Esta hipótesis fue
ignorada por los colegas científicos de Matuyama, y este profesor
finalmente abandonó sus investigaciones y se dedicó al teatro No (una
modalidad del teatro japonés). Pasaron muchos años, hasta que a fines de
la década de los cincuentas, la evidencia en favor de la hipótesis de
Matuyama se volvió contundente y pasó por fin a ser aceptada.
75
Figura 46. Curvas de desplazamiento polar aparente en América del Sur y África.
76
Figura 47. Reconstrucción paleográfica del antiguo continente Gondwana, el cual
agrupaba a las actuales zonas continentales del hemisferio sur.
Figura 48. Curvas de desplazamiento polar aparente determinadas para México y
Norteamérica. Los números representan millones de años antes del presente; los
círculos son datos de Canadá y EUA y las cruces son de México.
Durante los años siguientes se descubrió que los cambios de polaridad del
campo magnético terrestre han sido frecuentes a lo largo de la historia
(Figura 45).
77
A principios de los cincuentas, un grupo de investigadores ingleses (entre
ellos K. M. Creer, E. Irving y S. K.Runcorn), mostró que los datos
paleomagnéticos para periodos anteriores al terciario (edades anteriores a
unos 80 millones de años) divergían considerablemente de las
características del campo actual, indicando diversas posiciones polares en
algunas ocasiones cercanas al ecuador. Con las posiciones de los polos
magnéticos terrestres para tiempos dados, se construyeron curvas de
Desplazamiento Polar Aparente (DPA) que mostraban el movimiento del
polo mágnético en el tiempo con respecto a las coordenadas geográficas
actuales. Además, se observó que las curvas DPA correspondientes a
distintos continentes divergían entre sí, presentando una aparente
discrepancia ya que indicaban la existencia de más de un polo para un
tiempo dado. Los investigadores ingleses sugirieron que estos resultados
implicaban la ocurrencia de largos desplazamientos horizontales de las
diferentes masas continentales, lo que apoyaba la teoría de deriva
continental propuesta a principios de siglo. En la figura 46 se muestra un
ejemplo con las curvas de desplazamiento polar aparente para Sudamérica
y Australia, donde puede observarse que las curvas divergen, y en la figura
47 se muestra una reconstrucción paleográfica de los continentes del
hemisferio sur, lograda simplemente con superponer las curvas de
desplazamiento polar aparente correspondientes a Sudamérica, África,
Madagascar, India, Australia y Antártica.
Los resultados paleomagnéticos para varias partes de México se muestran
en la figura 48; con fines de comparación, en ella se incluyen también los
datos correspondientes a Norteamérica. Podemos observar que las dos
curvas muestran tendencias similares, con algunas diferencias en ciertos
periodos, y que a partir del Jurásico temprano (hace unos 150 millones de
años) las dos curvas comienzan a separarse significativamente. Ello nos
indica que antes del Jurásico temprano, México se encontraba separado de
Norteamérica y que en tiempos posteriores, México experimentó
movimientos tectónicos relativos a Norteamérica, aunque guardando una
posición en latitud muy similar a la actual. En la figura 49 se muestra una
interpretación de los tiempos en que diversas partes de Sudamérica se
unieron al continente.
El estudio de las posiciones pasadas y movimientos relativos de los bloques
continentales es de gran importancia en un gran número de problemas,
además de su importancia por el simple hecho de conocerlos. Por ejemplo,
podemos, mencionar la exploración de minerales y energéticos. En el caso
de los hidrocarburos (petróleo y gas) se ha observado que un clima cálido y
ciertas condiciones ambientales, comúnmente encontradas en zonas
cercanas al ecuador, son favorables a su formación. Por lo tanto, el poder
determinar si una zona se encontró en algún tiempo cerca del ecuador tiene
un gran valor. Con base en la figura 48 se pueden calcular los cambios de
latitud (paleolatitud) de las zonas de Poza Rica, Veracruz y Teapa, Tabasco,
donde se localizan algunas de las zonas productoras de hidrocarburos más
importantes del país. De ello se ha podido observar que durante los últimos
200 millones de años, estas zonas han permanecido relativamente cerca del
ecuador.
78
Figura 49. Posición relativa de América del Sur durante la era Mesozoica. Durante
ese tiempo, las diversas partes de México y América Central se encontraban
localizadas en diferentes posiciones, posiblemente hacia el Océano Pacífico.
A forma de conclusión, cabe mencionar que el paleomagnetismo es una
parte de las Ciencias de la Tierra con una investigación muy activa y como
tal, en proceso de cambio. Es de esperarse que una parte considerable de
sus aplicaciones y logros esté aún por desarrollarse, por lo que tiene un
gran porvenir a corto y largo plazo.
79
B I B L I O G R A F Í A
Collinson, D. W., Creer, K. M. y Runcorn, S.K. (comps.), 1967. Methods in
Palaeomagnetism, Developments in Solid Earth Geophysics, Elsevier,
Amsterdam, 609 pp.
Irving, E., l964. Palaeomagnetism and its application to geological and
geophysical problems, Wiley, Nueva York, 399 pp.
Irving, E., 1977. "Drift of the major continental blocks since the Devonian",
Nature, v. 270, pp. 1 318-1 324.
McElhinny, M. W., 1973. Palaeomagnetism and plate tectonics, Cambridge
University Press, Londres, 358 pp.
Urrutia Fucugauchi, J., 1979. "Preliminary apparent polar wander path for
Mexico", Geophysical Journal, v. 56, pp. 227-236.
Urrutia Fucugauchi, J., 1981. "Paleomagnetic evidence for tectonic rotation
of northern Mexico and the continuity Cordilleran orogenic belt between
Nevada and Chihuahua", Geology, v. 9, pp. 178-183.
Van der Voo, R. y Channell, J. E. T., 1980. "Paleomagnetism in orogenic
belts", Reviews of Geophysics and Space Physics, v. 18, pp. 455-488.
80
C O N T R A P O R T A D A
En nuestros días resulta indispensable un mejor conocimiento de las
ciencias de la Tierra, desde aquellas que estudian su interior hasta las que
investigan el Sistema Solar en su conjunto, pasando por las que se dedican
al conocimiento de los océanos y de la atmósfera. Para abordar estos
temas, los métodos que las ciencias de la Tierra utilizan son muy diversos y,
en ocasiones, extremadamente complejos pues requieren del empleo de
tecnologías muy avanzadas y de vastos recursos económicos.
En México, el número de personas que se dedica a las ciencias de la Tierra
no pasa de unas cuantas centenas y, hace 25 años, los más emprendedores
fundaron la Unión Geofísica Mexicana, uno de cuyos propósitos principales
es unir el esfuerzo de todos los geofísicos del país para fomentar el
desarrollo de la investigación sobre la Tierra y difundir los conocimientos
adquiridos. Tales son también los fines que persigue Nuestro hogar en el
espacio, libro en el que se tocan cuestiones de suyo tan interesantes como
las naves espaciales, el Sol, la atmósfera que nos rodea, un estudio sobre la
composición y edad de la Tierra y otro sobre el paleomagnetismo, esto es,
las variaciones de lugar que ha experimentado el polo magnético de nuestro
planeta, así como una exposición de la teoría de la deriva continental que
considera cómo, a partir de un supercontinente al que se ha dado el nombre
de Pangea, se han ido fraccionando los continentes que existen en la
actualidad. Aparte del interés, tiene también actualidad el capítulo dedicado
a los sismos de septiembre de 1985 que, aparte de la devastación y muerte
que causaron, trastornaron también la fisonomía de la ciudad de México en
grado mayor que los urbanistas.
José Francisco Valdés Galicia, compilador de los trabajos presentados en
Nuestro hogar en el espacio, hizo su carrera de físico en la Facultad de
Ciencias de la UNAM y se doctoró en su materia en el Imperial College de
Londres. Su especialidad son los rayos cósmicos y la física espacial.
Actualmente es presidente de la Asociación Latinoamericana de Geofísica
Espacial, investigador de tiempo completo en el Instituto de Geofísica de la
UNAM
y
miembro
del
Sistema
Nacional
de
Investigadores.
En la portada: Cosmovisión hindú Diseño: Carlos Haces/Fotografía: Carlos
Franco
Descargar