1 N U E S T R O H O G A R E N E L E S P A C I O Autor: JOSÉ FRANCISCO VALDÉS ( COMPILADOR) http://bibliotecadigital.ilce.edu.mx/sites/ciencia/menu.htm COMITÉ DE SELECCIÓN EDICIONES INTRODUCCIÓN I. LOS SATÉLITES, LAS NAVES ESPACIALES Y NOSOTROS II. EL SOL Y SU DOMINIO III. LA ATMÓSFERA QUE NOS RODEA IV. LA COMPOSICIÓN Y EDAD DE LA TIERRA V. LA SISMOLOGÍA Y LOS SISMOS DE MICHOACÁN DE SEPTIEMBRE DE 1985 VI. PALEOMAGNETISMO, DERIVA CONTINENTAL .Y TECTÓNICA DE PLACAS BIBLIOGRAFÍA CONTRAPORTADA 2 C O M I T É D E Dr. Antonio Alonso Dr. Gerardo Cabañas Dr. Juan Ramón de la Fuente Dr. Jorge Flores Valdés Dr. Leopoldo García-Colín Scherer Dr. Tomás Garza Dr. Gonzalo Halffter Dr. Raúl Herrera Dr. Jaime Martuscelli Dr. Héctor Nava Jaimes Dr. Manuel Peimbert Dr. Juan José Rivaud Dr. Julio Rubio Oca Dr. José Sarukhán Dr. Guillermo Soberón Coordinadora: María del Carmen Farías S E L E C C I Ó N 3 E D I C I O N E S Primera edición (La Ciencia desde México), 1988 Tercera reimpresión,1995 Segunda edición (La Ciencia para Todos), 1997 Se prohíbe la reproducción total o parcial de esta obra —incluido el diseño tipográfico y de portada—, sea cual fuere el medio, electrónico o mecánico, sin el consentimiento por escrito del editor. La Ciencia para Todos es proyecto y propiedad del Fondo de Cultura Económica, al que pertenecen también sus derechos. Se publica con los auspicios de la Secretaría de Educación Pública y del Consejo Nacional de Ciencia y Tecnología. D. R. © 1988 FONDO DE CULTURA ECONÓMICA, S. A. DE C. V. D. R. © 1997 FONDO DE CULTURA ECONÓMICA Carretera Picacho-Ajusco 227, 14200 México, D.F. ISBN 968-16-5238-X Impreso en México 4 I N T R O D U C C I Ó N México es un país que cuenta con dos millones de kilómetros cuadrados de superficie, casi nueve mil km de costas, grandes recursos minerales y petroleros y zonas áridas extensas en donde hay graves problemas de abastecimiento de agua. Nuestra costa occidental es una de las de mayor riesgo sísmico en el mundo y no es necesario subrayar lo que ello ha representado para la población. Dentro del territorio mexicano se suceden alrededor de quince erupciones volcánicas por siglo, distribuidas a todo lo largo y ancho de su geografía. Tanto para el mejor entendimiento de lo que significan los recursos ya conocidos para la exploración de otros nuevos y para prevención o amortiguamiento de los desastres causados por los fenómenos naturales, es indispensable un mejor conocimiento de las ciencias de la Tierra, desde las que estudian su interior, pasando por las que investigan los océanos y la atmósfera, hasta las que se dedican al conocimiento del Sistema Solar y en particular del Sol y su influencia en nuestro planeta. Los métodos que estas ciencias utilizan son muy diversos, en ocasiones muy elaborados, con necesidades de tecnologías muy avanzadas o de vastos recursos económicos como las grandes perforaciones de los fondos marinos o los satélites y naves espaciales con su multiplicidad de aplicaciones. En nuestro país, con casi 80 millones de habitantes, el número de personas que se dedica a las ciencias de la Tierra no pasa de unas cuantas centenas. La Unión Geofísica Mexicana surgió hace 25 años con el propósito de unir los esfuerzos de todos los geofísicos de México para fomentar el fortalecimiento y desarrollo de la investigación sobre la Tierra en nuestro país y al mismo tiempo para difundir en la sociedad el conocimiento que hasta el momento se tenga en estas ramas del saber. El presente volumen tiene como propósito contribuir a la realización de los objetivos anteriores pues, al mismo tiempo que pretende instruir en algunos aspectos de los fenómenos terrestres y los métodos que se emplean para estudiarlos, es también su intención motivar a algunos de nuestros lectores a que se nos unan en este empeño por desentrañar los misterios de nuestro planeta. Parte del material aquí compilado sirvió como base para un ciclo de conferencias que bajo el mismo título que el de este libro fueron impartidas en el Museo Tecnológico de la Comisión Federal de Electricidad y organizadas por la Unión Geofísica Mexicana. El interés mostrado por el público asistente a las conferencias fue un estímulo constante para conformar la publicación que hoy está en sus manos. JOSÉ FRANCISCO VALDÉS GALICIA Compilador I . L O S S A T É L I T E S , L A S N A V E S E S P A C I A L E S Y N O S O T R O S 5 RUTH GALL TREINTA años han pasado desde el lanzamiento al espacio del Sputnik 1, el que inicia la era espacial. Desde esta fecha han sido lanzados al espacio más de 3 000 satélites y naves espaciales que, equipados con instrumentos, realizaron innumerables misiones. De allí surgen las preguntas sobre qué importancia tiene el uso de vehículos espaciales, qué misiones se han realizado hasta la fecha y qué ventajas ofrece la era espacial al mundo y en particular a los países cómo los nuestros. Es un hecho que la era espacial abrió al hombre dos nuevas perspectivas: una nueva visión de la Tierra y una nueva visión del Universo. Como lo veremos, los descubrimientos producidos en la era espacial revolucionaron tanto a las ciencias básicas como a las aplicadas y a las sociales. Así, se abrieron nuevos rumbos para la geofísica, la astronomía, la física del Sistema Solar, la climatología y las comunicaciones; e incluso se abrieron nuevas disciplinas satelitarias como la cometología, la telecomunicación y el derecho espacial, entre otras. Cabe señalar que, como sabemos, mientras los satélites giran alrededor de una órbita fija, las naves espaciales suelen adentrarse en el espacio. Algunas de estas naves están destinadas a abandonar nuestro Sistema Solar y a seguir su camino a través de la Vía Láctea. Para entrar al mundo de las misiones espaciales debemos mencionar que en la explotación espacial se utilizan básicamente dos métodos. Uno, la detección "in situ", que consiste en la exploración directa con instrumentos, ya sea a lo largo de la trayectoria del vehículo espacial o mientras éste explora los cuerpos o espacios de interés. Dos, la teledetección, es decir, la detección a grandes distancias. Para terminar esta breve introducción, debemos confesar que nuestro propósito es ante todo dirigir la atención de nuestros investigadores y — ¿por qué no?— de los estudiantes, hacia las diferentes disciplinas espaciales, para uso y exploración del espacio con nuestros propios fines. Nos parece urgente la formación de cuadros y recursos humanos, tanto en ciencias básicas y aplicadas espaciales, como en tecnologías de este tipo, no sólo porque representa uno de los quehaceres científicos y tecnológicos de vanguardia sino, además, porque conllevan implicaciones económicosociales de gran trascendencia. No podemos olvidar que el siglo XXI está acercándose a pasos agigantados. DESCUBRIMIENTO DEL DOMINIO TERRESTRE: UN NUEVO CONCEPTO SOBRE NUESTRO PLANETA Como dijimos en la introducción de este artículo la era espacial ha traído consigo cambios revolucionarios sobre los conceptos que teníamos con respecto al espacio que rodeaba la Tierra. Para poder entender a fondo este cambio tenemos que retroceden en el tiempo. 6 Antes de la era espacial se creía que el espacio interplanetario1 era una región de quietud y vacío, alterada sólo durante las perturbaciones solares. Como lo muestra la figura 1, se pensaba también que nuestro planeta ocupaba en el Sistema Solar un espacio del dominio terrestre de forma esférica de aproximadamente 7 870 km de radio. Se creía que este espacio estaba supuestamente constituido por la Tierra y las capas atmosféricas que la rodeaban donde la exósfera era la capa externa y fronteriza. Al margen de este concepto se creía también que las líneas cerradas del campo magnético terrestre rebasaban esta frontera y que se iban extendiendo —cada vez más tenues— a través del medio interplanetario (Figura 2). Las exploraciones mediante satélites, entre 1958 y 1961 mostraron la falacia de estos conceptos y dieron origen a la geofísica exterior. Lo que quisiéramos señalar de antemano es que encima de las capas atmosféricas existen otras de fundamental importancia, y que el campo geomagnético no penetra al espacio interplanetario, sino que actúa como un centinela fronterizo del dominio terrestre. Entre los descubrimientos de mayor trascendencia figura "el viento solar" compuesto de partículas tales como los electrones, protones y iones, que emanan continuamente del Sol y que se propagan a través del espacio interplanetario a una velocidad de 400 km por segundo. Figura 1. La atmósfera terrestre confinada en una cáscara esférica de aproximadamente 1 500 km de grosor. 7 Figura 2. La imagen preespacial del espacio circumterrestre. La población de estas partículas, que se conocen como plasma, es tan escasa que entre ellas no ocurre colisión alguna. También se descubrió la magnetósfera —la región externa del dominio terrestre— que se encuentra embebida en las líneas del campo magnético de la Tierra. La magnetósfera va acompañada de la magnetopausa, que es la línea fronteriza. Esta línea fronteriza es el resultado de la lucha que libra continuamente la fuerza del campo magnético contra la fuerza del "viento solar". Se conforma así un centinela fronterizo que inhibe la penetración del viento solar al dominio terrestre, separándolo del espacio interplanetario. Sin embargo como lo muestra la figura 3 la presión que ejerce el viento solar logra limitar el dominio terrestre situándolo en una cavidad en forma de cometa. El viento solar comprime parcialmente del lado día las líneas del campo magnético dejando un espacio de sólo 64 000 kilómetros de ancho. En cambio del lado noche, el viento solar se desliza a lo largo de la magnetopausa. Ésta transmite la presión al interior del dominio terrestre induciendo así —del lado noche— un estiramiento de las líneas del campo magnético terrestre. Estas líneas son las que se ven envueltas en una cola magnetosférica de unos 3 millones de kilómetros de largo. Además, durante las exploraciones mediante satélites, aún anteriores a las ya descritas, se descubrió una zona de partículas ionizadas, altamente energéticas —conocidas como Anillos de Radiación o Anillos de Van Allen— que están confinadas por el campo magnético terrestre en forma de una dona y que se encuentran entre 700 y 48 000 kilómetros encima de la superficie terrestre. Esta población, relativamente densa, es letal. Por ello se debe evitar la permanencia de los astronautas —aun siendo de pocos días— en esta región, (Figura 3). Actualmente se afirma que los Anillos de Van Allen son producto de subtormentas magnetosféricas que energetizan y desplazan partículas de origen ionosférico, normalmente de baja energía. Asimismo se señala que son el resultado de un bombardeo de rayos cósmicos a la atmósfera terrestre. 8 Y para terminar pasemos a un descubrimiento del dominio geofísico que nada tiene que ver con el espacio pero sí con la geodesia. En marzo de 1958 un satélite geodésico descubrió que la Tierra no es esférica, sino que tiene forma de pera, como lo muestra la figura 4. Figura 3. Figura 4. La Tierra no es exactamente una esfera. En esta figura se muestra una visión exagerada de la forma real de nuestro planeta. La deformación aquí mostrada no es notoria a simple vista. LAS NUEVAS VENTANAS ASTRONÓMICAS Las atmósferas son las guardianas de la vida en la Tierra porque logran inhibir el paso de radiaciones letales a la superficie terrestre; tal es el caso de los rayos gamma, los rayos X y los ultravioleta. Inhiben también el paso de un amplio espectro del infrarrojo, aunque éste no representa peligro para la vida en la Tierra. Sin embargo, todas estas frecuencias son portadoras de una información muy valiosa para la exploración del Universo. 9 La observación del espacio desde la Tierra mediante el telescopio, la deben los astrónomos a tres belgas que inventaron este instrumento al principio del siglo XVII. A pesar de que con los años los telescopios se han ido perfeccionando, la observación de cuerpos celestes a través de estos instrumentos sólo se puede realizar en el espectro visible y algunas franjas del infrarrojo. No fue sino hasta después de la segunda Guerra Mundial que la astronomía se enriqueció con los radiotelescopios que proporcionaron una observación "más transparente" del Universo mediante todo el espectro2 en radiofrecuencias. Finalmente, con el inicio de la era espacial, los satélites astronómicos, que orbitan la Tierra a unos 1 000 km, abrieron al astrónomo las ventanas de todo el espectro electromagnético para la observación del Universo. Permítaseme mostrar la importancia de esta apertura mediante dos interesantes ejemplos que han resultado de la observación de los rayos X y de algunos rayos infrarrojos. Los astrónomos han podido percibir en algunas estrellas —de atmósfera muy extendida— súbitos desprendimientos de materia. Estos desprendimientos van asociados con emisiones discontinuas de rayos X que los astrónomos observan y las asocian con la presencia en las vecindades de la estrella, de un cuerpo —hasta ahora hipotético— llamado "hoyo negro". Su campo gravitacional es tan fuerte que absorbe y no permite escapar ni la radiación ni la materia que emite la estrella vecina. De ahí nuestra incapacidad para observarlo. Las recientes observaciones en el infrarrojo realizadas con instrumentos a bordo de satélites astronómicos han permitido descubrir la presencia de discos de materia que giran alrededor de algunas estrellas. Siendo que los planetas del Sistema Solar fueron formados mediante este tipo de materia, se cree que en un futuro muy lejano estas estrellas estarán acompañadas de sus planetas. Como se puede apreciar, la exploración en el espacio mediante satélites astronómicos ofrece nuevas perspectivas de fundamental importancia. Es más, próximamente se pondrá en órbita un telescopio estadounidense que permitirá la observación astronómica a más de mil millones de años luz del Sistema Solar, porque aumenta 350 veces la profundidad observable del Universo, con respecto a lo que se tiene a la fecha. Por lo pronto los astrónomos no pueden explorar los espacios celestes con métodos in situ. Sin embargo, tomando en cuenta que algunas naves espaciales —en lo que resta del siglo XX— se internarán en la Vía Láctea,3 existe la posibilidad de que estas técnicas se desarrollen más y puedan ayudar al astrónomo en sus exploraciones. LOS INSTRUMENTOS ESPACIALES DEL HOMBRE: LOS SATÉLITES 1. La telecomunicación satelitaria La telecomunicación mediante satélites problemas de comunicación en el planeta. resolvió prácticamente los Mucho antes de la era espacial se usaban elementos naturales portadores de comunicación como la ionósfera y algunos medios como los cables 10 submarinos. Sin embargo éstos no cuentan con suficiente ancho de banda, por ejemplo para la comunicación televisiva. Las microondas resolvieron parcialmente este problema por su amplia capacidad de transmisión. Sin embargo, aun en la comunicación por este medio se tienen ciertas limitaciones. Como estas ondas no son reflejadas por la atmósfera, no tienen la capacidad de comunicar directamente a dos estaciones situadas una debajo del horizonte de la otra. De ahí que este tipo de transmisión se logra mediante una red muy densa de estaciones repetidoras de microondas colocadas en tierra firme, pero, por supuesto, nunca en mares y océanos. Más aún, hay regiones que carecen de estas estaciones de microondas, por ejemplo en las altas montañas y en las selvas. De allí que antes de la era espacial, para comunicar Chile con Argentina la comunicación se lograba sólo vía Nueva York. Sin embargo los satélites de comunicación —como decíamos— resuelven todos estos problemas, ya que desde la órbita geostacionaria éstos funcionan como altas torres cuya "visión" abarca tanto mares y océanos como continentes. Actualmente la comunicación internacional y nacional se realiza mediante satélites pertenecientes a organismos internacionales. Sólo algunos países cuentan con sus propios satélites de comunicación, en general para servicio nacional, entre ellos, México con el Sistema Morelos. Las aplicaciones de la telecomunicación mediante satélites son múltiples. Entre otras figuran la telefonía, la televisión y la telegrafía ya sea a nivel regional, continental o transoceánico; también la comunicación entre pueblos remotos que antes estaban incomunicados. Canadá por ejemplo, es uno de los países de mayor extensión territorial con población esquimal al norte que, antes de la era espacial; carecían de medios de comunicación. Hoy en día no sólo pueden comunicarse entre sus diferentes pueblos sino también con grandes urbes. Aparte de la comunicación terrestre y oceánica existe también la comunicación entre estaciones terrenas y satélites o naves espaciales. Por ejemplo, es fundamental captar la información sobre la exploración realizada por naves espaciales en planetas, lunas y cometas y en la exploración de los espacios mismos. También la comunicación que se logra con los astronautas, durante su permanencia en el espacio es trascendente. Tal es el caso de los astronautas que permanecieron varias horas en el suelo lunar, o por ejemplo, la comunicación frecuente que se establece con los astronautas rusos, que llegan a quedarse unos nueve meses abordo del MIR, hasta ahora la única estación orbital permanente. 2. La teleobservación y los recursos naturales Como lo indica su nombre, la teleobservación significa observar, detectar o percibir a distancia. De ahí que también se le conozca por teledetección. Cuando se trata de la observación de los recursos naturales terrestres se le llama percepción remota. 11 Figura 5. Campo maderero con plaga, detectado por satélites de Percepción Remota. En general, para realizar la percepción remota (PR), los satélites coleccionan los datos mediante un código digital para después transmitirlos a la Tierra, donde son transformados en imágenes. El logro de una imagen terrestre de unos 34 225 km² se obtiene en aproximadamente dos horas. Con la percepción remota es posible detectar todos los recursos naturales, sus deterioros y transformaciones. Por esto es que la PR cobra una importancia impresionante no sólo por las posibilidades que ofrece de exploración y conocimiento de dichos recursos, sino también dentro de los procesos productivos y económicos de los países. De hecho, con la PR se han enriquecido muchas disciplinas. A continuación presentamos un listado que por si mismo habla del amplio y variado espectro en que la PR es útil. Aparecen solamente unos cuantos ejemplos. Objetos y disciplinas de la percepción remota Agricultura. Energéticos Oceanografía. Asentamientos (hidrocarburos y Rutas viales. humanos. geotermia) Selvas. Cartografía. Erosión. Silvicultura. Climatología. Meteorología. Suelos. Desertificación. Minería. Ecología. Pesca. Entre todas las innovaciones tecnológicas la PR es una de las más importantes ya que a cada país le interesa conocer a fondo el estado de sus propios recursos naturales. Sin embargo, hasta la fecha sólo cinco países cuentan con satélites de percepción remota, los cuales pueden explorar todo lo que encuentran a lo largo de sus órbitas. 12 Los países que cuentan con satélites de percepción remota son: la India, los Estados Unidos, la URSS, Japón y Francia. Entre éstos, la serie de dos satélites franceses Spot destaca por su gran avance tecnológico. El Spot 2 logrará la detección de casi todos los recursos de la mayoría de los países en aproximadamente 24 horas y estará ubicado en la órbita polar. La rapidez con la que efectuará sus operaciones, le permitirá fácilmente observar los recursos naturales temporales como —por ejemplo— el cultivo. Los países que, como el nuestro, no cuentan con satélites de PR, se ven obligados a comprar los datos que detectan los satélites de otros países. Asimismo necesitan comprar la infraestructura tecnológica para poder interpretar dichos datos. La compra por parte de nuestros países de los datos y de tecnología soluciona momentáneamente sus necesidades de exploración, que resulta muy costosa cuando trata de la exploración de recursos naturales temporales, tan importantes en la economía nacional de cualquier país. 3. Meteorología, navegación marina y oceanográfica Antes de la era espacial, la información sobre el estado del tiempo se realizaba mediante contadas estaciones terrestres, que sólo aportaban una información local ocasional. Con base en esta información se solían hacer pronósticos del tiempo muy deficientes, según los propios meteorólogos. Además resultaba imposible establecer estaciones en las montañas altas, océanos, mares y en los desiertos. Existen dos tipos de órbitas donde actualmente se sitúan los satélites meteorológicos: la órbita geoestacionaria y la órbita polar. La altura de la órbita geoestacionaria4 le posibilita a los satélites una perspectiva que abarca particularmente toda una cara del planeta —de continentes, océanos y nubosidad. Por las características de la órbita polar,5 los satélites meteorológicos situados en ella pueden hacer una "revisión de arriba hacia abajo de la Tierra", aunque por su escasa altura tienen una perspectiva mucho menor que los situados en órbita geoestacionaria. Para lograr una visión global y simultánea del estado meteorológico del planeta es necesario contar —por lo menos— con tres satélites situados en distintos puntos de la órbita geoestacionaria. La meteorología mediante satélites se inicia a partir de los años setenta con el lanzamiento de Tiros 1 en órbita polar. Su misión fue explorar y recoger 23 000 fotografías del estado del tiempo. Con ello, se inicia una era de predicciones meteorológicas de mucha mayor confiabilidad. La serie de satélites Tiros en órbitas polares no sólo toman fotografías del estado del tiempo sino además cuentan con instrumentos que detectan la temperatura y evalúan el contenido del ozono en la atmósfera. Se cuenta con satélites en órbita geoestacionaria desde 1966, que detectan ante todo el estado de nubosidad a nivel global. 13 La exploración meteorológica se realiza simultáneamente mediante satélites en órbitas polares y en órbitas geoestacionarias. Todo este avance logró que la exploración meteorológica fuera tridimensional y global. Por ello los satélites meteorológicos actualmente sirven para conocer el estado del tiempo tanto en la tierra como en mares y océanos. De allí que la navegación se guía hoy con base en la información satelitaria que proporciona los datos sobre el estado del tiempo, así corno sobre el estado de las corrientes marinas. Este avance en navegación marina y oceanográfica va tan lejos que hoy existen compañías que se dedican, con base en los datos de satélites, a señalar a los buques rutas de mayor seguridad y menor uso de combustible. Finalmente es posible, por la pronta y simultánea detección del estado del tiempo a través de satélites, la existencia de un sistema de alerta meteorológica mundial, para la prevención de daños posibles causados por fenómenos naturales de alto riesgo huracanes, tormentas, etcétera. LAS NAVES ESPACIALES EXPLORAN LOS PLANETAS DEL SISTEMA SOLAR Antes de la era espacial, el hombre, para la exploración de los planetas, sólo contaba con telescopios ópticos y de radiofrecuencia. Estos aparatos le proporcionaban una información no nítida debido, en parte, a las distancias de centenas y hasta miles de millones de kilómetros existentes entre los planetas observados y la Tierra. Con el advenimiento de la era espacial el hombre logró enviar al espacio múltiples naves dotadas de instrumentos para realizar misiones de exploración de los planetas del Sistema Solar. Tanto las naves como los instrumentos fueron totalmente automatizados, sin presencia ni participación de astronautas. La exploración de los planetas se realizó con diversos métodos. Para ello, las naves algunas veces solamente pasaban en la cercanía de los planetas; y algunas otras, las naves tenían una permanencia relativamente larga en órbita planetaria. En el caso de la exploración de los planetas de suelo sólido, se usó además el método de impacto con el suelo planetario, utilizando instrumentos para la exploración del mismo y del medio ambiente. Se usó también, desde la nave en órbita, un descenso suave de una "cápsula"6 o un "lander"7 que se depositaba en el suelo planetario y ejecutaba la exploración también mediante instrumentos automatizados. En los planetas gaseosos o líquidos como Júpiter, Saturno y Urano la exploración se realiza básicamente desde las alturas de las atmósferas planetarias. Los instrumentos a bordo de las naves de las cápsulas, de los "landers" o de los globos se utilizaron principalmente para la exploración de las atmósferas y su composición, así como del campo magnético, la magnetósfera, los Anillos de Van Allen, los vientos planetarios, la interacción con el viento solar y la presencia de rayos cósmicos.8 14 Otros de los instrumentos de exploración utilizados fueron los relacionados con los que exploraban las superficies planetarias, los satélites de dichos planetas, los asteroides y meteoritos. También las naves estaban equipadas con instrumentos indispensables para la telecomunicación con la Tierra radio, imagen televisiva y por supuesto, aparatos para la toma y envío de datos y fotografías. Y para terminar con los métodos de exploración planetaria el hombre aprovechó los "instrumentos naturales". Usó la fuerza de gravedad de algunos planetas para impulsar y encaminar las naves hacia otros planetas, ya sea para enviarlas en dirección perpendicular a la eclíptica o bien para dirigirlas hacia la frontera del espacio interplanetario, —hasta ahora desconocida— y para que éstas posteriormente se adentraran en el espacio interestelar. La exploración de los planetas se realizó por medio de las naves espaciales de la URSS y de los Estados Unidos empezando con los planetas más cercanos al Sol, a saber Venus, Marte y Mercurio y terminando con Júpiter, Saturno y Urano, que se encuentra a unos 3 000 millones de kilómetros de distancia del Sol. La exploración de los primeros se realiza entre 1961 y 1984, mientras que de los segundos entre 1972 y 1986. La exploración de Venus, Marte y Mercurio La serie de naves soviéticas Venera que exploraron Venus lograron en orden cronológico: el primer acercamiento a Venus; el impacto con el suelo venusiano; el descenso de una cápsula dotada de un paracaídas y finalmente la colocación de la nave en órbita venusiana y el subsecuente descenso a la superficie venusiana de un "lander". Además en 1984 la URSS envía las naves Vega 1 y Vega 2 hacia Venus, mismas que, como veremos, exploraron el cometa Halley dejando, cada una, un globo dotado de instrumentos para la exploración de la atmósfera. Los Estados Unidos en cambio envían primero a Venus los Mariner 2 y Mariner 10, que pasan a miles de kilómetros del planeta. En 1978 enviaron un orbitador9 venusiano, el Pionero-Venus, que mediante un radar exploró la atmósfera y realizó el estudio de la superficie por medio de cuatro sondas, dos del lado día y dos del lado noche. La exploración de Marte se realizó entre 1965 y 1974 mediante tres naves estadunidenses Mariner y siete naves soviéticas Marte. Los Mariners se limitaron al acercamiento al planeta mientras que la serie de naves de la URSS iniciaron su exploración colocándose en órbita y descendiendo después lentamente a la superficie marciana. Mercurio, el planeta más pequeño y cercano al Sol fue explorado en 1973 por el Mariner 10, que pasó tres veces cerca de este planeta fotografiando y enviando los datos a la Tierra. Exploración de Júpiter, Saturno y Urano Estados Unidos fue el único país que exploró Júpiter, Saturno y Urano. Para ello se utilizaron las naves Pionero 10 y 11 y Voyager 1 y 2. Nótese que la exploración de estos planetas —en contraste con los cercanos al Sol— se 15 basa en datos no siempre directos debido ante todo al hecho de que las naves no se pueden adentrar en las regiones más internas de los planetas. La exploración de Júpiter comienza con Pionero 10 lanzado en marzo de 1972 desde Cabo Kennedy. Después de once horas de vuelo cruza la órbita lunar y entra en la zona de los anillos de asteroides —que se encuentra entre Marte y Júpiter— la que atraviesa durante siete meses. Nueve meses más tarde inicia la exploración de Júpiter a una distancia de 209 600 kilómetros del planeta. La comunicación con la Tierra se logra mediante una antena que cuenta con un sensor solar como fuente de energía. El Pionero 10 abandonó Júpiter después de siete días de exploración. Se espera que cruzará la órbita de Plutón, y seguirá a lo largo de la eclíptica para posteriormente abandonar el Sistema Solar. Por su lado, la nave Pionero 11 —después de un viaje de 20 meses— llegó a Júpiter a fines de 1974, donde penetró hasta 36 800 kilómetros dentro de las nubes, desde donde exploró muchas de las características de Júpiter, superando lo realizado por Pionero 10. Terminando la exploración de Júpiter, e1 Pionero 11, también llamado Pionero-Saturno llegó a Saturno en 1979, después de recorrer aproximadamente tres millones de kilómetros en el espacio. La nave logró el mayor acercamiento al planeta al llegar hasta 20 000 kilómetros de profundidad debajo del techo de nubes. Terminando la misión, la fuerza de gravedad del planeta impulsó a la nave en la dirección perpendicular a la eclíptica. El mayor acercamiento de los Voyager 1 y 2 a Júpiter ocurre entre marzo y agosto de 1979 o sea unos 20 meses después de sus lanzamientos. Los grandes descubrimientos logrados mediante estas naves fueron observados en pantallas televisivas tanto en Estados Unidos como en México. Terminando la exploración, que duró más de 100 días, se logró enviar a la Tierra un número extraordinario (de 250 mil millones de bits) de datos. Realizada la misión en unos 100 días, se utilizó la fuerza de gravedad de Júpiter para dirigir los Voyager hacia Saturno, logrando así el encuentro con este planeta en agosto de 1980, exploración que termina en diciembre del mismo año. Acabada la misión, el Voyager 1, seguirá su camino a lo largo de la eclíptica, para llegar a la heliopausa; cruzando esta frontera —aún desconocida— la nave tomará el rumbo del espacio galáctico. Por otro lado y aprovechando una situación coyuntural, la que sólo ocurre una vez cada ,175 años, se logró mediante el uso de gravedad de Saturno encaminar al Voyager 2, hacia Urano. Así, después de ocho y medio años de viaje a través del espacio interplanetario esta nave se acercó en enero de 1986 a 107 000 kilómetros de este planeta, y durante 5 meses realizó la exploración del mismo. La transmisión a la Tierra de fotografías y datos obtenidos tomó dos horas y 45 minutos, siendo la distancia entre Urano y Tierra del orden de 294 mil millones de kilómetros. Para mejorar la transmisión de las señales provenientes del Voyager 2, se instalaron unas nuevas antenas parabólicas en Australia, España, California y en los Estados Unidos. 16 Después de terminar la misión, el Voyager 2 cruzará la heliopausa para iniciar una historia de navegación a través del espacio interestelar.10 LA EXPLORACIÓN DE LA LUNA La exploración de la Luna sin duda es hasta la fecha una de las hazañas espaciales más extraordinarias del hombre. En ella participaron tanto las naves norteamericanas como las soviéticas. La exploración de la Luna por parte de los Estados Unidos se inició en 1961 con dos tipos de misiones: las que se realizaron por medio de naves automatizadas y que podríamos llamar "auxiliares": los Rangers, los Surveyors y los orbitadores lunares. Estas misiones auxiliares sirvieron de apoyo a la serie fundamental —y de todos conocida— de las 18 naves Apolo. Como veremos más tarde, la exploración de la Luna por parte de los soviéticos se hizo mediante 24 naves, totalmente automatizadas conocidas con el nombre de Lunas. Las misiones de los Rangers estadounidenses y que comenzaron —como decíamos— desde 1961, consistían en una especie de hara-kiri: las naves se iban acercando a la Luna hasta impactarse y destruirse contra el suelo lunar. Durante los últimos 10 minutos anteriores a la colisión, lograban fotografiar la superficie del satélite y enviar las imágenes a la Tierra. Las misiones de los orbitadores lunares duraron muy poco por fallas ingenieriles. Sus misiones —desde la órbita lunar— eran nuevamente fotografiar la superficie para las futuras y apropiadas zonas de alunizaje de las naves Apolo y de los Surveyors. Esto comenzó en agosto de 1966 para terminar en 1967. Casi paralelamente, en mayo de 1966, se inician también las misiones de exploración de las naves Surveyors, que entraron en órbita lunar cumpliendo con proyectos de exploraciones ingenieriles y científicas así como de toma de imágenes. La finalidad de estas exploraciones era también la selección de las zonas más adecuadas para el alunizaje de las naves Apolo. Para ello, estas naves utilizaron el método de descenso suave a la superficie lunar. En estas mismas misiones se realizaron también algunas excavaciones del suelo lunar para su análisis químico. Otro de los elementos auxiliares para el proyecto Apolo fueron los satélites tripulados Gemini, de órbita baja, que cumplían con diversas misiones, de las cuales sólo algunas estaban asociadas al proyecto Apolo. Se centraron en la exploración de las "condiciones de acoplamiento" entre naves, mismas que se esperaba después lograr entre el módulo lunar,11 que bajaría a la Luna, y la nave Apolo, que se quedaría en órbita lunar. El programa se inició en l966, con la serie de seis naves Apolo totalmente automatizadas y sin tripulación a bordo. Sus principales misiones fueron las pruebas ingenieriles de funcionamiento de cohetes de la nave y de descenso y ascenso del módulo lunar. Los vuelos tripulados comenzaron con el Apolo 7, en el que los astronautas realizaron —desde la nave— las pruebas del funcionamiento de la misma y experimentaron con el sistema de rastreo, comando y comunicación. También se llevaron a cabo experimentos médicos sobre la 17 desmineralización de los huesos y los cambios celulares de la sangre de los astronautas. El Apolo 8 fue la primera nave que además de ser tripulada, pudo permanecer en la órbita lunar durante 20 horas. Ya con las naves Apolo 9 y 10, los astronautas realizaron pruebas ingenieriles en el módulo lunar y pruebas de alunizaje de los astronautas. Finalmente, estas naves hicieron un vuelo de ocho horas en el que los astronautas permanecieron en el módulo orbitando la Luna, a la altura de 14 km sobre la superficie de nuestro satélite. No fue sino hasta julio 20 de 1969, cuando el Apolo 11 se cubre de gloria por lograr el primer descenso del hombre a la superficie lunar. Esta misión tuvo también como objetivo la exploración del suelo de la Luna, sus características y del medio. Así el Apolo 11 mostró la capacidad del hombre de salir al espacio, trabajar en éste para regresar después sano y salvo a la Tierra. Las siguientes misiones de la serie Apolo se concentraron en exploraciones seleneológicas y la exploración y colección de muestras del suelo lunar, incluyendo aquellas que fueron traídas a la Tierra. Además se estudiaron las variaciones gravitacionales de la Luna, el medio lunar, la penetración del viento solar, la presencia de protones, iones y electrones en el espacio lunar y las actividades sísmicas de la Luna. Fueron muy importantes también las exploraciones del ambiente lunar, mismas que se lograron por la interacción del hombre con el vehículo de transporte "Rover", con éste, los astronautas podían trasladarse a distintas partes de la Luna. El proyecto termina en 1975 con el lanzamiento de la nave Apolo 18 y la permanencia temporal de astronautas en el suelo lunar. En este último proyecto participaron también los soviéticos. Con el amarizaje en el Océano Pacífico y el exitoso regreso de los astronautas a la Tierra, concluyen las enriquecedoras misiones de la serie Apolo. En contraste con la exploración estadounidense de la Luna, la Unión Soviética se basó en naves e instrumentos robotizados. La exploración de la Luna, mediante 24 naves llamadas Luna la iniciaron los soviéticos en 1959 con el lanzamiento de Luna 1, la que pasó a 6 500 km de nuestro satélite mientras iba coleccionando fotos del mismo y enviándolas a la Tierra. La nave Luna 2 chocó con el suelo lunar pero logró una exploración mediante instrumentos que mostraron la ausencia en nuestro satélite de las radiaciones de los Anillos de Van Allen. La Luna 3 pasó a 7 000 km, de la Luna, logrando fotografiar su lado obscuro. Entre 1963 y 1965 se lanzaron cinco naves; todas éstas intentaban descender suavemente en la Luna: algunas no lo lograron porque se alejaron demasiado y otras porque chocaron con la superficie lunar. La nave 9 lanzada en 1966 y enviada a la órbita lunar, alrededor de la cual orbitó 460 veces, seleccionó durante un semestre datos circunlunares que envió a la Tierra. En cambio, Luna 10 logró un estudio mediante instrumentos y descubrió que el campo magnético de la Luna es muy débil 18 y que alrededor de ésta existe una ínfima densidad de micrometeoroides. Las siguientes misiones de las naves Luna se concentraron en datos científicos tales como la densidad del suelo, el campo gravitacional de la Luna y las relaciones masa-Tierra-Luna. Para conocer la tercera dimensión del suelo lunar se utilizó un taladro automático que penetró hasta 35 cm de profundidad del suelo, enviándose 100 gr de muestras lunares a la Tierra. La robotización de las naves e instrumentos soviéticos en la exploración lunar, desempeñó un papel fundamental para el mayor conocimiento de la Luna. En noviembre de 1970 se logró el descenso al suelo lunar, por medio de una rampa, del vehículo robotizado Lunakhod, que contó con un radio que transmitió y recibió las instrucciones, dos sistemas de televisión para lograr imágenes panorámicas, cámaras fotográficas, un sistema de antenas, telescopio de rayos x, detectores de protones, electrones y partículas alfa. La misión del Lunakhod 2 fue similar a la del anterior Lunakhod, pero viajó a través de zonas accidentadas y a lo largo de distancias más grandes. Por ello el Lunakhod 2 pudo obtener un mayor número de datos. La exploración de la Luna por los soviéticos terminó en 1976 con las misiones de las naves 22, 23 y 24 de la serie y que se abocaron a la exploración de la Luna desde la órbita. Así terminan estas interesantes misiones soviéticas robotizadas. EL COMETA HALLEY En su larga historia de 30 viajes alrededor del Sol, en noviembre 27 de 1985 el cometa Halley se encontró con una serie de naves espaciales esperando su aparición. 19 Figura 6. Cometa Halley, explorado por medio de satélites de diferentes países. Entre éstas figuraba el Giotto de la ESA (Agencia Espacial Europea), los dos satélites japoneses Sakigake y Suisei, la nave internacional ICE y las dos naves rusas Vega 1 y Vega 2, una de las cuales, como ya lo mencionamos, antes de llegar al Halley pasó cerca de Venus dejando en la superficie del planeta un "lander" y dos globos (Figura 6). Tomemos como ejemplo la exploración realizada por las dos naves espaciales Vega 1 y Vega 2, en la que cooperaron los Estados Unidos con la Unión Soviética. En menos de dos horas las naves Vega atravesaron el cometa a 280 000 km/seg cruzando la cola del cometa y acercándose hasta unos 5 000 kilómetros del núcleo. Este cuerpo sólido en forma de una papa, resultó ser el objeto más oscuro del Sistema Solar. El Sol, al calentar el material del núcleo, da lugar a que se emita un gas con pequeñas partículas de polvo. La lista de elementos de la cola incluye entre otros CN, C, CH, H20, NH2 y HCN; se detectó también que la componente principal del gas ionizado está formada por agua. Además, con los aparatos a bordo se descubrió también la presencia del plasma y de una onda de choque que se extiende a un millón de kilómetros. Para resumir, de la exploración del Halley se concluye que los cometas son pequeños cuerpos de polvo y hielo, que quedaron de la temprana formación del Sistema Solar. 20 El calentamiento del cometa en la cercanía del Sol y la aureola que se forma alrededor del núcleo es en parte responsable de toda la mística de siglos que se asocia a los cometas. NOSOTROS EN LA ERA ESPACIAL Nos gustaría presentarles el panorama actual de las actividades espaciales en nuestro país. La Universidad Nacional Autónoma de México forma cuadros de alto nivel académico en múltiples disciplinas espaciales, tanto en ciencias básicas y aplicadas especiales, como en sociales. Recientemente la UNAM está desarrollando tecnología espacial;12 al mismo tiempo, atiende sus necesidades haciendo uso de la infraestructura tecnológica espacial ya existente en el país. También, dentro de sus actividades espaciales, participa el sector gubernamental y algunas otras instituciones del país. Veamos esto con más detenimiento. El sector universitario La trayectoria espacial de la UNAM, se inicia en 1962 con la fundación del Departamento del Espacio Exterior —hoy Departamento de Física Espacial— en el Instituto de Geofísica. Además, en esa fecha se integró al Plan de Estudios de la Facultad de Derecho, la cátedra de derecho en aeronáutica y astronáutica. Actualmente, el Instituto de Geofísica ofrece cursos de maestría y doctorado en Física Espacial. Conviene señalar que las ciencias espaciales básicas, como la Física Espacial del Sistema Solar y la Astrofísica, se desarrollan exclusivamente en los Institutos de Geofísica y el de Astronomía de la UNAM. La climatología y meteorología satelitarias se realizan en el Centro de Ciencias de la Atmósfera de la UNAM. Diversos institutos de la UNAM utilizan los datos obtenidos de percepción remota: el instituto de Geografía, el Instituto de Geología, la Facultad de Ciencias, el Instituto de Ciencias del Mar y Limnología, el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas, y el Instituto de Geofísica. Sólo en los últimos se investiga sobre ella y en el de Geofísica se imparten cursos de posgrado sobre percepción remota. La tecnología, que comprende por ejemplo el diseño de construcción de antenas parabólicas, se realiza en el Centro de Instrumentos, y el desarrollo de sistemas de codificación, para la comunicación satelitaria, en la Facultad de Ingeniería. Grupo Interdisciplinario de Actividades Espaciales (GIAE) Por otro lado, el Grupo Interdisciplinario de Actividades Espaciales de la UNAM, fundado en 1985 por la Rectoría, coordina proyectos en ciencias básicas aplicadas y sociales y de tecnología satelitaria con muchos de estos institutos y con otras instituciones de investigación y tecnológicas del país. 21 Uno de sus principales proyectos es la realización de experimentos espaciales automáticos para ser realizados en estado de microgravedad y vacío relativo. Otro de los proyectos de gran importancia del GIAE es el diseño y construcción de un satélite experimental de colección y envío de datos en el que participan algunas cifras instituciones científicas del país. Además, está especialmente interesado en la formación de recursos humanos en el área espacial. Desarrolla investigaciones sobre la comunicación satelitaria y sobre la repercusión social de la era espacial, tanto en México como en Latinoamérica. Estos últimos proyectos los realiza en coordinación con las facultades de Ciencias Políticas y Sociales y la de Filosofía y Letras. Asimismo, el GIAE cuenta con proyectos de cooperación latinoamericana de tecnología espacial. El sector estatal Dentro del sector estatal son cuatro las secretarías implicadas en las actividades espaciales; a saber: la Secretaría de Relaciones Exteriores (SRE), la Secretaría de Comunicaciones y Transportes (SCT), el Instituto Nacional de Estadística, Geografía e Informática (INEGI), dependiente de la Secretaría de Programación y Presupuesto, y la Secretaría de Agricultura y Recursos Hidráulicos (SARH). Desde el advenimiento de la era espacial, la SRE juega un papel importante en lo que se refiere al derecho internacional del espacio. Se ha caracterizado por su clara pronunciación para que éste sea utilizado con fines pacíficos y por su insistencia en el desarme mundial. También esta Secretaría cuenta con la Dirección General para la Organización de las Naciones Unidas que se encarga de establecer relaciones con la División de Asuntos del Espacio Exterior de la ONU. La Secretaría de Comunicaciones y Transportes (SCT) se ocupa de las comunicaciones mediante satélites en México. Maneja el sistema de telefonía, telex y televisión a través del Sistema Morelos, desde su adquisición en 1985. La estación de control y telemetría está ubicada en Iztapalapa, Distrito Federal. Por otro lado, cuenta desde 1968 con la estación terrena en Tulancingo para la comunicación satelitaria internacional, utilizando el Sistema Intelsat13 También imparte esta Secretaría cursos sobre comunicaciones, basados generalmente en tecnología importada en la Escuela Nacional de Telecomunicaciones. El Instituto Nacional de Estadística y Geografía (INEGI) y la Secretaría de Agricultura y Recursos Hidráulicos (SARH) utilizan datos satelitarios para la exploración y conocimiento de los recursos naturales nacionales. El INEGI se dedica principalmente a la elaboración, cartográfica y al procesamiento de imágenes digitales. La SARH, por su parte, cuenta con el Servicio Meteorológico Nacional (SMN) a través de su estación receptora de imágenes de los satélites meteorológicos Geos y Tiros. Éstos proporcionan gratuitamente su servicio por medio de la Organización Mundial Meteorológica. Igualmente hacen uso 22 de la PR (percepción remota) para estudiar y evaluar los índices de desforestación del país. El servicio que presta la SARH, a través del Sistema Meteorológico Nacional, resulta de gran utilidad para el Servicio Aeronáutico Nacional (SENEAM). Instituto Politécnico Nacional El Instituto Politécnico Nacional (IPN) se dedica principalmente al desarrollo de antenas y equipo terreno de recepción de señales de satélites. Imparte a su vez cursos de licenciatura y maestría en comunicaciones eléctricas y electrónicas del área espacial. El Departamento de Física y Matemáticas del IPN desarrolló modelos matemáticos para control de la estabilidad en órbita del Morelos I. Instituciones regionales En la provincia mexicana existen instituciones dedicadas al área espacial que se circunscriben a actividades concretas y regiones específicas. En Jalapa, Veracruz, se encuentra el Instituto de Investigaciones de Recursos Bióticos (INIREB) que utiliza imágenes de percepción remota para estudiar el clima y la vegetación tropical. En el Centro de Investigaciones Científicas y Estudios Superiores de Ensenada, Baja California (CICESE) se realizó un plan de telefonía rural regional y se creó el primer laboratorio nacional de electrónica para comunicaciones espaciales y estaciones terrenas de baja capacidad para recepción de imágenes del satélite Morelos. Se ofrecen cursos de maestría y doctorado y comunicaciones. En Cuernavaca, Morelos, el Departamento de Comunicaciones del Instituto de Investigaciones Electrónicas (IIE) ha realizado diversas actividades espaciales: un programa de computadoras para diseño de redes de comunicación vía satélite, el diseño de una antena parabólica y un programa para la automatización de mediciones del Sistema Morelos. Si bien el panorama general de las actividades espaciales en México no es muy desarrollado, también es cierto que cuenta con una base científica espacial bastante fuerte que tiene las condiciones para un desarrollo tecnológico propio. De allí nuestro interés en que los jóvenes participen y reconozcan la importancia del quehacer espacial en nuestro pais, además, de lo atractivo que puede resultar el trabajar en esta área de vanguardia. EL PRESENTE Y EL FUTURO DE LA ERA ESPACIAL Para completar la información sobre el uso del espacio; nos gustaría señalar cuáles son las corrientes recientes en esta rama y los futuros proyectos espaciales. Los vehículos de transporte espacial y el sistema de la primera estación permanente En 198l, los Estados Unidos iniciaron los vuelos de transbordadores: vehículos espaciales tripulados de gran capacidad de carga, que se colocan 23 y permanecen unos siete días en órbita, a una altura de 300 km, antes de su retorno a la Tierra. Los transbordadores cuentan con un compartimento de carga —que puede abrirse al espacio— y desde el cual se pueden lanzar los satélites y enviarlos a su órbita,14 realizar ejercicios extravehiculares, así como experimentos expuestos al medio espacial. La nave cuenta también con un espacio interior para la tripulación y para los llamados "expertos de carga", quienes son los responsables de la realización de experimentos científicos. Después de múltiples lanzamientos de transbordadores estadounidenses, los vuelos fueron suspendidos en 1986, por el lamentable accidente sucedido al Challenger. En ese mismo año, los soviéticos lanzaron al espacio la primera estación permanente MIR, que orbita la Tierra a 340 km de altura. Esta estación, hasta ahora la única en su género, cuenta con una capacidad de acoplamiento con 6 naves espaciales. Dicho enlace puede lograrse automáticamente o mediante la acción del hombre. La estación permanente MIR es parte de un sistema que cuenta con dos tipos de naves auxiliares que tienen distintas funciones. El Soyuz M tripulado, que ya una vez acoplado cumple con la misión de permanecer algún tiempo en la estación intercambiando astronautas y experimentos, para posteriormente regresar a la Tierra. En cambio, las naves Progreso tienen como función la revitalización y abastecimiento de la estación permanente. Para ello, logran el acoplamiento automático y retornan también automáticamente a la Tierra. MIR cuenta con cubículos para astronautas, un comedor y diversos espacios dedicados a la realización de experimentos científicos y obtener datos fotográficos. Actualmente, en la estación suelen permanecer dos astronautas unos diez meses, quienes realizan experimentos tanto dentro como fuera de la estación. Figura 7. 24 Figura 8. Experimentos en estado de microgravedad y vacío Entre los experimentos actuales figuran el posible aprovechamiento de las condiciones del estado de microgravedad y vacío que ofrece el espacio a las naves espaciales en órbita terrestre. Tal es el caso de los transbordadores y del MIR. Estas naves logran por ejemplo la perfecta aleación de múltiples metales, así como la excelencia de fármacos. En la Tierra estos procesos distan de ser perfectos por la fuerza de gravedad, las corrientes convectivas y los contactos con el crisol, que provocan que dichas aleaciones sean impuras. Los proyectos futuros de la era espacial Hasta aquí hemos descrito brevemente algunos de los proyectos espaciales ya realizados o en marcha. Pero la investigación por medio de satélites contempla proyectos aún más ambiciosos a futuro, como ejemplo mencionaremos el proyecto que existe para ser realizado a fines de los 80 y principios de los 90 y que consiste en un estudio exhaustivo sobre el estado actual de la Tierra, de su medio, sobre los elementos cambiables con el tiempo y sobre los que el propio hombre induce. Así también existen proyectos espaciales a largo plazo pero que se perfilan en un futuro relativamente cercano. Para asegurar las fuentes de energía para la Tierra, se planea un "sistema de satélites de energía solar", que coleccionarían y enviarían la energía solar a la Tierra. Este proyecto resultaría factible, siempre y cuando se pudiera solucionar el deterioro del medio espacial inducido por los materiales de propulsión de dichos satélites. Se propone también la elaboración en el espacio de estructuras altamente ligeras para usos múltiples. Se planea además el envío y utilización de minerales de Marte y de la Luna, ante todo los que escasean en la Tierra, como es el aluminio y el uranio. Se 25 prevé también el establecimiento de estaciones de lanzamiento de naves espaciales desde la Luna y desde Marte. Entre los proyectos a largo plazo, figura una renovada exploración de los planetas y sus satélites, para estudiar no sólo sus características actuales, sino también los elementos de su deterioro. Finalmente, se prevé en un futuro no muy lejano la construcción e instalación de múltiples estaciones espaciales en donde, se creen artificialmente las condiciones necesarias para que el hombre pueda vivir. De ahí los proyectos de agricultura espacial y la posibilidad de que nazcan niños en estos hogares. De ahí surge esta pregunta ¿por qué antes de pensar en hogares en el espacio, no tratamos de proteger y cultivar más la Tierra?, ciertamente el planeta más bello e importante para nosotros. 26 I I . E L S O L Y S U D O M I N I O EL NUEVO MUNDO QUE SE VA A EXPLORAR SILVIA BRAVO* EL SOL se encuentra a 150 millones de kilómetros de la Tierra, una distancia tan grande que cabrían en ella más de 10 000 Tierras. Es una estrella más o menos joven, de mediano tamaño y de luminosidad mediocre, que en el marco general de la población estelar no tiene nada de especial. Sin embargo, a los habitantes de su planeta, la Tierra, su familiar imagen, su regular aparición sobre el horizonte nos hace sentir seguros del mañana y no podemos dejar de considerarlo hermoso. El Sol, como fuente de luz y calor, fue reconocido seguramente desde tiempo muy remoto, desde que el hombre adquirió conciencia de lo que le rodeaba. Los antiguos humanos adoraron al Sol como un dios en todas las culturas, conscientes de que sin él la vida sería imposible. Pero el hombre tardó muchos siglos en darse cuenta de que el Sol hace algo más que enviar calor y luz a la Tierra. Hace apenas tres siglos que, gracias a los trabajos sobre la gravitación realizados por Newton, la humanidad aprendió a ver también al Sol como el origen de la fuerza que mantiene a nuestra Tierra y a muchos otros cuerpos celestes en órbita alrededor de él. Sin la fuerza gravitacional del Sol, la Tierra y todos los cuerpos del Sistema Solar escaparían, perdiéndose en los negros confines de un espacio inhóspito. Así, el Sol mantiene unidos a él, girando armoniosamente, a un gran conjunto de cuerpos entre los que están los planetas y sus satélites, un gran número de asteroides y una infinidad de cometas, que juntos constituyen el Sistema Solar. Figura 9. Grupo de manchas solares (zonas oscuras) mostrando la granulación convectiva. Desde que Galileo apuntó su telescopio al Sol hace casi cuatrocientos años, éste dejó de ser sólo un objeto mítico o un centro geométrico para 27 convertirse en un objeto físico digno de un estudio científico. El descubrimiento de las manchas solares representó para algunos una desilusión —¡el Sol no es perfecto!—. Pero para otros representó un reto a la investigación. ¿Qué son las manchas solares? ¿Cómo se producen ¿Cómo y por qué evolucionan? Significó el descubrimiento de la gran actividad en la superficie del Sol, la posibilidad de medir su altísima temperatura y observar su campo magnético. La inferencia de la existencia de un gran reactor natural de fusión en su núcleo, y la búsqueda de explicaciones físicas coherentes para los procesos que en él se dan, abrieron para el hombre un vastísimo campo de investigación en el cual todavía hay camino por andar. Se sabe ya que la actividad del Sol es periódica, con épocas de gran actividad seguidas por épocas de calma en ciclos de aproximadamente once años. La aparición, desplazamiento y final desaparición de las manchas solares son un buen fenómeno indicativo de esta actividad. El Sol, por ser la estrella más cercana, representa además un botón de muestra de los procesos que se deben estar dando en los miles de millones de estrellas que componen nuestro Universo. Y es un gran laboratorio para el desarrollo de varias de nuestras teorías fundamentales del mundo físico. Para el hombre de hace 30 años, el Sol era un enorme cuerpo masivo que mantenía una gran corte a su alrededor. Un gran horno nuclear lleno de actividad que prodigaba calor y luz y muchas otras formas de radiación electromagnética. La radiación electromagnética que emite el Sol ocupa todo el rango de frecuencias, desde los energéticos rayos gamma, hasta las enormes ondas de radio, pasando por el intervalo de luz visible y los rayos infrarrojos y ultravioleta. Algunas de estas radiaciones son nocivas para la vida, pero nuestra atmósfera nos proporciona una coraza protectora que sólo permite la llegada a la superficie de la Tierra de dos tipos de radiaciones: la radiación visible (la luz), con algo de ultravioleta e infrarrojo, y cierto rango de microondas. El hombre de hace 30 años sabía muy bien esto y se alegraba de vivir en la superficie y de haber pertenecido a la especie afortunada que generó ojos para ver uno de estos dos tipos de radiaciones y ser favorecido en la selección natural respecto a otras especies que quedaron en tinieblas. Pero el hombre de hace 25 años ya sabía algo más. Con el advenimiento de la era espacial, los sentidos del hombre pudieron orientarse hacia el espacio. Y aunque no se esperaban mayores sorpresas, la era espacial ha cambiado muy profundamente la imagen que el hombre tenía del mundo que lo rodea cuando sólo lo observaba desde la Tierra. Así, hace más de 25 años que el hombre pudo, gracias a sus exploradores espaciales, detectar la existencia del viento solar. Supo que el Sol, además de emitir radiación electromagnética, emite partículas en forma continua. Un velocísimo viento de 400 kilómetros por segundo fluye constantemente por el medio interplanetario procedente del Sol. Este viento solar no es más que la continua expansión de la corona (la parte más alta de la atmósfera solar), la cual es demasiado caliente para poder ser retenida por el campo gravitacional del Sol. El viento solar, que a la altura de la Tierra tiene una densidad del orden de 10 partículas por centímetro cúbico, consiste principalmente de hidrógeno ionizado, esto es, protones y electrones libres de la unión atómica y mezclados en lo que se conoce como un plasma. Este plasma, un trillón de veces más tenue que nuestra atmósfera, es capaz de 28 trasmitir hacia el espacio interplanetario muchas de las características de la actividad solar hasta una distancia mayor que la órbita de Plutón. Su alcance delimita lo que se conoce como heliósfera y su continuo fluir es responsable en gran medida del llamado clima heliosférico. Una de las características más impresionantes de este viento solar es su capacidad de deformar y confinar el campo magnético de los planetas que lo tienen, como la Tierra, en cavidades alrededor del planeta; impidiendo su extensión en el medio interplanetario. Estas cavidades, llamadas magnetósferas, no pueden ser observadas ópticamente y su descubrimiento y mapeo es posible solamente por medio de mediciones magnéticas in situ proporcionadas por vehículos espaciales. Estas magnetósferas sirven a su vez de corazas protectoras del viento solar que impiden que éste penetre hacia los planetas que las poseen, como es el caso de nuestra Tierra. Júpiter, con un campo magnético 19 000 veces más intenso que el de la Tierra tiene una magnetósfera mucho mayor. Saturno, Urano y Neptuno tienen magnetósferas de tamaños intermedios entre la de la Tierra y la de Júpiter. Al pequeño Mercurio se le ha descubierto también una magnetósfera y éstos parecen ser los únicos planetas que las tienen, pues son los únicos que poseen campos magnéticos intrínsecos considerables. En los planetas donde no hay campo magnético importante, el viento solar choca directamente con la parte alta de la atmósfera, como en el caso de Venus y posiblemente el de Marte. Y en cuerpos como los satélites, como la Luna, que carecen en general de atmósfera, el viento solar golpea directamente sobre su superficie. Figura 10. Fotografía del Sol en H mostrando su granulación y una enorme protuberancia. El plasma emitido por el Sol es también responsable de los cinturones de radiación atrapada que rodean a los planetas con campos magnéticos importantes, y que en el caso de la Tierra son dos, llamados Cinturones de Van Allen. Es también el causante de los bellísimos espectáculos conocidos como auroras, que llenan de ondulantes cortinas de luz los cielos de las regiones cercanas a los polos. Y es el viento solar también el que define la orientación de las colas que los cometas adquieren al pasar cerca del Sol, las cuales se orientan radialmente hacia afuera a lo largo de su órbita. 29 Pero no sólo sabemos más del Sol ahora que hemos entrado en la era espacial. Nuestro conocimiento de los planetas mismos también se ha beneficiado con las técnicas que han sido desarrolladas en los últimos 30 años. Hace más de 400 años, Copérnico había ya reconocido al Sol como centro de nuestro sistema y ordenado alrededor de él a los seis planetas más cercanos Mercurio, Venus, Tierra, Marte, Júpiter y Saturno, los cuales son observables a simple vista. Urano, Neptuno y Plutón debieron esperar al telescopio para poder ingresar legalmente a la familia. La Luna, reconocida ya como satélite de la Tierra, fue observada por Galileo a través de un lente hace casi cuatrocientos años, descubriendo grandes irregularidades en su superficie, algunas de las cuales se llamaron "mares" por considerarlas cuencas llenas de agua. La Luna fue el primer cuerpo exterior al que se envió un vehículo espacial y el único hasta ahora fuera de la Tierra donde el hombre ha dejado su huella. Ahora sabemos que nuestro satélite es un mundo desolado, sin aire ni agua y aparentemente sin ningún tipo ya de actividad interior. Sus "mares" son sólo cuencas vacías y su superficie, marcada por hondos cráteres y altas y agudas montañas, cubierta totalmente de arena, nos muestra un mundo inhóspito donde no pueden existir ni las formas más simples de vida. Con un campo gravitatorio de alrededor de un sexto del de la Tierra, ha perdido su atmósfera y con ello su capacidad de almacenar calor y mantener una temperatura relativamente constante. Debido a esto, la superficie de la Luna se encuentra por encima del punto de ebullición del agua durante el día y su temperatura desciende a 140°C bajo cero durante la noche. El análisis de las rocas lunares, traídas por los astronautas que han pisado su suelo, revela una composición química y una historia geológica muy diferente a la de la Tierra; por lo que ya no se cree en la posibilidad de que alguna vez haya sido parte de nuestro planeta, como se pensó. Pero aunque la huella del hombre sólo se ha estampado en la Luna, sus vehículos exploradores han visitado ya casi todos los planetas. Mercurio, por su diminuto tamaño y su cercanía al Sol, ha sido muy difícil de observar telescópicamente en detalle. Pero cuando el vehículo espacial Explorador X se acercó a él y envió imágenes de su superficie, se encontró un mundo muy semejante a la Luna. Seco y sin atmósfera, con cráteres y mares, con temperaturas de casi 400°C del lado día y cercanas a -200°C del lado noche, Mercurio es aún más inhóspito que nuestro satélite. Siendo su periodo de rotación dos terceras partes de su periodo de traslación alrededor del Sol, el día mercuriano resulta ser más largo que su año y como su eje es prácticamente perpendicular a la elíptica, las estaciones en Mercurio se alternan por longitudes y no por latitudes como en la Tierra. 30 Figura 11. Un astronauta con su equipo de exploración sobre la superficie de la Luna. Venus, la estrella de la mañana que Galileo descubrió que era un cuerpo opaco que sólo refleja la luz del Sol, es, a pesar de su bello aspecto, lo más parecido a un infierno. Con una atmósfera de bióxido de carbono sumamente densa, con lluvias corrosivas de ácido sulfúrico y tan caliente que el hierro en la superficie está fundido, no sólo impide cualquier tipo de actividad orgánica sino que ha estropeado muy rápidamente el funcionamiento de los vehículos espaciales que se han logrado posar en su superficie. Sólo los Venera rusos han logrado permanecer activos durante un corto periodo, soportando una presión noventa veces mayor que la de la Tierra y nos han dado a conocer las terribles condiciones ambientales de este planeta que alguna vez fue considerado el gemelo de la Tierra. Sondeos realizados por medio de radar han revelado la presencia de abruptas cordilleras y hondos barrancos y han mostrado que Venus gira alrededor de su eje una vez cada 245 días y en sentido contrario al de la Tierra. Marte, el pequeño planeta rojo, cuyos canales han hecho desbordar la imaginación de los autores de ciencia ficción y han agitado el interés de los científicos, es ahora un mundo bastante conocido. Las misiones espaciales Mariner y Vikingo nos han mostrado un mundo muy distinto a lo que sugerían las observaciones telescópicas, aunque con parajes sorprendentemente similares a algunos desiertos de nuestro planeta. Marte es un planeta árido y frío con casquetes de hielo carbónico, sin agua en su superficie ni oxígeno en su ligera atmósfera y poseedor de la montaña más alta que conoce el hombre, con más de tres veces la altura del monte Everest. Su suelo rojizo, lleno de arenas y pedruscos se ve azotado por veloces vientos que levantan grandes tormentas de polvo que pueden durar varios meses. Ahora seco y aparentemente estéril se especula que tal vez en el pasado pudo haber tenido condiciones adecuadas para mantener la vida y se plantean posibilidades de volver a convertirlo en un mundo fértil. Mercurio, Venus, la Tierra y Marte constituyen los planetas terrestres, pequeños y de superficies sólidas, que son los que se encuentran más cercanos al Sol. Más allá se encuentran los gigantes gaseosos, Júpiter, 31 Saturno, Urano y Neptuno, animados de rápidos movimientos de rotación y cuyas atmósferas están constituidas principalmente de hidrógeno y helio — aunque es posible que posean núcleos sólidos— de tipo terrestre. Las misiones espaciales del hombre, Pioneer y Voyager, también nos han ayudado a conocer mejor a estos enormes y lejanos parientes. Figura 12. Fotografía de Júpiter mostrando la gran mancha roja de su atmósfera. Júpiter, el hermoso gigante de nuestro Sistema Solar, que concentra más del 70% de la masa planetaria, ha proporcionado las fotografías más bellas que han resultado de las misiones espaciales. Es el único planeta que tiene una cierta emisión de luz propia, semejante a una estrella, y posee una superficie turbulenta y agitada, arrastrada por un movimiento de rotación sumamente rápido que hace que un día en Júpiter dure menos de 10 horas. El gran gigante anaranjado presenta tempestades violentísimas y perturbaciones electromagnéticas intensas que descargan en forma de relámpagos, y su conocida mancha roja, en el hemisferio sur, no es más que un virulento torbellino cuyo origen aún se desconoce. Los satélites de Júpiter, visibles casi todos ellos a través del telescopio, revelaron grandes sorpresas cuando fueron observados de cerca por los exploradores espaciales. Io, su satélite más cercano, posee una intensa actividad volcánica que lanza bocanadas de gases sulfurosos a grandes distancias. Europa y Calisto, otros dos de los grandes satélites de Júpiter, están dando ahora mucho tema de estudio a los geólogos planetarios por sus interesantes configuraciones superficiales. Júpiter tiene además otras lunas pequeñas, como Amaltea, que hacen un total de por lo menos 14, y un anillo tenue, como el de Saturno, que no es visible desde la Tierra. Saturno, el planeta de los anillos, también nos ha sido acercado por los ojos de los vehículos espaciales. El bello espectáculo que este planeta ofrece a través de un telescopio, es aún superado por una visión cercana que nos muestra la estructura de sus anillos extensos y planos, compuestos de infinidad de rocas de hielo. Saturno, un gigante menos grande que Júpiter, parece tener una atmósfera menos turbulenta y es de una densidad tan baja que si se pudiera colocar en un gran estanque todo él flotaría. Tiene por lo menos 10 satélites; el mayor, Titán, es el único satélite del Sistema 32 Solar que posee una atmósfera. Ésta está constituida principalmente de nitrógeno, como la nuestra, y ha proporcionado tema para especulaciones sobre sus posibilidades de generar vida en el futuro. Urano, un apacible gigante verdoso, poseedor de 11 satélites y unos hermosos aunque tenues anillos, ha resultado una sorpresa al descubrirse que su eje de rotación está casi acostado sobre el plano de su órbita; La reciente visita del Voyager 2, en enero de 1986, mostró que Urano tiene también un campo magnético y un anillo semejante a los anillos de Van Allen de la Tierra. Sin embargo, la inclinación tan grande entre su eje magnético y su eje de rotación ha resultado una sorpresa y un misterio que aún no ha podido resolverse. La variedad de características superficiales que se observaron en sus satélites muestran historias geológicas muy diversas e interesantes. Más allá, Neptuno, el gigante gaseoso más lejano, es un mundo muy similar a Urano, al cual se le conocen dos satélites y parece también tener anillos. Y finalmente, Plutón, el extraño de la familia, es un pequeño planeta de tipo terrestre que se cree que fue un satélite de Neptuno. Frío y sin atmósfera se encuentra a su vez acompañado por un pequeño satélite y es poco aún lo que sabemos de él. Es indudable que ahora, el hombre conoce mucho mejor el espacio en el que habita. Sabe que su Sol es sólo una de las miles de millones de estrellas de una galaxia entre las miles de millones de galaxias que pueblan nuestro Universo. Y en búsqueda del conocimiento de su entorno, ha recurrido a su ciencia y a su capacidad técnica, a su valor y pericia, y ha echado mano de todo tipo de posibilidades observacionales por medio de telescopios ópticos, radiotelescopios, laboratorios espaciales, y aun detectores de radiación cósmica, para explorar y comprender mejor la parte del Universo donde le tocó nacer. Desde los tiempos de la adoración primitiva hasta la época de los ojos electrónicos de los viajeros espaciales, mucho hemos aprendido ya del Sol y su dominio. El enorme ámbito de la familia planetaria del Sol nos es ahora un paisaje familiar y el vasto Universo que se encuentra más allá ya no se nos antoja inaccesible. Lo que alguna vez perteneció a la ciencia ficción no sólo nos parece ahora posible, sino que nos resulta familiar. Y algún día tal vez no muy lejano, la casa del hombre se extenderá hacia un espacio que sentimos que ya nos pertenece. Pero podemos estar seguros de que a pesar de nuestro espíritu aventurero, aún durante muchas generaciones más, este hermoso planeta azul seguirá siendo "nuestro hogar en el espacio". 33 I I I . L A A T M Ó S F E R A R O D E A Q U E N O S CARLOS GAY* EL INTERÉS por el aire que nos rodea se ha despertado en el común de la gente no hace mucho tiempo. No resulta difícil explicarse este hecho; el aire, siendo una mezcla de gases, no puede observarse, manejarse o estudiarse de la misma manera que una roca, o una muestra de líquido, así que es relativamente fácil olvidarse de él. Sin embargo, esta delgada capa de nuestro planeta que representa una millonésima parte de su masa, tiene un papel tan importante en la naturaleza, que es incluso fundamental en el sostenimiento de los procesos vitales. La atmósfera, por ejemplo, nos protege de los rayos X y la luz ultravioleta que provienen del Sol y que serían fatales si éstos alcanzaran la superficie. Esto tiene que ver con un tema de gran actualidad y al que se le ha dado muy amplia difusión y que es el de la presencia de la capa de ozono en la estratósfera. Es precisamente esta capa la que no deja pasar la radiación ultravioleta al absorberla en su totalidad defendiéndonos de sus efectos nocivos. Entre éstos podemos contar la posible producción de cánceres de piel, la destrucción del plancton marino y, por ende, modificaciones a la fauna del planeta. Como se puede uno imaginar, las ocurrencias de los efectos mencionados tendrían consecuencias catastróficas. Muy recientemente se ha reportado en la bibliografía científica los resultados de observaciones que indican que una disminución muy importante de la capa de ozono ocurre durante la transición de invierno a primavera en el Polo Sur y que parece ser producida, al menos en parte, por la acción de sustancias que el hombre deja escapar a la atmósfera. Estos resultados alarmantes han motivado que se realicen múltiples investigaciones para tratar de determinar el efecto que las mencionadas disminuciones tendrían sobre la salud y el ambiente y, al mismo tiempo, están obligando a que la humanidad llegue finalmente a un acuerdo para controlar las sustancias que afectan la capa de ozono. Los rayos X son detenidos mucho más alto en la atmósfera, donde causan ionizaciones en los gases presentes. Éstas consisten en que partículas eléctricamente neutras pierden electrones por impacto con un fotón de rayos X, convirtiéndose en iones, que vienen a formar parte de la ionósfera. La atmósfera también evita que el bombardeo meteorítico constante sobre nuestro planeta nos afecte, destruyendo los meteoros antes de que lleguen a la superficie. Hay otras maneras en que la presencia del aire se hace manifiesta, algunas de ellas muy sutiles. Podemos ver las nubes, pero no el aire; el cielo se ve azul debido a la dispersión selectiva que de la luz solar realiza el aire. Esta sensación de estar cubiertos por una bóveda azul, condujo a los antiguos a proponer que el cielo era una especie de techo que, en el caso de los griegos, descansaba sobre los hombros de Atlas y que distaba solamente algunos metros de las cimas de las montañas. 34 No tenemos la sensación de estar rodeados de aire a menos que sople el viento; sin embargo, éste representa un gran peso sobre nosotros. La evidencia de esto fue encontrada hace tres siglos y medio por Evangelista Torricelli, quien, con su famoso experimento del tubo de vidrio y el mercurio, descubrió la presión atmosférica e inventó el barómetro. Éste, en su forma más simple mide la presión atmosférica a través de la altura del nivel de mercurio en un tubo de vidrio. En la actualidad seguimos midiendo la presión de la atmósfera en términos de milímetros de mercurio, que al nivel del mar es de 76O mm. Esto significa, en otras palabras, que la columna de aire que hay por encima de cada centímetro cuadrado de la superficie terrestre pesa 1.033 kg, así que la presión total sobre nuestro cuerpo es del orden de 10 toneladas. Claro está que la presión dentro de nuestros cuerpos que empuja hacia afuera es más o menos igual y opuesta a la presión atmosférica, así que no notamos el peso del aire. Si no notamos el peso del aire y no sopla el viento, tenemos una tendencia a olvidarnos de que estamos inmersos en una masa de gas. Sin embargo, en tiempos modernos y viviendo en alguna gran urbe, como puede ser la ciudad de México, es muy difícil olvidarnos de él, y la razón es muy simple aunque no positiva. La contaminación, el polvo, los gases, los óxidos de nitrógeno producidos en combustiones incompletas en fábricas y autos y el hollín, son algunas sustancias que se mezclan en nuestra atmósfera, ensuciándola, y que nosotros, al respirar, padecemos. Entonces, preocupados, desarrollamos estudios para entender primero cómo se produjo el deterioro de nuestro ambiente respiratorio y después cómo arreglarlo. Las soluciones posibles no siempre son viables pues el problema de la contaminación del aire está íntimamente ligado a la manera en que se plantea el desarrollo tecnológico de las diferentes regiones del planeta y éste a su vez depende de situaciones socio-económico-políticas que para un científico de la atmósfera le son incontrolables. En otras palabras, los problemas de contaminación pueden tener soluciones técnicas que no sean política o socialmente viables en un momento dado. Y, por lo tanto, las soluciones siempre representan un compromiso entre lo que se sabe, se debería hacer y lo que se puede hacer. 35 Figura 13. Figura 14. Caricatura del inglés James Gillray hecha hacia 1808. La atmósfera en nuestro alrededor se encuentra en constante movimiento; éste contribuye a determinar el estado del tiempo, que a su vez regula, de alguna forma, nuestras rutinas diarias. ¿Quién no escucha en las noticias el pronóstico del tiempo y quizá se obliga a cargar el paraguas pues se anuncia lluvia? Se gasta mucho dinero en ajustarse a las condiciones del tiempo y el clima para vivir confortablemente. Las condiciones del tiempo pueden ser agentes de pesar y destrucción, pero también de bienestar y bonanza. Esto lo ha sabido la humanidad desde tiempo inmemorial. El viento, la lluvia, los relámpagos, han sido observados, temidos y venerados por el hombre, pues su misma sobrevivencia ha dependido de éstos. Pueblos antiguos, esencialmente agrícolas, entendían que las lluvias eran fundamentales para sus cosechas. Por ello no es difícil comprender que el culto a los dioses del agua y de la vegetación absorbiera gran parte de su vida religiosa. 36 Figura 15. Figura 16. Las explicaciones de carácter mágico de los fenómenos atmosféricos han quedado atrás. Ahora éstas se fincan en el más riguroso proceso de observaciones y análisis, y en la interpretación por medio del uso de modelos físicos y químicos de estos fenómenos. Gran trecho hemos recorrido desde la interpretación aristotélica basada en los cuatro elementos, tierra, agua, aire y fuego, del mundo. Contestando la pregunta ¿cuán alto es el cielo? se puede decir que la atmósfera no tiene una frontera superior muy bien definida. A medida que aumenta la altitud el aire se vuelve más y más tenue y la presión baja, como pueden atestiguar los alpinistas. Esto se debe a la naturaleza misma de los gases que, a diferencia del agua, son muy compresibles. En otras palabras, una cantidad de gas puede ocupar menos volumen (espacio) cuando se aplica una presión. De aquí se sigue que la atmósfera será más densa en la región que tenga que soportar un mayor peso y esto ocurre en la superficie. 37 En el siglo XVII Blas Pascal comprobó esto cuando envió a su hermano a un paseo en el que subiría una montaña de aproximadamente 1 000 m de altura acompañado de un barómetro. La columna de mercurio se desplomó más de siete centímetros y medio debido a la disminución del peso del aire por arriba de la cima de la montaña. En teoría, la atmósfera de nuestro planeta se extiende hasta donde la densidad y la presión se confunden con las condiciones prevalecientes en el espacio interplanetario, donde existe plasma (un plasma está constituido por una población de partículas completamente ionizadas en la que no ocurren colisiones) y en donde los procesos físicos más importantes están dominados por el viento solar. Sin embargo, la noción sostenida hace un siglo de que la atmósfera terminaba a una altura de unos 50 km no es del todo incorrecta: 80% de la atmósfera se encuentra comprendida en una capa que tiene un espesor en promedio de unos 10 km, y el 1% se encuentra por arriba de los 30 km. La exploración desde el espacio, realizada por medio de satélites, ha revelado la presencia de la atmósfera a distancias de miles de kilómetros. La cubierta gaseosa de nuestro planeta se puede dividir en varias capas cuyas fronteras o límites están más o menos definidos. Esta clasificación de las partes de la atmósfera se puede realizar con base en la estructura de la temperatura en cada una de ellas o, también, tomando en cuenta los fenómenos característicos que ocurren en ellas. La troposfera es la capa más baja y densa; su espesor varía entre unos 8 km en los polos, hasta unos 16 km en el ecuador. Contiene la mayoría de la masa de la atmósfera y casi todo el vapor de agua atmosférico. Además, es turbulenta, con vientos poderosos y corrientes convectivas que determinan el estado del tiempo. La temperatura disminuye gradualmente a medida que la altura aumenta. Hasta finales del siglo pasado y principios del presente se consideraba que la temperatura continuaba decreciendo hasta unos 50 km, donde la atmósfera se confundía con el frío espacio interplanetario. Sin embargo, experimentos con termómetros a bordo de globos, como los efectuados por L. P. Teisserenc de Bort, en 1898, revelaron una región casi isotérmica de cerca de 220°K con un principio cercano a los 11 km a latitudes medias. Esta región ha sido llamada estratosfera, teniendo como base a la tropopausa. La existencia de una región con una inversión de temperatura por encima de la estratosfera, fue sugerida por las observaciones de propagación de sonido a distancias de 100 km o más, que parecían ser el resultado de efectos de refracción de las ondas de sonido en la atmósfera superior. Ahora sabemos que esta inversión resulta por la presencia de ozono en la atmósfera, que además como ya se dijo antes, actúa como un escudo contra la radiación solar ultravioleta. 38 Figura 17. A esta región de elevada temperatura se le conoce como mesosfera. Su límite inferior no está bien definido, pero su frontera superior, definida por las temperaturas más bajas que se encuentran en la atmósfera, es la mesopausa, que se encuentra entre los 80 y 85 km de altura. La radiación ultravioleta de longitud de onda más corta, se absorbe a mayores alturas en la termosfera dando lugar a temperaturas muy elevadas. Figura 18. 39 Figura 19. La descripción dada anteriormente está basada en la estructura térmica de la atmósfera; sin embargo, una descripción paralela puede darse en términos de la composición. El término ozonosfera puede aplicarse a la mesosfera, pero en estos términos no queda muy bien definida pues trazas de ozono se pueden encontrar en otras regiones de la atmósfera. La ionosfera puede definirse como la parte superior de la atmósfera, donde iones y electrones están presentes en cantidades suficientes para afectar las comunicaciones por radio. La ionosfera actúa en cierto sentido como un espejo, que puede reflejar las ondas de radio. En efecto, estas reflexiones son las que permiten que se reciban señales que provienen de estaciones muy lejanas que no podrían llegar en línea recta por encontrarse la estación más allá del horizonte; sin embargo, lo hacen al ser reflejadas desde arriba por la ionosfera. Esta capacidad de reflexión de la ionosfera depende de su estado eléctrico (conductividad) que a su vez depende de la concentración de iones y electrones y, por lo tanto, modificaciones a éstos (cambios en el número de iones y electrones) alteran las comunicaciones. La ionosfera se extiende hacia abajo hasta los 50 km, donde se traslapa con la ozonosfera; hacia la parte superior, la ionosfera se confunde con la heliosfera donde se encuentra helio y helio ionizado. Más arriba aún se encuentra la protonosfera constituida principalmente por hidrógeno ionizado. La atmósfera puede también describirse en términos de los procesos físicos dominantes en ella. Por ejemplo, la atmósfera está bien mezclada por turbulencia hasta los 100 km aproximadamente, donde ésta cesa abruptamente; a este nivel se le conoce entonces como turbopausa. Por encima de esta región los gases se distribuyen básicamente de acuerdo a su peso molecular y es una región donde dominan procesos de difusión. Finalmente se encuentra la magnetosfera, región terrestre dominada por el campo magnético de la Tierra. Debido al control magnético, puede considerarse que la atmósfera termina en la magnetopausa, frontera que se encuentra como a diez radios terrestres en el lado día de la Tierra, y a distancias mucho mayores en el lado noche. La multiplicación y el perfeccionamiento de los instrumentos para observar los fenómenos atmosféricos, así como el crecimiento en capacidad para la acumulación de datos, y en rapidez para manejar éstos por medio de 40 computadoras, han permitido que las ciencias de la atmósfera progresen notablemente. En México se realizan esfuerzos para la instalación de observatorios y estaciones meteorológicas que aporten constantemente datos sobre fenómenos atmosféricos. La UNAM realiza investigaciones sobre los fenómenos atmosféricos en el seno del Centro de Ciencias de la Atmósfera. La meteorología moderna se inició en México hace unos 100 años al constituirse el Servicio Meteorológico Nacional. En la UNAM los estudios sistemáticos sobre los fenómenos atmosféricos comenzaron en los años 50 en el Instituto de Geofísica. La importancia creciente de estos estudios en relación con las actividades humanas, el interés por colaborar en el entendimiento de los procesos atmosféricos que intervienen en los procesos agrícolas, la preocupación relativamente reciente por la limpieza del aire que respiramos, son algunos de los motivos que han impulsado la integración de esfuerzos dispersos y la consolidación de cuadros de investigación. Una vez que se consideró que las ciencias atmosféricas en el Instituto de Geofísica habían alcanzado madurez, se decidió que éstas contaran con organización e instalaciones propias, así nació en 1977 el Centro de Ciencias de la Atmósfera. Figura 20. El Centro de Ciencias de la Atmósfera fue creado para realizar investigaciones básicas y aplicadas dentro del ámbito de las ciencias atmosféricas y ambientales y con el propósito de desarrollar instrumental de investigación. Dentro de sus objetivos generales se pueden mencionar el de conocer los fenómenos atmosféricos globales y en especial los que ocurren en México y sus mares adyacentes, el de estudiar la forma de prever y aminorar la contaminación ambiental en la República Mexicana, y el de contribuir a la difusión del conocimiento meteorológico haciéndolo extensivo al mayor número de personas y usuarios. (Figura 20). 41 42 I V . L A C O M P O S I C I Ó N Y T I E R R A E D A D D E L A D. J. TERRELL* INTRODUCCIÓN PARA poder entender la relación entre el ser humano y su medio es necesario conocer los procesos que actúan en la Tierra. Por otro lado, estos conocimientos también son útiles para un mejor aprovechamiento de los recursos naturales. Es de especial importancia conocer a fondo los procesos que dan origen a los recursos no renovables pues de ese conocimiento depende el aprovechamiento correcto de los recursos. También son necesarios estos conocimientos para determinar los efectos que las actividades humanas causan sobre el medio y así poder evitar muchas de las causas de la contaminación. Los procesos físicos y químicos de la Tierra son muy variados y ocurren en muy diversas escalas de tiempo. Algunos ocurren con una duración de poco tiempo (segundos-días) de tal manera que son perceptibles por el ser humano (tormentas, temblores, explosiones volcánicas, etc.); otros ocurren lentamente y son casi imperceptibles, tal es el caso del movimiento de los continentes. Algunas manifestaciones que se dan en un tiempo relativamente breve, como la erupción de un volcán, están íntimamente ligadas con fenómenos de larga duración. Aunque estos fenómenos ocurren lentamente, se manifiestan algunas veces con efectos notables en corto tiempo. Es principalmente por medio de estas manifestaciones que el proceso puede ser estudiado. Los procesos que actualmente se manifiestan no pueden ser entendidos en profundidad si no se conoce el origen mismo del proceso, tanto desde el punto de vista de la energía como del momento en que dio principio. Un aspecto que permite acercarnos a estos dos conocimientos es la composición de los materiales geológicos. Puesto que en la composición se tiene una gran información física y química, ésta puede ser utilizada para proponer modelos que expliquen la generación y evolución de ese material geológico. ORIGEN DE LA TIERRA El origen de nuestro planeta está ligado al origen del Sistema Solar. Por lo tanto, no pueden separarse las teorías de formación del Sistema Solar de los conocimientos sobre la composición de los cuerpos que lo componen. La mayor parte de los conocimientos sobre la composición química de otros planetas y cuerpos del Sistema Solar se obtienen indirectamente. Sólo casos muy aislados se tienen en donde se han realizado mediciones directas de la abundancia de algún elemento en otro planeta. Por ejemplo, ya se han explorado varios elementos en rocas traídas de la Luna. Afortunadamente ha sido posible recuperar algunas muestras de objetos que han caído a nuestro planeta. Se ha sugerido que la mayoría de estos objetos provienen de una región en el Sistema Solar en donde se 43 encuentran los asteroides. Estos cuerpos de tamaños variados se encuentran en la órbita que teóricamente debería ser ocupada por un planeta. De aquí se generan dos clases de teorías que tratan de explicar la existencia de los asteroides; por un lado, se propone que originalmente un planeta existió allí y fue desintegrado por la colisión con otro cuerpo; por otro lado, se propone que los asteroides son el material de un planeta que no llegó a formarse. Este material representa al que intervino en la integración de cuerpos planetarios de tipo terrestre, como Marte y la Luna. Independientemente de los modelos propuestos para explicar el origen de los asteroides se ha podido encontrar cierta correspondencia entre su composición y la de algunos materiales terrestres. Se ha sugerido que el material contenido en un tipo de meteoritos (condritas) representa el material primitivo que dio origen al planeta Tierra. ELEMENTOS MAYORES Y ELEMENTOS TRAZA Aproximadamente el 99% de nuestro planeta está constituido solamente por 14 elementos que son: Si, Ti, Al, Fe, Mn, Mg, Ca, Na, K, P, C, O, H, N. Éstos son llamados elementos mayores. Los otros elementos naturales (más de 70) son tan escasos que prácticamente no intervienen en la caracterización de los materiales. Éstos son llamados elementos traza; esto es: las características como mineralización, densidad, etcétera, son principalmente determinadas por la abundancia de los elementos mayores. De esta manera se puede definir una composición tipo para rocas y minerales; así por ejemplo las rocas riolitas contienen aproximadamente 70% de SiO2 y de 4 a 5% de K2O mientras que las rocas basálticas tienen aproximadamente 45-50% de Si02 y ~1% de K20. Así se puede ir numerando una a una las concentraciones típicas para cada tipo de roca. Sin embargo, el argumento inverso no es aplicable pues un granito (roca intrusiva) tiene una composición (~70%, SiO2 y ~4% K20) parecida a la riolita, una roca extrusiva, pero por tratarse de ambientes de emplazamiento diferente son rocas diferentes. Una de ellas cristalizó enterrada (intrusiva), la otra fue emplazada en la superficie (extrusiva). Figura 21. Aunque los elementos traza no determinan las características que definen a las rocas y minerales, sí contienen información muy valiosa para el entendimiento de los procesos fisicoquímicos ocurridos. Esta información puede ser ejemplificada con la huella dactilar que en un dedo identifica a un 44 individuo sin que en sí misma forme parte material de un dedo. Las características físicas y químicas de cada elemento traza permitirán obtener cierta información del proceso; así algunos elementos pueden ser usados para estudiar temperaturas, presión, tiempo y otros parámetros fisicoquímicos. MÉTODOS EXPERIMENTALES DE ANÁLISIS Para poder entender las bases que determinan la abundancia de un elemento es necesario saber cómo está constituido. Los elementos son conjuntos de átomos cuyo comportamiento químico es similar. Los átomos, como pequeñísimos sistemas planetarios, están formados por un núcleo "central" y electrones que se mueven en órbitas a diferentes distancias de núcleo. Los electrones son partículas con carga eléctrica negativa, el núcleo está formado por partículas eléctricas positivas y partículas sin carga eléctrica. Figura 22. El comportamiento químico está relacionado con la distribución de los electrones en las últimas —más externas— capas. Por otro lado, el comportamiento físico esta relacionado a sus propiedades físicas tales como tamaño y masa. Cuando un átomo es perturbado puede cambiar su nivel de energía moviendo uno o varios electrones de lugar. También existen átomos que teniendo la misma configuración electrónica son diferentes en la cantidad de partículas en el núcleo, a tales átomos se les da el nombre de isótopos. Estos átomos isótopos tendrán por lo tanto el mismo comportamiento químico (esto es, que son del mismo elemento) pero sus propiedades físicas como su masa son diferentes. Algunos átomos tienen una configuración nuclear tal que son inestables y decaen emitiendo radiación. Éstos son llamados "radiactivos" y son estudiados utilizando la radiación que emiten. Las técnicas analíticas para determinar la composición química de una roca o mineral son tan variadas como las propiedades mismas de los elementos. Algunas técnicas se basan en la facilidad que ciertos elementos tienen para combinarse mostrando ciertas preferencias con el resto. Otras técnicas se basan en la distribución de los electrones en los átomos y en las emisiones 45 características de energía implicadas en el cambio de posición de los electrones. Algunas más, usan las propiedades físicas características de los átomos para cuantificarlos, así un espectrómetro de masa se basa en la medición de la relación entre masa y carga de un átomo cargado eléctricamente. Antes de poder analizar cualquier material es necesario obtenerlo por medio de un muestreo planeado. En la colección misma del objeto por estudiar se obtiene información, tal como su posición geográfica, que será utilizada posteriormente en la interpretación de los resultados analíticos. Los métodos de colección de muestras son determinados por las características de la localización de la muestra; así se tienen perforadoras de roca, submarinos, dragas de barco, botellas, martillos y marros, etc., como instrumentos de muestreo. Sólo una característica común tienen todos los métodos de muestreo, y es que el trabajo se desarrolla en el campo o en el mar, fuera de una habitación cerrada. LA CONFIGURACIÓN DE LA TIERRA Aunque todavía no se tiene una idea única sobre la formación de la Tierra, puede decirse que el nacimiento de nuestro planeta ocurre en el momento que su solidificación produce la reunión de la mayor parte del material que aún la constituye. Sabemos que algo de material ha sido capturado posteriormente, como se dijo con anterioridad, meteoritos han caído en la Tierra, pero su cantidad en relación a la masa del planeta es prácticamente despreciable. Lo mismo puede decirse de los gases ligeros que como el helio han sido perdidos hacia el espacio, en algunas ocasiones constituyendo una fracción de la parte más exterior de la atmósfera. Cabe mencionar que en los sesenta, los satélites descubrieron una capa atmosférica tenue que contiene helio. El nivel de solidificación de nuestro planeta varía con la profundidad. Por medio de los estudios de las ondas sísmicas* se ha propuesto una configuración de la Tierra como la de esferas concéntricas definidas por su estado de solidificación y composición. Así se propuso que el interior de la Tierra está formado por un núcleo sólido de composición metálica fierroníquel, rodeado por una capa de alta viscosidad. Más allá del núcleo está una esfera caracterizada por minerales silíceos llamada "manto", sobre la cual se encuentra una capa rocosa más o menos rígida relativamente delgada que contiene a la corteza terrestre incluyendo a los suelos marinos y oceánicos. Esta capa definida con base en la transmisión de las ondas sísmicas, recibe el nombre de litosfera. Para establecer, estas hipótesis sobre la configuración, se hace uso de métodos indirectos como el estudio del magnetismo, la gravedad y la sismicidad de la Tierra. En forma directa no es posible colectar muestras a gran profundidad ya que sólo ha sido posible perforar unos cuantos kilómetros. Sólo materiales que salen por fenómenos naturales, como volcanes, son estudiados y en ellos se basa todo el conocimiento químico directo. En algunos casos la evidencia obtenida de varias fuentes coincide de tal manera que no es aventurada la proposición de algunas hipótesis. Por ejemplo podemos citar a la tectónica de placas como una teoría que vino a explicar fenómenos observados aisladamente dentro de un sólo marco de referencia. Así los volcanes y los temblores se estudian en ese contexto 46 regional. La composición de las rocas contiene información sobre la fuente y el proceso que las formaron. MEDICIÓN DE LA EDAD En las ciencias biológicas ha sido posible demostrar que ciertas especies de plantas y animales han desaparecido y que en forma natural existe una evolución. Por condiciones especiales geológicas y de clima, algunas especies vivieron durante ciertos periodos de tiempo geológico dando lugar a posteriores especies venidas por evolución. Así es posible identificar estos tiempos geológicos con los restos de especies que vivieron en esa época. Los nombres de las épocas y edades geológicas se basan en muchos casos en el tipo y nombre de las especies que las caracterizan. Existe, sin embargo, un problema en esta forma de clasificar las edades. Sólo el tiempo relativo puede ser medido, así puede ser ordenada una era geológica con respecto a otra usando el grado de evolución de las especies que vivieron entonces. Pero la magnitud —en años— del tiempo transcurrido no puede ser cuantificada. Para lograr esto, es necesario hacerlo indirectamente Algunos elementos tienen isótopos radiactivos naturales. Esto significa que sus núcleos se descomponen por decaimiento radiactivo sin que haya habido alteración externa alguna. La forma de decaimiento, incluyendo la velocidad de descomposición, es independiente del medio físico y químico en el que el elemento se encuentra. Así, por ejemplo, el decaimiento de los átomos del uranio-238 que constituyan un mineral que se encuentre a 1 000 km de profundidad será, igual al decaimiento de otros átomos de uranio-238 que se encuentren formando una sal u óxido en el laboratorio a presión atmosférica. Esta independencia del decaimiento de las condiciones en las que se encuentra el elemento permite introducir el factor tiempo en el estudio de los fenómenos geológicos. Estadísticamente puede construirse una relación uniforme y constante entre la actividad de los elementos radiactivos y su abundancia. La constante dependerá sólo del elemento en cuestión y será diferente para cada elemento. Por esta razón pueden tener mediciones independientes de un mismo fenómeno geológico utilizando los mismos materiales y sus diversos compuestos. Como ejemplo podemos mencionar que la fecha de cristalización de una roca puede ser determinada utilizando el decaimiento de potasio-40, e independientemente por el decaimiento de rubidio-87. 47 CONCLUSIÓN El conocimiento de la composición química de los materiales geológicos nos permite entender el origen y la evolución de nuestro planeta y de nuestro Sistema Solar. Para conocer la composición se utilizan diversos métodos de análisis basados en las propiedades físicas y químicas de los elementos en los distintos materiales geológicos que podemos disponer. Las relaciones entre las concentraciones de los elementos son usadas para elaborar los modelos que permitan explicar las observaciones. A final de cuentas todos los modelos teóricos sobre el nacimiento y el desarrollo de la Tierra deben tener alguna confirmación con observaciones y mediciones realizadas experimentalmente. 48 V . D E L A S I S M O L O G Í A Y L O S S I S M O S M I C H O A C Á N D E S E P T I E M B R E D E 1 9 8 5 JUAN MANUEL ESPÍNDOLA CASTRO* ZENÓN JIMÉNEZ* SISMOLOGÍA Y TECTÓNICA DE PLACAS LA CIENCIA que estudia los aspectos relacionados con la ocurrencia de temblores de tierra o sismos es llamada sismología. Ésta es una ciencia joven ya que gran parte de sus métodos e instrumental fueron desarrollados durante este siglo. A pesar de esto, la sismología ha logrado avances notables. Quizá una de sus más valiosas contribuciones al entendimiento de nuestro planeta lo constituya su aportación a la llamada tectónica de placas. Para esbozar esta teoría, consideremos en primer lugar la estructura interna de la Tierra. En la figura 23 podemos ver esquemáticamente su constitución. El núcleo terrestre esta probablemente compuesto de fierro y níquel. El manto terrestre tiene una composición a base de silicatos ferromagnesianos, mientras que la corteza está compuesta por silicatos abundantes en potasio, sodio y calcio. El cascarón externo de la Tierra, el cual comprende la corteza y parte del manto, con un espesor de aproximadamente 100 km parece comportarse como un cuerpo rígido "flotando" en el resto del manto, en donde pueden presentarse movimientos como si se tratara de un fluido. Esta conducta semejante a la de un fluido tiene sentido solamente en tiempos geológicos, es decir, en tiempos del orden de millones de años. El cascarón exterior llamado litósfera no es continuo sobre la superficie de la Tierra sino que está formado por diferentes "placas" en contacto una con otra. Las placas sufren movimientos relativos debidos a fuerzas, de origen aún no completamente conocido, aplicadas a lo largo de las mismas. Estos mismos esfuerzos producen en algunos de sus márgenes la subducción de una placa bajo la otra y en otras, la creación de nueva litósfera. Debido a estos movimientos los continentes han variado su posición relativa a través del tiempo geológico y se cree que en un tiempo estuvieron todos reunidos en un gran continente llamado Pangea. Esto nos explica el ajuste que existe entre, por ejemplo, las costas de Sudamérica y África. ¿Cuál es la distribución geográfica de estas placas? La figura 24 nos la muestra. Las zonas de creación de nueva litósfera se presentan como cordilleras submarinas y las zonas de subducción forman a menudo trincheras submarinas de gran profundidad. Podemos también notar que las diferentes placas no coinciden con los continentes y los océanos, sino que pueden tener corteza continental y oceánica. 49 Figura 23. Estructura de la tierra. Figura 24. Sismicidad mundial y placas tectónicas. No se sabe con certeza qué causa los esfuerzos que producen los movimientos de las placas pero se cree que éstos son producidos por transferencia de calor, de la misma manera como ocurre cuando se hierve agua o cualquier otro líquido. El fluido más cercano a la fuente de calor se expande, se vuelve de esta manera menos denso y tiende por lo tanto a subir a la superficie, donde es enfriado y desplazado hacia el fondo por nuevas parcelas ascendentes. Este tipo de corrientes de convección pueden existir en el manto terrestre aunque no debe por esto suponerse que el mismo se encuentra en estado de fusión como las lavas. Ya se ha mencionado que esto sólo tiene sentido en tiempos muy largos. Una manera de visualizarlo es considerar una roca de cierto volumen. Si aplicamos a ésta un esfuerzo tensional por un tiempo 50 corto, la roca vuelve a su posición inicial. Si por el contrario aplicamos el esfuerzo por un periodo prolongado de tiempo, la roca quedará deformada permanentemente. En este último caso la roca "fluye" y se parece, en este sentido, a un fluido, ya que en éstos las deformaciones son permanentes. Esto nos explica también los plegamientos que observamos muchas veces en las grietas hechas en las carreteras. Figura 25. Figura 26. Diagrama del mecanismo de rebote elástico; en (a) las líneas topográficas son rectas, en (b) las líneas se deforman debido a la deformación del terreno, en (c) la ruptura comienza y en (d) el terreno está fracturado. ¿Cuál es la relación de esto con los temblores? En primer lugar, notaremos que en una zona de subducción el movimiento de una placa bajo la otra se realiza venciendo las fuerzas de fricción generadas en el contacto entre ambas. A lo largo de este contacto, llamado zona de Wadati-Benioff (WB), el movimiento de una placa contra la otra tiene lugar discontinuamente, por "brincos". Es esto precisamente lo que genera los temblores en esas regiones. Para visualizar estos procesos pensemos en un bloque de cemento sobre una mesa como se muestra en la figura 25. Si colocamos un peso pequeño en la canastilla el bloque no se moverá debido a la fuerza de fricción entre el bloque y la mesa. Conforme aumentamos el peso, la tensión en el cable continúa acumulándose hasta que iguala a la fuerza de fricción, a partir de ese momento el bloque empezará a moverse. 51 Análogamente, en la zona WB se acumula gradualmente hasta que rebasa un límite, en ese momento comienza a presentarse un fallamiento en algún punto llamado foco, desde donde se propaga a toda una superficie. Este comportamiento puede ser observado cuando el contacto entre placas aflora en la superficie de la Tierra como en la famosa Falla de San Andrés, en California. De hecho, fue en observaciones hechas en esta falla que pudo deducirse este mecanismo que es conocido como la teoría del rebote elástico. Esto ocurrió durante el sismo de San Francisco en 1906. Aunque este proceso puede parecer intuitivamente obvio, en realidad no lo es. Durante mucho tiempo, se pensó que el fallamiento de la corteza era un efecto de los temblores y no su origen. Como fuentes de éstos se pensaba en intrusiones de magma o colapso de volúmenes por cambios de densidad de las rocas que componen la corteza. Aunque estos mecanismos pueden ocurrir, se piensa en la actualidad que la mayoría de los temblores en las regiones de subducción se originan por el mecanismo expuesto y son llamados "tectónicos". Otros tipos de sismos están asociados a fenómenos locales, como son los volcánicos, o algunos otros se asocian, por ejemplo, al colapso del subsuelo por pérdida de agua, etcétera. ONDAS SÍSMICAS Si desplazamos un diapasón de su posición de equilibrio y lo soltamos repentinamente, percibimos su sonido característico. Lo mismo sucede en la Tierra, hemos visto que el fallamiento de la roca consiste precisamente en la liberación repentina de los esfuerzos impuestos al terreno. De esta manera, la Tierra es puesta en vibración y dicha vibración se debe a la propagación de ondas como en el caso del diapasón. Ahora bien, en un sólido pueden transmitirse dos tipos de ondas. El primer tipo de ondas es conocido como compresional porque consiste en la transmisión de compresiones y rarefacciones, como en el caso de la transmisión del sonido, en este caso las partículas del medio se mueven en el mismo sentido en que se propaga la onda. El segundo tipo es conocido como ondas transversales o de cizallamiento: las partículas se mueven ahora en dirección perpendicular a la dirección de propagación de la onda. Las ondas compresionales y transversales han sido llamadas P y S respectivamente, por razones que se verán más adelante. Son también conocidas como ondas internas porque pueden viajar en el interior de un sólido elástico. Además de estas dos clases de ondas pueden existir otros dos tipos más, llamadas superficiales. Estas ondas viajan en la superficie de la Tierra y su amplitud decrece con la profundidad. Se les ha denominado con el nombre de los científicos que demostraron teóricamente su existencia. ¿Cuál es la velocidad de estas ondas Se puede demostrar teóricamente y se observa experimentalmente que la velocidad de las ondas es tal que: VL < VS < VP donde VL, VS y VP son las velocidades de la onda P, S, y superficiales, respectivamente. 52 Las velocidades de las diferentes ondas dependen de las características del medio; por ejemplo, en rocas ígneas la velocidad de las ondas P es del orden de 6 km/seg mientras que en rocas poco consolidadas es de aproximadamente 2 km/seg o menor. Así, las ondas P de un terremoto originado en la costa de Acapulco serían sentidas en la ciudad de México en alrededor de 2 minutos. Figura 27. Ondas compresionales y transversales. SISMÓGRAFOS Y SISMOGRAMAS Los mecanismos para detectar los temblores fueron ideados a fines del siglo pasado y perfeccionados a principios de éste. Actualmente estos instrumentos han alcanzado un alto grado de desarrollo, pero el principio básico empleado no ha cambiado. Si tomamos en cuenta que al ocurrir un temblor el suelo se mueve, entonces para poder observar este movimiento tendríamos que estar en un punto fijo fuera de la Tierra para no sufrir nosotros mismos ese movimiento y poder detectarlo; esto obviamente es imposible. Sin embargo, es posible construir un mecanismo que pueda medir este movimiento relativo. 53 El mecanismo consiste de una masa suspendida de un resorte atado a un soporte acoplado al suelo; cuando el soporte se sacude al paso de las ondas sísmicas, la inercia de la masa hace que ésta permanezca un instante en el mismo sitio de reposo. Posteriormente, cuando la masa sale del reposo, oscila. El movimiento posterior del péndulo no refleja el movimiento del suelo, por lo cual se ha ideado un método para volver a la masa a su sitio original, esto es lo que se conoce como amortiguamiento del aparato. En la figura 28 se representa el amortiguamiento como una lámina, sumergida en un líquido (comúnmente aceite). Figura 28. Diagrama esquemático del funcionamiento de un sismógrafo para la componente transversal de las ondas sísmicas. Figura 29. Si se sujeta un lápiz de la masa suspendida para que pueda inscribir sobre un papel pegado sobre un cilindro que gira a velocidad constante, se podrá registrar sucesivamente el movimiento del suelo. El instrumento aquí descrito para detectar la componente vertical del movimiento del suelo, se conoce como sismógrafo vertical y el papel donde se inscribe se llama registro o sismograma. 54 Los movimientos del suelo también tienen componente horizontal y para medir este movimiento se requiere de péndulos horizontales que oscilan como una puerta que tiene su eje inclinado. Los sismógrafos que se emplean actualmente tienen, en general, masas que pueden ser de unos gramos hasta de l00 kg y los sismógrafos antiguos de amplificación mecánica solían tener grandes masas con el fin de vencer las fuerzas de rozamiento, tal es el caso del sismógrafo horizontal Wiechert de 17 000 kg de la Estación Sismológica de Tacubaya; el amortiguamiento se hace por corrientes parásitas, imanes etc., la amplificación por medio de palancas y galvanómetros y la inscripción se hace en papel ahumado, papel fotográfico o cinta magnética. Los sismómetros son los sismógrafos cuyas constantes físicas son conocidas, de tal manera que se puede conocer el movimiento real del suelo calculado directamente de los sismogramas. Para determinar con precisión el epicentro de un temblor se requiere del auxilio de varias estaciones sismológicas, por lo cual los observatorios sismológicos requieren por lo menos de tres estaciones sismológicas o de redes de éstas. Un ejemplo de estas redes es la Red Sismológica Mexicana (Figura 30) que controla el Servicio Sismológico Nacional, organismo encargado de la generación de datos e información sismológica. En México existen otras redes de proyectos específicos como RESMAC* y SISMEX.** En el nivel mundial existen convenios para el intercambio de datos entre los diferentes observatorios, formando así todas las estaciones la red mundial. Figura 30. DETERMINACIÓN DEL EPICENTRO Hemos mencionado que el lugar en que comienza el fallamiento que produce los temblores es llamado foco. A grandes distancias el plano completo de ruptura aparece como un punto y lo llamamos foco; la proyección de éste sobre la superficie terrestre recibe el nombre de epicentro. 55 ¿Cómo determinan los sismólogos la ubicación del epicentro? Ya se dijo que los sismógrafos amplifican e inscriben el movimiento del suelo en una tira de papel (o cualquier otro tipo de material similar) que se llama registro o sismograma. En el sismograma se registran en orden sucesivo los diferentes tipos de ondas generadas por un temblor y que arriban a la estación sismológica. La ubicación del epicentro de un temblor se hace analizando sus registros e identificando los diferentes tipos de ondas. Se ha mencionado ya que la velocidad de las ondas P es mayor que la de las ondas S; este hecho es utilizado en una de las técnicas más comunes de la sismología para determinar el epicentro. En afecto, supongamos que la persona A es más veloz que la persona B. Si ambas empiezan a correr desde el punto 0 en que están juntas, a medida que se alejan de 0 la distancia entre ellas será mayor. Puede utilizarse la separación entre ellas en un punto dado para calcular la posición del origen a partir de ese punto. Sobre la superficie de la Tierra, una estación puede proporcionar la distancia al epicentro pero no su dirección, de manera que son necesarias, al menos, tres estaciones para determinarlo sin ambigüedad. En la práctica, la intersección de los círculos correspondientes a las tres estaciones no coincide en un solo punto sino que comprende una región más o menos grande, dependiendo de la calidad de los datos utilizados. La información obtenida de estaciones adicionales es tratada estadísticamente con otras técnicas sismológicas para precisar la posición. Figura 31. Figura 32. ESCALA DE MAGNITUD E INTENSIDAD Las escalas de magnitud e intensidad son utilizadas para cuantificar o medir los temblores. La escala de magnitud está relacionada con la energía liberada como ondas sísmicas; la de intensidad, con los daños producidos por el sismo. Ambas escalas son necesarias puesto que miden aspectos diferentes de lo ocurrido en un temblor. Así, la escala de magnitud está relacionada con el proceso físico mismo, mientras que la de intensidad lo 56 está con el efecto del acontecimiento en la población, las construcciones y la naturaleza. Como es natural, una clasificación de los temblores por medio de sus efectos observables, fue el primer intento de catalogarlos. Escalas de intensidad fueron propuestas desde los últimos años del siglo pasado. En 1902 Mercalli propuso una tabla, que fue posteriormente modificada en 1931 y desde entonces se le ha llamado escala Modificada de Mercalli (MM). Ésta no es la única, pero sí la más frecuentemente usada en nuestro continente. Consta de 12 grados como puede apreciarse en la tabla 1, donde se muestran también las características de cada grado. Podemos ver que la escala de intensidad es en gran medida subjetiva. No nos da información sobre la energía liberada en el temblor, puesto que por ejemplo un sismo pequeño puede causar más daños a una población si está cercana al epicentro, que uno grande pero a mayor distancia. Así pues, es necesario catalogar temblores de acuerdo con los procesos físicos de la fuente; pero también de manera tal que puedan ser medidos. Desde el punto de vista físico sería conveniente clasificar los temblores de acuerdo con la energía que disipan y aunque podríamos hacerlo, no tenemos instrumentos que puedan medirla directamente. TABLA 1. Escala modificada de Mercalli. I. II. III. IV. V. VI. VII. VIII. IX. X. XI. XII. Microsismo, detectado por instrumentos Sentido por algunas personas (generalmente en reposo) Sentido por algunas personas dentro de edificios Sentido por algunas personas fuera de edificios Sentido por casi todos Sentido por todos Las construcciones sufren daño moderado Daños considerables en estructuras Daños graves y pánico general. Destrucción en edificios bien construidos Casi nada queda en pie Destrucción total Resulta entonces necesario encontrar una metodología para poder precisar no sólo el epicentro del sismo sino la magnitud y fecha del mismo. Poseemos sin embargo sismogramas y éstos pueden ser utilizados para catalogar temblores de una manera racional, como se verá a continuación. De dos temblores ocurridos en el mismo epicentro y registrados en el mismo lugar, el más débil producirá un trazo pequeño en el papel y el más fuerte un trazo grande. Para un mismo sismo y estaciones que se alejan 57 gradualmente del epicentro la máxima traza que se encuentra en un epicentro se hace igualmente menor. Si se grafican los valores del logaritmo de la amplitud de la traza contra la distancia, se obtienen gráficas como las mostradas en figura 33. En esa misma figura, la curva más baja representa un temblor más pequeño. Resulta entonces lógico tomar cualquiera de estos sismos como el mismo patrón y asignarle la magnitud cero los demás pueden ser medidos a partir de éste, midiendo la separación entre ellos para cualquier distancia del epicentro. Se tiene entonces que: M = log a – log A0 Figura 33 Figura 34. El temblor patrón, de magnitud cero se define como aquel que teniendo su epicentro a 100 km de distancia deja una traza de una micra, en un sismógrafo específico, conocido por el nombre de sus diseñadores, WoodAnderson, y elegido también como sismógrafo patrón. 58 Se tiene ahora una fórmula que nos proporciona un valor relacionado con el "tamaño" del sismo e independiente de los daños que pueda ocasionar. Este mismo valor ha sido relacionado por los sismólogos con la energía liberada por el sismo. Existen diferentes fórmulas que relacionan la energía con la magnitud de un sismo, éstas varían porque la amplitud medida en el sismograma puede ser la de cualquiera de las distancias fases (P, S, superficiales) que son registradas. Un temblor de magnitud 5.5 libera una energía del orden de magnitud de una explosión atómica, como la de Hiroshima, es decir unos 1020 ergs. Sin embargo, la energía de un sismo de magnitud 8.5 no es tres veces esa energía sino la equivalente a unas 27 000 de estas bombas atómicas, esto es, la energía aumenta aproximadamente 30 veces por cada grado. Esto puede verse más claramente en las fórmulas que relacionan magnitud y energía; éstas son de la forma log E = a + bM donde a y b dependen de la forma en que es calculada M. Notemos que la escala de magnitud no tiene límites; sin embargo, no se han encontrado temblores mayores de 8.6. Esto está relacionado con el hecho de que la corteza tiene un límite de ruptura más allá del cual ya no pueden acumularse más esfuerzos. Un ejemplo de un temblor de esta magnitud es el de Alaska del 28 de marzo de 1964. Notemos también que pueden existir temblores de magnitud negativa, puesto que el sismo patrón (de magnitud cero), es elegido, hasta cierto punto arbitrariamente. La magnitud ML sólo puede aplicarse a sismos cercanos y someros porque para sismos lejanos o profundos la amplitud de las ondas tiene una gran dispersión. Sin embargo, Gutenberg y Richter encontraron que podía extenderse la escala si se medían otras ondículas presentes en el sismograma. Así, estos investigadores utilizaron las ondas superficiales para definir una magnitud apropiada a sismos lejanos o telesismos y que es llamada magnitud de ondas superficiales y se denota MS. Posteriormente se diseñó otra escala que toma en cuenta la profundidad a que ocurre el sismo y que es llamada magnitud de ondas de cuerpo y se denota mb. Las escalas mb y MS no coinciden más que en magnitudes de alrededor 6.8. La de MS es mayor que mb para magnitudes superiores a ésta (6.8) y viceversa para magnitudes menores. La diferencia entre estas escalas, que puede ser de hasta una unidad, y la existencia de la escala de intensidades, ocasionan frecuentemente confusión entre el público y la prensa. SISMICIDAD En los últimos 80 años se han podido registrar todos los temblores más importantes (en cuanto a energía) de manera que se han podido hacer estudios cualitativos de la sismicidad de la Tierra, así se ha obtenido un esquema global de la sismicidad mundial. Se puede observar que la mayor parte de energía sísmica se libera en las costas del Océano Pacífico, región 59 que se conoce como cinturón de fuego debido a que en esta zona ocurre también gran actividad volcánica. Hay otras regiones, como el Atlántico Medio y el cinturón Eurásico pero con una actividad sísmica menor. Nótese que estas franjas definen los límites de placas. Existen también regiones donde la actividad sísmica es casi nula o desconocida; a estas regiones se les suele llamar escudos. Desde luego que los países que se sitúan en zonas sísmicas serán más afectados por los sismos. Figura 35. 60 SISMICIDAD GLOBAL Observando la actividad sísmica mundial temblores de cierta magnitud que ocurren menos ocurren dos grandes terremotos parte están ocurriendo varios cientos de inferior a 3 que pasan desapercibidos. se puede estimar el número de en un año. Se ha visto que por lo anualmente (Tabla 2). Por otra miles de temblores de magnitud TABLA 2. Promedio anual de temblores. Magnitud Número promedio 8 2 7 20 6 100 5 4 3 3 000 15 000 150 000 SISMICIDAD DE MÉXICO A fines del siglo pasado se conocía la historia acerca de la actividad sísmica de México desde 1400. Posteriormente, con el desarrollo técnico sismológico, hacia 1910 se inauguró la red sismológica mexicana. De esta fecha a la actualidad se han generado sismogramas que se conservan en la Estación Sismológica de Tacubaya del Servicio Sismológico Nacional. Figura 36. Sismicidad de México, de 1900 a 1974. 61 Durante los últimos 70 años se han registrado y localizado a través de los datos de la red sismológica mexicana, la inmensa mayoría de sismos ocurridos en el país, por lo cual actualmente se conoce bastante bien su sismicidad. PREMONITORES Y RÉPLICAS Los sismólogos han observado que inmediatamente después de que ocurre un gran temblor, éste es seguido, por temblores de menor magnitud llamados réplicas, que ocurren en las vecindades del foco del temblor principal. Se piensa que esto se debe probablemente al reajuste mecánico de la región afectada. Inicialmente la frecuencia con que ocurren es grande, pero decae gradualmente con el tiempo, dependiendo de la magnitud del temblor principal. Por ejemplo, para el temblor de Oaxaca del 29 de noviembre de 1978, de magnitud 6.8, inicialmente se observaron hasta 200 réplicas de magnitud mayor que 2.0 diariamente y fue decayendo esta actividad durante los cinco meses siguientes aproximadamente. El estudio de las réplicas de un gran temblor se ha aprovechado para estimar las dimensiones de la región focal. Con frecuencia algunos temblores grandes son precedidos por temblores de menor magnitud, llamados temblores premonitores, que comienzan a fracturar la región focal del gran temblor. No es fácil determinar cuando un temblor pequeño es un premonitor de un gran temblor ya que se suele confundir con cualquier otro no relacionado. En la generalidad de los casos se sabe que un temblor es premonitor sólo en el contexto de la actividad posterior. PREDICCIÓN ¿Se pueden predecir los temblores? La respuesta a esta pregunta depende de lo que se entienda por predicción. Año tras año podemos leer en los periódicos las declaraciones hechas por adivinadores, mediums y otras gentes por el estilo, sobre temblores en algún lugar del planeta. Estas declaraciones distan mucho de ser predicciones. Se ha visto (Tabla 1) que en promedio ocurren cerca de l20 temblores anualmente de magnitud mayor que 6. Se conocen tan bien las zonas sísmicas del planeta, de manera que, por ejemplo, se puede afirmar que durante el año de 1989 ocurrirá un temblor en la costa occidental de México. La frase anterior, como puede verse, no contiene información novedosa ni útil. En la última década el desarrollo de la sismología ha llevado a los sismólogos a la convicción de que éstos pueden ser predichos. La investigación en este aspecto es relativamente nueva a pesar de la cual se han logrado resultados prometedores. Existen, esencialmente, dos maneras de atacar el problema. En una de ellas se estudia la variación de ciertos parámetros físicos debido a la acumulación de los esfuerzos cuya relajación ocasiona el temblor. Así, por ejemplo, se ha observado que la región focal sufre una dilatación que altera la velocidad de las ondas que se propagan en ella. Otros de los parámetros que se alteran son, por ejemplo, la resistencia del terreno al paso de corriente eléctrica y el nivel freático. Todos estos factores pueden ser medidos y correlacionados con el temblor final. 62 Otra de las formas de enfrentar el problema se ha estudiado en la sistematicidad de la ocurrencia de los temblores. Se ha observado que los epicentros a lo largo de una zona de subducción no se distribuyen al azar, sino siguiendo un patrón geográfico y temporal. Puede entonces estudiarse la historia sísmica de una región, estimar los periodos de recurrencia de temblores de cierta magnitud y evaluar de esta manera la posibilidad de que ocurra un temblor. Este breve bosquejo trata solamente de poner de manifiesto que los sismólogos actuales se encuentran trabajando sobre bases científicas para la futura predicción de temblores. Cuánto tiempo tomará el desarrollar un sistema eficiente para predecir temblores es difícil de precisar pero seguramente será de algunas décadas. Indudablemente esto requerirá del desarrollo de nuevas metodologías, tanto teóricas como instrumentales. LAS ZONAS DE QUIETUD SÍSMICA En su estudio de la sismicidad global, los sismólogos encontraron algunas características generales en la ocurrencia de temblores. En particular notaron que los terremotos muy grandes (magnitud mayor a 7.5) ocurren en ciertas áreas con intervalos de tiempo parecidos. Este tiempo, al que llaman tiempo de recurrencia, es el que transcurre entre dos temblores grandes en un área dada. Las áreas en las que han ocurrido uno o varios temblores en el pasado pero que no han presentado uno reciente son llamadas zonas de quietud sísmica. A grosso modo, los científicos explican esta actitud suponiendo que las placas de las zonas de subducción están segmentadas y penetran bajo las otras de manera semiindependiente. En México existen zonas de este tipo en las regiones de Jalisco, Guerrero, Ometepec, Tehuantepec y hasta hace poco en Michoacán. LOS TEMBLORES DEL 19 y 20 DE SEPTIEMBRE Los sismos del pasado 19 y 20 de septiembre de 1985 ocurrieron en la, hasta entonces, zona de quietud de Michoacán. El sismo del 19, con una magnitud MS de 8.1 ocurrió el jueves 19 a las 7:18 a.m. y tuvo lugar a lo largo de una falla de unos 9000 km². Los datos muestran que el sismo en realidad tuvo dos focos que ocurrieron con unos segundos de diferencia, o, sea, se puede decir que realmente ocurrieron dos sismos muy cercanos en distancia y tiempo. Esto desde luego no quiere decir que por fuerza hayan ocurrido independientemente uno del otro, y ya que el efecto fue la suma de los efectos causados por ambos, podemos seguir hablando del sismo en singular. Éste fue particularmente destructivo en la ciudad de México y es probable que los siguientes factores hayan tenido un papel importante: 1) El temblor del 19 de septiembre fue muy eficiente en la generación de ondas superficiales de gran intensidad. 2) Las ondas fueron amplificadas en la región central del país a lo largo del cinturón volcánico mexicano y particularmente en la ciudad de México, por la naturaleza de su terreno. El acelerógrafo instalado en el edificio colapsado de la SCT registró aceleraciones en el movimiento del suelo con máximos de hasta 17% del valor de la gravedad. 63 3) Muchos de los edificios de 6 a 15 pisos tienen periodos de resonancia natural de alrededor de 2 segundos por lo cual el efecto sobre ellos fue particularmente severo. Figura 37. Localización de los epicentros de los sismos de septiembre de 1985 y red sismológica para determinarlos. Figura 38. Sismogramas del temblor del 19 de septiembre de 1985 detectados con sismógrafos localizados en la ciudad de México. El sismo del viernes 20 ocurrió a las 19:37 hrs. y fue causado por el fallamiento de unos 2 500 km2 en el borde de la zona de ruptura del sismo anterior. La relación de causalidad entre estos temblores es clara y por esto se le ha considerado como una réplica del anterior. Su magnitud MS fue de 7.5 y como es sabido causó gran alarma entre la población, aunque sus mayores efectos desastrosos tuvieron lugar en edificios ya anteriormente dañados. Los sismólogos aún continúan analizando y estudiando las características de estos temblores, y los resultados obtenidos sin duda ampliarán nuestra comprensión sobre estos fenómenos y ayudarán a mitigar sus efectos destructivos. ¿QUÉ HACER CUANDO OCURRE UN TEMBLOR? 64 Existen varias medidas que deben tomarse en caso de ocurrir un temblor, pero ante la eminencia de un suceso de esta naturaleza, en regiones sísmicamente activas, es mejor prepararse mentalmente para su eventualidad. Por otra parte, conviene buscar las condiciones adecuadas de seguridad de los sitios donde se permanece más tiempo como son la casa, el trabajo, la escuela, etcétera. La seguridad de las casas en caso de temblores se garantiza siguiendo los códigos de construcción antisísmica de la región; si en los centros de trabajo se observa poca seguridad en las instalaciones hay que pedir que sean reforzadas. En México, las escuelas y, en general, las obras civiles, son construidas tomando en cuenta el código de construcción pero si se observa alguna anomalía conviene reportarla a las autoridades competentes. Debe evitarse colocar objetos pesados o peligrosos como lámparas, libros, etc., en repisas y lugares elevados a no ser que estén bien sujetos. Cuando ocurra el temblor es conveniente tomar en cuenta lo siguiente: 1) Conservar la calma y tratar de serenar a las personas que nos rodean. Evitar dar gritos ya que éstos infunden pánico. 2) Dirigirse rápido, pero no precipitadamente con pánico, al sitio que previamente y con la asesoría de un experto, se haya determinado como sitio más seguro, siguiendo el plan de evacuación ensayado anteriormente. 3) Cuando lo anterior no es posible por ser sitios públicos o por encontrarse en lugares no familiares; es necesario: a) No desplazarse precipitadamente en interiores, es mejor buscar sitios que ofrezcan seguridad (debajo del dintel de puertas, debajo de mesas robustas, lugares con techumbres livianas, etcétera). b) Tener cuidado de no permanecer debajo de objetos colgantes u objetos mal colocados. Alejarse de las ventanas ya que los vidrios se rompen con las sacudidas; tampoco permanecer cerca de objetos que se puedan desplazar o derribar (como armarios altos, vitrinas, muebles con ruedas, etcétera). 4) En las escuelas, los maestros deben conservar la serenidad, tratar de dar confianza a los alumnos, pedir a éstos que se alejen de las ventanas y, de ser posible, protegerse debajo de las mesas o los dinteles de las puertas y seguir las indicaciones mencionadas en el punto 2. Si están en los patios de recreo, pedir que permanezcan lejos de los edificios. Estas explicaciones y un simulacro deberán constituir práctica ordinaria al inicio de clases en todas las escuelas. 5) En otros centros de mucha concentración se aconseja no salir precipitadamente ya que ésta es la respuesta de la mayor parte de las personas y se ha visto que causa muchos accidentes personales. Lo mejor es buscar sitios seguros debajo de estructuras reforzadas, mesas o escritorios fuertes. 6) Se debe tomar en cuenta que a un temblor puede suceder otro, de manera que debe obrarse con cautela al final de uno. ¿QUÉ HACER DESPUÉS DE UN TEMBLOR? 65 Después de ocurrir el temblor se debe revisar si hubo daños y accidentados y proveer ayuda, si es necesario cerrar las líneas de gas y electricidad, y posteriormente revisar si las diferentes instalaciones eléctricas, gas, agua, etc., no sufrieron daños. Si es de noche, no prender fósforos para alumbrarse hasta no estar seguro que no existen fugas de gas. No use el teléfono si no es para transmitir un mensaje de mucha urgencia. En las escuelas, antes de movilizar a los alumnos, conviene inspeccionar el estado de los lugares de acceso como puertas, escaleras, barandales, etc. Posteriormente se evacua la escuela para una revisión detallada de sus instalaciones. Esto mismo se debe hacer en el caso de edificios altos. Para concluir, debe recordarse que el estar preparados mentalmente para un desastre reduce mucho sus consecuencias desastrosas para nosotros. En nuestras casas no acumulemos objetos cerca de las puertas y corredores. Cuando se asista a lugares públicos (cines estadios, etc.) observemos cuidadosamente las salidas, lámparas, construcción, concentraciones de gente, etc. y hágase un plan mental de acción en caso de siniestro. 66 V I . P A L E O M A G N E T I S M O , D E R I V A C O N T I N E N T A L Y T E C T Ó N I C A D E P L A C A S J. URRUTIA FUCUGAUCHI* INTRODUCCIÓN LOS ESTUDIOS en ciencias de la Tierra están caracterizados frecuentemente por el misterio y la sorpresa. Muchas de las hipótesis consideradas en las investigaciones resultan tan fascinantes como las leyendas de la Antigüedad. Entre ellas, se tienen los estudios paleoclimáticos, que revelan que existieron grandes cambios climáticos con la Tierra cubierta de hielo como en las épocas glaciares de hace unos miles de años o una Tierra sin casquetes polares y un clima cálido y uniforme como en la época hacia el fin de la era de los dinosaurios. Hace unos cien millones de años, no sólo había muchos otros organismos distintos habitando el planeta, como los dinosaurios, que disfrutaban de un clima diferente, sino que además su mundo era distinto. La distribución de océanos y continentes era muy diferente a la que podemos observar en nuestros mapas actuales y que nos es tan familiar. Viajando más hacia el pasado, la geografía nos enseñaría que el proceso de cambio es la pauta dominante en nuestro planeta. Hace unos 280 millones de años, los continentes se encontraban unidos en un supercontinente ahora conocido como Pangea y un superocéano que lo rodeaba. La historia del rompimiento de este supercontinente, los movimientos de separación y formación de nuevos océanos, forma parte de la teoría de la deriva continental. Una de las formas más importantes en que estos movimientos han podido documentarse es por medio de los estudios paleomagnéticos. En el paleomagnetismo se hace uso de una "memoria" magnética de las rocas que permite aprovechar al campo magnético terrestre como un sistema de orientación. Estos estudios han permitido recientemente el desarrollo de la teoría de la tectónica de placas, en la cual se basa la hipótesis de que las capas exteriores del planeta, o la litosfera, está dividida en grandes porciones o placas que están en movimiento relativo. Como resultado de estos movimientos se tienen la generación de temblores, la actividad volcánica, la formación de montañas y la deriva de los continentes. Los estudios paleomagnéticos han permitido aun hacer inferencias o predicciones sobre los movimientos de placas en el futuro y visualizar una geografía cambiante en los millones de años por venir, tan cambiante como en los millones de años del pasado geológico. Con ello, los estudios geofísicos de nuestros días se asemejan en ocasiones a las antiguas profecías de sibilas u oráculos. En las siguientes líneas, en una forma muy resumida, se comentan algunos de los aspectos de los estudios paleomagnéticos relacionados con la deriva continental y la tectónica de placas. 67 PALEOMAGNETISMO Una de las formas más sencillas de orientarse, usada comúnmente por marineros, exploradores, topógrafos, geólogos, oceanógrafos, etc., es aquella que aprovecha el campo magnético terrestre por medio de la brújula. El campo magnético terrestre se aproxima al campo producido por un dipolo magnético situado en el centro de la Tierra (Figura 39). Cualquier cuerpo magnetizado dejado en libertad de movimiento dentro de este campo tenderá a orientar sus respectivos polos magnéticos en la forma ilustrada en la figura. De esta manera, es posible conocer la dirección en la cual se encuentra el polo geomagnético en cualquier lugar de la superficie terrestre. En un punto dado, el campo magnético puede expresarse en función de tres parámetros (figura 40): dos definiendo la dirección, declinación (medida positiva al este del norte geográfico) e inclinación (medida positiva hacia abajo de la horizontal) y uno definiendo la intensidad. Figura 39. Representación esquemática del campo magnético terrestre. Se muestra la comparación de las direcciones de dos campos magnéticos para un dipolo geocéntrico axial (campo adoptado para el cálculo de polos paralelomagnéticos) y un dipolo geocéntrico inclinado con el campo magnético observado para el año 1945. 68 Figura 40. Componentes del vector representativo del campo magnético terrestre. La inclinación, como se puede observar, varía con la latitud, desde horizontal cerca del ecuador hasta vertical cerca de los polos. Ello proporciona una forma de estimar la latitud de un punto dado y de posibles movimientos relativos entre dos puntos cualesquiera. Imaginemos que nos encontráramos en un lugar cuya latitud desconociéramos; si determinamos la inclinación magnética y conocemos las variaciones del campo magnético, podríamos estimar la latitud. Ahora, si nos trasladáramos a otro lugar y en él determinamos la inclinación, su comparación con el valor determinado previamente nos permitiría estimar el cambio relativo en latitud. Estas propiedades del campo magnético pueden ser utilizadas en un gran número de problemas geológicos y geofísicos. Por ejemplo, imaginemos que una parte de México, digamos la península de Baja California, experimenta por alguna causa un movimiento hacia el norte, o bien el Golfo se ensancha, con un mayor crecimiento en la boca del mismo, mientras que la península continúa unida al resto del continente (Figura 41). Simples mediciones de cambios en inclinación y declinación nos ayudarían a estudiar y cuantificar estos movimientos. Ahora bien, supongamos que movimientos de este tipo y más complejos han ocurrido en el pasado, digamos hace varios millones de años, ¿podría nuestro método ayudar a estudiarlos y cuantificarlos? En principio podemos decir que sí se podría, siempre y cuando el campo magnético hubiese existido en el pasado y presentado características similares a las observadas actualmente. Además si ello se cumpliese, tendríamos el problema de quién podría ir al pasado y tomar las medidas necesarias para nuestro estudio. El problema aparenta no tener fácil solución ya que los registros escritos sólo cubren los últimos miles de años. Los chinos (y quizá los olmecas y mayas), al parecer, ya conocían las propiedades de la magnetita (imán natural) desde quizá el segundo siglo antes de Cristo y conocían la existencia y algunas características del campo magnético. Así es que el campo magnético ya se conocía en aquellos tiempos, aunque mediciones sistemáticas del mismo no comenzaron hasta hace relativamente poco tiempo. Afortunadamente, aunque no se cuenta con evidencia de esta clase sobre la existencia del campo magnético en el pasado geológico, ni sobre sus características, ni se puede enviar a alguien a tomar mediciones, en la 69 naturaleza ocurren ciertos procesos capaces de registrar la dirección e intensidad de un campo magnético. Por ejemplo, durante una erupción volcánica el magma sale del volcán a elevadas temperaturas, alrededor de unos 1 200°C; al comenzar a enfriarse diversos minerales cristalizan, entre ellos, los óxidos de fierro y titanio, los cuales tienen propiedades magnéticas. Una vez formados, y a temperaturas inferiores al punto de Curie, estos minerales adquieren una magnetización proporcional al campo magnético ambiental en ese momento; al continuar descendiendo la temperatura del magma esta magnetización se "congela", es decir, se convierte en una propiedad de la roca, capaz de existir en forma independiente del campo magnético que la indujo. Esta magnetización se conoce como magnetización remanente térmica (MRT). Porciones de roca se comportan entonces como débiles imanes, cuyas direcciones de magnetización son paralelas a la dirección del campo magnético. Estudiar estas direcciones es equivalente a tomar una medición con brújula. El emplazamiento de rocas ígneas extrusivas e intrusivas ha sido un fenómeno común en la historia de la Tierra, de aquí que sea factible estudiar sus magnetizaciones remanentes para obtener información sobre el campo magnético terrestre para diversos periodos. Figura 41. Ejemplos de movimientos relativos con (a) cambios en latitud y (b) cambios en orientación relativa. En el primer caso se tienen cambios principalmente en inclinación (I) y en el segundo en declinación (D). Además de este mecanismo para generar magnetizaciones remanentes en rocas ígneas, se conocen muchos otros que actúan en estas y otras clases de rocas. Así, en el caso de rocas sedimentarias, al tiempo de depositación las partículas de minerales magnéticos tienden a orientarse en la dirección del campo magnético local, dando lugar a una magnetización remanente detrital (MRD). En el caso de procesos químicos que impliquen cambios de volumen y composición de los minerales magnéticos, se puede tener una magnetización remanente química (MRQ). A las magnetizaciones adquiridas cuando se forma una roca se les conoce como magnetizaciones remanentes primarias (MRP). Además de éstas, se pueden tener otras magnetizaciones adquiridas después de la formación de la roca, las cuales son consideradas secundarias (MRS). Dentro de éstas se tienen la magnetización remanente viscosa (MRV), generada por la exposición a un campo magnético por largos periodos de tiempo; la magnetización remanente isotérmica (MRI), adquirida por la acción de campos magnéticos fuertes a bajas temperaturas, 70 (por ejemplo, debido a la acción de un rayo); y la magnetización remanente anistérica (MRA), la cual se genera por la acción de dos campos magnéticos, uno de polaridad constante y otro de polaridad alterna y de intensidad decreciente. En una roca dada, puede ocurrir que varias de estas magnetizaciones estén coexistiendo y la magnetización resultante sea la suma vectorial de las varias magnetizaciones, la cual se conoce como magnetización remanente natural (MRN). Tanto las MRP como las MRS proporcionan, información sobre el campo magnético, siempre y cuando éstas puedan ser identificadas y las edades de adquisición de todas ellas sean conocidas. Figura 42. Ejemplo de desmagnetización por campos magnéticos alternos decrecientes de dos muestras de roca. En la parte superior se representan los cambios de dirección en una proyección estereográfica. La declinación se mide de 0° a 180° al este (E) o al oeste (W), a lo largo de la circunferencia externa. La inclinación se mide de 0° a 90° de la periferia al centro de la proyección. Inclinaciones positivas ( hacia abajo de la horizontal) y negativas (hacia arriba de la horizontal) se representan con símbolos llenos y vacíos, respectivamente. Los valores de la muestra MF1.2.1 para el punto inicial (marcado con N) son: Declinación = 175° E, e Inclinación = 8° . En la parte inferior se representan los cambios en intensidad de la magnetización normalizados con respecto al valor inicial (J0). El campo magnético alterno decreciente aplicado en cada caso está indicado en el eje horizontal (en Oersteds). Las muestras fueron colectadas cerca 71 del poblado de Jonacatepec, Morelos y pertenecen al Grupo Volcánico Tepexco de edad Miocena. Gran parte del trabajo de laboratorio se dedica a la medición e identificación de las componentes vectoriales del MRN. Para ello se emplean diversas técnicas, conocidas como técnicas de desmagnetización o de análisis de estabilidad; las más usadas son: desmagnetización por campos magnéticos alternos decrecientes (cmad), en la cual las muestras de roca que se van a estudiar se someten a la acción de cmad, cuya intensidad se va aumentando progresivamente (Figura 42); desmagnetización por altas temperaturas, en la cual las muestras se sujetan a diversas temperaturas a partir de la temperatura ambiental hasta unos 700°C (Figura 43); y desmagnetización por medios químicos, en la cual las muestras se sujetan a un tratamiento con ácido clorhídrico, incrementando el tiempo de inmersión de las muestras en el ácido (Figura 44). Además de estos análisis, las muestras son sujetas a otros estudios con el fin de determinar la clase y propiedades de los minerales magnéticos responsables de la MRN, así como determinar otras características de las muestras que podrían afectar la adquisición de las magnetizaciones. Las rocas no se magnetizan de una forma uniforme, sino que tienen generalmente pequeñas diferencias debidas a heterogeneidades en la composición mineralógica o variaciones en las condiciones ambientales al tiempo de formación de la roca o posteriores. Además, a estos factores tenemos que añadir errores asociados con la recolección de muestras y medición en el laboratorio. Debido a esto, es necesario analizar un número de muestras (un mínimo de tres muestras por unidad) y emplear métodos estadísticos para estimar los valores de declinación, inclinación e intensidad de las diversas componentes del MRN. Para la aplicación de los métodos estadísticos es frecuente utilizar diagramas vectoriales o proyecciones estereográficas (como las presentadas en las figuras 42, 43 y 44), las cuales permiten una ayuda visual para analizar y comparar los resultados. Por último, cabe mencionar que a cada dirección o grupo de direcciones es posible calcular el correspondiente polo magnético (Figura 39), lo cual es útil para comparar resultados obtenidos de puntos distantes entre si. 72 Figura 43. Ejemplo de desmagnetización por altas temperaturas de tres muestras de roca. Los signos y convenciones son iguales a los descritos en la figura 42. Puede observarse que dos de las muestras (JG3.1 y JG4.2.1.) presentan pocos movimientos en dirección con la desmagnetización, lo cual sugiere que el MRN de estas muestras tiene una componente dominante,(MRT) con la adición de otras componentes de magnitud reducida (MRVS).En el caso de la muestra JG6.1.2, se tiene un cambio sistemático de la dirección, la cual se asocia a dos componentes dominantes (MRTS) adquiridas a tiempos distintos durante el enfriamiento en la roca. La dirección del campo magnético terrestre en la zona tiene polaridad normal para direcciones cercanas a las presentadas por JG3.1 y JG4.2.1, y polaridad reversa para direcciones como las presentadas por MFT1.2.1 y MF2.1.2 (Figura 44), por lo que la muestra JG6.1.2 presenta una componente normal (destruida en el tratamiento) y una componente reversa. Las muestras son de un cuerpo ígneo intrusivo de la misma zona (Figura 42). 73 Figura 44. Ejemplo de desmagnetización por medios químicos (inmersión en ácido clorhídrico). El tiempo de inmersión está indicado en horas en el eje horizontal del diagrama inferior. Las muestras son rocas sedimentarias de una localidad en Acatlán, estado de Puebla . 74 Figura 45. Escala de polaridad del campo magnético terrestre en los últimos tres millones de años. Estudios del campo magnético terrestre con observaciones directas tomadas durante los últimos cientos de años y con mediciones paleomagnéticas en rocas y materiales arqueológicos de diversas edades, han permitido determinar que las características de este campo varían en el tiempo. Las variaciones observadas van desde aquellas de baja magnitud y periodo corto (segundos), hasta variaciones mayores y con periodos largos (millones de años). Mediciones paleomagnéticas efectuadas a principios de siglo en rocas de diversas edades, indicaron la presencia de magnetizaciones anómalas, las cuales presentaban una polaridad opuesta a la actual, es decir, que la posición polar correspondiente presentaba un polo sur en donde se tiene actualmente el polo norte y viceversa. El investigador japonés M. Matuyama sugirió en 1906 que estas magnetizaciones, conocidas como reversas, habían sido creadas en un tiempo en el que el campo magnético terrestre tenía polaridad reversa. Esta hipótesis fue ignorada por los colegas científicos de Matuyama, y este profesor finalmente abandonó sus investigaciones y se dedicó al teatro No (una modalidad del teatro japonés). Pasaron muchos años, hasta que a fines de la década de los cincuentas, la evidencia en favor de la hipótesis de Matuyama se volvió contundente y pasó por fin a ser aceptada. 75 Figura 46. Curvas de desplazamiento polar aparente en América del Sur y África. 76 Figura 47. Reconstrucción paleográfica del antiguo continente Gondwana, el cual agrupaba a las actuales zonas continentales del hemisferio sur. Figura 48. Curvas de desplazamiento polar aparente determinadas para México y Norteamérica. Los números representan millones de años antes del presente; los círculos son datos de Canadá y EUA y las cruces son de México. Durante los años siguientes se descubrió que los cambios de polaridad del campo magnético terrestre han sido frecuentes a lo largo de la historia (Figura 45). 77 A principios de los cincuentas, un grupo de investigadores ingleses (entre ellos K. M. Creer, E. Irving y S. K.Runcorn), mostró que los datos paleomagnéticos para periodos anteriores al terciario (edades anteriores a unos 80 millones de años) divergían considerablemente de las características del campo actual, indicando diversas posiciones polares en algunas ocasiones cercanas al ecuador. Con las posiciones de los polos magnéticos terrestres para tiempos dados, se construyeron curvas de Desplazamiento Polar Aparente (DPA) que mostraban el movimiento del polo mágnético en el tiempo con respecto a las coordenadas geográficas actuales. Además, se observó que las curvas DPA correspondientes a distintos continentes divergían entre sí, presentando una aparente discrepancia ya que indicaban la existencia de más de un polo para un tiempo dado. Los investigadores ingleses sugirieron que estos resultados implicaban la ocurrencia de largos desplazamientos horizontales de las diferentes masas continentales, lo que apoyaba la teoría de deriva continental propuesta a principios de siglo. En la figura 46 se muestra un ejemplo con las curvas de desplazamiento polar aparente para Sudamérica y Australia, donde puede observarse que las curvas divergen, y en la figura 47 se muestra una reconstrucción paleográfica de los continentes del hemisferio sur, lograda simplemente con superponer las curvas de desplazamiento polar aparente correspondientes a Sudamérica, África, Madagascar, India, Australia y Antártica. Los resultados paleomagnéticos para varias partes de México se muestran en la figura 48; con fines de comparación, en ella se incluyen también los datos correspondientes a Norteamérica. Podemos observar que las dos curvas muestran tendencias similares, con algunas diferencias en ciertos periodos, y que a partir del Jurásico temprano (hace unos 150 millones de años) las dos curvas comienzan a separarse significativamente. Ello nos indica que antes del Jurásico temprano, México se encontraba separado de Norteamérica y que en tiempos posteriores, México experimentó movimientos tectónicos relativos a Norteamérica, aunque guardando una posición en latitud muy similar a la actual. En la figura 49 se muestra una interpretación de los tiempos en que diversas partes de Sudamérica se unieron al continente. El estudio de las posiciones pasadas y movimientos relativos de los bloques continentales es de gran importancia en un gran número de problemas, además de su importancia por el simple hecho de conocerlos. Por ejemplo, podemos, mencionar la exploración de minerales y energéticos. En el caso de los hidrocarburos (petróleo y gas) se ha observado que un clima cálido y ciertas condiciones ambientales, comúnmente encontradas en zonas cercanas al ecuador, son favorables a su formación. Por lo tanto, el poder determinar si una zona se encontró en algún tiempo cerca del ecuador tiene un gran valor. Con base en la figura 48 se pueden calcular los cambios de latitud (paleolatitud) de las zonas de Poza Rica, Veracruz y Teapa, Tabasco, donde se localizan algunas de las zonas productoras de hidrocarburos más importantes del país. De ello se ha podido observar que durante los últimos 200 millones de años, estas zonas han permanecido relativamente cerca del ecuador. 78 Figura 49. Posición relativa de América del Sur durante la era Mesozoica. Durante ese tiempo, las diversas partes de México y América Central se encontraban localizadas en diferentes posiciones, posiblemente hacia el Océano Pacífico. A forma de conclusión, cabe mencionar que el paleomagnetismo es una parte de las Ciencias de la Tierra con una investigación muy activa y como tal, en proceso de cambio. Es de esperarse que una parte considerable de sus aplicaciones y logros esté aún por desarrollarse, por lo que tiene un gran porvenir a corto y largo plazo. 79 B I B L I O G R A F Í A Collinson, D. W., Creer, K. M. y Runcorn, S.K. (comps.), 1967. Methods in Palaeomagnetism, Developments in Solid Earth Geophysics, Elsevier, Amsterdam, 609 pp. Irving, E., l964. Palaeomagnetism and its application to geological and geophysical problems, Wiley, Nueva York, 399 pp. Irving, E., 1977. "Drift of the major continental blocks since the Devonian", Nature, v. 270, pp. 1 318-1 324. McElhinny, M. W., 1973. Palaeomagnetism and plate tectonics, Cambridge University Press, Londres, 358 pp. Urrutia Fucugauchi, J., 1979. "Preliminary apparent polar wander path for Mexico", Geophysical Journal, v. 56, pp. 227-236. Urrutia Fucugauchi, J., 1981. "Paleomagnetic evidence for tectonic rotation of northern Mexico and the continuity Cordilleran orogenic belt between Nevada and Chihuahua", Geology, v. 9, pp. 178-183. Van der Voo, R. y Channell, J. E. T., 1980. "Paleomagnetism in orogenic belts", Reviews of Geophysics and Space Physics, v. 18, pp. 455-488. 80 C O N T R A P O R T A D A En nuestros días resulta indispensable un mejor conocimiento de las ciencias de la Tierra, desde aquellas que estudian su interior hasta las que investigan el Sistema Solar en su conjunto, pasando por las que se dedican al conocimiento de los océanos y de la atmósfera. Para abordar estos temas, los métodos que las ciencias de la Tierra utilizan son muy diversos y, en ocasiones, extremadamente complejos pues requieren del empleo de tecnologías muy avanzadas y de vastos recursos económicos. En México, el número de personas que se dedica a las ciencias de la Tierra no pasa de unas cuantas centenas y, hace 25 años, los más emprendedores fundaron la Unión Geofísica Mexicana, uno de cuyos propósitos principales es unir el esfuerzo de todos los geofísicos del país para fomentar el desarrollo de la investigación sobre la Tierra y difundir los conocimientos adquiridos. Tales son también los fines que persigue Nuestro hogar en el espacio, libro en el que se tocan cuestiones de suyo tan interesantes como las naves espaciales, el Sol, la atmósfera que nos rodea, un estudio sobre la composición y edad de la Tierra y otro sobre el paleomagnetismo, esto es, las variaciones de lugar que ha experimentado el polo magnético de nuestro planeta, así como una exposición de la teoría de la deriva continental que considera cómo, a partir de un supercontinente al que se ha dado el nombre de Pangea, se han ido fraccionando los continentes que existen en la actualidad. Aparte del interés, tiene también actualidad el capítulo dedicado a los sismos de septiembre de 1985 que, aparte de la devastación y muerte que causaron, trastornaron también la fisonomía de la ciudad de México en grado mayor que los urbanistas. José Francisco Valdés Galicia, compilador de los trabajos presentados en Nuestro hogar en el espacio, hizo su carrera de físico en la Facultad de Ciencias de la UNAM y se doctoró en su materia en el Imperial College de Londres. Su especialidad son los rayos cósmicos y la física espacial. Actualmente es presidente de la Asociación Latinoamericana de Geofísica Espacial, investigador de tiempo completo en el Instituto de Geofísica de la UNAM y miembro del Sistema Nacional de Investigadores. En la portada: Cosmovisión hindú Diseño: Carlos Haces/Fotografía: Carlos Franco