Del espacio al subsuelo Del espacio al subsuelo D E L E S P A C I O A L Autor: RICARDO PERALTA Y FABI COMITÉ DE SELECCIÓN EDICIONES PRÓLOGO I. EL RETO ESPACIAL II. DE REGRESO A LA TIERRA, PASANDO POR ...LA ATMÓSFERA III. EL INGRESO AL SUBSUELO IV: MICROORGANISMOS Y MINERALES V. LA MICROGRAVEDAD Y LOS MATERIALES VI. NUESTRO LABORATORIO EN ÓRBITA TERRESTRE VII. HACIA EL FUTURO GLOSARIO BIBLIOGRAFÍA CONTRAPORTADA S U B S U E L O C O M I T É D E S E L E C C I Ó N Dr. Antonio Alonso Dr. Juan Ramón de la Fuente Dr. Jorge Flores Dr. Leopoldo García-Colín Dr. Tomás Garza Dr. Gonzalo Halffter Dr. Guillermo Haro † Dr. Jaime Martuscelli Dr. Héctor Nava Jaimes Dr. Manuel Peimbert Dr. Juan José Rivaud Dr. Emilio Rosenblueth † Dr. José Sarukhán Dr. Guillermo Soberón Coordinadora Fundadora: Física Alejandra Jaidar † Coordinadora: María del Carmen Farías E D I C I O N E S Primera edición, 1990 Segunda edición, 1995 La ciencia para Todos es proyecto y propiedad del Fondo de Cultura Económica, al que pertenecen también sus derechos. Se publica con los auspicios de la Secretaría de Educación Pública y del Consejo Nacional de Ciencia y Tecnología. D. R. © 1990 FONDO DE CULTURA ECONÓMICA, S. A. DE C.V. D. R. © 1995 FONDO DE CULTURA ECONÓMICA Carretera Picacho-Ajusco 227; 14200 México, D.F. ISBN 968-16-4806-4 (2a. edición) ISBN 968-16-3l50-l (la. edición) Impreso en México P R Ó L O G O Sobre la marcha decidí no dedicar este trabajo a un solo tema de entre las investigaciones que realizo junto con el grupo interdisciplinario en el que trabajo. Los temas incluidos tomaron 10 años para su desarrollo y tocan materias muy diversas. Todo esto lo permití por varias razones, entre ellas: Primero, el deseo de plasmar el complejo proceso de cambio de un tema de investigación a otro. Durante mis estudios de licenciatura y maestría (1968-1974) me dediqué con obsesión a la ingeniería aeroespacial, incluyendo temas de neurociencias espaciales; pero entonces, desde lejos, decidí que iba a regresar a trabajar a mi patria, así que el doctorado lo hice especializándome en propiedades ingenieriles de materiales complejos, que juzgaba como más importante para cuando trabajara en México. Durante los primeros seis años de mi regreso, seguí el tema de estudio doctoral, por cierta inercia como ocurre a menudo, pero con otro tipo de material, fascinante como todos: los suelos arcillosos del valle de México. Pero bien dicen que "la cabra tira pa'l monte" (sin alusión personal) y regresé irremediablemente al campo aeroespacial. El libro lo había primero titulado "Del espacio al subsuelo, y de regreso", mas al fin lo acorté, aunque como verá el lector, lo cumplí; además de entretenerme en actividades atmosféricas. Segundo, como esta serie se llama La Ciencia desde México, me propuse incluir principalmente el trabajo realizado en las condiciones de nuestro país, con todo y sus coyunturas, altibajos, influencia de modas exteriores, aventuras, superapoyos y leves "represiones" académicas, así que sin proponérmelo conscientemente, el escrito refleja la influencia de todos estos factores. Al lector adaptado a este país y a esta super ciudad no le parecerá muy raro el a veces pintoresco proceso; a un rígido sistemático, y a su análogo tropical, les parecerá un viaje en montaña rusa y, a ratos, una caminata en el desierto. Sin embargo, así han sido para mí los intentos de hacer ciencia desde México. En 1978 se vivía la ilusoria administración de la petro-opulencia, hoy día, vivimos la cruda social, y quizá la búsqueda del verdadero desarrollo. Eso sí, creo que deja ver la realidad que me ha tocado vivir. Como no sabía escribir, cuando menos en correcto español y para el público en general, no entrego al lector una obra fácil de leer ni con la brevedad óptima, aunque creo que va mejorando hacia el final. Como tampoco soy ratón de biblioteca, aunque acabo leyendo muchas de las horas de cada día, las apreciaciones finales toman rumbos que hasta a mí me sorprendieron por su contenido social. No obstante, esa afición humanística la aprendí, como suele decirse, en la escuela de la vida, y esto no me apena, me enorgullece como mexicano y como latinoamericano; por algo el logotipo de nuestra Universidad Nacional incluye el mapa de toda la patria grande y reza "Por mi raza hablará el espíritu", frase que sé interpretar, y que me gusta. Advertidos, pues, sólo me resta reconocer la ayuda entusiasta y desinteresada que otros prestaron para que el libro fuera posible y tuviera menos errores, aunque en mí recae la responsabilidad de tantas aseveraciones que por ahí van saliendo. Como es natural, el libro no presenta sólo el trabajo propio, sino el de muchas personas con las que colaboro y que sería muy largo mencionar. No obstante, como otros autores, ahora lo comprendo claramente, reconozco que lo válido que puede tener esta obra se debe también a su influencia constructiva. En primer término, a la de mi compañera Rosalinda Medina, que no sé cómo todavía me aguanta; a la de nuestros hijos Ernesto y Emiliano que, aunque pequeños, les tocó facilitar mi comprensión de cómo analizan y entienden las personas las cosas que parecen complejas, y por sufrir, casi sin decírmelo, la ausencia de su padre, aun estando en su presencia. A la influencia de mis padres, que aparte de ser los culpables de que esté yo aquí, lo son de que me dedique con pasión a todas mis ocurrencias. Profesionalmente, agradezco a mi principal formador (o reformador), al profesor D. R. Axelrad que me enseñó a atar hasta el último cabo y a quien tanto desobedezco; al entonces director de mi centro de trabajo, el Instituto de Ingeniería, profesor Daniel Reséndiz, que supo apoyar una investigación sin esperar garantías a cambio, a pesar de ser de su más cercano interés y aun cuando me vio derivar hacia el monte; a mis colegas más cercanos: Esaú Vicente, Jorge Prado, Armando Peralta, Orlando Palacios (mi primer colaborador), Oscar Weckmann, Margarita Navarrete y Víctor Romero quienes, con su juventud crítica, no me dejan fallar ni rezagarme. En la revisión conceptual del manuscrito participaron, además, mi hermano Ramón, el físico, Efraín Ovando, amigo, investigador de suelos, y Jesús Machado Salas, otro amigo investigador, pero de neuro. La redacción, labor titánica en mi caso, la hizo Maribel Madero, quien casi califica de coautora. En el procesamiento del texto y otros mil apoyos más, Alma Chacón, quien no sé cómo no pierde el ánimo, y aún más. Aparte de la ayuda de tanta gente, este libro no hubiera visto la luz si no fuera por otras dos razones más. Una de tipo casual: tuvo una participación importante un didáctico avionazo que me postró meses en una silla de ruedas y me animó a vivir aún más, mientras Perla Castillo tomaba dictado y corregía; la otra razón fue fruto de la más cálida y exigente dedicación al trabajo por parte de la coordinadora de esta serie, la querida doctora María del Carmen Farías y sus colaboradores del Fondo de Cultura Económica. Te añado también a ti, a quien olvidé incluir, e hiciste también un esfuerzo para hacer de mí una persona deseosa de ser útil a la sociedad, sólo espero que la obra lo alcance a reflejar, y haga que el lector sienta la vitalidad y dedicación de toda esta gente. Amén. RICARDO PERALTA I . E L R E T O E S P A C I A L LOS INICIOS UN HOMBRE solo no puede escapar de la gravedad. Su presencia en el espacio es fruto del trabajo de cientos de miles de personas creativas y organizadas. En un principio, la imaginación de los escritores de ciencia ficción hizo que el hombre surcara y explorara el espacio. Siguieron después los ingeniosos, que tradujeron tales sueños a fórmulas y cálculos, luego los prácticos convirtieron esas ecuaciones en los materiales y sistemas que conforman una nave espacial. Los Verne, Tsiolkovski, Oberth, Goddard y Koroliov, apoyados por cientos de miles de trabajadores multidisciplinarios, convirtieron un viejo sueño de la humanidad en la realidad tangible de nuestros días. Desde que el Sputnik 1 hizo su sorpresiva aparición el 4 de octubre de 1957, el mundo ya no fue el mismo: la cohetería capaz de colocar en órbita un satélite, y poco después al hombre, abría una nueva era de la humanidad, la Era Espacial. La noticia del primer lanzamiento al espacio causó innumerables reacciones: unos consideraban factible establecer, en este siglo, las primeras colonias espaciales; otros, contemplaban la posibilidad de que cayeran bombas atómicas sobre sus ciudades, y otros más, el inicio de una competencia bélico-espacial entre las potencias económicas más importantes. Quizá en algo estaban todos de acuerdo: se nos presentaba otra frontera, la más vasta de todas, que a la vez constituía un nuevo gran reto para los pueblos que podían apostar su prestigio a la manera de enfrentarlo. También en los momentos iniciales de la era espacial se establecieron, teniendo en cuenta el prestigio nacional, los programas que darían empuje a tal empresa; es una pena que desde sus inicios el desarrollo espacial tomara la forma de una colosal competencia, y no el camino de la cooperación, que sin duda permitiría un avance mucho más rápido, costeable y beneficioso para la humanidad. Sin embargo, motivaciones principalmente de tipo militar han determinado que hasta la fecha los programas espaciales hayan desaprovechado en gran medida las ventajas de la cooperación internacional. Hoy en día, los alcances tecnológicos y científicos han avanzado tan aceleradamente que ya muy pocas personas reconocen claramente los límites entre la ficción y la realidad. Paradójicamente, en la actualidad la magnitud y la difusión de los avances científicos y tecnológicos han hecho que las personas pierdan contacto con los alcances reales y potenciales de esos conocimientos, que tengan la idea de un mundo ilusorio y lejano, y que desaprovechen actividades benéficas, desprendidas de ese saber. Para confundir más al público sobre los valores de la ciencia y la tecnología, la tendencia actual en los medios masivos de comunicación es presentar los avances de la humanidad y los de la exploración espacial como casos extraordinarios del talento, más allá de la comprensión y realidad cotidiana de cualquiera; pareciera que estos avances sirven más para hacernos sentir pequeños e insignificantes, que para fincar sobre ellos la confianza en que son las herramientas principales para el desarrollo más justo de la sociedad futura. Esta desinformación sobre la utilidad de las actividades tecnocientíficas, aunada a la distorsión que implica su militarización son, sin duda, algunos de los acontecimientos más contradictorios y funestos de la vida moderna. Por estas razones, antes de proseguir, creo justo advertir al lector que si piensa alimentar un mero entusiasmo por todo lo espacial con este libro, que no pierda su tiempo y lo regale, pues corre además el peligro de destruir un castillo de ilusiones. Este trabajo tiene la intención de tratar sólo con la realidad más tangible del quehacer espacial; y en particular, sobre el efecto que tienen en el avance de la humanidad el estudio y desarrollo de viejos y nuevos materiales, así como las diversas actividades espaciales. Asimismo, esta obra pretende ayudar a desmitificar el tema espacial, a nulificar un abismo imaginario entre las actividades espaciales y la vida diaria y acercarnos hacia la comprensión de una interesante actividad que en nuestros días nos afecta crecientemente. LA ACTUALIDAD Ahora sabemos que algunos frutos de la era espacial son las comunicaciones amplias o gente trabajando en el espacio; también, aparatos automáticos que estudian casi todo: desde los recursos naturales propios y ajenos, hasta los planetas más alejados en nuestro Sistema Solar. Los adelantos implican astronautas y equipos militares, experimentos científicos y también estudios médicos y biológicos. Poco a poco, los resultados de las tecnologías aeroespaciales llegan a todos los rincones del planeta, hecho que no mucha gente reconoce, a pesar de que gran parte de los habitantes del planeta tiene ya acceso por ejemplo a información climática, a comunicaciones y a útiles imágenes de la Tierra provenientes de sistemas establecidos en el espacio exterior. Esta falta de conocimiento sobre las repercusiones del quehacer espacial en la humanidad causó un entusiasmo realmente desmedido en la primera década de la actividad espacial, que muchas veces rayaba en lo delirante: algunos programas como la colonización de Marte en nuestro siglo, difundidos en un principio, resultaron totalmente falsos o excesivamente ambiciosos a la hora de enfrentar los hechos; otros programas son tétricos y apocalípticos, como los cohetes intercontinentales portadores de ojivas nucleares y, más recientemente, se ha llegado al colmo de confundir la realidad y la ilusión con los planes y programas para desatar la llamada "guerra de las galaxias". NUESTRAS PERSPECTIVAS EN EL ESPACIO Demasiados dudan de que los países en desarrollo, como México, tengan algo que hacer en el espacio; idea que sólo apoya lo dicho sobre el supuesto abismo entre el trabajo espacial y las necesidades de los países en desarrollo. No obstante, la verdadera dificultad de estos países para abordar temas espaciales es otra: estriba en saber a qué aspirar dentro de la variedad de actividades e investigaciones espaciales actuales. Seguir, por ejemplo, el camino de los países industrializados hasta alcanzar sus logros espaciales, no parece viable; esto debimos haberlo hecho hace décadas, como lo hicieron la India y Brasil. Hoy, y en el futuro cercano, nuestros pasos en esa dirección deben ser necesariamente cautos y certeros, lejanos de lo inseguro, coyuntural o propagandístico. El desarrollo de un país no depende de grandes pasos o saltos hacia adelante, y sí de una mayor cantidad de trabajo sobrio por parte de sus ciudadanos, así como también, no sobra nunca señalarlo, de una autoevaluación justa, que se base en los logros pasados y presentes, y en las expectativas futuras de cada sociedad. En los países en vías de desarrollo el impedimento para hacer estudios espaciales suele ser, en principio, mental; es decir, de antemano se suponen temas y caminos vedados, o al menos ajenos. Al pensar esto, nos autolimitamos y consentimos en algunos aspectos del subdesarrollo, haciendo a un lado la búsqueda de nuestras propias vías para el crecimiento económico y social, y dejando de utilizar los medios que nos proporciona el avance del conocimiento. Uno de los primeros pasos a dar es encontrar las mejores herramientas, las más adecuadas a nuestro estado real, que nos posibiliten un avance y un auge económico estable. Claro está, también se requiere que nuestra organización social responda y se encuentre a la altura de las necesidades. Un desafío para nuestros países. Para encaminarnos se puede, por ejemplo, elaborar políticas y procurar los medios que permitan al país avanzar con seguridad en la dirección que su sociedad y su gobierno seleccionen, sin tener que imitar tardía y torpemente el camino de otros. En cuanto a logros espaciales, México posee la capacidad en un corto plazo, dos o tres años, de manejar satélites en órbita, de diseño y fabricación nacionales. Primero, unos satélites de experimentación, para allanar solamente el camino de la técnica: de hecho, al escribir estas líneas, los planes al respecto avanzan y han recibido su primer apoyo financiero; del diseño preliminar ya se encarga la Universidad Nacional, con la colaboración de otros importantes centros de investigación, en los que se visualizan con claridad las ventajas futuras de tal empresa y que apoyan este tipo de proyectos piloto. Al primer satélite seguirán otros y en pocos años tendremos la tecnología necesaria para no volver a gastar grandes cantidades en comprar satélites a los países desarrollados, sino hasta exportárselos, como lo hace hoy Brasil con su aviación. Claro está, en el espacio no todo son satélites o astronautas, como parece al primer vistazo; hay otras actividades que también requieren de la atención de todos nosotros, o cuando menos, de que las conozcamos. Dichas actividades pueden ser experimentos y observaciones realizados en el espacio, preparados para conocer más sobre la naturaleza que nos rodea, que hacen uso de las condiciones propias y únicas del ambiente espacial, o aquellas que pretenden fabricar productos en el espacio, y que resultan, como veremos, de gran valor para todos. En las siguientes secciones analizaremos con detenimiento las condiciones que ofrece la órbita terrestre. LA MICROGRAVEDAD En el espacio, particularmente en la órbita terrestre, hay varias condiciones especiales y únicas, que resultan muy útiles para gran número de actividades. Entre estas condiciones, primero veremos una de las más curiosas: la microgravedad, o imponderabilidad. Estando dentro de una nave en órbita, los efectos de la gravedad no se perciben: las cosas no caen al suelo, todo flota, la gente, el jugo de naranja, las cámaras fotográficas, todo. En órbita, por ejemplo a una altura de 300 km, un satélite se encuentra bajo el efecto de dos fuerzas en equilibrio: por un lado la gravedad que tiende, como sabemos, a provocar que las cosas caigan hacia la Tierra, y por otro, una fuerza (centrífuga) opuesta que proviene de la trayectoria del satélite alrededor de la Tierra. Sin embargo, la Tierra no es una esfera de dimensiones precisas y uniformes, de hecho, tiene una forma tan especial que se tuvo que inventar una nueva palabra, geoide (algo entre una pera y una naranja), y por tal motivo, cuando un satélite orbita el planeta, la fuerza de gravedad varía ligeramente, según el lugar que sobrevuela; por esto el equilibrio entre las fuerzas mencionadas varía, provocando pequeñas aceleraciones que oscilan de milésimas a millonésimas de los valores de la gravedad en la superficie terrestre. De la magnitud de estas pequeñas variaciones, proviene el nombre de microgravedad: fuerzas que alcanzan la millonésima parte de la gravedad sobre la Tierra. Es quizá más preciso llamarla imponderabilidad que "ingravidez", como la llaman algunos autores, ya que la palabra gravidez se refiere sólo al estado de embarazo en la mujer, y destacados médicos ginecobstetras me aseguran que decir ingravidez o microgravidez no es correcto, ya que, en el primer caso, si no hay embarazo no hay por qué señalarlo llamándolo ingravidez; y en el segundo caso, no se puede estar embarazada una millonésima parte. En fin, la fuerza de la costumbre acabará dictando cómo llamaremos al fenómeno de microgravedad o imponderabilidad. Ponderar es pesar: las cosas se ponderan, es decir se pesan; pero estando en órbita nada pesa, las cosas por tanto son imponderables. En todo el libro hablaremos de esta propiedad de las cosas en órbita, porque tiene muchas y muy importantes repercusiones para los científicos e ingenieros espaciales, y en consecuencia podría tener también —dentro de muy poco tiempo— efectos benéficos para los habitantes de cualquier país del planeta, como trataremos de mostrar en varias secciones de esta obra. Uno de los primeros efectos que notaríamos estando en órbita, aparte de que nuestro estómago no se sentiría igual y de que entraríamos en un estado medio eufórico de tanta emoción, es que al ponerle leche al café, no se mezclarían tan fácilmente solos, puesto que en órbita no se llevan a cabo las corrientes naturales que en la Tierra mezclan las cosas frías y calientes. Por estas características, en órbita se pueden tener experiencias y, sobre todo, hacer experimentos únicos imposibles de repetir en tierra; por eso, la microgravedad es tan interesante. Entre las muchas posibilidades que nos abre la imponderabilidad, podemos, a modo de introducción, mencionar la producción de medicamentos de ultra alta pureza, la preparación de aleaciones con resistencias cientos de veces mayores que las producidas en tierra, el estudio de fuerzas muy pequeñas, que en los laboratorios terrestres se esconden detrás de los efectos de la gravedad, y muchas otras actividades. LA VISIÓN AMPLIA Otra condición única del espacio es la visión total que la gente o los equipos en órbita tienen de la Tierra y del resto del Universo: a esta propiedad los científicos e ingenieros la llaman visión sinóptica. Si bien los aviones pueden volar muy alto, normalmente a unos diez kilómetros, o hasta a 90 algunos muy especiales y costosos, los ingenios espaciales pueden colocarse a cientos y hasta a muchos miles de kilómetros de la Tierra, en posiciones móviles o fijas en el plano ecuatorial, con lo que pueden cubrir a un país dado con sus señales. Desde allá arriba, aparte de verse bellísima la Tierra, como lo muestran las fotos, las películas tomadas desde el espacio y las descripciones de los cosmonautas, se puede observar nuestro planeta y otros cuerpos celestes de manera muy especial, única, más aún si para ello se cuenta con instrumentos ópticos y electrónicos adecuados. Desde el espacio se exploran los recursos naturales de extensas zonas del planeta, que tomaría años explorar en la Tierra. Con imágenes especiales tomadas con satélites de percepción remota o teledetección (detección a distancia), se preparan mapas de regiones o de países enteros con gran precisión. México y otros países así lo hicieron, y sólo tardaron 15 años; digo sólo, porque otros países tardaron hasta 100 años en lograrlo recorriendo su territorio por tierra o con aviones. Después volveremos sobre esto. Además, desde el espacio se estudia el crecimiento anual o incluso mensual de las ciudades, sus procesos de contaminación, los de los mares, bahías y ríos, y asimismo —tomen nota— se detectan posibles depósitos de minerales, que incluyen oro y plata, fósforo y potasio para fertilizantes, tungsteno y titanio para industrias clave, zonas de potencial petrolífero, concentraciones de alimentos para peces, con lo que se pueden orientar flotas pesqueras hacia lugares más productivos, y otras muchas actividades, algunas de las cuales irán apareciendo en el libro, y otras, tratadas con más detalle por especialistas, en libros de esta misma serie (véase La percepción remota: nuestros ojos desde el espacio). La visión amplia tiene otra cara, de la misma o incluso mayor importancia para los científicos, en particular para los astrónomos. Nos referimos a la visión hacia el resto del Universo. Los astrónomos han soñado durante siglos con poder quitarse de encima los efectos distorsionadores que sobre sus observaciones tiene la atmósfera de la Tierra; la atmósfera cambia los colores, las formas, las propiedades, y hasta las posiciones de objetos distantes. La manera más sencilla de evitar las distorsiones es poner en órbita los telescopios, que pesan varias toneladas. Este viejo sueño se está logrando progresivamente en la actualidad, por un lado, mediante la cooperación internacional: grupos de los más prestigiosos investigadores han diseñado un telescopio (el Telescopio Espacial Hubble) para que funcione a cientos de kilómetros de altura sobre gran parte de la atmósfera, y que se puede operar a control remoto desde la Tierra. Por otro lado, a la estación espacial soviética Mir, puesta en órbita en 1986, se le han ido fijando módulos adicionales, entre los cuales se ha colocado ya el observatorio astrofísico Quantum de 20 toneladas; en este proyecto han participado con algo de instrumentación científicos holandeses, alemanes, suizos y la Agencia Espacial Europea. Sin duda, este tipo de instalaciones revolucionará la física del espacio al aumentar los conocimientos sobre el inmenso entorno del hombre. Y no sólo los países más desarrollados se abocan a hacer esto; para sorpresa de muchos, las primeras pláticas para diseñar y fabricar un satélite-telelescopio se han llevado a cabo; actualmente se está discutiendo entre universitarios el proyecto, y quizá para el inicio de la década de 1990 empiece a instrumentarse este satélite mexicano. Más adelante nos referiremos a él. EL ALTO VACÍO Se dice que en el espacio interplanetario no hay nada, esto es, hay un vacío, pues aunque éste contenga muchas cosas, su proporción es muy baja. Sin embargo, hasta el vacío es útil, tanto que en tierra, por medio de aparatos como bombas difusoras, turbomoleculares, criogénicas y mecánicas, se pueden alcanzar, con no pocas dificultades, los altos y los llamados ultraltos vacíos; sin embargo, mientras más alto sea el vacío que deseamos, más trabajo, costo y técnica se requieren. Los altos vacíos son muy útiles en muchos procesos tecnológicos e industriales: desde algunas actividades aparentemente tan complejas como la observación en microscopios electrónicos, hasta otras como dorar o platear joyería de fantasía. Todos los países industrializados, y muchos en desarrollo, manejan técnicas de vacío en una amplia gama de actividades; casi se podría medir el avance de una sociedad en términos del número de sistemas de vacío por habitante. Asimismo, hay muchos avances de la ciencia y la tecnología que hubiera sido imposible alcanzar sin estas técnicas de vacío; por ejemplo, los continuos descubrimientos de partículas dentro del núcleo atómico, que se conocen por medio de estudios con aceleradores que lanzan hacia un blanco experimental partículas submicroscópicas, para observar los efectos de la colisión, son un logro que sin el vacío no podría haberse realizado, ya que el aire pronto las frenaría. En el espacio no sólo hay vacío, sino, valga la expresión, hay mucho, lo que hace posible desarrollos tecnológicos muy importantes. Hoy en día se diseñan fábricas para operar en el espacio, que utilizan principalmente el vacío, y a una gran compañera de la que ya hemos hablado, la imponderabilidad. ¿Por qué subir a órbita terrestre toda una fábrica, teniendo todavía un costo tan alto? Esto sólo se puede contestar considerando a fondo las ventajas del vacío, sus costos en tierra, la frecuencia de su uso y otros factores. Lo que es seguro es que nadie lo financiaría por puro gusto. RADIACIÓN DIRECTA Por último, otra importante condición de la órbita terrestre es el acceso a la radiación que proviene del Sol y de otros cuerpos del Universo. La atmósfera no deja pasar o frena muchas partículas y radiaciones que viajan en el espacio en dirección a la Tierra; nuestro conocimiento del Universo creció en forma importante cuando la humanidad pudo colocar artefactos sobre las capas más densas de la atmósfera. Entre los primeros descubrimientos, vino la sorpresa de que la Tierra tenía unos cinturones o bandas que atrapaban radiaciones (los cinturones de Van Allen, 1958) y que su campo magnético, como el de un gran imán, dirigía muchas de estas partículas cargadas eléctricamente (como los electrones, con carga negativa, y los protones, con positiva) hacia los polos norte y sur, generando entre otras cosas la Aurora Boreal o Austral —por cierto, un gran espectáculo visual, que francamente hay que ver para creer. Los habitantes y afortunados viajeros de esas frías regiones gozan con cierta frecuencia de tan imponente espectáculo de luz y sonido (o cuando menos a mí me parece que nos acompañaba en aquella experiencia un sonido, aunque sospecho que fue exclusivamente resultado de la emoción y el entusiasmo de ese momento). Pero, que no cundan las envidias, pues para los habitantes de regiones más cercanas al ecuador, se compensa tal carencia de espectáculo con creces, pues seguro que los que gozan de las auroras, preferirían ver y nadar en los mares cálidos, transparentes y llenos de vida como el Caribe. Pero volvamos al tema de la radiación. Unos años después de que se conocieran los cinturones de Van Allen, se descubrió que la Tierra, como los cometas, tiene cola que le pisen: una cauda que se extiende, según se sabe, hasta 65 000 kilómetros en dirección siempre opuesta al Sol, y que junto con la Tierra da vueltas anuales sin descanso. Entre las radiaciones que casi no llegan a la superficie terrestre, lo que por cierto es una suerte, está la radiación ultravioleta. Invisible al ojo pero dañina para la piel y para las partes más delicadas del ojo humano: principalmente para la retina y sus receptores. Estudiar las emisiones de cuerpos celestes con éste y otros tipos de radiaciones, ha hecho posible el conocimiento de una serie de datos del Universo que antes de la Era Espacial nos eran ajenos. Estas son, pues, a grandes rasgos, las principales condiciones de la órbita terrestre que tanto atraen a los científicos aeroespaciales: imponderabilidad, visión amplia, vacío y radiación. Si bien todo lo que hemos tratado tiene carácter espacial y no es muy difícil entusiasmarse con ello, me voy a permitir intentar poner los pies en la Tierra, ya que lo que ocurre aquí abajo determina lo que podemos hacer en órbita, y esto lo hace tanto o más interesante. Más adelante retomaremos el tema del espacio, después de haber recogido en el camino alguna información, en apariencia muy diferente pero, como veremos, con mucha relación con los temas espaciales: la aeronáutica, los materiales complejos, así como los medios de investigación que se utilizan para hacer avanzar el conocimiento en muchos campos. I I . D E R E G R E S O A L A T I E R R A , P A S A N D O P O R L A A T M Ó S F E R A INTRODUCCIÓN DENTRO de los países que buscan desarrollarse, existe una sociedad frágil y con un buen número de problemas serios y graves. Esto se manifiesta, entre otras cosas, en la concepción arraigada en buena parte de la población de que la ciencia y la tecnología son un lujo, y no una condición indispensable para el desarrollo. Existe además, agravando el problema, un divorcio entre las actividades de investigación y las productivas, lo cual representa un verdadero desperdicio del potencial en el que se puede fundar la superación económica y social de estos países. En este contexto, frecuentemente surgen las preguntas: ¿cuál es nuestra función como científicos en el desarrollo del país?, ¿cuáles nuestras responsabilidades? Tratemos ahora de comenzar a dilucidar cuestiones tan importantes, para que a partir de ahí identifiquemos las posibles líneas de acción, y les adjudiquen un orden de prioridades. Cualquier actividad de los científicos que vivimos del presupuesto público debe considerar, en diferentes etapas del trabajo, el intentar una justificación de su actividad ante la sociedad, para lo cual deberá valerse de alguno de los múltiples medios de la difusión científica. El pueblo que financia nuestro trabajo, tiene todo el derecho de saber, y de preguntar a los miembros de la comunidad científica, de qué sirve lo que hacen, aun en los casos donde el tema no es fácil de entender. De hecho, el haber gozado de varios años de trabajo de investigación financiado y protegido por una estructura universitaria, o similar, debiera bastar cuando menos para intentar una explicación del valor que tiene lo que hacemos para la sociedad que nos sostiene. Hablando con autores de esta serie, La Ciencia desde México, y leyendo su trabajo, se da uno cuenta de que muchos más también lo ven así. En este capítulo trataremos, pues, de explicar la faceta del trabajo que realizamos, en términos de su justificación social; de estar razonablemente bien escrito, debiera quedarle claro al lector que el trabajo sobre materiales terrestres, junto con el del espacio, debe continuar recibiendo apoyo, y si no quedara claro, se intentaría comunicarlo de nuevo. El científico, y el que aspira a serlo, trabaja en un entorno social que lo influye o controla en términos de su ánimo, de los recursos con los que cuenta para trabajar, de su pasión por el tema, y hasta del tema mismo que escoge en las diferentes etapas de decisión que enfrenta (por ejemplo, cuando cambia o ajusta su tema de trabajo). Sin embargo, al formar parte de este entorno social, es también influido, en mayor o menor grado, por los temas en boga o francamente de moda en los países altamente industrializados, que se enfrentan, como es de esperarse, a otro tipo de problemas urgentes. Es durante estas consideraciones cuando su conciencia de científico, que es sólo una parte de su conciencia social, debe influir para que al menos parte de su inteligencia y producción sea honestamente dedicada a mejorar la situación de sus conciudadanos que, en última instancia, son los que financian sus búsquedas más o menos atinadas. La investigación espacial, por sus aspectos aparatosos, cae fácilmente en modas y en manos interesadas que la pueden mostrar como una actividad quizá muy divertida, y por su propia ignorancia y torpeza, proyectarla como algo superfluo, lejos de lo indispensable. En contraposición, también hay que considerar que aun los caminos que hoy nos parecen poco útiles pueden sorprendernos al perfilarse como los más promisorios en el futuro. Si tratamos de establecer los mejores caminos a seguir en la investigación espacial de un país en desarrollo, tendremos que seleccionar y jerarquizar los proyectos que en su conjunto definan un programa espacial, y todo esto sin perder de vista que la sociedad debe ser la principal receptora de los beneficios que se puedan generar. Esto no es nada nuevo, sólo se señala que, como en todas las profesiones, se espera que el científico y el ingeniero se equivoquen menos de lo que aciertan y que, en general, produzcan algo que tarde o temprano beneficie verdaderamente a sus coterráneos. En las cuestiones espaciales hay factores que complican esta verdad, debidas, por un lado, a la gran propaganda que acompaña un tema tan vistoso (el prestigio que mencionábamos), y por otro, a los intentos de disfrazar con piel de cordero programas militares que ni a un pobre lobo se le ocurrirían. Considerando lo anterior, vemos que tan sólo opinar sobre el tema, implica una mayor responsabilidad para el investigador. Trataré de ilustrar el punto con un ejemplo, que no carece totalmente de realidad. UNA HISTORIA CON FINAL FELIZ En estos finales del siglo XX un niño mexicano puede soñar, como muchos otros niños, con ser astronauta cuando sea mayor. Después de todo, entre las noticias, revistas, programas de televisión y películas, así como con aquello de que "el que persevera alcanza", nada le dice que esto le será casi imposible; o dicho en el sobrio lenguaje de la ciencia, que llegar a astronauta para él (o ella), es muy poco probable, lo que "no es lo mismo, pero es igual", como dice una canción popular. Así que nuestro niño mexicano con todo el entusiasmo que sólo la inocencia o la temprana juventud permite, se lanzará decidido y como mejor se le ocurra a tal empresa. La realidad, por su parte, le irá informando que si bien no le falta nada para cumplir esa meta, en cuanto a cualidades y virtudes se refiere, existe una fuerza contraria a sus deseos, desconocida para él, y que algunos adultos llamarían geopolítica, que reduce drásticamente sus posibilidades reales de cumplirla. Los factores geopolíticos serían los siguientes. Considerando: 1) que, con base en las actividades espaciales precedentes, de aquí al año 2030 subirán al espacio, como máximo, unos 10 000 astronautas y cosmonautas, al inaudito ritmo de 15 mensuales;tr> 2) que la población del planeta, creciendo como va, tendrá entonces como máximo unos 10 500 millones de habitantes, de los cuales, con los continuos avances tecnológicos de dichos habitantes, el 80% podría soportar el viaje al espacio (unos 8 400 millones), pero que de éstos, sólo la cuarta parte (2 100 millones) querría verdaderamente subir al espacio; es decir, que los aspirantes y competidores sumarían 2 100 millones, y 3) que como máximo, 10% de la población mundial es latinoamericana (y que es probable que esto siga igual), por lo que los aspirantes a subir al espacio en Latinoamérica serían 210 millones. De estos datos resulta que se puede estimar que si de los 10 000 astronautas posibles mil (el 10%) correspondieran a la América Latina, la probabilidad de ser seleccionados se dará en una proporción de uno entre 210 000. Por otro lado, ya que los seleccionados deberán ser gente preparada y capaz de hacer algo útil allá arriba, como competidores tendríamos que prepararnos y ser capaces de hacer algo valioso, capacidad que tendríamos que demostrar en Tierra (claro está que suponemos aquí que para entonces no mandarán advenedizos, ni se colarán oportunistas). ¿Qué podemos, por fin, concluir? En pocas palabras, no es el tipo de profesión a la cual los niños y jóvenes en Latinoamérica puedan aspirar con alguna seguridad, sin que la mayoría resulte frustrada (209 999 aspirantes por cada elegido). Estas cifras (que si las viéramos con más cuidado resultarían aún más desoladoras) dejan muy claro el hecho de que sólo se podría motivar irresponsablemente a nuestros niños en esa dirección. Y se preguntarán: ¿dónde está el final feliz? ¡Ah! Veamos más allá: como de todos los competidores es casi seguro que los seleccionados sean científicos y técnicos muy preparados y útiles a la sociedad, los aspirantes más listos pueden adelantarse a los soñadores, comenzando por prepararse con seriedad y sin descanso. De este modo, si no resultaran elegidos, sí serán personas útiles de todos modos, cosa que los hará tanto o más felices que si llegaran a ser "cosmoastronautas". La moraleja de esta historia señala que, dentro de las actividades espaciales de los países de América Latina, no tiene ningún sentido la preparación de astronautas. Los latinoamericanos que sí vuelen, lo harán en números muy reducidos y, seguramente, asociados y entrenados para participar en vuelos con las agencias espaciales de los países industrializados en los próximos 15 a 20 años. Como en el pasado, y ojalá en esto me equivoque rotundamente, es probable que buena parte de las invitaciones a volar al espacio por parte de los países con capacidad espacial, sea motivada por razones inicialmente políticas y propagandísticas; pero posteriormente, con más experiencia y madurez, los diferentes grupos nacionales de científicos e ingenieros se habrán preocupado lo suficiente para no desperdiciar oportunidades tan especiales, y presionarán a los políticos para poder realizar, no malabarismos televisivos, sino un trabajo serio de investigación, con la mira puesta en beneficiar realmente a las sociedades a las que pertenecen. El secreto es, pues, encontrar un punto de balance en el que la investigación aeroespacial beneficie a la sociedad en general con sus productos, para que ésta, a su vez, asigne las inversiones necesarias para encaminar y sostener la investigación aeroespacial, y para apoyarla con políticas nacionales ideadas para obtener beneficios concretos en el mediano y largo plazo. En el caso de países como México, la localización del punto de equilibrio no es evidente. Quedarnos fuera de toda investigación aeroespacial sería, cuando menos, irresponsable, lo que se demostraría en poco tiempo. Veamos: los estudios espaciales han dado al hombre una visión más realista de su posición con respecto al Universo. Hoy sabemos que la Tierra no sólo no es el centro del Sistema Solar, ni mucho menos lo es de la galaxia donde nos encontramos, sino que es uno de miles de millones de lugares donde puede haber vida. También sabemos que los demás posibles habitantes del Universo viven tan lejos que están prácticamente fuera de nuestras posibilidades de comunicación, tal como la conocemos, y hasta como la podemos imaginar, siempre y cuando nos mantengamos en nuestros cabales. LA PRECURSORA ESPACIAL: LA AERONÁUTICA La mayoría de las consideraciones abordadas hasta ahora se han referido principalmente al tema espacial; no obstante, hay varias razones para hablar de aeronáutica cada vez que abordamos el tema espacial. Primero, tendríamos que reconocer su origen común. En un principio sonaba tan imposible volar a través de los aires, como en el mismo cosmos, aunque desde Julio Verne se veían necesidades diferentes para cada empresa. La aeronáutica y la cosmonáutica comparten buena parte de los medios técnicos: las primeras naves espaciales fueron desarrolladas por diseñadores aeronáuticos, que utilizaron buena parte de sus materiales, hoy en día comunes a las dos. En cuanto a las tripulaciones, también desde el inicio se hace uso de personal capacitado para vuelo en aeronaves de alto rendimiento, ya que el piloto posee toda una serie de atributos que le permitirán adentrarse en la actividad cosmonáutica. Aparte de los materiales, podemos también referirnos a una base tecnológica común a ambas: parte de la instrumentación electromecánica utilizada en la navegación, los dispositivos de comunicaciones, la necesidad de mantener y conocer los parámetros vitales del organismo humano a distancias considerables (biomonitoreo), técnicas de diseño estructural y aerodinámico para naves e impulsores y, asimismo, las que se utilizan para seguimiento y control de proyectos complejos, que comenzaron a desarrollarse y utilizarse con los grandes proyectos aeronáuticos, y que han encontrado su estado de pleno desarrollo dentro de las actividades espaciales. Desgraciadamente, también comparten ciertas características que resultan de gran atractivo para la mentalidad belicista, por lo que buena parte del financiamiento que impulsó tales actividades proviene de presupuestos militares, que nunca han descuidado el desarrollo aeroespacial. Principalmente por estas razones, podemos afirmar que no puede concebirse el desarrollo de una de estas actividades, como la investigación en microgravedad o el desarrollo de satélites, sin reconocer que con las mismas herramientas con las que se resuelven los problemas tecnocientíficos de la investigación espacial, se pueden resolver problemas urgentes y económicamente apremiantes de la aeronáutica. ALGUNAS CONSIDERACIONES AERONÁUTICAS En las primeras décadas de este siglo, se generó en México y en muchos otros países el interés por la aeronáutica. Los primeros vuelos en México se realizaron poco tiempo después que en los países más industrializados, promovidos por entusiastas personalidades dispuestas a arriesgar tanto su vida como su capital, en aras de una actividad que muy pocos en ese entonces visualizaban como un renglón clave de la economía futura. Hoy en día, los gastos mundiales relacionados con la investigación, desarrollo y operación de sistemas aeroespaciales, superan las decenas de miles de millones de dólares cada año, y ya muy pocos dudan que esta actividad sea socialmente útil. Los hechos más notables que podemos mencionar sobre el desarrollo de una aeronáutica mexicana están naturalmente asociados con las partes clave de un avión: hélice, motor y alas. Si consideramos que despegar de la meseta central de la República Mexicana (altura mayor a los 2 200 m), era hacerlo desde las máximas alturas de operación de la mayoría de las aeronaves de aquel entonces, nos podemos percatar fácilmente de por qué desde sus inicios la aviación mexicana tuvo que emprender caminos novedosos y desconocidos. La presión atmosférica en el Valle de México es, durante las etapas de vuelo más peligrosas (despegue y aterrizaje), equivalente a la de alturas de vuelo de crucero para las aeronaves que despegan desde nivel del mar; a esas alturas, las aeronaves de otros países sólo requieren de pequeños ajustes para dirigir el vuelo, y no de un mayor esfuerzo de la estructura y del motor para remontarlo. En la práctica, durante la segunda década del siglo esta demanda se tradujo en la presencia de aviones con mayor superficie alar que los importados, equipados con hélices más eficientes, como la llamada hélice Anáhuac, que permitió que nuestro país registrara la máxima altura alcanzada mundialmente por un avión en aquellos días. Otro tanto puede decirse sobre los esfuerzos llevados a cabo por el equipo de fundición de la compañía Talleres de Construcciones Aeronáuticas, S. A., subvencionada por el Estado, que desarrolló las aleaciones y moldes de uno de los primeros motores con disposición radial de los cilindros, inventado poco antes por el ingeniero francés EsnaultPelterie, y que dominaron hasta la década de 1960. Asimismo, fue en nuestro país donde se dio un impulso serio al diseño de aeroplanos de ala baja, sin soportes laterales, tendencia que habría de dominar el diseño aeronáutico los siguientes 25 años. No obstante el grado de avance alcanzado hasta la década de 1930, después de ese momento se comenzaron a adquirir en el extranjero motores de mayor potencia para aeronaves fabricadas en el país, y de este modo, poco a poco, se fue asentando esa tendencia que en nuestros días nos hace adquirir la casi totalidad de equipos y refacciones aeronáuticas fuera de nuestras fronteras —a pesar de que no existe razón objetiva que nos impida llevar a cabo estos dispositivos con nuestros propios medios. Es una verdadera pena que sigamos pagando hoy en día la poca visión que ante una tecnología de gran futuro tuvieron los empresarios y el Estado mexicano (cuando Obregón firmó los oscuros tratados de Bucareli a cambio de su reconocimiento por una potencia poco interesada en nuestro desarrollo). La actuación ante la aeronáutica, con excepción de la del general Carranza, nunca llegó a fomentar una política nacional para favorecer el desarrollo de un renglón clave en la economía de cualquier país moderno. Un hecho particularmente grave ante nuestros ojos, es que haber evitado la situación actual hubiera resultado relativamente fácil, con sólo auspiciar que una comisión calificada analizara las repercusiones de ignorar la aeronáutica y, en particular, el desarrollo de sus principales materiales en México. Si bien la aeronáutica no se frenó drásticamente en esos años pues su uso práctico impedía ignorarla totalmente (basta recordar que la creación de las primeras rutas de correo en nuestro país se dio a la par, o incluso antes, que en muchos países hoy desarrollados), el hecho de no haber continuado con la metalurgia y el uso de otros materiales surgidos desde las primeras décadas de la aeronáutica, sí acabó frenando de manera irremediable el desarrollo propio en este terreno, sobre todo, después de que se utilizaron materiales muy sencillos, y al alcance de todos en la construcción de las primeras generaciones de aeronaves. De haberse continuado los ensayos que sobre aleaciones desarrollaban los talleres de aeronáutica para su uso en motores, y de haberse emprendido el desarrollo de duraluminios, que se convirtieron en material primordial de la aeronáutica de las siguientes décadas, el país habría podido mantenerse a flote, sin duda alguna, y alcanzar un nivel digno, aunque acaso modesto, dentro de la aeronáutica mundial. En nuestros días, tenemos la idea de que la construcción de un avión es una actividad excesivamente compleja y que técnicamente escapa a nuestra capacidad actual; una apreciación errónea sin duda (¿nos persigue el Síndrome de Bucareli?). Como decíamos, en los últimos 50 años sigue brillando por su ausencia una política de fomento sobre la aeronáutica, un renglón clave en la economía de un país que aspira al desarrollo. Vemos con esto que las actividades aeronáuticas y espaciales comparten en nuestro país una concepción nueva y grave: que ambas son actividades superfluas en las que poco tenemos por hacer, promoviendo una dependencia total del exterior, con lo que dejamos salir del país cantidades importantes de recursos que bien pudieran aprovecharse en el desarrollo de diversas industrias. EL ESTADO ACTUAL DE LA AERONÁUTICA La aeronáutica, ya como negocio, perdió su aureola inicial de aventurerismo para convertirse en una industria primordial en la economía, con ramificaciones en múltiples actividades económicas de los países desarrollados, sobre todo de los países que percibieron su importancia histórica. Los diseños abandonaron gradualmente los aspectos meramente novedosos, para acumular y utilizar la experiencia previa en el continuo mejoramiento del diseño, construcción y operación de las aeronaves. Quizá el paso más significativo de la década de 1940, fue el desarrollo de aeronaves totalmente metálicas. La metalurgia recibió así un impulso sin precedentes, especialmente porque los diseñadores han aumentado constantemente las demandas de materiales con alta resistencia y rigidez pero de bajo peso. Por su valor estratégico en la conducción de una guerra, y táctico durante las batallas, la aviación pasó a ser, de una herramienta oportuna para observar evoluciones en combate, como en la primera Guerra Mundial, a una arma temible capaz de afectar drásticamente los escenarios de las batallas y a ser factor decisivo en algunas situaciones, como en la segunda conflagración. La constante búsqueda de aeronaves más rápidas y con creciente capacidad de carga dio como resultado la creación de una aviación que presenta claras ventajas económicas sobre los medios de transporte tradicionales, principalmente para ciertas actividades y mercancías, en primer término, los viajeros invierten su tiempo en cuestiones laborales o de descanso y no viajando; segundo, los obstáculos geográficos, terrestres y acuáticos, pierden su significado, con lo que la utilización cada vez más frecuente de este medio de transporte reduce continuamente sus costos, y la hace una actividad a todas luces rentable. Ante estos hechos, se inicia un cambio de mentalidad que permite a los gobernantes ver a la aeronáutica como un factor de desarrollo del transporte de carga y de personal de un país. Los servicios de la aeronáutica dentro de la economía agrícola, el correo, la aerofotografía y la teleobservación, así como en muchos otros campos de aplicación, hacen que ésta se haya desarrollado con mayor ímpetu que cualquier otro sistema de transporte. En el área de los materiales, como decíamos, la aeronáutica se sitúa como el mayor promotor del desarrollo de la metalurgia, los plásticos, los textiles de alta resistencia, los adhesivos y ciertos tipos de instrumentación. Hoy en día, las técnicas de diseño y de manufactura asistidas por computadora, conocidas por sus siglas en inglés CAD y CAM respectivamente, encuentran dentro de la industria aeroespacial el campo de mayor aplicación. En este campo se requiere de un conocimiento más preciso sobre el comportamiento de una estructura y de cada una de sus partes, pues en el equipo aeroespacial trabajan cerca de sus límites de resistencia, y por la necesidad de estimaciones confiables en cuanto a la vida útil que pueda tener cualquier accesorio de aviación. Si recordamos que antes el diseño de un ala podía tomar hasta varios meses de cálculos y experimentos de un equipo completo de ingenieros y técnicos, y que hoy es una actividad que un ingeniero aeronáutico sin mucha experiencia puede realizar en algunas horas con una microcomputadora, nos podemos percatar de que, si bien no se ha simplificado el diseño de una aeronave, sí se han desarrollado herramientas capaces de hacerlo en poco tiempo. Ya que la industria aeroespacial usa y desarrolla intensamente la técnica y la ciencia, buena parte de sus métodos y avances ha sido archivada con medios electrónicos en bancos de información, lo que facilita su consulta y utilización (como los de las grandes compañías aeroespaciales como la Boeing y Lockheed, de EUA, la Aeroespatial francesa y muy probablemente la Ilyushin, la Tupolev y la Mikoyan soviéticas). La consulta de estos bancos de información aeroespaciales en un principio parece algo caro (de 80 a 90 dólares la hora de consulta), pero a fin de cuentas resulta costeable, pues en dichos bancos se concentra tanta experiencia, que permite que los nuevos usuarios ahorren costos evitando pruebas innecesarias o nuevos diseños que ya hayan sido abordados con anterioridad. Pero no sólo la metalurgia recibe en las últimas décadas el impulso de la aeronáutica, ya que existe otra serie de materiales que se han ido incorporando de manera creciente a los diseños aeroespaciales: los materiales compuestos. Estos son materiales plásticos o metálicos reforzados con fibras microscópicas de muy alta resistencia. La aeronáutica, en su constante búsqueda de materiales resistentes y ligeros, nunca antes encontró semejante solución; los termoplásticos epóxicos y las resinas fenólicas, provistas de un armado de fibras de carbono y otros elementos, presentan hoy la más alta relación entre resistencia, rigidez y peso: de dos piezas diseñadas para cumplir la misma función, una metálica y otra de termoplásticocarbono, la última presenta la misma resistencia, pero pesa sólo la tercera parte que la metálica. En la investigación sobre nuevos materiales hay muchas anécdotas o situaciones inesperadas que han dado como resultado grandes avances en el campo tecnocientífico: las fibras de carbono, por ejemplo, fueron fruto de un accidente de laboratorio que bien pudo haber pasado inadvertido, de no ser por la presencia de mentes curiosas y observadoras. Para fabricar fibras de carbono hay varios métodos conocidos, sin embargo, su descubrimiento se dio casualmente, cuando se preparaba en un horno un termoplástico reforzado con fibras orgánicas, en el que una secuencia de tratamientos térmicos imprime en un material las propiedades mecánicas deseadas. Ese mismo horno se utilizaba también en el tratamiento de materiales con altas temperaturas y para otros propósitos. En una ocasión, uno de los técnicos encargados del horno encontró unos filamentos muy finos, restos de alguna fibra orgánica carbonizada, y observó que presentaban una sorprendentemente alta resistencia a la tensión. Las fibras encontradas en el horno no sobrepasaban las 10 micras de diámetro (de una décima a una decimoquinta parte del diámetro de un cabello humano). Cuando se sometieron tales fibras a pruebas de tensión, cuál no sería la sorpresa de los investigadores cuando encontraron que poseían resistencias tres veces mayores que las de aceros especiales. En ese tipo de horno se prepararon entonces los primeros filamentos de estas fibras a principios de la década de 1970. Su combinación con materiales termoplásticos —aquellos plásticos que requieren de un tratamiento térmico para fijar su estructura química— acabó siendo una consecuencia muy natural, dados los antecedentes de uso de los materiales compuestos con fibras de vidrio que todos conocemos. A los pocos meses, pequeñas muestras de este nuevo material recorrían discretamente los principales laboratorios de mecánica y micromecánica del mundo, con el fin de encontrar métodos que permitieran conocer y luego predecir su comportamiento mecánico y encontrar usos prácticos. Así, de un accidente y de una mente curiosa surgió uno de los materiales más portentosos con los que puede soñar un ingeniero. Actualmente se fabrican fibras de muy diversas resistencias, con variadas matrices de termoplástico, y su utilización en la industria aeroespacial precedida, claro está, por aplicaciones militares, implica su inclusión como piezas clave de la estructura de aeronaves (a veces forman parte del 85% de la estructura de un moderno avión de transporte). Los materiales carbono-epoxi tienen propiedades que, sumadas a su considerable resistencia, los hacen deseables para múltiples aplicaciones. Entre estas propiedades cabe mencionar su rigidez, ya que, junto con las cerámicas, son de los materiales más rígidos que se conocen; su resistencia a la corrosión, comparada con la de los materiales metálicos, es claramente superior; así como su estabilidad termomecánica, es decir, el que puedan mantener su forma con mucha precisión, a pesar de las variaciones considerables de la temperatura ambiente, tal como sucede constantemente en la órbita terrestre. Sin embargo, la característica quizá más tristemente notable de estos materiales provenga de su comportamiento ante las ondas de radar. Los materiales termoplásticos-carbono, a pesar de que en buena medida están constituidos por fibras conductoras de electricidad, pueden fabricarse fácilmente como aislantes eléctricos. Ahora bien, para que un material refleje una onda de radar, y sea detectado a distancia, se requiere que su superficie sea conductora de electricidad como los metálicos, por lo que un avión fabricado con este tipo de materiales acaba siendo "invisible" al radar. Ya se han construido algunos cazabombarderos llamados invisibles (tipo B2 y F-117A de EUA, y otros) aunque oficialmente no existían hace poco, ha habido cuando menos dos accidentes de este último tipo de avión en las zonas usualmente reservadas para pruebas de armamento secreto localizadas en el país del norte (por cierto que el diseño del B-2 nos recuerda más la línea aerodinámica de la década de 1950 que la de 1980, y el F-1 1 7A parece golondrina). Otros de los materiales que van tomando auge en estas décadas son los cerámicos, algunos de ellos reforzados por fibras también cerámicas. Su ventaja principal se deriva de su capacidad para soportar altas temperaturas manteniendo su resistencia mecánica. Muchos hemos oído que se están fabricando en Japón los primeros motores de cerámica para automóvil, pero pocos conocen cuáles son las ventajas de tener estos materiales en el motor; brevemente, se puede anotar que la principal es su utilización en conexión con cámaras de combustión. Desde hace muchos años se ha soñado con quemar combustibles en la llamada temperatura estequiométrica, aquella en la que los combustibles ceden la máxima cantidad de energía. Hoy las turbinas más modernas que se utilizan en aeronaves, funcionan a más de la mitad de esa temperatura, y algunas alcanzan hasta el 80%, por lo que este avance significa no sólo duplicar la eficiencia de una turbina, sino que se puede llegar hasta a cuadruplicar si se utilizan cerámicas, y ya que además éstas son más ligeras que los metales, se obtiene con ellas, igual que con los materiales carbonoepoxi, una relación favorable entre peso y resistencia. Es curioso que a pesar de que el hombre desde hace siglos esta muy familiarizado con la cerámica (recuérdese la elaboración de vasijas y utensilios), actualmente sea uno de los materiales más complicados, y cuyo comportamiento le resulta muy difícil predecir. Hoy por hoy podemos afirmar, sin temor a equivocarnos, que las cerámicas, debido a su abundancia y bajo costo de materia prima, se encuentran en una nueva etapa histórica de avance en la ciencia de materiales, y que podemos esperar sorpresas agradables en cuanto a la generación de nuevos materiales basados en la diversidad de ellas. Como veremos más adelante, los materiales basados en minerales arcillosos de origen natural, suelen presentar características sumamente curiosas en cuanto a sus propiedades mecánicas. La limitante principal para su uso es su fragilidad; si bien tienen una alta resistencia a la compresión y una considerable resistencia a la tensión, se rompen como los vidrios, sin agrietamientos evidentes previos, y sin que exista un claro aviso previo de que el material va a fallar; este hecho limita drásticamente sus aplicaciones actuales, pero sin duda podrá superarse, aunque no se sepa todavía cómo. Quizá por medio de otro "accidente" de laboratorio; pero, eso sí, ante la presencia de un investigador curioso y desconfiado. RECUPERACIÓN DE LA AERONÁUTICA NACIONAL En las últimas páginas hemos tratado de analizar algunos aspectos de la aeronáutica en el país y el estado actual del uso de nuevos materiales aeroespaciales en el mundo. Con estos elementos, aún escasos, podemos visualizar que un país interesado en la recuperación de una industria clave como la aeronáutica, está necesariamente obligado a considerar como factor prioritario el uso y aplicación de materiales novedosos. En el caso contrario, tarde o temprano el esfuerzo de recuperación sería un nuevo fracaso, pues según diagnosticamos, la aeronáutica en nuestro país quedó a la zaga debido a la falta de investigación y desarrollo asociados a la producción de las materias primas requeridas para su avance, situación que paradójicamente se dio en un país tan rico en materias primas y talento como el nuestro. Intentar desarrollar la aeronáutica nacional a partir de donde la dejamos en la década de 1930 sería por lo menos un gran error, matizado de extemporáneo romanticismo. Para abordar los problemas del futuro, se deben considerar los mejores materiales con que contamos en el presente. Si la aeronáutica nacional se desvaneció por la carencia de materias primas necesarias para su desarrollo y una falta de una política nacional al respecto, no existe un argumento que perpetúe esta situación. Lo que sí sería torpe es volver a intentar su recuperación ignorando estas lecciones históricas. Ahora bien, en última instancia la aeronáutica se fundamenta en el uso de aeronaves, y no directamente en el uso de materiales, por tanto, la recuperación queda necesariamente vinculada a uno o varios proyectos piloto que propongan, como producto central, una aeronave de clara utilidad en nuestro medio. Quizá un ejemplo posibilidades. ayude a visualizar nuestras Algunos conceptos que consideramos deben estar irremediablemente asociados con un proyecto de recuperación aeronáutica son los siguientes: primero, es necesario que algún proyecto piloto justifique los gastos para desarrollar la técnica y adquirir la experiencia necesaria en la fabricación de los materiales básicos de la aviación actual; segundo, que la aeronave prototipo sea a la vez una herramienta de trabajo con reconocida versatilidad y aplicabilidad y que, por su bajo costo de adquisición y mantenimiento, sea costeable para los grupos de usuarios potenciales. Es necesario también que el proyecto defina de manera integral sus alcances, es decir que no se debe descuidar la solución de los problemas anexos como el pilotaje, el mantenimiento de campo, las reparaciones no especializadas y una adecuada infraestructura que apoye cada una de las aplicaciones que se pretendan. Adentrándonos aún más en esta dirección, podríamos citar, no sin cierto riesgo, por basarnos en un solo ejemplo, cuáles serían a nuestro parecer algunas de las características particulares de las aeronaves prototipo que se comienzan a perfilar aquí. Como no quisiéramos depender sólo de infraestructuras aeroportuarias, por los costos que implican, uno de los primeros requisitos de la aeronave se relaciona con su capacidad para aterrizar en todo tipo de terreno, sin requerir de pistas especiales. Desde el inicio del diseño se deberá tener en mente la zona en que trabajará la aeronave (el altiplano, la zona de la sierra, o las planicies costeras), por lo que las alas y la potencia del motor tendrían que responder a este hecho. De esta manera se evitaría uno de los defectos más comunes de la aeronáutica mexicana: utilizar motores cerca de treinta por ciento más potentes (y por tanto más caros) de lo necesario, pues las alas y hélices que utilizan los aviones en México están diseñadas para el nivel del mar. Una tercera consideración se refiere al motor de la aeronave. Por lo general, las opciones económicas para aviones de hélice son dos: o motores de cuatro ciclos, con probada fiabilidad en la aeronáutica comercial, o la selección y rediseño de un motor de dos ciclos, que con la mitad del peso proporcione la misma potencia que el caso anterior, pero que requiere de una atención especial respecto al diseño del sistema de encendido para poder igualar a los anteriores en confiabilidad. Una ventaja adicional de los motores de dos ciclos, aparte de la relación potencia-peso, es la utilización de gasolinas para automóvil mezcladas con aceite, lo que reduce la complejidad y los costos de mantenimiento y operación del motor. Adicionalmente, y en contra de lo que la tendencia dominante parece indicar, no se buscaría alcanzar altos rendimientos con base en high-tec, ya que ésta, por la poca experiencia que tenemos, no deja de dar sorpresas desagradables además de que los costos suben innecesariamente, lo anterior nos conduce a aceptar criterios conservadores en el diseño de las partes clave y a basarnos en técnica probada. Por otro lado, si la nueva aeronave requiriera de una base de mantenimiento compleja y costosa, estaríamos condenando el esfuerzo de recuperación al fracaso, la poca tradición de mantenimiento de maquinaria en nuestro país no debe afectar la seguridad de vuelo de la aeronave. La falta de una tradición aeronáutica en México y la consecuente desconfianza del público hacia algunos productos nacionales, hace indispensable que se demuestre que, junto con lo costeable del producto, dentro de los criterios de diseño se le ha asignado máxima prioridad a la seguridad del piloto y de la posible tripulación, o equipo de trabajo a bordo; cada aeronave tendría que ser equipada con sistemas de paracaídas de apertura pirotécnica rápida y cabina de alta protección para el piloto o el equipo. Los márgenes de operación de la aeronave tendrán que ser óptimos, sin sacrificar el costo general de la aeronave. La velocidad máxima de la aeronave debe ir en relación directa con su aplicación, por ejemplo, una aeronave de transporte para distancias cortas, requeriría de una velocidad máxima de 20 a 140 km/h; en el caso de un fumigador, por el contrario, no sería necesario que la velocidad de trabajo sobrepasara los 60 km/h, incluso convendría que fuera capaz de operar a 45 o 50 km/h, y por el conocido riesgo para el piloto, habría que evaluar si puede operarse con equipo de control remoto. En cuanto a la capacidad de carga, y tratando de mantener costos accesibles, tendría que ser un avión esencialmente monoplaza, pero capaz de levantar hasta 100 kg de equipo de diversas aplicaciones, como cámaras de fotografía o para percepción remota. Por otro lado, para el transporte, la aeronave proyectada debería ser capaz de transportar a un pasajero con equipaje ligero. Esta aeronave no es necesariamente una innovación mundial: durante las últimas dos décadas ha habido un auge sorprendente en el diseño de aeronaves ligeras (de menos de 300 kg) y ultraligeras (UL, de cerca de 120 kg), algunas totalmente automáticas. La gran cantidad de diseños de este tipo desarrollados hasta la fecha ha producido una especie de selección natural en la cual sólo los productos más robustos y confiables han sobrevivido, mientras los inseguros o poco maniobrables se han ido extinguiendo, algunos junto con sus intrépidos pero incautos diseñadores. Del análisis cuidadoso de las mejores aeronaves de este tipo, resultaría casi de inmediato una lista de componentes sencillos y confiables, y un programa de pruebas sobre los materiales utilizados en su construcción aumentaría la confiabilidad en su estructura. Ya que muchas de estas aeronaves ligeras han surgido del ingenio popular, sobra quien piense, erróneamente, que una aeronave puede ser diseñada por cualquiera; sin embargo, basta referirnos a los diseños de alas, para percatamos de que su diseño es, en la gran mayoría de los casos, producto de programas de investigación avanzada. De hecho, con los nuevos programas para cálculo de aeroplanos, se han diseñado literalmente miles de perfiles alares, y en sus publicaciones se pueden encontrar los datos aeronáuticos básicos. Por otro lado, la gran mayoría de las aeronaves mencionadas están construidas con materiales de calidad, pero sus motores, por ser de dos ciclos y con un solo sistema de encendido, resultan demasiado delicados en su operación y mantenimiento. Es interesante señalar que buena parte del auge de las aeronaves ligeras y UL proviene de sus bajos costos de operación, por lo que en un contexto de crisis económica mundial, en muchos casos estas aeronaves son las únicas que permiten a los pilotos mantener su capacidad de operación, sin que se invierta tanto capital. Mucho se ha hablado de la inseguridad inherente a una aeronave ultraligera, sin embargo, pocos conocen los estudios que se han elaborado sobre la seguridad. Quizá sorprenda al lector saber que la principal causa de accidentes mortales en ultraligeros proviene de que están mal armados, es decir, una persona sin experiencia mecánica arma un ultraligero en su propia casa, lo vuela, y en los primeros vuelos, tiene una falla estructural o de alguna superficie de control que lo precipita a tierra. La segunda causa de accidentes mortales proviene de una sobreestimación de las características aeronáuticas del aparato resultado de su muy bajo peso. Además, como los ultraligeros se asemejan más a una aeronave de principios de siglo, que a alguna otra más actual, la gente tiende a ignorar la necesidad de una instrucción adecuada, incluso los pilotos profesionales, que no han recibido un curso de transición para volar ultraligeros, intentan volarlos como es su costumbre, e ignoran las particularidades de estas aeronaves. Por último, mencionaremos el hecho de que pocas aeronaves ultraligeras cuentan con una estructura protectora para el piloto, lo que convierte muchos accidentes leves en graves aunque, comparativamente, resultan más seguros que los aviones comerciales debido, también, a su baja masa o inercia. APLICACIONES DE ULTRALIGEROS: RUBROS ECONÓMICOS Uno de los primeros hechos que sorprenden al analizar la aviación ultraligera es su escasa aplicación en rubros económicos; pero si se analiza un poco más a fondo el problema, surgen varias explicaciones. En primer término, es costumbre que la mayoría de las funciones que puede desarrollar un ultraligero las realicen equipos de mucho mayor costo, que han incorporado pocos adelantos tecnológicos, y que aun así mantienen cautivo el mercado. Por ejemplo, en EUA está prohibido fumigar, fertilizar y sembrar con UL, a excepción de que el piloto sea, además, dueño de los campos que va a trabajar. Esta regla favorece la fumigación tradicional, cuyos costos son entre 8 y 20 veces más altos que la fumigación con UL. El reglamento de la Agencia Federal de Aviación de ese país, en su cláusula 103, impide el uso de estas aeronaves en cualquier renglón económico, ni siquiera las acepta oficialmente como aeronaves. Como anécdota y diagnóstico de sus ventajas económicas sobre otros equipos de fumigación, cabe mencionar que los pilotos de UL, para quedar libres de esta disposición, hacen un contrato de compraventa con los agricultores, por áreas tan ridículas como un pie cuadrado, con lo que ganan el derecho a fumigar una zona donde comparten la propiedad. En cuanto a los argumentos económicos a favor del uso de técnicas novedosas y de alto rendimiento para apoyar el desarrollo agrícola, podemos citar un reciente trabajo del destacado investigador mexicano Antonio Alonso Concheiro ("Capacidad tecnológica y porvenir de México") en el que apunta: "...dado que el crecimiento agrícola será menor que el demográfico, se necesitará incrementar el rendimiento por unidad de superficie cosechada y reducir las pérdidas, en particular las que ocurren después de la cosecha..." y añade: "Las tierras que se incorporen al cultivo serán tropicales y semiáridas y para aprovecharlas con la eficiencia requerida habrá que desarrollar nuevas tecnologías, ya que las disponibles, cuando existen, no son apropiadas". Más adelante refiere uno de los problemas clave del desarrollo tecnocientífico del país, citando estas cifras: "México invierte actualmente sólo alrededor de 0.28% de su PIB en actividades de investigación y desarrollo...", mientras que los países capitalistas industrializados invierten del 2 al 3.5% y la URSS, del 3 al 5%. Otro dato de interés para comprender la falta de impulso a la investigación en nuestro país, es que las industrias privadas colaboran con sólo 15% de la inversión total en ciencia y tecnología del país, mientras que sus contrapartes en los países industrializados de economía de mercado alcanzan cifras entre 50 y 60% del total. En relación con la utilización de aeronaves ultraligeras en renglones económicos cabe citar el caso de Perú, que está fabricando una avioneta ligera, más pequeña y barata que el automóvil más económico: la avioneta, llamada Chuspi (vocablo que significa mosquito en quechua, idioma hablado en la serranía andina), ya fue exhibida al público en vuelos experimentales, y será destinada a tareas de fumigación, fertilización, vigilancia e instrucción de pilotaje. Este avión ligero funciona con un motor de dos ciclos, que utiliza gasolina de automóvil mezclada con aceite. Está construida a base de aluminios aeronáuticos, madera y telas de alta resistencia. El tren de aterrizaje usa llantas de motocicleta y su costo total es menor a 9 000 dólares, por lo que en sólo dos meses ya se habían recibido más de 25 pedidos por parte de agricultores. Con este ejemplo se vislumbra una nueva mentalidad dentro de los países en desarrollo, que refleja una continua búsqueda de técnicas alternas a aquellas utilizadas en los países industrializados. Otra de las aplicaciones costeables de los UL se relaciona con la toma de imágenes de la superficie terrestre. Estas imágenes pueden ser tan sencillas como una aerofotografía, para uso de cartografía o catastro, hasta las multiespectrales, obtenidas por cámaras de tecnología similar a las de los satélites de teledetección. Si hacemos un breve análisis de costos, la balanza se inclina de manera absoluta en favor de los UL, pero todavía hay pocos estudios publicados en donde se den cifras suficientes. Por nuestra parte, nosotros estamos analizando con detalle la utilización de UL de operación remota para la adquisición de imágenes multiespectrales. Los UL pueden utilizarse también para diversos tipos de vigilancia. En el caso de las costas mexicanas, cuya longitud alcanza más de 9 000 km, no es posible supervisar amplias zonas si no se cuenta con alguna tecnología alterna a las aeronaves de vigilancia actuales. Aquí los UL tienen algunas ventajas, como su capacidad de amarizar y despegar del agua, su bajo costo de operación y mantenimiento, y que no requieren de instalaciones especiales para su funcionamiento. Como en otros países, también puede pensarse emplearlos para la vigilancia del tráfico en las ciudades y en las carreteras más transitadas. Asimismo se pueden utilizar en la supervisión de bosques, para evitar la propagación de incendios; si se equipan con instrumentos de visión térmica, pueden servir no sólo en la localización de incendios, sino en la administración y evaluación de la eficacia de las acciones para combatirlos. En la bibliografía especializada se ha informado sobre aeronaves de control remoto capaces de permanecer volando sobre una zona hasta tres días, vigilando continuamente, cuya información, generalmente a través de video y termovideo, se envía a consolas remotas para la evaluación y toma de decisiones. En cuanto al empleo de UL como transporte, puede pensarse en su utilización por médicos rurales, que con una de estas aeronaves podrían visitar varios poblados en un día. O bien, pueden usarse para llevar correo, medicamentos o paquetería ligera, y como apoyo a la ayuda en zonas de desastre. De todas estas opciones, su aplicación dentro de la agricultura, tanto en fumigación, fertilización y sembrado, como en seguimiento de cultivos, pudiera resultar uno de los renglones más favorables; pero en su conjunto, todas las aplicaciones parecen ser claramente suficientes para justificar un proyecto piloto en esta dirección, aunque para ello habría que incluir el entrenamiento de pilotos jóvenes, tanto para vuelo, como para el mantenimiento de las aeronaves, y la evaluación de sus rendimientos económicos. Ya que hemos iniciado el regreso a la Tierra, después de haber recorrido la atmósfera y parte de la actividad económica que ahí ocurre, permítame el lector un voto de confianza y acompáñeme para que, traspasando la superficie terrestre penetremos en el subsuelo. Es seguro que nos esperan algunos placeres. I I I . E L I N G R E S O A L S U B S U E L O INTRODUCCIÓN EN ESTE capítulo incursionaremos en el mundo de los materiales más terrestres: los suelos; nos ocuparemos de algunos de los temas que surgen al emprender su estudio como material utilizado por el hombre. Después de trabajar en temas espaciales, de estudiar los diseños de las naves para ir a Marte, y los aviones más avanzados aeronáuticamente, ¿qué pueden tener los suelos y el subsuelo para atraer la atención de una persona curiosa, tanto como lo hizo el tema anterior? Para contestar, apelamos a una característica de la mente humana: su interminable e insaciable inquietud por lo nuevo y lo complejo, lo desconocido y lo práctico. Tanto en el trabajo científico como en el eminentemente práctico, se aprende pronto a reconocer que cada tema es tan difícil o fácil como otro, y que las preguntas sencillas que uno se formula pueden tomar caminos de extraordinario interés y dificultad. Exhorto pues al lector que no se sienta muy atraído por el tema del subsuelo, a que prosiga con la lectura y se convenza de que lo dicho es una verdad propia de cada tema. El suelo y lo que está directamente debajo de éste, el subsuelo, están constituidos por materiales muy complejos aunque parezcan muy simples. Muchos desconocen que los suelos se estudian desde muy diversos puntos de vista. La mayoría, incluso los más urbanos de nosotros, sabemos que no todos los suelos son buenos para sembrar, pero son pocos los que saben que para construir un edificio (sólo en el espacio se construirían sin tocar el suelo) es necesario analizar las propiedades del sitio, un "estudio de mecánica de suelos", el cual tiene como finalidad conocer si el suelo soportará el peso del edificio, si tendrá asentamientos excesivos y también si resistirá durante sismos. UNA DESCRIPCIÓN DEL SUBSUELO: EL CASO DE LA CIUDAD DE MÉXICO El subsuelo de la ciudad de México es fascinante. Esa fascinación aumenta constantemente según se le vaya conociendo; antes que ciudad este subsuelo fue un lago, o una serie de lagos, algunos de ellos salados, que se fueron secando por varias razones: el acarreo de material de las laderas montañosas y las actividades humanas, entre las más importantes. Si los aztecas decidieron fundar una ciudad en medio de un lago, empresa nada fácil, tendrían sus razones (militares, culturales y otras, conocidas o no). El hecho es que lo hicieron, y con ello propiciaron las condiciones que siglos después obligan a cientos de ingenieros y científicos a estudiar los suelos con mucho detenimiento. Para vivir aquí, los aztecas tuvieron que aprender y saber muchas cosas: cómo aliviar el efecto de inundaciones catastróficas, cómo lograr que sus construcciones no se hundieran de lado, y con qué medios evitar que los sismos no destruyeran ni a sus edificaciones ni a sus familias. Hoy, al igual que en el tiempo de los aztecas, una de las mayores concentraciones de habitantes del planeta se asienta en el Valle de México y sobre su interesante subsuelo. Pero ahora los problemas de la ciudad se han multiplicado: hay obras de drenaje profundo, transporte subterráneo, pozos de extracción de agua, instalaciones bajo tierra de todo tipo, edificios más altos, contaminación y un tráfico interminable, entre otros; todos estos problemas nuevos y viejos nos llevan a intentar comprender lo que sucede y, sobre todo, lo que sucederá en esta ciudad. El caso concreto del subsuelo, interconectado por todas las obras mencionadas, nos obliga a tratar de conocer el problema en todos sus detalles, comenzando desde su origen. EL ORIGEN DEL VALLE Y DE LA CIUDAD DE MÉXICO El Valle de México comenzó a formarse cuando una importante actividad volcánica cerró el paso de una cuenca formada por dos macizos montañosos paralelos: hacia el poniente, corriendo alargadamente de norte a sur, la Sierra de las Cruces, y hacia el oriente, con alturas imponentes, la Sierra Nevada, que incluye a los volcanes Iztaccíhuatl (mujer blanca, en la lengua náhuatl) y Popocatépetl (montaña humeante). Por el sur, en la parte más baja de la cuenca, surge después la llamada sierra del Chichinautzin, que acabó por unir la base sur de la Sierra Nevada con la Sierra de las Cruces, con lo que convirtió una amplia zona en un nuevo valle rodeado con grandes montañas por tres lados y por tierras altas en su lado norte (véase la figura 1). Desde ese momento, todo el material de los volcanes (el lavado de sus laderas, y el transportado por los vientos), se empezó a acumular en los puntos más bajos del flamante valle. Si llovía mucho, era un gran lago, si no, un pantano inmenso con islotes secos y aislados, uno de los cuales fue escogido como lugar de asentamiento por los aztecas, pequeño pueblo teocrático, disciplinado y tenaz, y dispuesto a dominar tanto su entorno físico como cultural. Figura 1. Perspectiva del valle de México desde el sur. 1) México-Tenochtitlan, 2) Texcoco, 3)Sierra de Chichinautzin, 4) lago de Texcoco, 5) volcán Xitle, último activo en el valle. Los aztecas desarrollaron un sistema de aprovechamiento de la tierra que se basó principalmente en el acondicionamiento de chinampas, confeccionadas con fango extraído por medio de canastillas del fondo del lago, y amontonado hasta formar una fértil parcela de tierra firme, que sobresalía del lago menos de un metro; entre las chinampas dejaban canales para transportar productos y personas en chalupas o barcazas, sistema que subsiste hasta nuestros días, como podemos observar en la figura 2. Las construcciones más grandes fueron hechas de tezontle, piedra volcánica porosa y muy ligera (algunas de ellas flotan), que cimentaban sobre numerosos y pequeños pilotes o estacas de madera, colocados uno cerca del otro. Cuando el peso y el tiempo sumían o ladeaban las construcciones importantes, construían sobre los restos una nueva, cada vez más grande y majestuosa, hasta que formaron una gran ciudad. Figura 2. Se ha escrito o conservado muy poco sobre cómo era aquello; sin embargo, la emoción de observar la magna obra por primera vez, se puede volver a vivir brevemente cuando leemos a Bernal Díaz del Castillo, que con sus ojos de soldado y cruda pluma, describe una impresión de la ciudad viéndola desde uno de los templos más altos: ... He ansí como llegamos salió el Montezuma de un adoratorio, a donde estaban sus malditos ídolos, que era en lo alto del gran cu, y vinieron con él dos papas, y con mucho acato que hicieron a Cortés e a todos nosotros, le dijo: "Cansado estaréis, señor Malinche, de subir a este nuestro gran templo". Y Cortés le dijo con nuestras lenguas, que iban con nosotros, que él ni nosotros no nos cansábamos en cosa ninguna. Y luego le tomó por la mano y le dijo que mirase su gran ciudad y todas las más ciudades que había dentro en el agua, e otros muchos pueblos alrededor de la misma laguna en tierra, y que sí no había visto muy bien su gran plaza, que desde allí la podría ver muy mejor, e ansí lo estuvimos mirando, porque desde aquel grande y maldito templo estaba tan alto que todo lo señoreaba muy bien; y de allí vimos las tres calzadas que entran a Méjico, ques la de Iztapalapa, que fue por la que entramos cuatro días hacía, y la de Tacuba, que fue por donde después salimos huyendo la noche de nuestro gran desbarate, cuando Cuedlavaca, nuevo señor, nos echó de la ciudad, como adelante diremos, y la de Tepeaquilla. Y víamos el agua dulce que venía de Chapultepec, de que se proveía la ciudad, y en aquellas tres calzadas, las puentes que tenían echas de trecho a trecho, por donde entraba y salía el agua de la laguna de una parte a la otra; e víamos en aquella gran laguna tanta multitud de canoas, unas que venían con bastimentos e otras que volvían con cargas y mercaderías; e víamos que cada casa de aquella gran ciudad, y de todas las más ciudades questaban pobladas en el agua, de casa a casa no se pasaba sino por unas puentes levadizas que tenían echas de madera, o en canoas; y víamos en aquellas ciudades cues y adoratorios a manera de torres e fortalezas, y todas blanqueando, que era cosa de admiración, y las casas de azoteas, y en las calzadas otras torrecillas y adoratorios que eran como fortalezas. Y después de bien mirado y considerado todo lo que habíamos visto, tornamos a ver la gran plaza y la multitud de gente que en ella había, unos comprando e otros vendiendo, que solamente el rumor y zumbido de las voces y palabras que allí había sonaba más que de una legua, e entre nosotros hobo soldados que habían estado en muchas partes del mundo, e en Constantinopla e en toda Italia y Roma, y dijeron que plaza tan bien compasada y con tanto concierto y tamaño e llena de tanta gente no la habían visto... Hábiles fueron aquellos constructores y hábiles tendrían que ser quienes siguieran sus pasos, si difícil fue construir en un suelo pantanoso, difícil y peligroso seguiría siendo al paso de los siglos. La productividad de sus métodos agrícolas, de su caza y pesca, así como sus considerables habilidades militares, convirtieron en poco tiempo a los aztecas en próspero pueblo, cuyos emperadores además de sus conocidas conquistas del entorno, impulsaron el auge de la gran urbe en pleno lago, unida a tierra firme por amplias calzadas, interrumpidas por puentes estratégicos —como habría de comprobar en carne propia el invasor— cuyo centro ceremonial estaba provisto de imponentes edificios y plazas, hecho que demuestra lo bien que llegaron a entender las propiedades mecánicas del subsuelo que los sustentaba. Así pues, con los aztecas comienza el estudio experimental de los suelos del Valle de México. Como han demostrado recientes investigaciones sobre la cimentación del Templo Mayor (realizadas por Mazan, Marsal y Alberro, de la Universidad Nacional), los aztecas fueron progresando cautelosamente en el tamaño y altura de sus templos, con el fin de garantizar el éxito constructivo. Seis etapas de construcción se dieron antes de alcanzar las alturas de las pirámides que vería maravillado el conquistador. LAS PARTICULARIDADES DEL VALLE Los efectos de la conquista también habrían de sentirse en la ingeniería de cimentaciones; con métodos nuevos y tradicionales, los constructores de la colonia fueron construyendo y reconstruyendo sus edificios hasta que comprendieron, como antes lo hicieron los aztecas, que con un suelo donde casi todo el volumen se debe al agua, debe acostumbrarse primero el terreno a una carga o peso, para que las construcciones puedan quedarse en su lugar. Hoy podemos observar que cuando en alguna construcción nueva no se consideraron estas sencillas pero novedosas necesidades de cimentación, los edificios, o cuando menos partes de edificios nuevos no construidos sobre antiguas construcciones, tienen hasta nuestros días hundimientos diferenciales (véase la figura 3). Figura 3. Como este efecto, muchos otros hay que responden a la mentalidad del colonizador. Éste siempre pensó que su ventaja militar suponía ventajas en todos los ámbitos, y se negó a aceptar que sus predecesores habían acumulado más conocimientos en ciertos campos del que ellos hubieran admitido. Todo esto es parte de cualquier proceso o mentalidad colonizadora, y sabemos que con estas torpezas se pierden valores inimaginables de una civilización conquistada, y en esto no sólo nos referimos a la ingeniería de cimentaciones. En un reciente libro, el profesor Bonfil Batalla señala algunos hechos de la invasión extranjera del siglo XVI vigentes hasta nuestros días: "...la multiplicidad de culturas del México conquistado fue negada y repudiada desde el primer momento..." y añade: "...en el fondo no hay una cultura única mexicana, porque hubo la presencia de dos civilizaciones que no se fusionaron, ni han coexistido en armonía..." y más adelante, para ilustrar este punto, dice: "Cuando el alarife García Bravo hizo el trazo de linderos de la ciudad española propia de los dominadores, fue más para poner fuera de ésta a los dominados, no para crear una ciudad que ya estaba estructuralmente hecha...". Hasta nuestros días se pretende vivir de manera exclusiva dentro de la cultura occidental (ignorando y a veces despreciando nuestra realidad multicultural) y este hecho impide de diversas maneras nuestro desarrollo y autonomía plena. LAS INUNDACIONES Aparte de los problemas del subsuelo, las inundaciones fueron siempre una amenaza adicional. Viviendo como vivimos en la parte más baja de un valle, y con los torrenciales aguaceros que caen en estas tierras, las inundaciones estaban garantizadas. Nuevo reto, resuelto sólo hasta nuestros días —e incluso hoy de manera parcial, pues todavía hay muchas zonas del Valle que se inundan año con año. La precipitación pluvial en el Valle es francamente impresionante: en sólo unos minutos pueden caer cientos de miles de toneladas de agua, y ya que éste es un terreno bastante plano, típico de un lago desecado, el agua no tiene mucho apuro por escurrir; por otro lado, los drenajes, aunque ahora son monumentales, siguen siendo insuficientes, por lo menos durante algunas horas o días y en algunas zonas. LOS TERREMOTOS Por si fuera poco, a todo lo anterior hay que añadir varios problemas más: el más importante es desde luego el de los temblores y terremotos. Los habitantes de la ciudad de México estamos acostumbrados a algunos temblores, pero a los terremotos, que ahora sabemos bien que pueden ocurrir con devastadoras consecuencias, nadie se puede acostumbrar. Apenas hoy día se comienza a estudiar el mecanismo que hace que un temblor concentre sus daños en zonas relativamente pequeñas, no sólo del país, sino en la misma ciudad, lo que deja buena parte de las construcciones intactas y destruye otras bien edificadas. Esto perfila un desafío adicional: entender cómo las particularidades de nuestro subsuelo lacustre actúan junto con las ondas sísmicas durante un terremoto, es actualmente uno de los mayores retos para la investigación en ingeniería y para la ciencia del país. Pocos expertos dudan hoy de que éste y otros subsuelos difíciles, requieren de estudios en los que el enfoque de diversas disciplinas se unan para explicar lo que algunos llaman amplificación sísmica local, como la que se observó en ciertas zonas de la ciudad durante el sismo del 19 de septiembre de 1985. En las investigaciones sobre este fenómeno se usan modelos, tanto matemáticos como de laboratorio, que simulan las formaciones geológicas cercanas a la superficie y se intenta reproducir en condiciones de laboratorio los movimientos del suelo por medio de ondas sísmicas simuladas para estudiar los efectos. Es previsible y deseable que ingenieros y físicos trabajen conjuntamente en la búsqueda de tales resultados. Su alianza producirá información de gran utilidad práctica para los habitantes de una de las urbes más castigadas del planeta. LA CONTAMINACIÓN Pero la ciudad de México tenía que enfrentar más retos. Por lo general la contaminación se relaciona con el aire y el agua, pero también en este renglón el subsuelo de las ciudades está en peligro. La industria desecha sustancias contaminantes de manera irresponsable que se difunden en el subsuelo, como es el caso de la contaminación del subsuelo con cromo, constatado por los especialistas, aunque se desconozcan por ahora muchas de sus consecuencias en el futuro. Es posible que la difusión contaminante en el subsuelo proceda lentamente, durante años quizá, pero es probable por ejemplo, que estos procesos alcancen mantos acuíferos (los depósitos de agua subterránea de donde se bombea hasta la superficie para uso de la población), caso en el que las consecuencias serían desastrosas. Este tipo de situaciones es muy delicado porque al principio pueden pasar inadvertidas hasta que el problema se manifieste claramente, estando ya muy avanzado, y las soluciones resulten o imposibles o costosísimas. Se tiene pues la necesidad de vigilar las actividades industriales con potencial contaminante, y de fomentar programas de investigación que se adelanten a los hechos, y elaboren planes para enfrentar accidentes de esta naturaleza antes de que se conviertan en una catástrofe irreparable para el medio. LOS VOLCANES Para completar un poco más este cuadro, recordemos que buena parte del subsuelo de la ciudad de México se formó con materiales volcánicos que provienen de erupciones cercanas, y que los volcanes no suelen dar aviso de su próxima actividad y mucho menos de la intensidad con la que ocurrirá (recuérdese el Chichonal en 1982 en Chiapas, México, y el Nevado del Ruiz, en Colombia). Luego entonces, es también posible que, de la misma manera en que encontramos en el subsuelo depósitos espesos, que atestiguan la caída de arenas finas y cenizas con varios metros de espesor, fruto de la actividad volcánica, en el futuro algo equivalente podría suceder. Vale la pena detenernos un momento para señalar que no se trata aquí de crear temor hacia la naturaleza, ni a la "ira de los dioses", pero sí de preguntarnos si los científicos que trabajan en geofísica cuentan con los fondos suficientes para estudiar los volcanes más importantes, como el de Colima o el Popocatépetl por ejemplo; antes de que el peligro sea inminente y que no sea en ese momento cuando se dé a esas investigaciones un financiamiento abundante, como ocurrió con la investigación sismológica después del gran sismo de 1985. Los casos anteriores, insistimos, no se presentan para alimentar el alarmismo simplón, o el ecologismo de fin de semana; lo que sí se pretende es mantenernos alerta sobre lo complicado y serio que son los efectos directos e indirectos de nuestras actividades e industrias, y que tengamos presente la necesidad de conocer los agentes desfavorables que nos rodean y nos pueden afectar. Por cierto, de la predicción y prevención trata en gran medida la investigación en ingeniería y la científica, y para desgracia y detrimento de todos, todavía muy pocos ciudadanos (y gobernantes) aprecian el potencial que la ciencia y la tecnología tienen como fuerza productiva en nuestro país, ignorando que estas actividades constituyen probablemente la única salida real para encauzar a los países latinoamericanos en la vía del desarrollo y la prosperidad, que sin duda nos aguardan. Si consideramos lo impotentes que somos ante ciertas fuerzas de la naturaleza, como los sismos y volcanes, lo que nos queda en esos casos es estudiarlos, y de esta manera planear las medidas que podemos tomar para minimizar sus efectos indeseables o destructores, que siempre nos acecharán, por ser parte de las condiciones geológicas de nuestro medio. Todos estos temas son complicados y requieren ser estudiados por personas responsables y preparadas en la investigación. Pero sobre todo, por aquellos que demuestren la creatividad y disciplina suficientes para abordar temas que demandan dedicación, paciencia, y también, como en las artes, una buena dosis de pasión. Antes de seguir con el subsuelo, y sus exquisitas particularidades que lo hacen tan complejo e interesante, vamos a mezclar un poco el tema de los suelos y el espacial; acomódese en su asiento. CONTACTOS ESPACIALES CON LO TERRESTRE Por primera vez intentemos aquí encontrar contacto entre los temas centrales del libro. ¿Qué conexiones encontramos entre las actividades aeroespaciales y el subsuelo, al que más adelante volveremos? En primer término podemos referir toda una serie de relaciones más o menos directas, entre las que destaca la exploración de los suelos desde el espacio y la geología, que tiene como finalidad clasificar, identificar y localizar fallas, tipos de minerales, formas geológicas y mantos petrolíferos, entre otras muchas. Desde una nave en órbita no se ve el petróleo, como algunas personas podrían creer, pero sí se ven las sierras y montañas o estructuras geológicas como las denominan los geólogos. El estudio de estas estructuras hace posible que los especialistas determinen antiguos movimientos de la corteza terrestre, que a su vez pudieron sepultar regiones selváticas o boscosas. Descubrimiento importante si se tiene en cuenta que la descomposición del contenido orgánico (plantas principalmente) de dichas regiones es la que generó, con los años y la temperatura del subsuelo, el petróleo, según se cree. Las compañías que buscan petróleo son por esto las principales consumidoras de imágenes de satélites de prospección o percepción remota. En la actualidad, más de siete países están preparando satélites para realizar sus propios estudios, a pesar de que se dice que con un solo satélite bastaría para todos (esto es técnicamente hablando, aunque la realidad política sea otra y pocos compartan datos e información, lo que a fin de cuentas puede afectarlos, reduciendo su control de los mercados internacionales). América Latina también tendrá que preparar, seguramente unida, sus satélites propios. De nuevo, esta es otra idea que ha sido planteada por investigadores espaciales mexicanos en un foro de especialistas de la región en percepción remota, y es posible que en un futuro cercano se den los primeros pasos concretos para elaborar un proyecto al respecto; el talento y el conocimiento suficientes ya existen. El uso y caracterización de los suelos también se realiza ya desde el espacio, utilizando la visión amplia que se tiene desde allá. Teniendo como base estas observaciones, pueden ser estimados el tipo y la cantidad de producción agrícola, la mineralogía del suelo, la humedad, el grado de erosión y la topografía, entre otras cosas. Estas estimaciones no son cosa sencilla; tendremos que analizar y adentrarnos, con cierto detenimiento, en los hechos que sustentan este novedoso e importante tema. Cuando el Sol ilumina la Tierra, parte de esa radiación se refleja en el espacio. Si a bordo de una nave colocamos una cámara, o simplemente lo vemos, fácilmente podremos captar una imagen del terreno iluminada por el Sol. Las cámaras que se utilizan para esto se llaman multiespectrales, es decir, que son capaces de captar imágenes en bandas selectas del espectro. EL ESPECTRO ELECTROMAGNÉTICO No es nuestro propósito hacer aquí una descripción detallada de lo que es el espectro electromagnético, pues ya hay quienes lo han hecho con más detalle y claridad dentro de esta misma serie (véase el libro de A. M. Cetto, La luz). Solamente se da alguna información de lo que es el espectro, para poder explicar después cómo se usa en la percepción remota para localizar minerales, estudiar cultivos, registrar actividad nocturna y clasificar uso de suelos, entre otros. La manera más conveniente de comprender algunos aspectos del espectro electromagnético es a través del ejemplo de los colores, la manifestación más conocida del espectro. Cuando el Sol ilumina un cristal cortado en ángulos, vemos los colores del arcoiris: o sea, un espectro. Este efecto, llamado descomposición espectral, se da porque la luz del Sol está compuesta de todos estos colores que vemos, y al atravesar el cristal, cada color se desvía o refracta de manera diferente: el violeta menos que el verde y el rojo más que todos; cada componente de la luz sale por caminos distintos y el ojo detecta este fenómeno en forma de colores. Los colores son distinguidos por el lugar que ocupan en el espectro electromagnético y se identifican por una serie de medidas, una de ellas, la llamada longitud de onda, la utilizaremos aquí para referirnos a las diversas radiaciones que componen el espectro. Por ejemplo, el azul tiene una longitud de onda de cerca de 0.45 micras, el rojo, de 0.65, y el verde pasto esta entre los dos (0.54 micras). Con el aparato llamado fotocolorímetro se puede medir la longitud de onda de los colores para diferenciarlos y clasificarlos objetivamente, más allá de las opiniones personales. Ahora bien, los colores son sólo una pequeña parte del espectro, las otras partes también las conocemos y utilizamos, pero no todos saben que cada uno de los componentes del espectro que vamos a mencionar comparten buena parte de las propiedades de los colores, y que están asociadas por características esenciales; los colores se diferencian precisamente por su longitud de onda. de otras radiaciones Los colores se llaman también espectro visible, porque son la única parte del espectro que vemos a simple vista, los colores se encuentran enmarcados en el extremo del violeta; por el ultravioleta, que nuestros ojos ya no ven, y más allá de donde está el rojo, por el otro lado, está el infrarrojo, que a su vez los expertos dividen, para fines prácticos, en cercano, medio y lejano. Al infrarrojo lejano (cuyas longitudes de onda van de 5 a 30 micras) se le conoce como infrarrojo térmico, pues en esta parte o banda del espectro se percibe el calor de las cosas. Hay cámaras que detectan imágenes térmicas, que en lugar de los colores "visualizan" las temperaturas. En estas imágenes se diferencia lo caliente de lo frío a tal grado que es posible ver partes del cuerpo humano en donde la circulación de sangre es mayor, y por lo tanto están más calientes, como ocurre cerca de los tumores. Pero si esta misma cámara térmica está a bordo de un satélite o estación espacial, en una de sus imágenes se puede ver, por ejemplo, un pequeño avión (o cohete) a miles de kilómetros de distancia, por los chorros de gas caliente que arrojan sus reactores; también, y de más interés para nosotros, se puede ver un volcán que comienza a activarse. Si seguimos aumentando la longitud de onda, recorriendo el espectro más allá del infrarrojo, entraremos en las frecuencias de las microondas; y más allá, a las señales de radio, donde las longitudes de onda comienzan en los milímetros y terminan en los kilómetros. Regresando al otro extremo, sobrepasando el sector visible de los colores y el ultravioleta ya mencionado, están los rayos X, y más allá, los rayos gamma. La figura 4 muestra un esquema del espectro electromagnético donde se incluyen las radiaciones descritas. Figura 4. Esquema del espectro electromagnético. Nótese que el sector visible es el más angosto de todas las radiaciones que conocemos. Volviendo ahora a las cámaras multiespectrales de los satélites de teleobservación, éstas captan imágenes de la Tierra en varias regiones o bandas del espectro, a saber, algunas en el visible y otras en el infrarrojo. Al pasar sobre una zona de estudio, las cámaras multiespectrales toman imágenes a través de filtros que sólo permiten "ver" la escena dentro de una estrecha banda del espectro, por ejemplo, una banda podría abarcar desde 0.45 micras hasta 0.52, lo que cae dentro del azul (desde el azul marino hasta el turquesa), otra banda pudiera localizarse en el amarillo o en el verde, pero siempre entre dos longitudes de onda fijas y muy bien definidas: a este tipo de imágenes se les denomina multiespectrales, pues se componen de imágenes tomadas en múltiples bandas del espectro. Los filtros espectrales que logran tal especificidad se fabrican depositando sobre algún cristal capas ultrafinas de materiales especiales para cada color o banda. De esta manera, la cámara capta varias imágenes de la misma zona terrestre, pero cada una tomada en segmentos estrechos del espectro. La figura 5 a modo de ejemplo muestra la radiación que deja pasar uno de los filtros. (Por cierto que estos filtros están siendo fabricados en laboratorios de centros de investigación del país, donde ya se cuenta con la experiencia para su diseño, fabricación y prueba, y han dado resultados muy alentadores, ya que muchos aparatos ópticos de medición los usan como componentes principales.) Figura 5. Imagen aérea de una zona urbana. Nótese en el centro inferior izquierdo cuatro cuadros de calibración. De arriba hacia abajo: filtros infrarrojo, rojo, verde y azul. Para el caso concreto de los proyectos espaciales que actualmente llevamos a cabo en la Universidad Nacional, se ha solicitado a investigadores del Centro de Investigaciones en Óptica de León, Guanajuato, la fabricación de una serie de filtros para realizar experimentos con cámaras multiespectrales montadas en un avión, para preparar un equipo que subirá al espacio, probablemente en 1990 o 1991, y que tiene entre sus objetivos tomar imágenes del territorio mexicano en diferentes bandas del espectro. Este esfuerzo, a su vez, se encamina a la preparación del equipo óptico que irá a bordo de uno de los futuros satélites de investigación, que también forma parte del programa espacial que realizamos en la UNAM en colaboración con otros centros del país y del extranjero. Las imágenes multiespectrales son de utilidad para estudiar los recursos de la naturaleza. Al igual que los ojos, estas cámaras captan, identifican y clasifican cosas por su color, textura y forma. Las imágenes de satélite se analizan con computadoras para extraer información útil para muchos usuarios. Digamos, a modo de ejemplo, que hubiera interés en saber cuáles son los cultivos en una extensa región agrícola; si la recorriéramos a pie o en algún vehículo para preparar mapas de cultivo, esta labor se llevaría mucho tiempo, sin hablar ya de que nos propusiéramos conocer todo un país o todo el planeta. Aprovechando la visión amplia que logran los satélites, obtener imágenes de todo un país sería relativamente fácil, aunque en la actualidad esto es muy costoso, pues muy pocas empresas venden estas imágenes. Sin embargo, hay múltiples proyectos que justifican el gasto. Si ya contáramos con las tomas de nuestra zona de estudio, comenzaríamos el proceso de análisis y extracción de información de la siguiente manera: primero, haríamos una corrección geométrica de las imágenes, es decir, haríamos coincidir la imagen espacial o aérea, con un mapa de la zona: carreteras con carreteras, ríos con ríos y estructuras geológicas consigo mismas. Este es un proceso matemático que se realiza automáticamente metiendo las imágenes a una computadora con un programa especial; de esta manera observaríamos los procesos y resultados en una pantalla de televisión en color. Después, procederíamos a observar la imagen de cada banda, por ejemplo, la imagen en el azul o en el amarillo, y comenzaríamos una paciente mezcla de imágenes, que poco a poco iría cediendo la información buscada. Veamos. Cuando la radiación solar llega a la Tierra, ilumina la superficie de extensas zonas de una manera uniforme, especialmente cuando hay poca nubosidad. Esta iluminación nos permite observar las cosas con los ojos; sin embargo, cuando nuestros "ojos" son los instrumentos a bordo de un satélite, a éstos llega una radiación diferente a la del Sol que ilumina la Tierra. La diferencia resulta del efecto de absorción selectiva que tienen los diversos materiales en la superficie terrestre y en la atmósfera, o sea que cada material tiene una manera única de absorber la radiación solar. Un ejemplo, que nos ayuda a comprender la diferente absorción de la radiación solar es éste: aunque la gran mayoría de las plantas son verdes, todos sabemos, por experiencia, que hay muchos tonos de verde; los tonos de verde son precisamente el resultado de cómo cada planta absorbe y en consecuencia refleja de modo diferente la luz solar. Es la experiencia práctica la que ha permitido a los especialistas desarrollar ciertos métodos, y hasta recetas, que les indican cuáles imágenes de diferentes bandas deben mezclar para obtener información de diverso tipo. En el análisis de imágenes de zonas cultivadas por ejemplo, se aprovecha la propiedad de absorción diferencial de las plantas para distinguir diferentes cultivos desde el espacio, y se ha llegado al grado de poder clasificar con una precisión mayor al 85% el tipo de cultivos de amplias zonas productivas de un país. Este logro tiene enormes consecuencias económicas: por medio de estas técnicas se puede determinar la presencia y avance de plagas en ciertos cultivos, o el rendimiento que van a presentar algunas regiones agrícolas; lo que permite, por ejemplo, preparar esquemas especulativos para el control del mercado internacional de productos agrícolas. La técnica del análisis de imágenes por computadora tiene gran importancia en el futuro de muchos campos del saber: desde las imágenes médicas tomográficas, hasta las observaciones militares más increíbles para nosotros. Veamos, para comenzar, un ejemplo de lo que puede lograr un satélite militar de reconocimiento: los satélites dedicados al espionaje electrónico observan en muchas bandas del espectro, incluyendo las que posibilitan la visión nocturna; y tienen más bandas que las cinco o siete que se utilizan en los satélites civiles, y tampoco están limitados a la resolución de éstos (que por cierto no es nada despreciable, pues pueden diferenciar desde el espacio objetos separados por unos diez metros, como edificios, barcos y aviones); los satélites militares de las grandes potencias están equipados para diferenciar hasta doscientas bandas espectrales, y su resolución, es decir, su capacidad para distinguir objetos en la superficie terrestre, no se cuenta en metros sino en centímetros (son capaces de distinguir objetos de unos cuantos centímetros en la superficie de la Tierra o en el mar). La gran cantidad de bandas o ventanas por las que registran las imágenes hace posibles detecciones que se asemejan más a la ciencia ficción, que a la realidad. Por medio de la manipulación por computadora de imágenes de tantas bandas, los especialistas militares pueden diferenciar los materiales con los que se construyen los equipos bélicos de sus enemigos potenciales, reales o, como bien suele ser, imaginarios. De esta manera se logra tal especificidad, que les es posible saber el tipo de aleaciones que utiliza el contrario en los tubos de escape de aviones a reacción, el de los cañones de su armamento o los componentes de aspas de sus helicópteros, entre muchas otras cosas que desafían la imaginación. Más que impresionar, estos datos nos demuestran que la era espacial no sólo consiste en noticias de aventuras o logros científicos, sino que es un medio eficaz de observación, que reduce la privacía y viola la soberanía de los pueblos, "amigos" o enemigos". En el tristemente famoso caso de las Malvinas por ejemplo, un aliado se unió a otro aliado para minimizar la eficacia militar de un tercer aliado, que es un país en desarrollo y por tanto menos aliado que el segundo. Con las imágenes de satélite, se detectaron los movimientos de la flota y aviación argentinas para reducir sorpresas desagradables a los británicos que, solos, hubieran pagado un costo aún mayor en pérdidas de combate; quizá esto lo sabrán muy pocos, pero tal vez la misma operación hubiera fracasado sin esta ayuda entre cómplices. EL PROCESAMIENTO DE IMÁGENES POR COMPUTADORA Para que una computadora analice una imagen, es preciso traducir previamente la imagen al lenguaje de las computadoras: los números. Es decir, la imagen debe ser representada como una lista de números, ya que las computadoras fueron originalmente creadas para su manejo. El paso de imágenes a números es un proceso llamado digitación, aunque hay maneras más complicadas de llamarlo. La digitación se efectúa dividiendo la imagen en los pequeños elementos que forman un cuadro (constituido por una cuadrícula de columnas y filas); las filas van de izquierda a derecha y las columnas de arriba hacia abajo y, tomadas en conjunto, forman un cuadro compuesto a su vez de cuadritos alineados; la posición de cada cuadrito o elemento de imagen, que los especialistas llaman PIXEL (de la contracción del inglés PIXcture-ELement), se logra identificando la fila y la columna en la que se encuentra (véase la figura 6). Ahora bien, para ahondar y facilitar esta explicación, tendremos que revisar un poco cómo funciona el equipo íntimamente ligado con esta técnica: la conocida pantalla de televisión. Figura 6. Ejemplo de imagen digital. La ampliación de un fragmento, a la derecha, muestra los elementos individuales de la imagen. Las imágenes de televisión están formadas por secuencias rápidas de cuadros, y éstos, a su vez, de líneas; que son visibles cuando algo falla en nuestro aparato. La TV nos presenta muchos cuadros por segundo, por lo que cuando funciona normalmente no se nota que las escenas estén formadas por secuencias de cuadros, y éstos por secuencias de líneas. Las líneas se trazan sobre la pantalla de TV por medio del movimiento de un fino rayo de electrones que se produce con un filamento incandescente (semejante al de los focos domésticos) y que, manipulado electrónicamente, barre la pantalla, como quien barre un patio, de izquierda a derecha, o sea, en la dirección de las filas. Durante el barrido, el rayo va cambiando de intensidad; en algunos lugares es muy brillante y en otros puede ser oscuro, dependiendo de los cambios de intensidad que registra la cámara de televisión en la escena original. Las líneas de barrido de una televisión, en conjunto, constituyen la imagen. Entendidos ya algunos de los rudimentos del funcionamiento de la TV, regresemos a la técnica de digitación: las líneas de barrido de una TV se pueden representar como una fila o una secuencia de pixeles, en la que cada pixel tiene una determinada intensidad. Esta intensidad corresponde al brillo que tiene la imagen original, vista por la cámara. Si a cada cuadrito le adjudicamos un valor numérico, por ejemplo, del 1 al 16 (o al 32, o al 256, o sea siempre una potencia de 2 ), donde el número 1 es el de mayor brillo o blanco total, y el 16 el negro, o menor brillo posible, y entre ellos hay una escala gradual de grises, entonces, si ya una línea se puede representar por una serie de números (equivalentes a los tonos de gris), que van del 1 al 16, por extensión, podemos representar un cuadro de TV como un conjunto de líneas con valores numéricos definidos, que es precisamente lo que necesitábamos para poder manejar las imágenes con una computadora. ¿Y ahora qué? LA EXTRACCIÓN COMPUTADORA DE INFORMACIÓN DE UNA IMAGEN, POR La mejor manera de explicar cómo un programa de computadora extrae información de una imagen es quizá con un ejemplo sencillo: imaginemos que con la cámara de TV captamos la imagen de un círculo totalmente negro, frente a un fondo blanco; en la pantalla, veríamos naturalmente una imagen del círculo negro con el fondo blanco (véase la figura 7). Ahora, no sólo vamos a digitar la imagen, sino además la guardaremos en una memoria, algo tan común como una videograbadora o la memoria de una computadora. Figura 7. Fotografía de pantalla de computadora mostrando el círculo negro sobre un fondo blanco. Al entrar en la memoria donde guardamos el círculo negro con el fondo blanco, el programa detectará que en toda la memoria sólo hay dos valores o tonos, el blanco y el negro, correspondientes al círculo y su fondo. No es nada difícil lograr una respuesta a ¿cuánto hay del negro y cuánto hay del blanco?; en la pantalla veremos por ejemplo, unos números que dicen blanco = 32 000, negro = 33 500. Si sabemos que el negro es el círculo, podemos calcular, o mejor pedirle a la máquina que lo haga, de qué diámetro es un círculo en el que caben 33 500 pixeles, cuyo tamaño conocemos con anterioridad, ya que para esto antes vimos un objeto de dimensiones conocidas, para calibrar el sistema. Los que se inquietan con las computadoras, porque no las entienden, dirían, ¿y de qué me sirve ese cálculo por computadora si lo puedo hacer más rápido a mano? Claro que ese solo cálculo se hace más rápido a mano, pero ¿qué tal si en vez de un círculo tenemos cien círculos en la imagen, y si hay cientos de imágenes como ésa? En los casos en los que el trabajo es repetitivo y sin reto ni gloria para la exquisita mente humana, es donde son buenas las computadoras; aunque, es justo mencionarlo, las nuevas generaciones de computadoras ya realizan algunas verdaderas exquisiteces, siempre y cuando el programador las sepa instruir. El ejemplo de los círculos no salió de la imaginación: un caso similar se nos ha planteado en el laboratorio para resolver un problema práctico y de importancia económica, que vamos a describir a continuación para validar ante el lector la utilidad de los programas de cómputo para procesar imágenes, aun así de sencillos. Además, nos proponemos continuar con la cita de ejemplos que ilustren cómo muchas veces se ha enriquecido el conocimiento de un campo de aplicación por caminos indirectos como, por ejemplo, cuando la ingeniería civil y los ciudadanos que costean sus obras se han beneficiado con la técnica del procesamiento digital de imágenes, que originalmente tenía como propósito el estudio de la Tierra desde el espacio. EL CÁLCULO DE LOS CÍRCULOS Cuando un ingeniero va a edificar una gran obra, digamos una presa, necesita utilizar materiales de construcción baratos y que de preferencia se encuentren cerca del sitio de construcción, ya que es muy caro su transporte. Así, recorre la zona cercana a la futura obra y estudia los depósitos geológicos de los cerros; en eso se encuentra con que una carretera tiene unas altas paredes a los lados, que él llama taludes; en los taludes observa que hay cantos rodados o rocas de río, dentro de una matriz de tierra, que él llama arena arcillosa. Las rocas se asoman un poco, por lo que puede ver que hay muchas. Pero eso no basta: para estimar de manera certera los costos del transporte, él tiene que saber cuántas rocas hay ahí aproximadamente; no exactamente, pero si se equivoca por mucho, lo pueden despedir del trabajo por inepto. Así pues, trata de estimar cuántas toneladas de piedras hay entre la arcilla. Para hacer esto, observa un talud o excava con una máquina o a mano, y ve cuánta roca hay en un volumen que excava de la pared o de un hoyo y, con la experiencia, a veces de muchos años, va aprendiendo a estimar cada vez mejor estos volúmenes. Pero cuando el tamaño de una obra requiere de estimaciones más precisas, y no es permisible equivocarse ni por poco, es cuando trata de encontrar un mejor método de estimación, y para esto se pone en contacto con otros ingenieros, que trabajan dentro de los institutos de investigación y manejan métodos avanzados. Y conjuntamente, tratan de resolver el problema. Después de estudiarlo, llegan a la conclusión de que el meollo del asunto está en poder estimar el volumen de rocas viendo sólo algunos de esos taludes, contar el número de rocas que se asoman y medir su diámetro aparente, para después, con métodos matemáticos, estimar con mayor precisión lo que antes hacía "a ojo de buen cubero". Pero, y siempre salen más peros, ahora resulta que para que el método funcione con la precisión necesaria, tiene que ver muchos taludes y esto le resulta poco práctico, así que decide inyectar más tecnología, y pide fotografías de los taludes, con las que puede medir precisa y rápidamente todo esto, sin moverse de su escritorio. Logra su objetivo y hasta cierta fama entre sus colegas, porque ha hecho las mejores estimaciones y ha bajado los costos en cantidades muy respetables. Tanto, que de todo el país, y hasta de fuera, le llegan pedidos para estimar nuevas obras, y no sólo le piden estimar la proporción de rocas en arcillas con su flamante método, sino hasta contar el número de grietas que hay en macizos rocosos, pero ya son tantas las fotografías que recibe, que su problema ya cambió: ¿cómo estudiar tal cantidad de fotografías? ¿Saben cómo lo resolvió? Procesando imágenes por computadora. Primero, pidió a su fotógrafo que tomara las fotografías de tal manera que se notara el contraste entre las rocas y la matriz de arena arcillosa lo más posible; después, durante el revelado, forzaba también el proceso para aumentar el contraste, tanto que parecían fotos mal tomadas, pero eso era lo que quería: alto contraste entre rocas y matriz. Posteriormente, con una cámara de TV y un equipo para digitar, adquiría cada imagen y la almacenaba en memoria para procesarla después con los programas de computación. El programa inicial aumentaba el contraste corriendo los tonos hacia los extremos, es decir, si tenía 16 tonos del blanco al negro, todos los tonos arriba del 5 los convertía en 16 y los de abajo de 5, en 1. Así, la imagen resultante sólo presentaba dos tonos muy contrastados: o negro, o blanco. Esta imagen en la pantalla (véase la figura 8) la comparaba con la fotografía original, para ver si las rocas mostraban su tamaño real; de lo contrario, en vez de usar como umbral el tono 5, usaba otro cuyos artificios no cambiaran de tamaño las cosas. Ya que tenía la imagen en alto contraste, entraba en acción un segundo programa, que hacía algo muy similar al descrito en un principio, el del círculo negro con fondo blanco, y que más o menos funciona así: este programa tiene un interrogador que pregunta ordenadamente (de pixel a pixel hasta completar todos los que constituyen la imagen), el tono guardado en la memoria. Si el interrogador que viaja fila por fila por toda la imagen encuentra un tono blanco, que corresponde a las rocas, toma nota y prosigue contando los pixeles blancos hasta llegar a un tono negro, que es una nueva frontera (la arcilla), y que esta vez no atraviesa, sino que, cambiando la dirección de exploración, pasa a otra columna o fila y continúa su exploración programada. Cada punto recorrido es acumulado o sumado, para que al finalizar el recorrido por una roca en particular, tenga apuntado el número de pixeles blancos que conforman esta unidad. Si en las fotografías se incluye una escala, una regla graduada por ejemplo, podemos saber fácilmente cuántos elementos de imagen se requieren para un centímetro y, con la misma información, calcular el área que ocupa cada roca o mancha blanca de la imagen. Es evidente que las rocas asoman una parte solamente, por lo que se realiza entonces una serie de operaciones llamadas operaciones de morfología matemática, para que a partir de los datos fotográficos evaluados, se calcule el volumen que ocupan las rocas en relación con la matriz. Figura 8. Imagen de alto contraste que simula piedras de río en una matriz arcillosa. Esto ejemplifica algunos de los tenues hilos que conectan campos disímiles, pero a la vez con amplias equivalencias. Lo mismo ocurre cuando al desarrollar un método para estudiar un suelo natural, avanzamos, sin saberlo ni planearlo, y a veces sin descubrirlo nunca, en la técnica que resuelve el problema de un material aeroespacial. Veamos con más detenimiento semejante aseveración: el subsuelo y los materiales de uso aeroespacial comparten el hecho de que sus materiales son difíciles de conocer. Se diferencian completamente en cuanto a su uso, de esto no cabe duda, aunque ambos poseen una microestructura compleja que determina su manera de comportarse, deformarse o fallar al someterlos a cargas. Para entender sus afinidades y diferencias, analicemos con algún detalle su esencia; comencemos por el subsuelo. Primero, el subsuelo no está constituido de un solo material, sino que es una mezcla de tres: agua, algunos minerales, y aire o gases —que a veces no se perciben pues están en solución o forman burbujas tan pequeñas que no se aprecian a simple vista. Entre los tres componentes de un suelo se da toda una serie de interacciones complejas, de las que conocemos poco, aunque sepamos que de ellas depende su comportamiento al usarlos para construir algo. En los suelos siempre encontramos minerales mezclados de una manera muy particular, es decir, cada suelo es único. Tan único que los policías que hacen investigación, usan el lodo pegado a los zapatos de un sospechoso para saber si estuvo en la escena de un crimen, pues ahí y sólo ahí, hay ese tipo de suelo. Así que, si todos los suelos son diferentes, ¿se comportan todos también de manera diferente? Sí. Por eso, cada vez que se construye una edificación costosa o importante, se hace un estudio de mecánica de suelos, que realizan grupos de investigación utilizando toda la técnica a su alcance, para resolver problemas de suelos con propiedades tan especiales como el subsuelo de la ciudad de México, por ejemplo. Como los suelos, los materiales usados para construir aviones y naves espaciales tienen también particularidades que los hacen únicos. Entre los más conocidos están las aleaciones metálicas (mezclas de diferentes metales que unidos superan las ventajas de sus componentes), cuyas propiedades y modo de comportarse son bastante predecibles. Por lo menos eso se pensó en un inicio. Ahora se sabe que la industria aeroespacial ha tenido que desarrollar una gran variedad de materiales especiales, como pocas industrias. Esto por la necesidad de contar con naves seguras o lo más seguras posibles. Además de los metales, se buscan siempre materiales de poco peso, alta resistencia y que, cuando vayan a fallar, no lo hagan de manera catastrófica, por lo que la aeronáutica ha incluido desde sus inicios una serie de materiales no metálicos, como aquellos con base en fibras de vidrio y cerámicas (preparadas con suelos seleccionados), maderas, telas de tipos muy variados, adhesivos y, más recientemente, con fibras ultrafinas de carbono, boro y cosas más exóticas (véase la figura 9). Figura 9. Micrografía de zona de fractura en un material carbonotermoplástico. Nótese las fibras estriadas de carbono ( 6 µm de diámetro ) con rotura frágil y matriz de plástico heterogénea con signos de deslizamiento de fibras. En los materiales aeroespaciales reforzados con fibras se presentan también, como en los suelos, interacciones sustanciales de sus componentes. Por ejemplo, las fibras rígidas —y lisas— que son el componente que soporta buena parte de la carga, pueden deslizarse de la matriz (como puede apreciarse en el centro de la microfotografía) o medio que las contiene, por lo general adhesivos epoxis y otros plásticos. Cuando dichos materiales se fabrican por capas, éstas pueden separarse o delaminarse (como las capas encimadas de varias pinturas viejas) deteriorando drásticamente la resistencia. Los materiales carbono-epoxi, cuyo desarrollo se ha orientado más a los productos aeroespaciales, que requieren comportamientos especiales, son poco conocidos por el público, y el que los conoce, lo hace a través de artículos deportivos como raquetas de tenis, cañas para pescar, mástiles de veleros, etcétera. En la fabricación de estos materiales se requiere generalmente de mucha mano de obra y de un control de calidad riguroso, por lo que los países con salarios relativamente bajos, con respecto a los países más industrializados, pueden aprovechar esta situación, y generar empleo con un producto de un considerable valor agregado, y un mercado de exportación en continua expansión. MICROMECÁNICA DE LOS MATERIALES La observación de gran diversidad de materiales tiene ciertos denominadores comunes; uno de los más notables es que todos los materiales poseen una microestructura, es decir, observados al microscopio, presentan una serie de elementos repetitivos que, en su conjunto, constituyen la esencia y dan origen a las propiedades particulares —exclusivas— de cada material. La madera, por ejemplo, desde un punto de vista micromecánico, está compuesta de innumerables celdas alargadas y huecas, de paredes sólidas, adheridas entre ellas con contactos hasta con diez celdas vecinas, y que vistas en corte longitudinal, parecen ladrillos de un muro (véase la figura 10). Esta disposición de elementos estructurales determina todas sus propiedades en cuanto a resistencia, peso y modo de fracturarse; es por las celdas vacías por lo que flota cuando está seca. A partir del estudio de la microestructura se ha podido revolucionar la larga historia de los metales y sus múltiples aleaciones. El comportamiento de estos elementos ante esfuerzos y deformaciones es resultado de la interacción de sus componentes microscópicos: los pequeños cristales o granos que los conforman (véase la figura 11). Con seguridad se debió a un accidente histórico el descubrimiento de que un metal calentado al rojo vivo, cuando se enfría rápidamente aumenta notablemente su resistencia y dureza superficial. Sólo hace falta imaginar un ejército primitivo que antes de la lucha hubiera purificado con fuego sus hachas y puntas de lanza, o una ama de casa que cocinando hubiera calentado inadvertidamente un rudo utensilio, y que al querer usarlo, lo hubiera enfriado con agua, notando que después el metal se había endurecido o mejorado de alguna manera. Cómo haya sucedido esto no importa: seguramente ocurrió en varios sitios simultáneamente. Lo que sí importa es que alguien con esa incesante curiosidad que la naturaleza favorece en algunas mentes, observó el hecho con cuidado y se dio a la tarea de demostrar, tal vez ante la risa de los más "prácticos", que su hallazgo era útil. Figura 10. Micrografía de un pedazo de madera mostrando corte longitudinal (a la izquierda) de celdas, y corte transversal a la derecha. La longitud de la línea de calibración es de 1 000 µm = 1 milímetro. Figura 11. Micrografía de una zona de fractura en acero para herramientas. Se observan granos individuales de unas 20-30 micras con fronteras irregulares. Hoy en día, el tratamiento térmico de los metales es una ciencia casi exacta, en la que se determina con toda precisión el tipo de proceso a seguir, según los componentes iniciales y el uso que se dará a la pieza metálica a elaborar. Para explicar lo que ocurre en el metal con esos calentamientos y enfriamientos contamos con el microscopio. Con él, se ha podido entender y posteriormente explicar qué le ocurre a las aleaciones metálicas. Según el tamaño y forma de los granos de la microestructura, los metales cambian ampliamente sus propiedades. Al colocar un acero en una máquina de tracción, para estirarlo y anotar su resistencia a una carga creciente, vemos que si variamos la proporción de componentes, como el carbono o el cromo, o si lo tratamos con calor, los aceros resistirán más carga, o se elongarán o estirarán más antes de romperse. Lo que pasa internamente en la microestructura de un material es objeto de toda una nueva ciencia, la micromecánica, de la que ya se han publicado miles de trabajos. El carbono es el componente más socorrido y barato para obtener un acero duro. Añadiéndole al acero proporciones de menos de 1% por lo general, el carbono aumenta la dureza y la resistencia; cuando se aumenta hasta varios porcientos la proporción de carbono, los aceros son tan duros que se vuelven frágiles y se rompen con un golpe, como si fueran de vidrio. En proporciones pequeñas, de unas décimas de porcentaje, adquieren una combinación de propiedades más útiles. Además del carbono, en estos procesos se utilizan principalmente níquel, cromo, vanadio, molibdeno y muchos otros elementos químicos. Cada mezcla presentará propiedades nuevas y útiles, que a lo largo de la historia se han venido conociendo y aplicando; propiedades como la resistencia a la corrosión, las fallas dúctiles, que son un tipo de falla donde el refuerzo metálico no se rompe súbitamente, sino que "avisa" que se va romper con el agrietamiento de la matriz que lo soporta, el cual puede ser de concreto, por ejemplo, como en los casos de agrietamiento o laminación de las matrices de termoplásticos que soportan las fibras de carbono de los aparatos de la ingeniería espacial. En los inicios de la aviación se utilizaron los materiales que había: madera, telas de algodón y lino, cola como adhesivo, etcétera. Cuando aumentó la potencia de los motores, la velocidad de vuelo y las consecuentes vibraciones de la estructura, las demandas de un comportamiento más controlable de los materiales aeronáuticos exigieron materiales especialmente diseñados para las nuevas tareas. Así, entraron en juego nuevos metales: manganeso, berilio, titanio, tungsteno, niobio y litio, entre otros. Buena parte resultan de la investigación motivada, no por el afán de conocer los materiales, sino por algo mucho más primitivo: las guerras, esa actividad febril que todo acelera, menos la civilización. Como veremos en el último capítulo, dicha aceleración es en realidad una ilusión: el impulso a proyectos con base en las necesidades bélicas es un método muy poco eficaz para motivar el desarrollo de la ciencia y la técnica. Mientras llegamos al capítulo VII, pensemos en el ejemplo que al respecto nos da el Japón de la posguerra, un país avanzado con uno de los más bajos presupuestos militares en relación con su producto interno. I V : M I C R O O R G A N I S M O S M I N E R A L E S Y INTRODUCCIÓN RETOMANDO el tema visto a principios del capítulo precedente, veamos por qué el subsuelo de la ciudad de México posee una serie de propiedades que lo distinguen y destacan entre la mayoría de los suelos conocidos. Sus orígenes lacustre y volcánico causan en parte su complejidad, además influyen su edad y las condiciones geológicas en que se formó. Para entender y, aún más, para explicar sus propiedades y comportamiento, no basta con señalar estos importantes factores: es necesario además estudiar los materiales que surgen de tales condiciones y comprender con creciente detalle las interacciones de sus componentes. Por su composición variada, este tipo de materiales se conoce como materiales multicomponentes, y para ellos existen métodos especiales de estudio, como la micromecánica. Adentrémonos en este capítulo, primero, en la descripción de sus componentes, para después hablar de sus interacciones y sobre todo, de las características microestructurales que provocan un comportamiento tan especial. Más tarde podremos ahondar más aún en los intrincados aspectos del comportamiento y propiedades de este suelo, cuando lo equiparemos a las investigaciones de materiales espaciales y sus equipos. MINERALOGÍA DEL SUBSUELO La complicada naturaleza de la composición del subsuelo de la ciudad de México ha sido causa de opiniones encontradas y de no pocas confusiones o ignorancia, al grado de que durante un tiempo los conocimientos fueron sustituidos por inexactitudes o hasta por mitos, que formaron un aura de misterio que oscurecía su verdadera naturaleza. A resolver el enigma se han dedicado grandes esfuerzos y talentos, entre los que destaca el cabal estudio de los investigadores universitarios Marsal y Mazan, importante tanto por el detalle como por el alcance y proyección de su obra. Sin embargo, algunos investigadores que realizaron estudios posteriores, antes de clarificar y ampliar la abundante información publicada, sucumbieron ante sus prejuicios predilectos y volvieron a poner en duda una serie de hechos ya establecidos con cierto rigor. Tratando de avanzar en el conocimiento sobre lo que el principal estudio del subsuelo encontró, se inició en 1980 una nueva investigación, todavía en proceso, que pretende seleccionar los hechos comprobados, añadir los nuevos resultados que hace posible el avance de la técnica de instrumentación y las teorías micromecánica y coloidal, así como abrir el camino para explorar conceptos poco estudiados, que pudieran ayudar a resolver algunas de las todavía múltiples y desafiantes incógnitas. Entre las técnicas utilizadas para conocer la naturaleza de los materiales del subsuelo destaca el análisis a través de los patrones de rayos X, que se registran después de irradiar las arcillas. Los rayos X nos permiten ver , mucho más allá de lo que ven los ojos, algunas propiedades fundamentales de la materia. Se dice que los rayos X se difractan, o sea cambian su dirección de propagación, cuando son afectados de una manera muy particular por cada material. El fenómeno de la difracción "desenmascara" la estructura geométrica de los materiales (véase en la bibliografía, E. Braun), por lo que nos permite conocer la distancia que hay entre los átomos de las redes cristalinas o los arreglos de átomos de un material y, de ahí, identificar los compuestos que forman parte de la estructura. Para inferir qué compuestos están presentes, se compara el patrón de rayos X de cada muestra con unos patrones almacenados en un archivo, y con ello es posible concluir de qué materiales se trata (véase la figura 12). Pero todo no podía ser tan fácil: los minerales arcillosos del subsuelo, objeto de estudio de esta investigación, no son muy cristalinos, es decir, sus átomos no están tan ordenados como los cristales de la sal, por ejemplo. Entonces, sólo una parte de los componentes del subsuelo citadino se pueden identificar con este método, por lo que el estudioso se ve obligado a hacer uso de técnicas complementarias para clarificar su naturaleza compleja. No obstante, el análisis por rayos X de gran cantidad de muestras de diversas profundidades (se prepararon hasta 550 muestras de 163 estratos), nos ha posibilitado encontrar algunas interesantes variaciones de la composición de las arcillas de acuerdo con la profundidad a la que se hallaron. Así, se encontró que las muestras contienen mezclas de minerales como ilitas, plagioclasas, montmorilonitas y otros más; todos producto de las erupciones de volcanes que rodean el valle y del proceso de cambio natural (intemperización) que estos materiales sufren con el tiempo. Pero ya que cada volcán arroja materiales diferentes, además de que pueden llegar por otras vías, no necesariamente la aérea (como por el arrastre pluvial), los depósitos son de muy diversa naturaleza, lo que dificulta una identificación rápida o fácil. Figura 12 Diafractogramas de rayos X que muestran la variabilidad de componentes y grados de cristalización de las arcillas que forman parte del subsuelo. Del análisis de las muestras del subsuelo del Valle de México, provenientes de varios sondeos realizados en la zona del lago, basándonos principalmente en un sondeo efectuado muy cerca del centro de la ciudad, se puede deducir lo siguiente: Primero, la mineralogía cambia con la profundidad, como resultado de condiciones volcánicas y climáticas variables durante los procesos de sedimentación. Segundo, las muestras analizadas fueron divididas con base en el tamaño de las partículas encontradas, que van desde décimas hasta decenas de micras. Entre la fracción más gruesa encontramos un predominio de feldespatos, que son los óxidos de silicio o silicatos más abundantes en la corteza terrestre (llegan a constituir el 50% del peso de la corteza), que se presentan probablemente como plagioclasas, que son minerales producto típico de erupciones, acompañados de considerables cantidades de carbonato de calcio, en su variedad de calcita; cabe resaltar que éste no se debe a la presencia de evaporitas de calcio, el llamado caliche (producto del afloramiento de minerales de calcio cuando un lago llega a secarse totalmente). Por medio de otra técnica, la microscopía electrónica, se confirmó que la mayoría de los cristales de calcita encontrados provienen de la concha de crustáceos microscópicos, identificados como ostrácodos, y también de la capa dura que más adelante describimos. También, en la fracción gruesa, se encontraron minerales no arcillosos, como la dolomita, especie identificada por primera vez en estratos del subsuelo de la ciudad, o los óxidos de silicio (cuarzo- y cristobalita, en su forma de baja temperatura). Asimismo, se identificaron anfibolas, en su forma de hornblenda. En cuanto a la fracción menor a 2 micras, donde se incluyen los minerales arcillosos, se identificó la montmorilonita, el mineral más abundante en muchos estratos. En forma de agregados que superan las 2 micras, se halló también ilita, caolinita, y mica, lo cual significa que la mayor parte de los minerales arcillosos del subsuelo se concentran en estos agregados. La montmorilonita encontrada varía ampliamente en su grado de cristalización (ya con elevada, ya con pobre cristalización). Si bien estos minerales no son del conocimiento del público en general, tampoco son raros ni extraordinarios, por lo que su aparente carácter místico no tiene bases, fuera de la ignorancia. Si con la lectura de los resultados de investigaciones previas no se puede llegar a entender la compleja constitución microscópica del subsuelo, más dudas habrían de surgir con el estudio sistemático de cada estrato encontrado en los primeros treinta o cuarenta metros de profundidad. Estos primeros depósitos son importantes para la ingeniería, ya que sustentan las cimentaciones de todas las construcciones del centro de la ciudad. A profundidades de 30 a 40 in se encuentra la mencionada "primera capa dura" que es un potente (grueso) depósito, que evidencia quizá la más importante secuencia de las erupciones volcánicas de los últimos 60 000 años. El nombre de capa dura refleja el hecho de que éste es uno de los estratos más resistentes de los primeros 80 m del subsuelo (sobre esta capa descansan la gran mayoría de los pilotes de punta de las edificaciones más pesadas). Esta capa dura se encuentra a su máxima profundidad en la zona central de la ciudad y va siendo menos profunda a medida que se acerca a las orillas de lo que fue el antiguo lago. Es interesante notar que la montmorilonita se caracteriza, en particular la poco cristalizada, por su alta capacidad de integrar y retener (absorber) el agua en su estructura microscópica, hecho que explica su notable pérdida de volumen cuando se seca al aire. Cuando los minerales arcillosos presentan una cristalinidad muy baja, es decir, cuando carecen de periodicidad en su estructura, difractan los rayos X desordenadamente, hecho que imposibilita su identificación, al punto de que a veces sólo se pueden clasificar como materiales amorfos, técnicamente llamados alófanos. Tercero, la baja cristalización de las arcillas que encontramos en los primeros 30 m de profundidad, se debe principalmente a su origen volcánico y corta edad (menor a 30 000 años). Las arcillas de alta cristalinidad pertenecen generalmente a depósitos más antiguos. Cuarto, como los factores climáticos afectaban la profundidad de las aguas del antiguo lago, en las épocas en las que ésta era muy baja, dichos factores inducían una alta concentración de sales, dando origen a horizontes abundantes en crustáceos, que son los que otros autores han confundido con el caliche: polvo blanquecino que aflora en suelos predominantemente de origen marino. Quinto, se ha descartado la singularización de la mineralogía del subsuelo con nombres genéricos, como alófanas o montmorilonitas o ilitas, por ejemplo, y se describen con más precisión como mezclas de minerales varios, en su estructura y grado de cristalización. Sexto, los fósiles microscópicos intercalados entre la arcilla afectan algunas de las propiedades mecánicas macroscópicas, como las de fragilidad, rigidez, plasticidad y resistencia. Séptimo, el alto contenido de agua se puede explicar no sólo por la baja cristalinidad de los minerales arcillosos (cuyas grandes superficies, por un lado, llegan a tener hasta 800 metros cuadrados por cada gramo de material y, por otro lado, están altamente energizadas debido a los defectos cristalinos cercanos a la superficie, que por esta virtud forman múltiples capas de agua absorbida, es decir de agua que se estructura alrededor de los minerales, sobre todo en los poco cristalinos), sino también por la gran capacidad de los fósiles para retener agua en su estructura porosa. Por último, la variabilidad encontrada en la resistencia mecánica de los diferentes estratos se debe principalmente, entre otros factores, a la diversidad de microestructura de estos suelos, que incluyen además variaciones en la proporción del contenido de fósiles de los estratos. Como cualquier otra investigación, el trabajo realizado para clarificar los aspectos relacionados con la composición fisicoquímica de los materiales que forman el subsuelo de la ciudad de México, no está concluido totalmente, pues si bien en los últimos ocho años se ha podido aumentar y precisar la información que se tenía previamente, también es cierto que la nueva investigación ha abierto nuevas interrogantes. Entre éstas podemos citar las siguientes: es necesario determinar los mecanismos de falla microestructural para los materiales más comunes del subsuelo, considerando sus diferentes propiedades mecánicas en función de la profundidad. Es conveniente, también, ahondar en la explicación de las causas de la gran capacidad de estos materiales para retener agua en su estructura. Por último, se estima conveniente continuar obteniendo información de utilidad para la ingeniería, a través de los datos que nos proporcionan los fósiles interestratificados, profundizando en particular en la manera en que éstos participan como elementos de la microestructura en las deformaciones causadas por los sismos y por las construcciones de la ciudad en continuo asentamiento. MICROORGANISMOS DEL SUBSUELO Los materiales que conforman el subsuelo de la ciudad de México son, como decíamos, principalmente minerales arcillosos de composición química muy variable, con una proporción elevada de agua y sales en solución, como suele suceder en los suelos de origen lacustre, es decir, aquellos que se forman por la sedimentación en lagos. El tamaño de sus componentes, como las partículas de arcillas, son sumamente finos, va de 0.1 a 4 micras (pequeñísimas, si pensamos en que un cabello humano, tiene de 50 a 150 micras de diámetro) o de 2 a 400 micras si hablamos del componente de limos y arenas. Además de los minerales, dichos suelos de sedimentación lacustre contienen una gran variedad de fósiles microscópicos, principalmente restos de algas de hermoso y variado aspecto (véase, por ejemplo, la microfotografía de la figura 13), que se sitúan a diferentes profundidades y que miden de 1 a 200 micras. Hay también ostrácodos, unos crustáceos entre dos conchas, parecidas a las de la almeja, pero de unas 50 a 500 micras (medio milímetro) solamente. En algunos de los estratos los fósiles son tan abundantes que, al tacto del experto en mecánica de suelos, se pueden tomar por arenas limosas y, por su tamaño mucho mayor en relación con las arcillas, añaden a tales estratos propiedades de comportamiento mecánico muy peculiares. Figura 13. Micrografía de una diatomea. (Cyclotella s.p.) presente entre las arcillas del subsuelo de la ciudad de México. Véase la contratapa debajo de la valva. Diámetro aproximado, 9 micras. Estudiando el material en su estado natural, en las llamadas muestras inalteradas, mediante un microscopio electrónico, se pudo constatar que los fósiles forman parte importante de la microestructura; por lo anterior, si se quiere entender cómo se comporta el suelo en el nivel microscópico, al ser sometido a esfuerzos similares a los de los sismos y otras solicitaciones mecánicas, es necesario tomar en cuenta los componentes fósiles que integran el suelo (véase, por ejemplo, la figura 14). Si pensamos en analogía con los metales y otros materiales compuestos, donde la densidad de microgrietas, es decir, el número de grietas dentro de un volumen dado, determina la resistencia máxima, los suelos son materiales que, dentro de un estrato en particular, presentan una considerable homogeneidad, pero ésta es interrumpida por innumerables fósiles, que en su mayoría no se adhieren a los minerales. Por lo tanto son nícrogrietas donde se interrumpe la continuidad formando planos de debilidad en donde la resistencia de las arcillas es menor, en proporción a la cantidad de fósiles. Como esta proporción varia de un estrato a otro de una manera notable, estratos de la misma mineralogía y proporción de agua pueden variar ampliamente en su resistencia y rigidez. La proporción depende del ambiente biológico que existió durante el proceso de sedimentación de cada estrato. Figura 14. Micrografía del suelo arcilloso de la ciudad de Mexico. En ocasiones los fósiles alineados crean grietas, o discontinuidades en la arcilla, causando debilidades locales y fragilidad en las muestras. En nuestro equipo de trabajo fue tal la impresión ante el hallazgo de la proporción y diversidad de fósiles en los diferentes estratos arcillosos, que la pregunta "¿que nos puede decir la presencia de cada especie fósil?" comenzó a ser cada vez más natural. No obstante, las primeras respuestas resultaban bastante dudosas o cuando menos excesivamente vagas. Aprovechando que trabaja una gran variedad de especialistas en los institutos de investigación de la Universidad Nacional, pronto nos acercamos a biólogos, paleontólogos y geólogos, para buscar ayuda en la comprensión de nuestro hallazgo. No tardamos mucho tiempo en decidir que para dar una respuesta apropiada a lo que resultaba ser una pregunta compleja, sería necesaria la integración de alguien que, con herramientas biológicas, buscara respuestas más firmes e informativas. Así, se incluyó al primer profesionista ajeno a la ingeniería en el Grupo de Micromecánica donde trabajo. Las diatomeas presentes en el subsuelo de la ciudad de México presentan una variedad indiscutible. Con el desarrollo de la investigación sistemática, pudimos encontrar nueva información para completar el complicado cuadro que muestra el subsuelo de esta ciudad y causa algunas de sus propiedades micromecánicas. El estudio se inició con la observación de las muestras extraídas del subsuelo por medio del sondeo inalterado. Se obtiene una columna de unos 13 centímetros de diámetro y 35 a 40 metros de longitud, extraída por medio de tubos metálicos en sectores de un metro cada uno. A continuación, los cilindros de suelo descubiertos fueron cortados longitudinalmente para exponer los horizontes sedimentados durante un periodo de miles de años. Ahora creemos que estos primeros 30 metros tienen una edad de 30 000 años aproximadamente. Esta estimación se debe al hallazgo de un tronco, localizado a 28 metros de profundidad, por uno de los ingenieros que estudiaba la zona de paso de uno de los túneles del drenaje profundo, que se ha venido construyendo durante la última década en la ciudad. Este tronco fue fechado con la técnica de carbono 14 y la edad encontrada, según recuerdo, sorprendió a todos aquellos que dedicaron o dedican tiempo a entender los diversos parámetros del subsuelo. Estudios anteriores (como el de Marsal y Mazari, o el de D. Reséndiz) inferían, comparando diversos depósitos geológicos, edades mucho mayores. Treinta mil años no es nada, cuando menos para los geólogos, que generalmente empiezan a interesarse en depósitos cuando éstos superan los 100 000 años de edad. Tampoco los paleontólogos encontraban mucho qué hacer, ya que los fósiles que ellos estudian llegan a tener, no miles, sino millones de años, por lo que los fósiles encontrados podían clasificarse, valga la expresión, como fósiles vivos; es decir, son restos de organismos de especies que aún existen. Una de las formas de comprender la diversidad de estratos encontrados en el subsuelo es tener una noción de cómo se formaron. Con un esquema de los materiales originalmente sedimentados en el fondo del lago en cada época, es más fácil conocer los procesos de intemperización que dieron lugar a las arcillas tal y como las observamos hoy. Los principales factores que determinan qué materiales se sedimentan en un lago en cada época son diversos; hemos mencionado ya el origen volcánico de algunos de ellos, sin embargo, hay que considerar que el viento puede acarrear materiales a grandes distancias y, también, que la actividad de los organismos que habitaban el lago aportó una cantidad notable de materiales de origen orgánico al fondo. El estudio de los fósiles microscópicos, que en nuestro caso son las conchas de los ostrácodos y las valvas (esqueletos) de las diatomeas, hace posible que se identifiquen por medio de claves. Como este tipo de organismos aún habitan muchos lagos y presas mexicanos, es posible saber bajo qué condiciones se desarrollan mejor. Gracias a estos datos, de la evaluación de la cantidad y diversidad de fósiles, se pueden inferir las condiciones climáticas y químicas del lago en diferentes épocas. Para ello nos hemos valido de algunas herramientas de la ecología, que, justamente, estudia las relaciones entre las poblaciones y su ambiente. Con esto se ha podido reconstruir cuál fue, por ejemplo, la profundidad, temperatura, turbidez, actividad biológica y salinidad del lago, factores que ceden información no sólo de utilidad biológica, sino de otra índole, como la velocidad de sedimentación, la historia del peso soportado por estos sedimentos, su evolución, y también algunas estimaciones sobre su proceso de formación, que interesan a la geología o a la ingeniería (la salinidad y la acidez, por ejemplo, influyen notablemente sobre la resistencia del suelo, por lo que es muy importante saber cómo han cambiado éstas, y cuáles fueron sus valores aproximados en cada uno de los estratos). Las diatomeas son algas unicelulares cubiertas por unas estructuras llamadas valvas, que embonan entre sí como una caja de Petri (de las que se usan en cultivos de microorganismos). Su forma puede ser circular, triangular, alargada como huso, o casi cualquier otra; estas valvas son las que permanecen como fósiles. Existen grandes depósitos (diatomitas) de estas valvas, que por cierto tienen muchas aplicaciones industriales y domésticas: se emplean por ejemplo, en la fabricación de dinamita, en ladrillos refractarios o en los filtros de agua, pues con una trama fina de diatomeas se pueden detener las partículas contaminantes (véase la figura 15). Figura 15. Micrografía doble de superficie de un ostrácodo. A la izquierda tomada con unos 1 000 aumentos y a la derecha 5 500x. Estas superficies retienen mucho agua en sus numerosos poros. Se componen de carbonato de calcio, cuyos cristales se puedan apreciar en la de mayor aumento. Las diatomeas son vegetales fotosintéticos, es decir, energía principalmente de la luz solar, igual que las embargo, en ausencia de luz, algunas de ellas son alimentarse temporalmente de materia orgánica, por lo obtienen su plantas. Sin capaces de que cuando hallamos una gran cantidad de éstas, podemos suponer con toda confianza que el lago era un lago eutrófico, con gran cantidad de sales y materia orgánica disueltas y en el fondo. El método de análisis que utilizamos consiste básicamente en identificar las diatomeas presentes, contar la abundancia relativa de cada especie, y con criterios semicuantitativos y comparativos, hacer inferencias sobre la combinación de factores ambientales que favorecían la proporción de unas y otras. Esta metodología se emplea por lo común para establecer la calidad del agua en ríos y embalses. Por ejemplo, si encontramos una alta proporción de diatomeas planctónicas (que viven en la superficie o en suspensión) frente a las del fondo (bentónicas), podemos pensar que el agua era suficientemente clara o el lago poco profundo, y que permitía la entrada de luz y la actividad fotosintética. Si por el contrario hallamos una gran proporción de diatomeas que pudieran usar fuentes alternativas de energía, el dato nos llevaría a concluir que el agua tendría abundantes nutrientes, que sería turbia y con menos facilidad para la actividad fotosintética. Esto parece fácil de llevar a cabo, pero hay múltiples problemas que enfrentar; por ejemplo, la alteración de las valvas con el tiempo: cuando el ambiente químico del fondo les es muy agresivo (corrosivo), se hace difícil o imposible identificarlas. Aunque también esto puede ser aprovechado para obtener resultados, como el de definir el ambiente químico y los iones presentes en los estratos, por ejemplo. Otro problema es que estamos reconstruyendo el panorama de diferentes épocas analizando sólo algunos de los muchos organismos que existieron en esos ecosistemas; los peces, las plantas acuáticas y otras algas, bacterias y protozoarios, por ejemplo, no dejan rastros tan evidentes y duraderos. La especie de diatomea más notable por su gran tamaño es la llamada Campilodiscus clypeus (véase la figura 16). Es ésta la especie que cuando se combina con material muy fino se percibe al mero tacto, como los ostrácodos, y hace pensar en la presencia de limos y arenas finas entre las arcillas (cuando los suelos son de color oscuro, estas diatomeas resaltan como puntos blancos). La Campilodiscus se desarrolla bien en condiciones de abundante materia orgánica y en un ambiente azufroso, como el que probablemente dominó el lago durante algunos de los periodos de actividad volcánica. Esta especie es la dominante antes de la erupción, pero desaparece prácticamente después de ésta. Lo que observamos en los estratos subsecuentes es un aumento en las diatomeas planctónicas, que con el tiempo van cediendo su lugar poco a poco a diatomeas del fondo, con lo que se restablece una situación similar a la de antes de la erupción. Esto obliga a concluir que las emisiones de arena basáltica y posteriormente pumítica durante las explosiones volcánicas eliminaban gran parte de la actividad biológica en el lago, por un cambio drástico en acidez, temperatura, partículas en suspensión y en proceso de sedimentación, y que probablemente permanecían sólo algunas sales disueltas. El lago, de agua relativamente clara, impulsó el desarrollo de organismos planctónicos, lo que dio pie a una secuencia que condujo a un sistema cada vez más complejo de organismos, que se refleja en el aumento de nutrientes, materia orgánica y en el tipo de fósiles encontrados. Figura 16. Diatomea Campilodiscus Clypeus, muy abundante en el subsuelo. Su tamaño alcanza 50 micras. Además de la proporción de diatomeas planctónicas frente a las bentónicas, el tipo de ostrácodos presentes depende de las condiciones de profundidad, salinidad, y energía de movimiento del agua. Los ostrácodos producen un par de conchas que los protegen; es posible verlos agrupados y nadando rápidamente de la superficie al fondo en algunos charcos y lagunas poco profundas. Ya que los ostrácodos que hemos encontrado del género Cypris parecen haber habitado en un ambiente de alta salinidad, es de esperarse que los estratos donde abundan correspondan a épocas de bajo nivel del lago, en las que aumentó la concentración de las sales disueltas. Éste parece haber sido un proceso en aumento continuo en las épocas finales del lago, como producto de la reducción en su tamaño por la evaporación y por el efecto de los primeros asentamientos humanos. En estudios anteriores sobre la mineralogía del subsuelo, se encontró calcita en abundancia en múltiples estratos, lo que, como decíamos, otros autores han interpretado como periodos de sequía, en los cuales afloró a la superficie seca el carbonato de calcio. Durante esta investigación se ha encontrado que, en la mayoría de los casos, esta calcita pertenece a las conchas de los ostrácodos, lo que indica que no había sequías, pues si había ostrácodos, había agua, aunque fuera poca. En cambio, hemos encontrado verdaderos cristales de carbonato de calcio que sí pueden indicar sequías breves, pero en estratos donde antes no se había demostrado tal efecto, como por ejemplo, en la capa dura (véase la figura 17). Figura 17. Micrografía de material que compone capa dura, donde se asientan muchos de los pilotes de las edificaciones de la ciudad de México. Nótese los cristales de carbonato de calcio. La idea que tenemos hoy del lago de la cuenca del Valle de México durante los últimos 30 000 años, es la de un lago relativamente poco profundo (probablemente tendría alrededor de 2 a 4 m en la zona más profunda), con gran cantidad de materiales disueltos, provenientes tanto de la actividad biológica como del arrastre pluvial y eólico de las laderas circundantes, de aguas turbias, y con una tendencia a secarse en algunas épocas (distantes unas de otras miles de años), y que culminó en su desaparición debido a factores principalmente humanos en los siglos XVI y XVII; sin embargo los actuales lagos de Texcoco, Xochimilco y Chalco, que continúan reduciéndose, son restos de aquel extenso lago. Las erupciones volcánicas fueron relativamente frecuentes y dominaron el paisaje en varios períodos. La vida en el Valle de México nunca ha sido tranquila y, a juzgar por la actual actividad humana, probablemente nunca lo será. MEDIOS TÉCNICOS DE INVESTIGACIÓN Para observar la respuesta de la microestructura de las arcillas del Valle ante cargas externas, se desarrolló un dispositivo electromecánico que puede comprimir una muestra pequeña (un cubo de 5 mm por lado) dentro de la cámara de observación del microscopio. Así, es posible observar, y medir, toda una serie de parámetros mecánicos como los desplazamientos de los microelementos que forman la microestructura (véase la figura 18), la propagación de grietas durante el proceso de falla, la influencia de los poros y del fluido interparticular. Por cierto, durante la observación en el microscopio electrónico de barrido de muestras del subsuelo no puede mantenerse toda el agua original dentro, pues los microscopios electrónicos funcionan sometiendo las muestras al alto vacío, y para evitar la evaporación del agua de los poros, ésta se sustituye por un polímero, soluble en agua, que tiene una viscosidad equivalente a la del agua. Para asegurarnos de que estos fluidos no cambiarán las propiedades mecánicas de manera notable, se realizó una investigación comparativa con el material natural (incluyendo agua, sales y grasas) y otra del material con un fluido sustituto (véase Peralta, Micromecánica de suelos, 1984). Los resultados obtenidos demostraron que la sustitución no causó cambios, ni en la resistencia, ni en las propiedades de deformación evaluadas contra el tiempo. Ya que esto no constituía un problema para la observación al microscopio electrónico, pudimos continuar, pero antes modificamos el equipo para que fuera capaz de extraer información cuantitativa mediante un accesorio ideado por nosotros que era capaz de permitir operaciones de resta de imágenes. Este proceso permite registrar y medir el desplazamiento de los componentes de la microestructura mientras la muestra se está sometiendo a regímenes de deformación. En su momento, el desarrollo de esta técnica de microscopía resultó ser muy novedoso: se anticipó con más de cuatro años a los modelos comerciales. Nosotros buscamos industriales que, apreciando sus ventajas, invirtieran en el desarrollo de un prototipo industrial, pero los únicos interesados fueron los fabricantes del microscopio, quienes nos propusieron un arreglo en donde ellos se quedaban con la parte del león, cosa que desde luego no aceptamos. Hoy, diversas compañías venden el accesorio a costos equivalentes al precio de un microscopio nuevo, diciendo que es una parte indispensable de todo equipo avanzado. Nuestros costos para lograr tal avance no llegaron ni a la décima parte del costo total del equipo. Moraleja: se puede, aun en países en desarrollo, innovar y hasta anticiparse a la gran mayoría, pero, por otro lado, esas cosas pasan desapercibidas en nuestro medio y ni siquiera son apreciadas en su dimensión real. Por lo pronto, nuestro accesorio siguió su curso, y dio lugar a múltiples trabajos útiles, ya publicados en el país y en el extranjero. Figura 18. Micrografía de una muestra de arcilla del subsuelo del Valle de México que muestra partículas arcillosas de baja cristalinidad. Son amorfas y siempre se encuentran en agregados de múltiples individuos y sin orientación preferencial. Las partículas más grandes son feldespatos, éstos sí, algo cristalinos. Aunque el dispositivo de carga y otros equipos complicados como el procesador de imágenes fueron desarrollados específicamente para este estudio, sus funciones son aplicables a una gama de problemas que rebasan la ingeniería y fisicoquímica de suelos, como los de la biología, la investigación médica y la metalurgia, entre otros. Como nuestro interés es conocer la relación entre el comportamiento de la microestructura de un material y las características que lo hacen útil para la ingeniería, no basta la mera observación, aun cuando ésta sea muy importante en la gran mayoría de las veces. Por tanto, nuestro trabajo va encaminado a saber lo que ocurre microscópicamente en los materiales mientras están siendo sometidos a fuerzas externas, y a medir los desplazamientos de las partículas. Por cierto, este proceso de generación de los medios técnicos de investigación científica, resulta ser el origen de buena parte de los descubrimientos más notables de la humanidad, y acompaña siempre al desarrollo del avance científico. En ocasiones, los logros colaterales, muchas veces casuales, son de tal magnitud, que bien pueden justificar solos los gastos de investigación de un país. Cada técnica de análisis da una información precisa, pero nunca completa; este hecho, lejos de desalentar a un investigador, debe motivarlo a buscar nuevos medios para adentrarse en los enigmas de la naturaleza. Uno de los medios alternos que incluimos en nuestra investigación fue la espectrofotometría infrarroja, que utilizamos para el análisis de las arcillas. El infrarrojo, decíamos, es la radiación que sigue más allá del rojo en el espectro electromagnético y que el ojo humano no ve. Al irradiar una muestra con infrarrojo, ésta absorbe selectivamente más o menos radiación, según el compuesto que tenga el material. Si contamos con un dispositivo optoelectrónico para medir la energía emitida o absorbida por la muestra, podemos obtener un espectro del material: es decir, una especie de firma característica, específica de cada compuesto, que nos permite compararlo y diferenciar materiales que no pueden distinguirse con otras técnicas. Con esta técnica, hallamos que, entre sus componentes, nuestro subsuelo contiene grasas de origen animal. La materia orgánica en descomposición se asentaba en el lecho del lago que hoy forma nuestro subsuelo y, como buen lago eutrófico, es decir, con mucha vida (los aztecas basaban buena parte de su alimentación proteínica en el pescado), estos desechos eran muy abundantes. Las grasas animales tardan muchos miles de años en degradarse totalmente, y ya que los suelos del Valle de México son de origen muy reciente, la presencia de las grasas y de ciertas sales da algunos estratos adicionales. Popularmente se da a una de esas propiedades el nombre de "jaboncillo", ya que, al tacto, algunos estratos se perciben como resbalosos. De esta nueva información surgieron preguntas, muchas de las cuales todavía no tienen repuesta, a saber: ¿cómo afecta la presencia de grasas y sales en solución las propiedades mecánicas del subsuelo?, ¿cuánto aumentan estos componentes la cohesión entre los elementos de la microestructura?, y también, ¿cuánto y cómo modifican las fuerzas de adsorción de agua, la tensión superficial y la viscosidad del líquido entre partículas? Las respuestas nos acercarían a poder explicar el comportamiento de las muestras de laboratorio, y quizá de todo el subsuelo. Para obtener esas respuestas fue necesario ampliar una vez más la investigación, incluyendo el uso de nuevos medios técnicos. Así como las últimas técnicas de que hablamos nos adentraron en el entendimiento de tan complejo material, en su momento también nos indujeron a averiguar sus propiedades más importantes. Por lo tanto, se buscaron y siguen buscándose otras técnicas instrumentales que abran caminos prometedores, como los nuevos tipos de microscopía en los que hemos depositado nuestras esperanzas. Además de los microscopios electrónicos que usamos para esta investigación, el avance de la técnica de microscopía más reciente nos presenta un novedoso e impresionante instrumento más: los microscopios túnel de barrido, que, para variar, son resultado de una búsqueda experimental dirigida a otros objetivos. Estos equipos han logrado imágenes de átomos y moléculas individuales y de sus vecinos. Con este nuevo microscopio nosotros podríamos determinar, entre miles de cosas más, cómo es la superficie de las partículas arcillosas del subsuelo, lo que nos serviría para entender lo que pasa entre dos partículas, cómo y cuánto se atraen o repelen, la fricción que existe entre ellas, y la repercusión de la presencia de la parte fluida: componente de la mayor importancia en nuestro subsuelo, tanto por su cantidad como por las sustancias que tiene disueltas La interacción entre los minerales y el agua que contienen es un tema de gran importancia. El agua se adhiere a la superficie mineral y se estructura o acomoda hasta formar capas monomoleculares. Las moléculas ejercen fuerzas de atracción que pueden ser enlaces de hidrógeno, uno de los tipos de unión más comunes entre las moléculas de agua. Los enlaces de hidrógeno se forman de manera espontánea, progresiva y a temperatura ambiente, generando un efecto colectivo que hace que los materiales como los minerales arcillosos o las cenizas volcánicas, se estructuren crecientemente, integrando sólidos, líquidos y sales en solución hasta formar un sólido algo gelatinoso con propiedades macroscópicas uniformes; o variando de estrato a estrato por efecto a su vez de los cambios en la mineralogía, el tamaño de los componentes sólidos, las sales y en la proporción de líquido. Después de saber lo que pasa entre dos partículas, el conocimiento se puede ampliar utilizando algunos de los conceptos teóricos de la mecánica probabilística, que darían forma a las observaciones realizadas con miles de partículas, actividad que no se podría realizar con medios como los manuales, debido a la gigantesca cantidad de datos en forma de fotografías o imágenes; de ahí la importancia teórico-práctica del microscopio computarizado creado para esta investigación. Los equipos que nos dan acceso a los detalles más recónditos de la naturaleza forman una estirpe fascinante. En cierta medida son extensiones de nuestros sentidos, y ampliaciones de la capacidad de cálculo y de representación. Los ojos, verdadera maravilla de la evolución natural, se agudizan hoy día aceleradamente por medio de los diversos tipos de microscopios, en especial los electrónicos. El alcance de las cámaras de fotografía y de sensores basados en las cámaras de televisión de nuevas tecnologías de semiconductores han aumentado la capacidad del ojo humano muchos cientos de veces. Respecto a la capacidad para distinguir objetos lejanos, tenemos el ejemplo de la astronomía con sus telescopios acoplados a sensores electrópticos que hacen posible que el hombre aprecie objetos tan lejanos, que primero sería necesario acostumbrarse a esas enormes distancias, para que siquiera nos signifiquen algo. Actualmente, el hombre puede apreciar, con la ayuda de dispositivos ópticos especiales, regiones del espectro antes invisibles a sus ojos: los rayos X en un fluoroscopio médico o, con un telescopio equipado con detectores optoelectrónicos especiales, podría "ver" el ultravioleta, como veremos más adelante. También, el ojo puede hoy tener una visión nocturna-térmica (véase la figura 19) con los equipos de visión infrarroja, que pueden detectar pequeñas variaciones de temperatura en circuitos electrónicos, cojinetes, maquinaria y transformadores, anticipando así fallas futuras y haciendo posible un mantenimiento preventivo. Más aún, la visión infrarroja, sobre la cual podría escribirse todo un volumen, se utiliza en el diagnóstico de tumores y problemas de circulación, pues detecta las diferencias leves de la temperatura de la piel asociadas con estas alteraciones. Además, los dispositivos infrarrojos se utilizan para visión nocturna por su capacidad para captar imágenes en completa oscuridad; como podemos imaginar fácilmente, estos sistemas surgieron para uso militar. Figura 19. Termogramas diversos. Los tonos grises y sus diferencias muestran la distribución de temperaturas en, por ejemplo, una casa, el cuerpo humano, un circuito electrónico y una aeronave. Y hablando del desarrollo tecnológico de instrumentos no podemos dejar de referirnos al dispositivo MEPSICRON, realizado por investigadores del Instituto de Astronomía de la UNAM, que es un aparato que sirve para visualizar imágenes en diversas bandas del espectro, que incluyen aparte del visible, el ultravioleta y los rayos X. Este dispositivo es uno de los avances tecnológicos recientes más notables en el país. A pesar de que fue hecho para realizar observaciones astronómicas, sus campos de aplicación rebasan con mucho el interés original y ponen a la investigación científica mexicana en un alto puesto en un campo donde no es fácil figurar. El MEPSICRON es un dispositivo para detectar radiación en cantidades muy reducidas, por ejemplo, puede detectar la llegada de hasta un solo fotón. Para el lector no familiarizado con la importancia de esta cifra, basta pensar que cuando nos encontramos en una habitación con una lámpara prendida, llegan a nuestro ojo 1023 (¡un uno seguido de 23 ceros!) fotones por segundo (véase A. M. Cetto, La luz). En otras palabras, este aparato es capaz de detectar pequeñísimas cantidades de radiación electromagnética, o sea que se puede utilizar para formar imágenes de objetos que se encuentran a las mayores distancias conocidas, en lo que hoy se describe como el límite del Universo. La capacidad del MEPSICRON para visualizar imágenes desde el espectro visible hasta los rayos X se debe a que puede detectar fotones de diferentes longitudes de onda. Los fotones, cosa nada fácil de describir con lenguaje común y corriente, son, digamos, los portadores de la radiación electromagnética, en su expresión más común, a la cual conocemos como luz. Cuando colocamos este dispositivo en el plano focal de un telescopio, plano donde las imágenes están afocadas, los fotones que reflejan los espejos del telescopio se dirigen a la superficie del MEPSICRON; al llegar ahí, se convierten en electrones después de atravesar una delgada película conocida como fotocátodo. A partir de ahí, los ahora electrones son multiplicados aprovechando un efecto físico conocido como "cascada", con el que cada electrón genera a su vez otros 100 millones de electrones, los cuales son acumulados por un colector de carga eléctrica en donde, además, se registra la posición en la que impactó el fotón original la superficie del detector. De esta manera, análoga a como lo hacen el ojo humano o las cámaras fotográficas, se forma una imagen, resultado de la colecta de los fotones provenientes del objeto que se observa. Quizá los detalles técnicos, que a muchos nos fascinan, no sean lo más interesante de este asunto, sino el hecho de que precisamente en nuestro país sea posible desarrollar un dispositivo con características que ya hubieran deseado investigadores de todos los países avanzados. Este es el tipo de circunstancia que alienta a los investigadores mexicanos a continuar sus búsquedas, a pesar de que muy poca gente en nuestro medio aprecia, valora, fomenta o da crédito al avance de la investigación en nuestro país, y particularmente en casos como éste en el que los resultados, en un principio, "solamente" repercuten en el avance de la tecnología instrumental para investigar. Además del ojo, el oído es otro de los detectores naturales sobre los que el desarrollo tecnológico ha incidido para aumentar notablemente su alcance y capacidad de discriminacíon. No sólo nos referimos a la posibilidad de fabricar micrófonos transmisores minúsculos que permiten a algunos escuchar, sin invitación, lo que ocurre en reuniones dentro de habitaciones a kilómetros de distancia; o los pequeños colectores parabólicos, del tamaño de un plato sopero, que apuntando a un lugar específico, permiten escuchar una conversación que ocurre a cientos de metros. Sin embargo, esto no es nada: la versión optoelectrónica de los aparatos de escucha puede aumentar la capacidad del oído hasta situaciones que de nuevo hacen sospechar la influencia de la ciencia ficción (que, por cierto, ha sido precursora de casi todos los inventos técnicos más importantes). Con equipos basados en láseres, es posible, por ejemplo, lanzar a grandes distancias rayos invisibles, en la banda infrarroja, que al apuntar hacia una ventana, a kilómetros de distancia, nos sirven para escuchar conversaciones; esta técnica utiliza la flexibilidad del vidrio de una ventana para que, actuando como membrana, haga el papel de un gran micrófono, y el láser es capaz de detectar las ínfimas vibraciones que provoca cualquier conversación sobre los cristales de la habitación. En el caso del olfato, podemos citar los diversos dispositivos capaces de percibir minúsculas cantidades de material tóxico en el aire o en un líquido. Con la serie de aparatos conocidos como espectrofotómetros, se pueden desarrollar sistemas de alarma que oportunamente avisen a los tripulantes de una nave espacial, por ejemplo, que los niveles de oxígeno se alejan de los requerimientos vitales. Esto se puede aplicar en muchas situaciones más, como en la detección de fugas de gas o petróleo en tuberías subterráneas ¡aun desde helicópteros! Sin embargo, en el caso del olfato, el desarrollo de la técnica no ha sobrepasado a la naturaleza, ya que las cantidades detectables por un buen sabueso siguen estando fuera del alcance de los más modernos instrumentos. Pero lo que sí no sabemos es cuánto va a durar esta ventaja. El tacto también ha alcanzado con el desarrollo tecnológico una sensibilidad extraordinaria, que hoy día se utiliza en la robótica. También son diversos los aparatos que sirven para determinar la textura, dureza, temperatura o grado de humedad de las cosas. Sólo unas líneas antes mencionábamos la capacidad de un láser para detectar cosas en movimiento, ya sea el vidrio de una ventana, la deformación del aspa de una turbina rotando a alta velocidad, y cientos de otros ejemplos, en que la vibración significa el reflejo de algún fenómeno mecánico cercano; movimientos y vibraciones que no se pueden detectar con el tacto o con la vista. Con un dispositivo llamado perfilómetro se puede evaluar la textura de una superficie con millones de veces más sensibilidad que con el tacto humano. Este aparato barre la superficie midiendo corrientes minúsculas que se establecen entre el perfilómetro y la superficie bajo estudio, y produce unas gráficas que nos muestran en forma amplificada las rugosidades de una superficie. Fue precisamente del perfilómetro de donde surgió la idea y la técnica básica para la invención del microscopio túnel de barrido, que, como decíamos, es capaz de representar en imágenes amplificadas la disposición de átomos adheridos o, como se dice en fisicoquímica, adsorbidos a un material. El tacto ha sido también mejorado con mucho por los equipos de termovisión, que detectan diferencias de temperatura un millón de veces menores que las que capta el tacto humano más experimentado. V . L A M I C R O G R A V E D A D M A T E R I A L E S Y L O S INTRODUCCIÓN EN LOS capítulos anteriores se han dado ejemplos del efecto que la gravedad y sobre todo su contraparte, la microgravedad, tienen en la instauración de propiedades durante la elaboración de los materiales. Aquí incursionaremos un poco más a fondo en las causas y efectos de la microgravedad tanto en los materiales como en los sistemas biológicos, ya que tales actividades tienen un futuro insospechado para la investigación básica y sus aplicaciones, por lo que se puede anticipar que serán campo atractivo y fértil. Es natural que muchos procesos tecnológicos utilicen los efectos de la gravedad para sus propios fines: la gravedad está siempre presente y es lo suficientemente constante para asistirnos en hechos tan simples como vaciar un camión de volteo, o usar el agua para generar electricidad, o para bajar mineros por el tiro de la mina. Pero la gravedad también actúa en contra de nuestros intereses en muchas situaciones, como cuando nos caemos o cuando nos cae algo en la cabeza, o al tener que usar electricidad para subir agua a un depósito, o al subir en un elevador. La gravedad es una propiedad de atracción, presente en las cosas que tienen masa; el hecho de que algo sea muy pesado, o masivo, implica necesariamente que sienta y ejerza notablemente fuerzas de gravedad. Suele ser más fácil visualizar este fenómeno en términos astronómicos, a saber: cuando algo tan masivo como el Sol está presente en un lugar del Universo, en su zona circundante se extiende un campo de fuerza que hace que todo objeto con masa lo perciba. Si éste es pequeño tiende a precipitarse hacia él. La única manera de evitar precipitarse hacia el Sol, estando dentro de su campo de atracción, es desplazarse a su alrededor a gran velocidad, como lo hacen los planetas y satélites. Veamos este ejemplo con algún detalle; el campo gravitacional del Sol, que como dijimos es resultado de su gran masa, hace sentir sus efectos de acuerdo con la distancia: de hecho, es proporcional al cuadrado de la distancia, así que mientras más cerca se esté del Sol, mucho más fuertes serán los efectos de este campo. Los planetas describen trayectorias casi circulares alrededor del Sol, es decir, se encuentran en la órbita solar. Mientras mayor sea la velocidad de un planeta (la Tierra viaja a 108 000 km/h), más lejos del Sol tendrá el planeta su órbita. No obstante, para cada cuerpo en órbita existe una velocidad llamada velocidad de escape, que es la velocidad a la que un satélite escapa del campo gravitacional de un cuerpo, y que se utiliza en la práctica para mandar, por ejemplo, sondas automáticas a otros cuerpos como la Luna y los planetas. Para nosotros, que estamos sobre la superficie de uno de estos planetas, la gravitación solar se manifiesta principalmente a través del calendario anual, que es una medida detallada de nuestra órbita solar. Pero, al ser la Tierra mucho más masiva que nosotros, nos atrae con una fuerza que depende de ambas masas (suya y nuestra), y que también, como en el caso de los planetas, depende de nuestra distancia de la superficie. A Kepler, con sus leyes, y años después a Newton, con la expresión matemática de esas leyes, debemos las explicaciones sobre los fenómenos que causa la gravedad. Pero sólo hasta nuestros días ha sido posible, como resultado del inicio de la conquista del cosmos, apreciar y visualizar la potenciación que tiene para la humanidad la ausencia de esta fuerza: el estado de imponderabilidad o microgravedad. En la Tierra, como era de esperarse, la gravedad participa y genera un sinnúmero de fenómenos como: las mareas del océano, la sedimentación de polvo en lagos, el mantener a la Luna en su órbita, o hacer que los ríos bajen al mar y que rueden las piedras cuesta abajo. Pero, en cambio, en un laboratorio, la gravedad es utilizada por su constancia como elemento de control y medición: por ejemplo, al sedimentar un material, al vaciar un líquido en un vaso de precipitado (de la gravedad viene que se precipiten las cosas), al pesar un objeto en una báscula (que sin gravedad no pesaría), y cuando se mezclan solos dos líquidos con diferente temperatura, como la leche y el café. En este y en todos los casos de convección térmica, cuando agregamos a un líquido frío una parte caliente, la caliente, por ser menos densa tiende a irse hacia arriba, a flotar, y la fría hacia abajo. Las corrientes que se forman con estos movimientos (llamadas corrientes convectivas) son causadas por la gravedad terrestre y, como están presentes en numerosos procesos de la vida diaria, desde el hogar hasta la industria, su estudio y comprensión tienen una gran importancia práctica. En cualquier caso, dentro y fuera del laboratorio, muchas veces nos estorba la gravedad, y ahí sí que tenemos un problema: quitarse la gravedad de encima (o de dentro), aunque sea por algunos segundos, resulta ser bastante complicado al punto que suele catalogársele de desafío o de mera locura. ¿Acaso los primeros aeronautas y pilotos no "desafiaban" la gravedad, y estaban, en opinión de muchos, catalogados como locos e intrépidos, temerarios o soñadores? Pero, ¿qué motivación sentían para atreverse a desafiarla?, y sobre todo, ¿qué inesperado e inimaginable resultado surgió a partir de esas primeras hazañas?: la conquista aeroespacial dio inicio con estos intrépidos. Por cierto que los intrépidos llevan muchos siglos soñando con desafiar la gravedad, y si tuviéramos que citar un solo ejemplo, indiscutiblemente tendríamos que hablar del ingenioso Dédalo, el mitológico ateniense. Dédalo puede ser considerado el prototipo del artista universal, el arquitecto y el más notable inventor de recursos mecánicos (antes que el histórico Da Vinci). Cuando este genio fue desterrado de Creta por el crimen de su sobrino y ayudante Talo, se refugió con el rey Minos, a quien rendía su agradecimiento con su talento, que incluía además el de ser escultor. Minos, por descuidar a la bella Pasifae, su esposa, tuvo que vivir con la afrenta de ver a su mujer dar a luz al Minotauro: fruto de los amores contra natura de Pasifae con un toro. Minotauro, si bien tenía un apuesto cuerpo humano, tenía una horrible cabeza de toro, y algunas mañas, como un formidable apetito, que lo hacía devorar siete jóvenes y siete doncellas cada año (otros dicen que tres veces por año). Para controlar a tan desmesurada criatura, Minos ordenó al ingenioso Dédalo construir el famoso Laberinto de Cnosos, donde encerraron al monstruo. Así estaban las cosas, cuando Dédalo cedió a los ruegos de Ariadna, hija de Minos, y le aconseja cómo salvar al último pasto de jovenzuelos, entre los que se encontraba su amado Teseo. Este penetra en el laberinto utilizando el viejo truco de atar un hilo a la entrada, y prosigue hasta encontrar al Minotauro, a quien da muerte, escapando vivo junto con la dieta, y de paso también con Ariadna. La fuga despierta tal ira en Minos, que encarcela al solícito Dédalo y a su hijo Ícaro dentro de la misma complicada obra que había construido para satisfacer al rey. Pacientemente, el avispado Dédalo, ayudado por Ícaro, fue coleccionando todas las plumas que dentro del laberinto caían, y con su tradicional destreza, fabricó con ellas, y con cera de los panales que ahí se instalaban, unas enormes alas, atando las plumas con lino, y pegándolas con cera; las alas se fijaban a los brazos de estos intrépidos por medio de correas de cuero. Un buen día subieron a la torre que dominaba el paisaje y se lanzaron al vacío, escapando del laberinto en lo que constituyó el primer desafío a la gravedad. No obstante el éxito inicial, el entusiasmo juvenil de Ícaro lo indujo a olvidar momentáneamente su propósito, y distrayéndose con el panorama de libertad y el canto de los pájaros, se remontó impetuoso a las alturas, contra las indicaciones de su propio padre, quien a gritos le advertía que el Sol derretiría la cera de sus alas; cosa que ocurrió, e Ícaro se precipitó al mar, y se ahogó, constituyéndose así en la víctima precursora de todos aquellos que después sucumbirían por su deseo de volar. La creación de Dédalo, junto con la aleccionadora muerte de Ícaro, inspiró a inventores como Da Vinci, que en el siglo XV descubrió los principios del aeroplano y el helicóptero. Se pueden citar otras muchas maneras de desafiar la gravedad, aunque casi todas son peligrosas, mortales, breves, o insuficientes para hacer algo útil. Podemos desafiarla brevemente por ejemplo lanzándonos al vacío —como Ícaro—, pero no viviríamos para contarlo. También dentro de un elevador con los cables rotos, experimentaríamos lo que es flotar verdaderamente, pero a la vez tendríamos una breve e irrepetible sensación. Más caro, pero más seguro, resulta hacerlo en un avión en caída libre, donde podríamos gozar verdaderamente durante unos 30 segundos, una y otra vez. Sin embargo, el pago puede ser excesivo para cualquier mortal, y demasiado breve para casi todo experimento de laboratorio. Así pues, los científicos experimentales tuvieron que esperar una nueva era, la era espacial, para percatarse de que la microgravedad abría nuevos y numerosos caminos, en los que podían dar rienda suelta a su imaginación, disponiendo de cuanta "ausencia" de gravedad desearan, aunque, por ser una actividad tan cara, queda uno obligado a hacer un uso eficiente del tiempo; es decir, los experimentos deben diseñarse y controlarse conforme a un detallado programa, que antes debe pasar con éxito un número apropiado de pruebas y evaluaciones críticas. Ahora veamos qué pasa con una nave que viaja en la órbita terrestre, comenzando con un ejemplo de la física clásica o de un juego de niños. Cuando atamos con una cuerda una masa, digamos una pelota, y le damos vueltas como a la honda de un pastor, podemos sentir que mientras más rápido gira alrededor de la mano, con más fuerza nos jala. Esta fuerza, llamada centrífuga (que se fuga del centro), depende directamente de la velocidad del giro. Al girar la pelota describe un círculo, una órbita, que tiene como radio el largo de la cuerda. Una nave en órbita también tiene una fuerza que la mantiene dando vueltas, pero es una fuerza invisible, no como la cuerda: es la gravedad. Pero el hecho de que esta fuerza sea invisible no le quita sus propiedades de fuerza, es decir, el causar efectos en las cosas: el que dude de la existencia de fuerzas invisibles, recuerde su última caída al suelo. Ahora bien, para colocar una carga útil en órbita, hay que acelerarla con un cohete, primero verticalmente para abandonar la atmósfera, aunque ya durante el ascenso el cohete se irá inclinando progresivamente para acelerar el vuelo también en sentido horizontal, hasta alcanzar velocidad orbital, que varía según la altura: para una órbita de 300 km de altura, por ejemplo, la velocidad circular es de cerca de 7.8 km/s (más de 28 000 km/h). Estas velocidades no se pueden alcanzar dentro de la atmósfera por la fricción del aire, que mientras más rápido fluye alrededor de algo, produce efectos más destructivos. Para alcanzar estas velocidades, es común que los propulsores y combustible de una nave espacial pesen de 10 a 15 veces más que su carga útil. Desde el punto de vista de la mecánica, una nave espacial en órbita es un ejemplo del equilibrio de dos fuerzas: la fuerza de gravedad, por un lado (que en órbita a 300 km de altura sigue teniendo un valor de cerca de 80% del que tiene sobre la superficie terrestre) y por otro, la fuerza centrífuga, que, en ejemplo de la cuerda y la pelota es la fuerza que sentimos en la mano y que aumenta o disminuye según la velocidad a la que gire la pelota, o en este caso, la nave que viaja alrededor de la Tierra. Un tripulante adentro de una nave espacial no percibe la gran velocidad a la que viaja pues fuera de la atmósfera, sin aire, la nave no tiene fricción, por lo que no se manifiestan los indicadores habituales de velocidad: la vibración y el ruido. Tampoco percibe la atracción de la gravedad, ya que se contrarresta por el efecto de la velocidad circular, así que todo dentro de la nave flota, o, dicho de otra manera, en ella se instala la condición de imponderabilidad. Resumiendo: la única manera de "desafiar" la gravedad es, o en caída libre por periodos cortos, o en órbita, donde esto puede ser una condición permanente. Como se mencionó anteriormente, un avión en caída libre permite cerca de 30 segundos de microgravedad continua, y cierta parte de los experimentos que se van a realizar en órbita se ensayan primero en una serie de vuelos parabólicos. Estos vuelos se realizan generalmente en aviones grandes, equipados con motores particularmente potentes, y que describen trayectorias de forma parabólica, como la que sigue una piedra lanzada hacia arriba. Los aviones de entrenamiento en microgravedad suben con una inclinación de 45 grados y, súbitamente, invierten la trayectoria para bajar también a 45 grados: con esta operación los tripulantes son acelerados primero hacia arriba, y después caen libremente junto con el avión, aun cuando su sensación no es la de caer, sino la de flotar dentro de la cabina; ésta es la situación donde mejor se simula la microgravedad espacial sin estar en el espacio, pero con la importante diferencia de que ocurre por periodos breves, e interrumpidos periódicamente. Es evidente que entre cada trayectoria parabólica el avión tiene que recuperar altura, por lo que frena la caída con un cambio de trayectoria, esta vez hacia arriba. En esta última operación los tripulantes se pegan al piso con gran fuerza; en la práctica, esta fuerza equivale a dos veces la fuerza de la gravedad: 2 g (en términos más técnicos la gravedad se simboliza con la letra g). De hecho todos hemos experimentado una situación similar al subirnos a un elevador o a los juegos mecánicos de una feria: cuando subimos nos sentimos más pesados, pero si bajamos súbitamente tenemos una cierta sensación (sobre todo en el estómago) de flotar. La única diferencia con el caso del avión es que en éste el fenómeno dura más. Algunas de las sensaciones de la microgravedad se pueden experimentar también en piscinas, donde las personas y los materiales han sido previamente balanceados con cámaras de aire para que tengan una flotación neutra, aquella condición en la que los cuerpos no tienden ni a subir ni a caer al fondo de la piscina. No obstante, la diferencia aquí entre la flotación en la piscina y la del espacio es, por un lado, la fricción del cuerpo en movimiento dentro del agua, ausente en el espacio, dado el vacío, y que produce efectos algo diferentes de los del estado en órbita; por otro lado, también el hecho de que la persona dentro de la piscina no flota dentro del espacioso y rígido traje espacial, y durante el entrenamiento en la piscina lo llega a cansar y a molestar. Otra diferencia es que si se coloca con el traje con los pies hacia arriba, la sangre se le acumula en la cabeza, cosa que no ocurre en órbita, donde hasta puede dormir con cualquier orientación. Volvemos, pues, a lo mismo: sólo en órbita y brevemente en la caída libre se da el estado de imponderabilidad. Una vez en órbita, las principales fuerzas a bordo son las provenientes de los motores de ajuste de órbita, aquellas que provienen de las pequeñas variaciones del valor de la gravedad en los diferentes lugares que sobrevuela, y aquellas provocadas directamente por la tripulación al usar las paredes de la nave para impulsarse de un lugar a otro. En los experimentos de microgravedad, en una nave espacial se tienen que vigilar todos los detalles: en ocasiones es necesario esperar a que la tripulación duerma, para evitar así las pequeñas fuerzas que provocan con su actividad en la cabina, pues en general, las fuerzas causadas por el movimiento de los astronautas son mil veces mayores que las del ambiente "natural" estando en órbita, y alcanzan el orden de milésimas de gravedad, o sea "miligravedad", diferente de la microgravedad, que sería sólo la millonésima parte. Trataremos de presentar a continuación los efectos microgravedad por áreas de interés o disciplinas beneficiadas. de la EL LABORATORIO BIOMÉDICO Entre los experimentos biomédicos, pocas cosas se encuentran en la vida tan interesantes como las investigaciones sobre el cerebro. Y con el cerebro, aquello que le da vida y sentido: la interpretación atinada y el funcionamiento adecuado ante la realidad. Estando en condiciones de microgravedad, el cerebro pierde parte de la información sobre su entorno; sencillamente pierde el sentido de orientación. Para orientarse, todo animal cuenta con receptores que le indican dónde está el piso La visión, la presión en los pies, la dirección en la que cuelgan sus brazos, etc., todos estos medios nos informan dónde se encuentra el piso, pero además, en la parte interna del oído, los animales cuentan con una de las tantas maravillas de la evolución: el sistema vestibular (aquí abreviado como "SV"). Este sistema es el equivalente natural de los sistemas electroópticos con los que cuentan los aviones y naves espaciales para determinar su orientación y dirección de vuelo. El SV cuenta con receptores de movimiento y aceleración en tres direcciones: hacia adelante y atrás, los lados, y hacia arriba y abajo. Con esos receptores se es capaz de detectar movimientos y cambios en el movimiento, y poner tal información a disposición del cerebro para que responda acorde con la voluntad o con los reflejos condicionados, como en el caso de las caídas. Para percibir la rotación de la cabeza, el SV utiliza los llamados "conductos semicirculares" (véase la figura 20), que tienen una compuerta hermética que interrumpe el paso del líquido que los llena. Al rotar estos conductos en su plano, como una llanta de auto, se pone en movimiento el líquido que contienen, y con ello se presiona y deforma la compuerta, provista de receptores que detectan este efecto. Según el movimiento es la deformación de la compuerta, y así influye o modula las señales eléctricas que mandan los receptores a diversas estructuras del cerebro. Para detectar movimiento rotatorio o aceleraciones en los tres planos (frontal, sagital y transversal) existe un conducto para cada plano, es decir, cada oído tiene tres conductos semicirculares para la detección de rotación. Por ejemplo, al rotar la cabeza para seguir el movimiento de un tren en el horizonte, los conductos horizontales detectan este movimiento de la cabeza y contrarrestan de manera muy precisa la posición de los ojos respecto a la cabeza, de tal forma que los ojos no pierden su objetivo. De hecho, el sistema vestibular anticipa la posición de un objeto seguido por los ojos por medio de pequeños saltos llamados nistagmo. Y aquí encontramos una de las conexiones más importantes del SV con los centros que controlan la tensión de los músculos de los ojos, y que, a su vez, determinan la dirección de la línea visual. En ingeniería a este tipo de sistema se le llama sistema de "control adaptivo", es decir, que va anticipando la posición del objeto, para que su imagen (la del tren en movimiento) se combine con la información visual que se envía al cerebro, y así compensar con precisión la posición de la cabeza y los ojos, sin que el objetivo escape del campo visual. Figura 20. Esquema funcional y anatómico de los conductos semicirculares y otolitos. Como hay un sistema idéntico en cada oído, todas las funciones se realizan por duplicado, con lo que se reduce el error del funcionamiento y se aumenta la fiabilidad del SV. Esta duplicidad de funciones lleva a ejemplificar una de las características principales del cerebro: su redundancia o, en otras palabras, su habilidad de no perder su capacidad de funcionar aunque parte de sus funciones se pierdan; aun con la pérdida de un sector de receptores, el cerebro aprende de nuevo a funcionar normalmente con la otra parte. Ahora bien, los conductos semicirculares del oído interno son los detectores de la rotación, pero también el SV cuenta con sensores de movimiento y aceleración lineal, como la que percibimos al acelerar o frenar un vehículo, y al caer. Para la detección de movimiento lineal existe otra estructura anatómica, también duplicada, cuyos componentes se llaman mácula y sáculo, que son dos cavidades con forma de globulitos, que en su interior tienen una masa gelatinosa provista de una especie de incrustaciones calcáreas, llamadas otolitos, que las hacen más pesadas que el medio que las circunda y que a su vez están sostenidas por unas células ciliares (esbeltas como columnas), que son sensibles al alargamiento o tensión (véase la figura 21). Cuando la cabeza se pone en movimiento, los otolitos tienden a quedarse atrás por ser más pesados y con ello, a alargar las células ciliares, que, como en el caso de la compuerta de los conductos semicirculares, modifican sus señales eléctricas para informar al cerebro sobre la presencia de la intensidad y dirección del movimiento. Una de estas cavidades tiene entre sus funciones detectar la dirección en la que se encuentra el piso, es decir, la gravedad. También detecta vibraciones y cadencias, como cuando caminamos o bailamos. Un estudio encaminado a comprender la capacidad de los otolitos para detectar diferentes frecuencias de vibración encontró que los bailes folclóricos de muy diversas culturas comparten frecuencias (o ritmos) casi idénticos (2.06 Hz ±0.02); en otro trabajo también se descubrió que la gran mayoría de las madres mecen a sus bebés con frecuencias de 4 Hz, lo que nos indica que existen frecuencias idóneas a las que casi todos preferimos bailar, o dormir bebés, y que naturalmente coinciden con la capacidad de percepción más favorable de las estructuras anatómicas del SV; estructuras que, por cierto, el proceso de evolución fue afinando en el curso de millones de años, hasta alcanzar su actual grado de adaptación al medio ambiente y a los movimientos naturales de cada organismo. Figura 21. Esquema de los otolitos. Este sistema es lo que hace posible que los seres vivos se orienten y se desplacen hábilmente en el espacio tridimensional en el que se dio su proceso de evolución. Sin embargo, cuando el humano abandona en sólo un par de generaciones su entorno y actividad natural (correr, caminar, brincar y cambiar de posición) para adentrarse en nuevas actividades de movimiento y aceleración, como los vuelos, acrobacias y, más recientemente, el estado de imponderabilidad en órbita, se enfrenta a condiciones totalmente nuevas, donde la evolución no ha contribuido con su adaptación y perfeccionamiento. Por lo tanto, el hombre no puede funcionar ni adaptarse tan pronto a estas nuevas actividades. Las serias limitantes del organismo en este sentido requieren de estudios multidisciplinarios para, por ejemplo, esclarecer cómo proceder y planear el trabajo en órbita. El SV en órbita se encuentra en condiciones en las que carece de experiencia. Por una parte, los otolitos están acostumbrados a que las células columnares los soporten, y ahora éstas no los soportan, pues en órbita las cosas no pesan, y por lo tanto los otolitos también flotan, por lo que no funcionan como normalmente lo hacen. Al no pesar, sus movimientos se vuelven erráticos, y mandan señales conflictivas a los centros de interpretación de este tipo de datos en el cerebro. La consecuencia directa de esta situación es la desorientación del organismo en el entorno de microgravedad, que va además acompañada de varios síntomas poco agradables: mareo, falta de coordinación de los movimientos, vómito, y desconcierto general, entre otros, al grado de que prácticamente inutilizan a la persona que, en algunos casos, llega a requerir de medicamentos y atenciones de miembros más afortunados de la tripulación. Hasta la fecha, no se sabe cómo remediar los efectos del ahora conocido como síndrome de adaptación espacial a pesar de los esfuerzos de los investigadores. En las primeras décadas de vuelo espacial, existía la confianza de que el problema se podría resolver en poco tiempo, pero la naturaleza, siempre ajena a los optimistas programas de investigación, se encargaría de informarnos que los aspectos funcionales del cerebro no son presa fácil ni comparten nuestra pretenciosa prisa. Así las cosas, la actividad espacial tripulada plantea toda una gama de nuevos retos biomédicos. De hecho, el síndrome de adaptación se manifiesta en un sistema tan complejo, que los científicos dedicados al tema sólo han comenzado apenas a conocer las magnitudes del reto. Sin duda se han realizado numerosos estudios médicos sobre este síndrome; pocos vuelos, tal vez ninguno, se dan sin el seguimiento médico continuo, y en la mayoría se realiza algún estudio, entre los que destacan los relacionados con el sistema cardiovascular, el metabolismo, la actividad de los fármacos; todo como parte del estudio del síndrome de adaptación. Quizá el lector se sorprenda al saber que este último incapacita drásticamente a más del 40% de las tripulaciones de uno a tres días, independientemente de los antecedentes y experiencia previa; puede afectar tanto a experimentados pilotos de prueba, como dejar tranquilos y gozosos a neófitos que pasaron criterios médicos menos estrictos de selección. El problema más serio del síndrome de adaptación espacial radica en la complejidad y extensión de las ramificaciones provenientes del sistema vestibular. Hemos mencionado brevemente su conexión con los músculos óculomotores, y las extremidades; sin embargo, como suele suceder, el panorama es mucho más complicado de lo que percibimos a primera vista, y a pesar de que en este problema se han invertido millones de dólares (y seguramente de rublos también), nuestros medios técnicos de investigación tendrán que desarrollarse mucho más para arrancar sus secretos a la materia más complicada y organizada que conocemos en el Universo: el cerebro. Profundicemos un poco más. El SV se comunica hacia el cerebro a través de un haz de fibras (o nervios) que acompaña a las que vienen del oído, su estructura adyacente; ya antes las terminales de los conductos semicirculares y los de los otolitos se juntan en unos ganglios, donde al parecer ocurre un cierto grado de acondicionamiento de las señales eléctricas. Al cerebro llegan por la zona llamada puente, donde se encuentran los núcleos vestibulares, que son centros de procesamiento y redistribución de fibras nerviosas hacia otras estructuras. De estos núcleos se proyectan fibras hacia varios lugares: a la corteza cerebral, en sus regiones visual y motora, hacia el cerebelo (el "Gran No" o inhibidor del Sistema Nervioso Central), hacia los núcleos óculomotores (que controlan los músculos de los ojos), y en forma indirecta hacia algunos órganos internos (como el estómago, los intestinos y el hígado), y hacia diversos músculos, llamados antigravitatorios, que poseen una doble función: la de compensar las caídas, como cuando encontramos un escalón inesperado en el piso, y la de mantener la verticalidad, aun cuando nos falta la información visual, como en un cuarto totalmente oscuro. Las proyecciones del SV están, según apuntan los especialistas, pródigamente presentes en todo el cuerpo, por lo que entender su funcionamiento es, y seguirá siéndolo por varias décadas, un tema abierto a la continua investigación científica. En 1983, a bordo del laboratorio espacial "DI", diseñado por la Agencia Espacial Alemana (DFVLR), y puesto en órbita por el transbordador estadunidense, se realizó un estudio a cargo del agradable profesor Von Baumgarten, de la Universidad de Maguncia, sobre el nistagmo calórico. El nistagmo, como decíamos, es el movimiento súbito o salto de los ojos que provocan los músculos oculares al seguir visualmente un objeto en movimiento; ahora bien, el nistagmo calórico es la producción artificial de estos saltos oculares por medio de cambios de temperatura en el tímpano con agua caliente (44º C), procedimiento utilizado, desde principios de siglo en la medicina clínica para diagnosticar alteraciones del estado neurológico de un paciente. En la primera década de nuestro siglo, el médico húngaro R. Bárány presentó la hipótesis de que el nistagmo calórico era resultado directo de corrientes convectivas térmicas que inducen el movimiento de los otolitos y las ámpulas de los conductos semicirculares. Estos cambios de temperatura que provocan el nistagmo y la sensación de movimiento, a pesar de que la cabeza esté totalmente fija, fueron un descubrimiento suficientemente importante, por lo que se le otorgó el premio Nobel en 1914. Pero en la ciencia todo puede cambiar. En la misión del laboratorio Dl se demostró, por medio de un casco que inyectaba aire caliente o frío al oído interno, que el nistagmo calórico ¡también se presenta en ausencia de gravedad! Si las corrientes convectivas son causadas por la presencia de la gravedad, la hipótesis del nistagmo calórico de Bárány quedó, si no totalmente refutada, cuando menos puesta en duda después del experimento espacial. Actualmente, muchos grupos de investigación se han abocado a estudiar esta paradoja, que pone en duda una de las "verdades" básicas del tema. Entre los experimentos más importantes realizados en órbita hasta la fecha, seguramente debemos mencionar los recientes trabajos llevados a cabo en la cápsula Cosmos 1887, tripulada solamente por animales, y donde se condujeron automáticamente decenas de experimentos elaborados por científicos de más de 50 centros de investigación en todo el mundo. A la par que los científicos soviéticos, en el diseño de esta misión participaron sus colegas de EUA, Francia y otra docena de países; cabe destacar que por ello éste fue un ejemplo racional del tipo de programas que deben dominar en el futuro de la investigación espacial. Entre lo más notable de estos experimentos destaca la presencia de dos pequeños simios, preparados con implantes cerebrales para estudiar las señales vestibulares durante el periodo de adaptación espacial. Por primera vez fue posible registrar señales eléctricas del SV en un primate, vecino evolutivo del humano (aunque usted no lo crea), en condiciones orbitales. Cabe anotar aquí que no es posible hacer tales experimentos con seres humanos, pues la implantación de electrodos en las partes profundas del cerebro, donde están los centros de proceso del SV, conlleva un grave peligro de infección. Sin embargo, los datos neurofisiológicos de los simios cosmonautas son primordiales para el futuro de los vuelos de larga duración tripulados, sobre todo para la comprensión de los fenómenos que ocurren al hombre durante su adaptación en los primeros días en el espacio. Un aspecto curioso del síndrome de adaptación espacial son los efectos posteriores, cuando los cosmonautas regresan a la Tierra: la falta de información visual los hacía perder el equilibrio en un cuarto oscuro, pero también durante varios meses después del vuelo, los astronautas quedaron exentos de todo tipo de mareos terrestres. Otros hechos biomédicos interesantes estudiados en órbita son los relacionados con la pérdida de calcio de los huesos. Los huesos son estructuras que responden activamente a las demandas del organismo y como otras estructuras anatómicas, se atrofian cuando no se utilizan. Al flotar dentro de la nave, las piernas carecen de función; y aunque se utilizan para impulsarse de un lugar a otro, la fuerza requerida es mínima: una persona puede proyectarse hasta el otro extremo de la nave con un solo dedo. A partir de los primeros días en órbita, el organismo resiente la falta de uso de buena parte del esqueleto. Varios de los estudios a bordo están precisamente orientados a determinar qué pasa con el calcio que forma parte de los huesos (cuya pérdida alcanza hasta un 10% del total). Para establecer la vía de pérdida de calcio, se analizan los desechos del organismo durante el vuelo y posteriormente la disminución de la masa ósea. Durante todo el vuelo se programan periodos de ejercicio como medida preventiva, que se van aumentando hasta el día del aterrizaje. El ejercicio para las piernas se realiza con una bicicleta fija, o sujetando con unas bandas elásticas la cintura al piso; después el astronauta "corre" sobre una banda móvil; así los huesos largos de las piernas recuperan gradualmente su resistencia y musculatura, así como sus niveles normales de calcio. La columna vertebral pierde parte de su función también, pues en el espacio no soporta el peso al que está acostumbrada, y por lo tanto, los discos que separan las vértebras se dilatan unos milímetros, pero como son tantas, las personas "crecen" en algunos casos hasta cinco centímetros, además, la columna pierde su curvatura, que carece de sentido al no tener que ejercer la capacidad de carga como lo hace en la Tierra. Uno de los cambios reconocidos desde los primeros vuelos se refiere a la relocalización de los fluidos corporales. En la Tierra, el organismo compensa la tendencia de la gravedad a acumular abajo los fluidos corporales (sangre, suero y agua) por medio de la presión de las venas y el juego de ciertas válvulas localizadas en piernas y tronco; sin embargo, en el estado de microgravedad, este reflejo continúa durante un tiempo, causando la migración de fluidos hacia las partes superiores del organismo, y provocando con esto la hinchazón de tórax y cara que se observa en los cosmonautas. Para evitar una reacción opuesta al reincorporarse a la gravedad, los tripulantes de las naves espaciales, poco antes de su regreso, se colocan un traje especial que oprime las piernas para mantener suficiente presión sanguínea en la parte superior del cuerpo y evitar así mareos y desmayos por falta de irrigación cerebral. Resumiendo: el organismo sufre toda una serie de alteraciones durante el vuelo espacial: pérdida de orientación —a la que sigue generalmente un periodo de adaptación—, pérdida de calcio, relocalización de fluidos, desadaptación a los ciclos normales díanoche, exposición a radiación, debilitamiento de los músculos antigravitatorios, crecimiento de la columna vertebral y pérdida de su curvatura. En estos temas, la URSS posee ciertas ventajas sobre su contraparte estadunidense, ya que no sólo tienen casi el triple de horas/hombre en el espacio, sino que sus vuelos han durado hasta 4.5 veces más tiempo. Como anécdota, cabe referir un hecho curioso: anticipándose a los informes médicos soviéticos, uno de los más destacados médicos de la NASA se refirió a los serios problemas de readaptación a la gravedad que supuestamente iba a sufrir Romanenko con su regreso a la Tierra, después de 326 días seguidos en órbita, entre ellos: dificultad para caminar, estar de pie, orientación en la oscuridad, etc. Como única respuesta a sus muy desatinadas estimaciones, los soviéticos mostraron a Romanenko frente a las cámaras haciendo una serie de piruetas. Posteriormente, la recuperación de Titov y Manarov, quienes pasaron poco más de un año en órbita, también fortalece la confianza establecida, aunque según Titov, la permanencia "ideal" es de seis meses. La lección que de aquí se puede recibir es que cada organismo reacciona de manera diferente durante su adaptación al espacio y su readaptación a la Tierra, y que todavía nos falta mucho por comprender en este campo. Algunos médicos soviéticos dicen que con estos vuelos de Romanenko, Titov y Manarov se puede ya visualizar claramente el viaje tripulado a Marte. En conclusión, éste es un campo muy dinámico, que se enriquece cada día, especialmente ahora, con la presencia casi continua de cosmonautas a bordo de estaciones orbitales. TENSIÓN SUPERFICIAL El comportamiento de los fluidos en microgravedad ha resultado ser uno de los campos de mayor interés, debido principalmente a que se han observado fenómenos inesperados. Elaboremos el tema comenzando con la tensión superficial de los líquidos. Ésta es una propiedad fundamental de los líquidos, cuya manifestación más conocida es la forma de una gota de agua: esférica cuando cae o cuando flota en una nave espacial, pero semiesférica cuando se pega a un sólido, un vidrio por ejemplo, donde surgen otras fuerzas de contacto. No es ni obvio ni fácil de explicar en términos sencillos por qué es de esta forma, pero intentémoslo, ya que en parte de esto depende el entender las ventajas de experimentos con fluidos en microgravedad. Las moléculas de agua en una gota, muchos millones de ellas, interaccionan por medio de las llamadas fuerzas moleculares generando una presión interna que las obliga, jalándolas, a mantenerse lo más juntas posible, lo que en un líquido se manifiesta en la forma de una gota. La forma esférica es efecto de la tensión superficial, que a su vez es afectada de manera compleja por la polaridad de las moléculas, digamos, la molécula de agua (H2O), formada por un átomo de oxígeno y dos de hidrógeno, forma un dipolo eléctrico, es decir, en un extremo es positiva y negativa en el otro (véase la figura 22). Mientras más intensa sea la polaridad molecular, los líquidos tendrán más presión interna que los lleva a mantenerse juntos. En el caso del agua, la presión interna es muy alta (de 14 800 atmósferas) y por tanto sus moléculas están tan juntas que provoca, por ejemplo, que los líquidos sean muy poco propicios a la compresión. En la superficie de una gota de líquido, las fuerzas de tensión se alinean con la forma de la superficie y tratan de hacerla lo más reducida posible: de ahí que tomen la forma de una esfera, que representa la menor superficie posible de un volumen, sin importar el tipo de líquido (agua, jugo de naranja, alcohol, o un metal fundido). En tierra no es tan común percatarse de este hecho fundamental, pues generalmente las gotas de agua, o caen muy rápido como para observar su forma con precisión, o las vemos pegadas a un sólido, con lo que sólo vemos parte de una esfera o elipse. Con mercurio, que tiene casi seis veces más tensión superficial que el agua, sí alcanzamos a ver la forma esférica de gotas chicas cuando ruedan, pero también podemos observar que se achatan para formar cuerpos elipsoidales por la acción de la siempre presente gravedad. Figura 22. (a) Moléculas de agua absorbidas a una superficie. (b) La distribución de carga en la molécula forma un dipolo que se orienta en un campo eléctrico. COLISIONES ENTRE ESFERAS DE AGUA Y METAL Analicemos ahora el resultado de un curioso experimento espacial, donde se observan hechos todavía por explicar, para que quizá algún ingenioso lector proponga una explicación correcta y completa. Un típico experimento de microgravedad, que sólo puede hacerse en órbita, fue financiado por el periódico japonés Asahi Shimbun, uno de los de más tiraje en Japón. El propósito del periódico era simplemente despertar el interés de los niños japoneses respecto a actividades espaciales, ya que su país ha incursionado decididamente en el tema, y desde ahora orienta y motiva responsablemente la mente siempre inquieta de los niños, futuros científicos espaciales. Pero resultó tan novedoso el producto del experimento, que destacados físicos japoneses trataron, hasta donde sabemos sin éxito, de explicar los curiosos hechos observados. La idea que motivó el experimento es bastante sencilla: se trataba de observar y explicar el fenómeno de la colisión entre dos esferas, una grande, líquida, de agua, y otra pequeña, de acero. Un cañón dispara las esferas de metal, una a una, a diferentes velocidades, contra la de agua, que se forma espontáneamente en la microgravedad por efecto de la tensión superficial. La esfera de agua se encuentra sobre un pedestal mientras es observada por una cámara (véase la figura 23). La esfera de metal choca contra la de agua cerca del centro y, para sorpresa de todos, se adhiere con fuerza a esta última, penetrando hasta cerca de la mitad de su diámetro, quedándose, por decirlo así, en órbita, capturada permanentemente por fuerzas de atracción entre las dos. En la misma figura, se observa una fotografía de la esfera de metal metida a la mitad. Cuando se aumentó la velocidad del impacto, los hechos se repetían, hasta que la velocidad fue suficiente (cerca de 1 500 mm/s) para que la metálica atravesara, no sin dificultad, a la esfera de agua. (a) i) ii ) iii ) (b) Figura 23. (a) Esquema del dispositivo espacial para el estudio de colisiones entre esferas. (b) Fotografía del proceso de colisión, en condiciones de microgravedad, entre una esfera de agua y una de metal. i)Antes de la colisión; ii) la esfera de metal deforma la de agua sin penetrar; iii) ya en equilibrio la esfera de metal que parcialmente incluida en la de agua y girando a su alrededor como "en órbita". El fenómeno fue observado por primera vez en microgravedad . Sus efectos han atraído la atención de físicos nucleares por sus características, que son formalmente análogas a fenómenos nucleares. Tratando de dilucidar este fenómeno, recordemos algunos hechos acerca de la interacción entre agua y sólidos, por ejemplo: 1) el mojado de la superficie de un sólido es un proceso selectivo que depende del tipo de sólido y de líquido; 2) el ángulo que forma la frontera sólido-líquido depende de la intensidad de las fuerzas moleculares entre los dos y de las fuerzas intermoleculares del líquido, pero como hay gas alrededor de la esfera de metal, la interfase adicional sólido-gas participa en el balance de las fuerzas (por cierto, en el experimento espacial, están todas en equilibrio, ya que la esfera de metal se queda parcialmente dentro de la de agua de manera permanente). En pocas palabras, el fenómeno sencillo que observamos resulta en realidad de una compleja interacción física entre los tres medios: el agua, el gas (nitrógeno) que rodea las esferas, y probablemente el tipo y rugosidad del metal de la esfera impactora. En principio, parece fácil explicar lo observado; sin embargo, al adentrarnos en los posibles mecanismos que dominaron tal resultado vemos que el fenómeno empieza a complicarse; para explicar el fenómeno tienen una gran ventaja los fisicoquímicos que conocen de los procesos de interacción entre materiales, pues saben mucho de factores como absorción, mojado, adhesión y otros eslabones de una cadena que se va complicando con rapidez hasta adentrarse en temas tan fascinantes y laberínticos como la mecánica cuántica. Quizá la moraleja más importante para nosotros, después de saber del experimento de la colisión de esferas, es que tengamos en cuenta que, como en el caso de una pregunta tan sencilla como por qué el cielo es azul, la naturaleza se nos revela como bastante complicada, y que rara vez evidencia sus secretos para permitirnos dar explicaciones sencillas o directas. Asimismo, podemos percatarnos de que las condiciones de microgravedad abren camino a nuevos y poderosos experimentos para entender un poco más acerca de los intrincados fenómenos de la tensión superficial. MATERIALES BIOLÓGICOS EN MICROGRAVEDAD Una de las aplicaciones biomédicas más importantes relacionadas con el procesamiento de materiales en condiciones de microgravedad, es la purificación o separación de moléculas bioquímicas y otras partículas por medio de la técnica de electroforesis. Esta técnica aprovecha la diferente migración de partículas cargadas eléctricamente dentro de un fluido, que es provocada por un campo eléctrico. Estudios recientes han demostrado la posibilidad de producir sustancias activas cuatro veces más puras en la órbita terrestre, a la vez de que el tiempo para purificarlas es siete veces menor que en los laboratorios terrestres. Hasta el momento, las investigaciones se han orientado a la producción de medicamentos y sustancias de alto valor agregado, como el alfa-l-timosín y el interferón, fármacos que se utilizan en la lucha contra el cáncer y hoy día contra el SIDA. La eficiencia de los equipos en órbita se debe de nuevo a la ausencia del transporte convectivo causado por las fuerzas de flotación y sedimentación que, en general, causan desplazamientos cientos de veces mayores que la migración provocada por campos eléctricos, así que en tierra este proceso no es muy eficiente, si lo comparamos con su versión espacial. Para comprender la electroforesis, es necesario recordar que muchas biomoléculas, como las enzimas y las hormonas, poseen una distribución asimétrica de carga eléctrica, es decir, que la forma en que se reparten las cargas eléctricas es distinta de una región a otra debido a la presencia de los llamados macroiones. Al establecer una tensión eléctrica entre dos electródos, como las baterías, inmersos en la solución que contiene las sustancias, algunas moléculas, debido a su carga, se irán hacia uno de los electrodos, mientras que otras serán atraídas al contrario. Sometiendo parte de la solución cercana a cualquiera de los electrodos a un nuevo campo eléctrico, y realizando esta operación en repetidas ocasiones, el material más cercano al último electrodo será de una mayor concentración o pureza, ya que en cada paso sucesivo se han ido atrayendo moléculas del signo contrario al del electrodo, hasta lograr la separación o purificación de alguna molécula o mineral en particular, que sea de nuestro interés. El efecto de la separación se logra no sólo por el campo eléctrico, sino por la velocidad que cada molécula tiene en su camino hacia uno de los electrodos, lo que domina además el proceso de purificación. Pueden existir muchas moléculas con distribuciones de carga similares, pero no todas ellas viajarán a la misma velocidad, hecho que se debe a varios factores, entre los cuales uno de los más importantes es la forma. La forma de un objeto determina la velocidad a la que puede movilizarse dentro de un fluido bajo el efecto de una fuerza dada, en el que todas las moléculas están afectadas por la aplicación del campo eléctrico. Resulta ilustrativo conocer un hecho reciente en relación con las actividades farmacéuticas en órbita. Una empresa estadunidense ha firmado un acuerdo con los organismos espaciales de la Unión Soviética, para llevar a cabo experimentos farmacéuticos en la estación espacial permanente Mir. Esta empresa privada solicitó los servicios soviéticos debido a que los EUA carecen de una estación orbital propia (probablemente tarden cerca de 10 años en establecerla). Los experimentos consisten en provocar y observar el crecimiento de proteínas cristalizadas, ya que sólo con proteínas en estado sólido y cristalizado se pueden estudiar con precisión las secuencias de aminoácidos que conforman las estructuras proteínicas, por medio de la técnica de difracción de rayos X. Con este ejemplo se pueden ratificar una vez más las ventajas de la cooperación espacial internacional; de otra manera se dejaría de lado el avance de la humanidad en rubros tan importantes como el mencionado, por lo que se debe esperar que este tipo de acontecimientos se conviertan en algo común a pesar de algunas corrientes irracionales que se oponen persistentemente a esta realidad. Es previsible que en un futuro muy cercano sean instalados en la órbita ingenios importantes para la fabricación de fármacos muy diversos. Además de la sustancia alfa-l-timosín, fabricada por los soviéticos en órbita, cabe mencionar también los esfuerzos realizados en el transbordador espacial estadunidense, que ha puesto en órbita, en tres ocasiones diferentes, una fábrica experimental para producir una proteína, la llamada eritropoyetina, que sirve para fomentar la producción de glóbulos rojos. Esta fábrica estaba operada por Ch. Walker, un ingeniero especialista que buscaba optimar el proceso de electroforesis en órbita, y que por esta razón es de las pocas personas que han subido hasta tres veces a la órbita terrestre, aunque recientemente se ha cancelado tal esfuerzo debido a la incertidumbre de los vuelos y a la competencia de técnicas como la ingeniería genética. Sin duda, los materiales biológicos producidos en órbita serán los que lleven la biomedicina a los resultados más espectaculares en tierra, en vista de la alta pureza alcanzada en la órbita terrestre; asimismo, se debe esperar un impulso adicional y complementario de la mencionada ingeniería genética, que no dudo aprovechará en el futuro las ventajas de las condiciones ambientales en la órbita. LOS SÓLIDOS EN EL ESPACIO Todo material sólido utilizado en la práctica de la ingeniería posee propiedades instauradas durante su proceso de producción, buena parte durante su fase líquida (cuando está fundido); otras se logran con el tratamiento térmico al que se somete la pieza acabada. Comprender el origen de las propiedades de los materiales requiere que se identifiquen las etapas críticas de su manufactura y que se analicen apropiadamente en lo que se refiere a la evolución de su microestructura. En el ejemplo de las aleaciones metálicas, veíamos que su resistencia depende del tamaño y forma de sus granos o cristales, los cuales se crean durante el enfriamiento y solidificación; en gran medida dicha resistencia depende también de la uniformidad con la que los diferentes componentes se distribuyen en la aleación. En la microgravedad, esos cristales crecen menos, pero más uniformemente, por lo que materiales solidificados en órbita adquieren propiedades diferentes, la mayoría de las veces deseables. Algunos de estos resultados se conocen desde hace tiempo, sin embargo queda mucho por entender en cuanto al procesamiento de materiales en el espacio y resta todavía evaluar cuáles serán las propiedades más favorecidas y útiles. Se sabe, por ejemplo, que al comenzar el proceso de solidificación se forman unas "islas" de átomos que se agregan ordenadamente, en las que se inicia el crecimiento de los granos cristalinos; esto ocurre simultáneamente en varios puntos del material fundido; lo que se desconoce es el crecimiento, y en la Tierra la gravedad influye y causa el desplazamiento de dichas islas en las corrientes convectivas, lo que hace imposible el análisis atómico por medios como la microdifracción de rayos X, técnica con la que se produce una especie de proyección macroscópica, que hace visible la posición de los átomos en alguno de los cristales. En órbita se podría aprovechar un dispositivo que permitiera visualizar el crecimiento de tales islas, ahí estáticas por la ausencia de convección. El dispositivo de estudio consistiría, quizá, en un metal entre dos placas de vidrio separadas unas micras, y un calentador capaz de fundir el metal, que luego se enfriaría y se solidificaría. Mientras por uno de sus lados se irradiaría el metal con rayos X, y por el otro se captarían los patrones de difracción con un detector de rayos X. Es previsible que con este tipo de arreglo se pueda seguir el proceso de coalescencia o formación de islas, desde la fase casi líquida hasta la sólida, información de gran valor explicativo sin duda para quienes trabajan en la investigación de las propiedades microestructurales de los materiales sólidos. Un esquema de esta idea se presenta en la figura 24. Figura 24. Esquema de un experimento exploratorio para el estudio del proceso de solidificación y coalescencia de granos metálicos. Hay diversos tipos de sensores y detectores de rayos X; quizá el más conocido son las placas fotosensibles que se utilizan en las radiografías médicas. Sin embargo, para captar imágenes en el espectro, la tendencia moderna se aleja cada vez más de los materiales fotosensibles, tipo fotográfico, para adentrarse en la optoelectrónica, campo que combina la óptica y la electrónica, y que también se denomina electroóptica. Los experimentos en microgravedad con cristales, que tienen aplicaciones importantes en la técnica moderna, han tenido hasta ahora resultados muy alentadores. Por ejemplo, en el crecimiento de compuestos de silicio, galio y germanio, materiales en los que se fundamenta la industria microelectrónica y la óptica, sí contrastamos experimentos terrestres y espaciales, observamos que la estructura cristalina del material espacial es considerablemente más uniforme que su contraparte terrestre, aun cuando el crecimiento o aumento de masa es menor en la órbita. En éste y en otros casos, el material crecido en el espacio es claramente superior, debido a que los fenómenos microgravitatorios enfatizan sus propiedades de más utilidad práctica, al grado de que justifica plenamente el costo del experimento exploratorio, a pesar de ser éstos los primeros intentos. Otros sólidos susceptibles de aprovechar la microgravedad son los materiales fibrosos y los cerámicos, así como sus posibles mezclas. Entre los materiales más novedosos por sus propiedades extraordinarias, mencionábamos los plásticos reforzados con fibras microscópicas de carbono, vidrio, boro, cerámica o metales como tungsteno y titanio, todos ellos abundantes en México, por cierto. La propiedad que hace a estos materiales tan atractivos es su combinación de alta resistencia y bajo peso. Sin embargo, una limitante que frecuentemente encontramos en las propiedades de estos materiales resulta de la concentración o relocalización de las fibras dentro de la matriz de termoplástico o cerámica, efecto a su vez de la diferencia de densidad y propiedades térmicas de las fibras con respecto a la matriz que las sustenta. Estos factores, que podríamos denominar microsegregación, son resultado principalmente del transporte causado por fuerzas de flotación y del empuje que genera un frente de solidificación o frente de enfriamiento, en las fibras, aun sin llegar a tocarlas; por ello incluimos también estos materiales en la lista de los que se verían favorecidos con su fabricación en microgravedad. FLUJO EN CONDICIONES DE TENSIÓN SUPERFICIAL DOMINANTE Es también curioso y sorprendente el comportamiento de un flujo en condiciones de microgravedad. Como en los casos anteriores, no se trata de efectos nuevos, sino de efectos cuya presencia se oscurece por el fenómeno de convección presente en los laboratorios terrestres: el flujo es poco conocido sin los efectos de dicho fenómeno. Dado que en condiciones de microgravedad las fuerzas de flotación y las corrientes convectivas se reducen cientos de veces, el transporte de materia dentro del flujo se debe exclusivamente a los siguientes factores: 1) termoforesis, que es el transporte generado por una diferencia térmica que actúa, por ejemplo en el caso de una burbuja, por la variación de la tensión entre cada una de las partes de su superficie; 2) electroforesis, donde el transporte obedece al efecto de un campo eléctrico sobre moléculas cargadas y, por último, 3) transporte por difusión química, en donde, debido a diferencias de concentración (gradiente), el proceso de difusión tiende a ser el único causante del transporte de moléculas y partículas de un punto a otro dentro de un fluido. Varias investigaciones han sido enfocadas al transporte de burbujas por efectos térmicos, debido a las repercusiones prácticas que este tipo de problemas presenta, como en el caso de un tanque parcialmente lleno de combustible en órbita, y que recibe radiación solar en una sola de sus caras. Tema, por cierto, que fue motivo de estudio de un destacado investigador de la Facultad de Ingeniería de la UNAM. Las características especiales del flujo, en ausencia de fuerzas de flotación, no siempre trabajan en favor de un proceso de producción de materiales en órbita. Tomemos como ejemplo el caso de vidrios ópticos: por un lado, es atractiva la distribución heterogénea de los componentes de vidrios durante su proceso de solidificación, es decir, la formación de una microestructura y distribución de componentes de manera uniforme. También es atractiva la ausencia de esfuerzos mecánicos causados en la Tierra por el crisol de fundición. Sin embargo, lo que no es favorable en el caso de los vidrios, es precisamente la falta de fuerzas de flotación, que en tierra permiten que se puedan extraer las microburbujas de aire que degradan las características ópticas de una lente, aunque aquí puede participar el ultra alto vacío de la órbita. Resulta también muy interesante el estudio de interfases líquidolíquido en las que la interacción, en ausencia de convección, se reduce al intercambio de calor y a la interacción química entre ellos, lo que hace posible procesos muy delicados de mezclas de diferentes materiales conteniendo potencial teórico-práctico. Asimismo, se pueden realizar mediciones de conducción térmica entre líquidos que en tierra son difíciles, o imposibles, debido a los desplazamientos que las corrientes de convección causan en las interfases inestables. LAS SUPERESPUMAS Un ejemplo interesante que combina la necesidad de microgravedad y la de controlar precisamente la tensión superficial, lo tenemos en la fabricación en órbita de inmensas estructuras, basadas en lo que podríamos denominar "superespumas", y que se planea utilizar, en su versión pacífica, en la construcción de espejos para iluminación nocturna de ciudades y sembradíos. Las superespumas se fabrican como cualquier material esponjoso, es decir, por medio de burbujas de diferentes tamaños adheridas unas a otras en el contacto de sus paredes, y formando geometrías tan caprichosas como desea su diseñador. A diferencia de los materiales terrestres, estas espumas tienen burbujas de varios metros de diámetro, y paredes de décimas de milímetro o menos. En tierra, con la gravedad, no puede lograrse que crezcan a tales tamaños, porque, como ocurre con las burbujas de jabón, se adelgazan en la parte superior hasta romperse: un efecto del campo gravitatorio. Para algunos, esto sonará a pura ficción, pero para otros, que ya vimos el intento de fabricar burbujas de epoxi hasta de un metro, nos es no sólo creíble, sino hasta estimulante, ver que ya se dieron los primeros pasos prácticos para crear millones de burbujas unidas para formar materiales esponjosos. Los tamaños que se espera sean de utilidad para estos espejos son impresionantes: de varios cientos de metros hasta varios kilómetros por lado, con espesores en metros. En tierra estas estructuras no pueden mantener ni siquiera su propio peso, pero en órbita, pueden crecer y crecer hasta ser gigantescas, ya que no pesan nada. Antes de dar por terminado el tema de la tensión superficial, repasemos las repercusiones que el manejo consciente de las fuerzas de tensión superficial tiene en la actividad cotidiana de la sociedad, ya que casi todos las desconocemos. La tensión superficial, y los fenómenos directamente dependientes de ella, son los principales protagonistas en hechos tan comunes como el teñido de telas, el corte de metales y su soldadura, la perforación de pozos, la impermeabilización de textiles, el uso eficaz de insecticidas, la resistencia de adhesivos, el lavado de ropa, la extracción y purificación de minerales, la soldadura de circuitos electrónicos, y miles de cosas más. Y vale la pena señalar un aspecto más: ¿qué pasaría si el experimento japonés se ampliara para incluir la colisión de esferas de diferentes líquidos, o con variaciones de temperatura, y por tanto con diversas tensiones superficiales? ¿Qué nuevos e interesantes fenómenos observaríamos? ¿Cómo afecta la ausencia de gravedad todos estos procesos cotidianos? Seguramente la microgravedad producirá en algunos casos, resultados desconcertantes; en otros, estos experimentos serán favorables para aumentar el acervo de explicaciones de fenómenos poco comprendidos. Con los ejemplos anteriores podemos ver que la experimentación espacial encierra un potencial verdaderamente impredecible, en el que tenemos que participar, pues no hacerlo sería sacrificar a la insensatez y a la dependencia algunos insospechados medios útiles a nuestro desarrollo. V I . N U E S T R O L A B O R A T O R I O Ó R B I T A T E R R E S T R E E N INTRODUCCIÓN LAS condiciones que hacen de la órbita terrestre un laboratorio con características útiles y únicas (imponderabilidad, visión amplia, radiación directa y alto vacío) son favorables a la experimentación hoy y a la industria del mañana. La combinación de estas condiciones genera numerosas y nuevas alternativas, y los experimentos y actividades en órbita que se pueden llevar a cabo no es posible incluirlos en una mera lista, aunque tampoco se debe sucumbir al temor de intentar hacerlo, aun de manera incompleta, porque todos en general esperamos que quienes usan los recursos nacionales en investigación aeroespacial, se esfuercen y asuman el riesgo de equivocarse al tratar de señalar los caminos que actualmente se identifican como los más prometedores. En su conjunto, estas condiciones, repetimos, hacen posible la conducción de experimentos imposibles de realizar en tierra, pero, sobre todo, nos falta intentar estimar las probabilidades reales de que científicos de México y de los demás países en desarrollo puedan utilizar la órbita terrestre para sus propios fines de investigación. Es necesario también que nuestros científicos e ingenieros, especialmente los que no tengan contacto directo con este tema, se mantengan cuando menos enterados de las numerosas técnicas espaciales, aun cuando sea sólo por medio de la participación de un número muy reducido de investigadores que sí estén al corriente de un conocimiento directo de lo que ocurre en la frontera del avance espacial. Recordemos, además, que como en el pasado, las actividades que hoy en día se realizan en el espacio, repercutirán finalmente en el avance de muchos otros campos que afectan el bienestar de la población. Para ilustrar este punto basta un ejemplo: los satélites meteorológicos fueron en un principio resultado del interés de los meteorólogos, que deseaban observar zonas más amplias del globo terrestre, para entender cómo afectan las formaciones de nubes, las temperaturas y la velocidad de los vientos, el clima de grandes sectores del globo, o de una región o ciudad; actualmente se sabe que el clima es un efecto global, que sólo puede comenzar a entenderse si utilizamos la información amplia que proporcionan los satélites. Ahora, con base en esta información se puede alertar a la población sobre desastres naturales inminentes y su posible evolución, con varios días de anticipación; con esta aplicación práctica se ha ahorrado miles de veces el monto de la inversión para la construcción, puesta en órbita y operación de dichos sistemas de alerta basados en satélites. Algo equivalente puede decirse de los satélites de comunicaciones. Por motivos ajenos al desarrollo tecnocientífico, el efecto socialmente benéfico que puede tener la tecnología aeroespacial es de mucha menor magnitud de lo que permitiría su avance en la actualidad. Esto resulta, primero, de la política de proteccionismo de la tecnología que detentan muchos de los llamados países desarrollados, que impiden el flujo de tecnologías a países necesitados de ellas. Para esto basta también un ejemplo: los centros de investigación de la NASA de los Estados Unidos no permiten en sus instalaciones el trabajo temporal de científicos de países que califican como amigos en temas tecnológicos o de ciencia aplicada, solamente admiten candidatos que realicen estudios en ciencias puras, esa parte de la investigación generalmente más alejada de las aplicaciones prácticas. Segundo, es necesario considerar que la investigación y la práctica de la ingeniería aeroespacial generan con frecuencia productos colaterales, que a la larga, se sabe por muchas experiencias anteriores, impulsan avances técnicos de muy diversa naturaleza y alcance. Éstos son, por lo general de mucha utilidad para el bienestar social, aunque su valor sea difícil de estimar de momento, y con suficiente confiabilidad. Entre las tendencias más notables de la actualidad se debe señalar que las cifras de lanzamiento de vehículos espaciales van en continuo aumento (780 toneladas de carga útil sólo en 1987) y, a la vista de los esfuerzos por parte de un creciente número de países con programas espaciales propios, éstas seguirán aumentando en el futuro. Aparte de las grandes potencias, las cuales probablemente proseguirán dominando el panorama espacial por varias décadas, toda una gama de países se adentran en programas espaciales sólidos, entre ellos, los que participan en la Agencia Espacial Europea, China, Japón, la India y Brasil, por lo pronto; asimismo, es previsible que se organicen otras agencias multinacionales (una latinoamericana, desde luego) en las próximas décadas. Los esfuerzos de Brasil y la India tienen para nosotros una significación particular, pues simbolizan la conciencia de un grupo de países en desarrollo interesados en que sus sociedades avancen a través de la ciencia y la tecnología, manejadas con oportunidad y de manera apropiada. En ambos casos, se aprecia la visión que los gobernantes de estos países tuvieron para iniciarse en el camino de las actividades espaciales, que otros han percibido como un lujo, lejano a sus presupuestos y posibilidades. Incluso estos países ya han podido cosechar los primeros frutos: la India posee hoy la capacidad de fabricar y lanzar sus propios satélites de comunicaciones, meteorología y percepción remota y en un futuro próximo esta capacidad será rentable. Brasil, por sus propios medios, ha hecho posible un programa para el lanzamiento de satélites de comunicaciones y de percepción remota de diseño nacional. Pronto, ambos iniciarán actividades aún más elaboradas que, en el momento propicio, se reflejarán en el avance de múltiples campos de la ciencia y la tecnología en beneficio de sus pueblos. Cabe mencionar aquí un notorio ejemplo de la industria aeroespacial: Brasil ha colocado más aviones comerciales en el mercado de los Estados Unidos, que éstos en el de Brasil, un país que, por cierto, comparte con México muchos de sus problemas económico-sociales, como el estar casi aplastado por la deuda. Esta situación ilustra claramente cómo la tecnología aeroespacial llega a volverse rentable, y a funcionar como un motor de desarrollo industrial que favorece el avance de un país, aunque a veces sólo sirve para mantenerlo a flote. El ejemplo de Brasil da a su vez entrada a otro, de mucho mayor importancia: entre los esfuerzos de científicos mexicanos por participar directamente en el avance y utilización de la tecnología espacial, se han tratado de establecer temas de colaboración de interés mutuo con el Instituto de Pesquisas Espaciales (INPE) de Brasil (el organismo que en el país hermano se encarga del programa espacial brasileño). Entre los primeros pasos dados por los brasileños para colaborar con nosotros, podemos citar gustosamente su ofrecimiento de entrenar a uno de nuestros colegas en todos los aspectos técnicos y de manufactura de materiales compuestos —aquellos basados en fibras de carbono inmersas en termoplásticos—, uno de los materiales con más futuro. Este es, estimado lector, un cabal ejemplo de transferencia tecnológica: sin ataduras ni trampas y sin intereses mezquinos detrás, que ejemplifica lo que a nuestro juicio es la cooperación internacional, y más específicamente la cooperación latinoamericana, presagio histórico y paso concreto en la inevitable integración de la América Latina, sueño y proyecto de tantos de nuestros próceres más destacados. Los países sin programas espaciales nacionales, una vez percibidas las amplias ventajas socioeconómicas del desarrollo aeroespacial, habremos de realizar un esfuerzo especial para no quedar a la zaga en cuanto al uso y aprovechamiento de los medios y herramientas que prodiga tal actividad. LABORATORIO ESPACIAL Adentrándonos en el tema concreto de este capítulo, podemos comenzar preguntándonos: ¿cuál será el mejor camino a seguir para que usemos el espacio como extensión de nuestros laboratorios? La cooperación internacional parece, en plena crisis, el único camino viable en la actualidad. Los países más avanzados en materia espacial han manifestado diversos grados de disposición para cooperar con los países en vías de desarrollo. Con los Estados Unidos, que son los que mejor conocemos por la amplia frontera que compartimos, se ha dado cierta cooperación, sobre todo cuando requieren de algún servicio: instalación de estaciones receptoras de datos de satélites geográficamente favorecidas para su funcionamiento, recuperación de equipo desviado de su trayectoria normal, vuelos de aeronaves con funciones de seguimiento, estudio o calibración de equipo, colectas de plantas como la candelilla, de donde extraen una cera de alta calidad que utilizan en el proceso de elaboración de combustibles sólidos de cohetes y explosivos; con este país, México ha sido invitado a participar en los vuelos de viajeros espaciales, aunque, hay que decirlo, con mucho más contenido propagandístico que tecnocientífico. La URSS, por su lado, tiene también requisitos técnicos similares, pero ha subido al espacio personal con dos años de intenso entrenamiento de casi todos los países socialistas, así como de Francia, la India, Afganistán y Siria (a juzgar por los informes de actividades de estos vuelos, sí existe justificación más allá de la publicidad, pues aunque entre sus invitados han tenido pocos científicos y sí muchos militares, éstos han subido a cumplir trabajos que, aun con la poca información, parecen eminentemente civiles). Sin embargo, para una comparación justa se debe considerar que los sistemas de lanzamiento de la URSS implican requerimientos médicos más estrictos, pues someten a sus tripulaciones a niveles superiores de aceleración durante el despegue, con lo que se reduce la elegibilidad de candidatos. En el futuro, las actividades espaciales de tripulantes provenientes de países en desarrollo pueden esperar una expansión gradual, y con las experiencias previas ya asimiladas, seguramente se propugnará por una mejora en la calidad de su participación; para esto es indispensable que aumente la actividad de nuestros científicos e ingenieros espaciales en el diseño autónomo o cooperativo de experimentos y técnicas de observación en la órbita terrestre y los que operan en la atmósfera; estos equipos serán instalados en las plataformas y estaciones espaciales de las potencias dispuestas a compartirlas, como una expresión concreta de su responsabilidad y disposición de colaboración con los países en desarrollo. También es imprescindible preguntarnos: ¿qué tipo de actividades nos conviene realizar en órbita? Pero la respuesta sería muy vasta para incluirla aquí, y conviene contestarla refiriéndonos más adelante a los esfuerzos concretos que se realizan en la actualidad. Principalmente, y quizá por prejuicio profesional, se nos presenta el reto de la ciencia de los materiales, aunque también son muy importantes las actividades medico-biológicas y de teledetección de recursos, ya mencionadas. Así pues, describiremos a continuación algunas actividades científicas y tecnológicas seguramente de mucho interés para diferentes disciplinas, pero no sin antes advertir que, dadas las muchas aplicaciones de los experimentos espaciales, que van desde la fisiología hasta la física de fluidos, nadie en sus cinco sentidos puede pretender hacer justicia a todos los temas en un escrito corto como éste. Advertidos de esta necesaria limitación, procedamos a referir algunas de las experiencias en camino. LA EXPERIENCIA DE LA UNAM EN ÓRBITA En 1985, en la Universidad Nacional se firmó un convenio con el Consejo Nacional de Ciencia y Tecnología (CONACyT) y la Secretaría de Comunicaciones y Transportes (SCT), cuyo objetivo es desarrollar las primeras estaciones de experimentos automáticos para funcionar en la órbita terrestre. Para dar cauce al proyecto, se propuso aprovechar las relaciones de trabajo entre la SCT y la NASA, dirigidas a poner en órbita el sistema de satélites Morelos. Así las cosas, un grupo de universitarios se puso en contacto con la NASA para analizar la factibilidad de realizar una serie de experimentos en microgravedad, inicialmente relacionados con las ciencias de materiales y la percepción remota. Como antecedente cabe mencionar que, con el advenimiento del transbordador, la NASA organizó un programa promocional llamado "Pequeños Experimentos Autónomos" (PEA), que tiene una serie de requerimientos relativamente sencillos: primero, la actividad no debe interferir con las misiones del transbordador; segundo, debe ser totalmente autónomo en cuanto a energía; y, claro está, no debe generar ningún efecto indeseable para el transbordador y sus equipos, ni para la tripulación desde luego; las cargas útiles que van a ponerse en órbita tienen un límite de peso de 90 kg; deben sellarse 60 días antes del despegue y no requerir de la NASA más que para la activación de un interruptor durante el vuelo. Los costos son claramente promocionales (10 000 dólares por contenedor), lo que los hace accesibles a cualquier institución interesada en utilizarlos. Los usuarios más comunes de los contenedores que asigna la NASApara este propósito son las universidades y las agencias espaciales de otros países. La distribución de contenedores reservados hasta el primer semestre de 1988 era la siguiente: EUA, 400; RFA, 41; Japón y Canadá, 19 cada uno; 12 de Inglaterra; 11 de Australia, y dos de México, entre otros. En suma, el programa PEA hace posible el acceso de equipos científicos a seis o siete días de microgravedad. Para dar el mejor uso a los recursos invertidos en el convenio mencionado, se consultaron, hasta donde el tiempo lo hizo posible, docenas de especialistas de diferentes institutos de la Universidad Nacional y otros centros de investigación del país, con lo que se conformó una lista inicial de experimentos viables. A continuación se hizo un proceso de selección que tomó en cuenta el tiempo necesario para preparar cada experimento y sus costos probables; finalmente se obtuvo una lista de diez experimentos, cuyo costo se estimó en 271 000 dólares, presupuesto que fue puesto a disposición de los investigadores encargados. Además, se consideró necesario consultar especialistas de la NASA para tratar de establecer si era posible llevarlos a cabo en un periodo menor de 8 meses, para que coincidieran con la puesta en órbita del segundo satélite Morelos. La falta de especialistas en ingeniería aeroespacial en el país llevó a localizar algún grupo universitario experimentado en la materia y dispuesto a colaborar con los científicos de la UNAM. Durante los primeros meses de 1985 se realizó una revisión sistemática sobre el tipo de trabajo de investigación realizado en órbita durante la última década, lo que nos permitió establecer cuáles son las universidades, principalmente norteamericanas, con experiencia en el tema. En una de las revistas que difunden el quehacer de la tecnología espacial, incluida en la bibliografía, encontramos un artículo que describía los trabajos espaciales de la Universidad Estatal de Utah (USU), que tenía además la ventaja de que identificaba por su nombre a varios profesores destacados de aquella institución. Desde el primer contacto telefónico, los profesores de la USU se mostraron interesados y abiertos a la cooperación, por lo que al día siguiente se llevó a cabo una reunión entre los profesores de los centros de Ingeniería Espacial y de Ciencias de la Atmósfera de la USU, y un representante de la Universidad Nacional. La reunión contó con la presencia de ocho profesores experimentados en el tema, incluidos los directores de los mencionados centros, y dio inicio con una descripción de los experimentos seleccionados por nosotros, así como con una explicación de la oportunidad que nos brindaba la SCT junto con la NASA. Fueron estos profesores los que sugirieron realizar dichos experimentos dentro del programa PEA de la NASA. A continuación se discutió detalladamente cada uno de los experimentos, sus objetivos, alcances y metas. Es justo dar aquí reconocimiento al espíritu de cooperación surgido espontáneamente entre científicos universitarios, que a pesar de provenir de países con muy diferentes mentalidades, no tuvieron reservas en cooperar. El resultado de aquella reunión fue, en primer término, cerciorarnos de que el proceso de selección de los experimentos automáticos había producido una lista competente de actividades experimentales y observacionales en órbita; segundo, nos permitió prepararnos para la primera reunión que habríamos de tener al día siguiente en el Centro Espacial de la NASA en Houston, para definir la solicitud que se iba a someter a su consideración; y tercero, se nos ofreció, dada la premura del suceso, la oportunidad de trasladarnos con un equipo de trabajo al Centro de Ingeniería Espacial de la USU, donde se nos brindaría todo el apoyo a su alcance, cosa que ocurriría durante los siguientes meses. La primera reunión con la NASA fue un acontecimiento memorable, del que se pudiera escribir un libro completo, dada la complejidad de los temas discutidos, las actitudes de ambas partes, y la presencia de un sutil ambiente de enfrentamiento, algo típico de pláticas entre personas de países con grandes diferencias en desarrollo. Por un lado, un representante del cliente (México, comprador de satélites) con un firme propósito de aprovechar la oportunidad que se presentaba, y por el otro, un equipo de ingenieros, inmersos en sus propios problemas, y no muy dispuestos a aceptar complicaciones adicionales en su trabajo. No obstante, en el curso de la reunión se fueron limando las asperezas y los malentendidos, y se clarificó el panorama de lo posible y lo alcanzable. En muchas discusiones fue necesario citar trabajos de la misma NASA para que aceptaran la viabilidad de algunas de las proposiciones. Después de una larga reunión, resultaron casi todos convencidos de varias cosas: primero, que era posible desarrollar incluso la lista completa de los experimentos seleccionados; segundo, que se podría cumplir con la fecha tope, a pesar de que ésta era la limitante principal; tercero, que se podía presuponer que ninguno de los obstáculos y retos encontrados durante el desarrollo del equipo resultarían insolubles; además, que era posible, sin tener la experiencia de un ingeniero de la NASA, proponerles y demostrarles la viabilidad de una serie de experimentos que a primera vista no les parecían realizables. El tiempo nos dio la razón. Un día después de esta última reunión, los funcionarios de la SCT y del CONACyT tenían en sus manos un escrito informándoles sobre la viabilidad del proyecto; sin embargo, habrían de pasar dos largos meses, que devoraban el tiempo necesario para el desarrollo del proyecto, antes de tener una respuesta favorable y un acuerdo detallado sobre el financiamiento. Al mismo tiempo, debe reconocerse públicamente que los integrantes del llamado "Grupo de Tarea", que es el que realiza desde entonces el proyecto, hemos sido testigos de una actitud digna de incluirse en una "antología antiburocrática", ya que las dependencias participantes procedieron de manera sorprendentemente rápida, en casi todos los complejos trámites. Con el proyecto aprobado, se concertó una reunión directamente con los especialistas del programa PEA del Centro Espacial Goddard de la NASA, a la que asistieron cinco investigadores de la UNAM; la mayoría de las sugerencias de la NASA fueron muy atinadas y constructivas; por ejemplo, sugirieron dividir la serie de experimentos de la Universidad en dos equipos diferentes; en el primero, dentro de un contenedor sellado, fueron asignados aquellos experimentos que no requerían del acceso a la amplia visión orbital ni a la radiación del medio ambiente. Para la conducción de los experimentos dentro de esta primera estación requeriríamos, como veremos, sólo de microgravedad y de una conexión que permitiera hacer vacío dentro de una cámara. La segunda estación automática requería de todas las condiciones orbitales, incluyendo la visión amplia y la radiación directa, por lo que fue necesario que para este segundo equipo se preparara un contenedor que pudiera abrirse estando en órbita. En la figura 25 se muestra un diagrama y una fotografía de los dos tipos de estaciones automáticas. Cuando todo parecía reducirse a un delicioso reto tecnocientífico, surgieron inesperadamente nuevos problemas: fue necesario un viaje del subsecretario de la SCT, acompañado del coordinador del proyecto, con el objeto de estar en una reunión con el director general de Operaciones Comerciales en la central de la NASA en Washington, para, digamos, limar las últimas asperezas. Después de esta reunión, se trasladó el grupo de diez universitarios a las instalaciones de la USU, para iniciar el diseño y construcción de la primera estación; desde aquel entonces se planteó integrar la segunda en las instalaciones de la UNAM. Quizá para algunos resulte didáctico conocer que, durante el trámite para dar vida al proyecto, ocurrieron cuando menos unas cinco "muertes y las correspondientes resurrecciones" del mismo, que si bien repercutían en el ánimo de algunos en el grupo, hacían más tenaces a los demás. No fue nada fácil, ni esperamos ni nos ilusionamos que en el futuro lo sea. EXPERIMENTOS DE LA PRIMERA ESTACIÓN AUTOMÁTICA Dentro de la primera estación de experimentos automáticos se tenía planeado incluir cuatro experimentos de la UNAM. Sin embargo, acabamos instalando siete experimentos a bordo, porque hubo necesidad de negociar con otras universidades una reservación que nos diera el acceso a vuelo lo más pronto posible. De esta manera, junto con el equipo de la UNAM se incluyeron experimentos de tres universidades estadunidenses, uno de ellos provenía de la USU, para retribuir en algo su colaboración. Sin embargo, la responsabilidad por la seguridad de cada uno de los experimentos del contenedor siguió recayendo en el equipo de la UNAM, por lo cual los experimentos de las otras universidades fueron motivo de experiencia para nosotros. Figura 25. Contendores autónomos para realizar experimentos en órbita. En la fotografía pueden apreciarse dos contenedores fijos a la pared del compartimento de carga. En el esquema se representan las dos alternativas utilizadas por la UNAM; con tapa fija y móvil. Solidificación de Zinalco En julio de 1985 se comenzaron a construir tres de los principales experimentos. El primero está relacionado con un estudio sobre la microestructura del Zinalco —una aleación de zinc, aluminio y cobre. Su objetivo principal es llevar a punto de fusión la muestra preparada en tierra, para que en condiciones de microgravedad (sin corrientes convectivas y sin el contacto con un crisol), se solidifique por enfriamiento dejando que su microestructura se genere espontáneamente sin tales efectos mientras todo el proceso se controle y registre por una microcomputadora a bordo. Para comprender las ventajas de realizar este proceso en órbita, haremos una descripción un poco más detallada del razonamiento en que se fundamenta este experimento: cuando se funde una mezcla de metales en tierra, se da toda una serie de procesos internos que determinan las propiedades mecánicas que va a presentar el producto. Los factores que afectan dichas propiedades están relacionados con la distribución y proporción de los aleantes —en este caso del zinc, del aluminio y del cobre—, el material del cual está hecho el crisol (es decir la vasija de fundición que se coloca dentro del horno), la velocidad de enfriamiento desde el estado líquido hasta el sólido y, por último, el tipo de impurezas que acompañan a los componentes (ningún material es absolutamente puro, sino que generalmente está acompañado de inclusiones que tienen una presencia casual y que son llamadas impurezas). De estos cuatro factores, en un laboratorio en tierra podemos controlar fácilmente la velocidad de enfriamiento y, hasta cierto grado, el tipo y cantidad de impurezas presentes. No obstante, nada podemos hacer respecto a las corrientes convectivas térmicas y al contacto que tiene el metal con el crisol de fundición, el cual influye de dos maneras diferentes: por un lado, las paredes del crisol producen los llamados "centros de nucleación", sitios donde comienzan a solidificarse, con el enfriamiento, los granos que formarán la microestructura y cuya influencia no se puede caracterizar. Por otro lado, con el enfriamiento del crisol, y su contracción térmica resultante, se generan esfuerzos mecánicos en la muestra, efecto que se manifiesta con variaciones desconocidas en su microestructura. Es la órbita el único lugar donde podemos fundir un metal sin que se presenten las corrientes convectivas, por lo que las aleaciones restan notablemente más homogéneas en cuanto a la distribución de sus aleantes. Adicionalmente, es también el único lugar donde podemos prescindir del crisol, ya que la muestra puede flotar o levitar en una zona seleccionada del horno. El objetivo central del experimento preparado para esta primera estación es diagnosticar el papel y la importancia que las impurezas tienen en el proceso de solidificación del Zinalco. Para conseguir este propósito, se controla la velocidad de enfriamiento de la aleación por medio de un elaborado sistema de medición y supervisión. La temperatura de la muestra es registrada por un dispositivo que funciona sin entrar en contacto con la muestra. Consiste en un sistema óptico que afoca la radiación infrarroja o térmica que produce la muestra al ser calentada, sobre un detector de selenuro de plomo, similar al que utilizan los equipos militares para ver en la oscuridad y aquellos instalados en satélites que realizan observaciones nocturnas desde el espacio. La radiación que emite la muestra es convertida por el sistema mencionado en una señal eléctrica que se capta en la microcomputadora dedicada al control y registro de parámetros del experimento. Adicionalmente, se instaló un sistema redundante, que funciona con base en termopares, y registra también las temperaturas internas del horno. Este sistema puede, en caso de falla, tomar las funciones del pirómetro óptico a fin de asegurar un control adecuado, pero incluso si este sistema fallara no se afectaría definitivamente el experimento, ya que éste puede seguir sin los medidores de temperaturas, con base en un tercer sistema de respaldo que hace uso de tiempos previamente estimados de duración del experimento. La computadora recibe señales eléctricas de los medidores de temperatura, compara sus valores con una tabla, previamente almacenada en su memoria, y tiene la capacidad, con base en una serie de programas, para tomar decisiones y evitar acciones que afecten el experimento, por ejemplo, puede aumentar la corriente en la resistencia que calienta al horno de grafito, donde se encuentra la muestra de Zinalco, o la puede apagar intermitentemente para fijar la velocidad de enfriamiento. Asimismo, la computadora tiene un sector de memoria en el que almacena los datos adquiridos durante la duración del experimento. Por cierto que esta descripción ilustra uno de los criterios de diseño clásico en equipo aeroespacial: el funcionamiento de un equipo debe incluir la tolerancia de fallas, es decir, que el equipo deberá seguir realizando su función, a pesar de que fallaran algunos de sus componentes. Esto es además un ejemplo con muchas aplicaciones en otras áreas, aunque se haya originado en la tecnología espacial, en las que no se puede aceptar una falla total, como en el caso de los sistemas de enfriamiento de un reactor nuclear. Claro que los eternos escépticos de la técnica pensarán en Chernobil, pero ahí los culpables no fueron los dispositivos ni los sistemas redundantes, sino las personas que violaron los sistemas de protección automáticos y que hoy día purgan condenas de cárcel. Por cierto que ahí, en Chernobil, para salir del problema, actuó también la técnica espacial: se utilizaron autómatas basados en exploradores móviles, que fueron los que limpiaron los sectores peligrosamente radiactivos. En el experimento del Zinalco, el horno fue fabricado con grafito en vista de su excelente conductividad, facilidad de maquinado y estabilidad térmica de este material. Dicho horno se calienta por medio de una resistencia que lo rodea por afuera. Originalmente la muestra tiene forma cilíndrica y se atornilla para el despegue a una de las paredes internas del horno. Para evitar que la muestra fundida se pegue a las paredes del horno, el interior de éste fue cubierto con una capa de nitruro de boro, que es un material que además de resistir temperaturas hasta de 800ºC, evita el mojado o la adhesión. A través de un pequeño orificio en la pared del horno, el teledetector infrarrojo registra continuamente la temperatura de la muestra. En la figura 26 se muestran un esquema y una fotografía del horno. Figura 26. Horno para hacer estudios de solidificación de aleaciones en órbita; se encuentra en la UNAM. Aun cuando el trabajo desarrollado para la fabricación de la estación es producto colectivo de fisicos e ingenieros, el responsable del diseño de los dispositivos descritos es un investigador del Instituto de Investigación en Materiales de la UNAM, uno de cuyos frutos es el Zinalco. Crecimiento de interfases Otro de los experimentos a bordo, propuesto por el Instituto de Física de la UNAM, está diseñado para estudiar el proceso de crecimiento de un material evaporado sobre una superficie cristalina cuyas propiedades se conocen por toda una serie de estudios realizados con anterioridad, como microscopía electrónica y difracción de electrones, lo que, decíamos, permite saber la posición de los átomos en una superficie. El crecimiento de una película de aluminio sobre la superficie cristalina se realiza por una evaporación, aprovechando el vacío orbital. Para estos fines, una pequeña canastilla de tungsteno, metal que soporta temperaturas arriba de 3 000ºC, es cargada con aluminio de alta pureza. Al pasar una corriente eléctrica por la canastilla, el aluminio se funde y después comienza a evaporarse, como cualquier otro líquido que alcanza su punto de ebullición. Los átomos de aluminio que se desprenden de la canastilla viajan en todas direcciones; sin embargo, en este caso nos interesan aquellos que recorren la distancia recta que hay entre la canastilla y una serie de cristales en donde queremos que el aluminio se vaya depositando. El crecimiento de interfases entre dos sólidos plantea una serie de preguntas básicas aún por contestar y, por su importancia práctica en muchos problemas de la técnica, como la microelectrónica y la física de superficies, requiere de estudios cada vez más detallados. Algunos estudios realizados por medio de simulación en computadoras, basan la adhesión de átomos a una superficie en dos factores principales, que en conjunto determinan la posición final de los átomos sobre el cristal: el más importante son las fuerzas que encuentra el átomo al acercarse a la superficie y en segundo término el ángulo de llegada de cada átomo. Las fuerzas atómicas, siempre presentes en la superficie de un sólido, son el resultado de la disposición de los átomos más cercanos a la superficie y su intensidad depende de muchos factores: el grado de orden en los átomos, el tipo de átomos y la forma de la superficie. Por otro lado, es fácil imaginar que un átomo con una trayectoria rasante, casi paralela a la superficie, tendrá una posición diferente antes de adherirse a ésta, que otro átomo igual, pero que llega en dirección perpendicular. Asimismo, según se vayan depositando los primeros átomos en la superficie se irán modificando estas mismas fuerzas superficiales debido a la presencia de las llamadas "islas" atómicas (las agrupaciones de los primeros átomos al irse adhiriendo a la nueva superficie). Estas islas, de sólo algunos átomos de espesor, van creciendo en tamaño hasta juntarse unas con otras, en el proceso conocido como coalescencia, algo análogo a lo que ocurre con las gotas de agua que se unen en una ventana durante la lluvia, éste es el fenómeno que se estudiará al recuperar las muestras. En el experimento espacial se espera que la mayoría de los átomos llegue a la superficie de los cristales con trayectorias perpendiculares y que los procesos de coalescencia sean estricta y únicamente dominados por las fuerzas superficiales. Los tipos de cristales seleccionados para este experimento fueron mono y policristalinos, ambos de un centímetro de diámetro, lo que quiere decir, en el primer caso, que el cristal está formado de un arreglo atómico uniforme, mientras que los materiales policristalinos —los más comunes en la naturaleza—, están formados de diversos granos, cada uno con su propia orientación en el arreglo atómico, pero cuyas fronteras se tocan entre sí, como en el caso de metales. Cabe anotar que la industria mícroelectrónica utiliza principalmente monocristales de silicio, arsenuro de galio y dióxido de silicio, por lo que los estudios de las propiedades fundamentales de estos materiales son indispensables para el mejoramiento del diseño y las características de funcionamiento de los microcircuitos. Dentro de los materiales policristalinos incluidos en este experimento se colocaron también cristales de plata y cobre de alta pureza. Experimentos similares han sido conducidos en naves de la NASA y próximamente por investigadores de Japón. En las figuras 27 a y b hay una representación del dispositivo para la evaporación de aluminio; consta de tres lóbulos dentro de los cuales se evaporan, sobre una serie idéntica de cristales, diferentes cantidades de aluminio; además, en dos de los lóbulos se instaló un elemento calentador, con el que se pueden someter las muestras a un tratamiento térmico previo o posterior a la evaporación. La manera de lograr vacío dentro de la cámara de evaporación es por medio de un orificio conectado al vacío espacial exterior al contenedor, por lo que a partir del despegue, la cámara comienza su evacuación hasta alcanzar valores de vacío de equilibrio para una órbita determinada. Figura 27. Dispositivo mexicano para estudiar, en órbita, el crecimiento de cristales a partir de la fase gaseosa. Vacío y temperatura Se sabe que los valores de vacío dependen de la altura a la que vuela la nave, pero también dependen de la interrelación entre la posición del orificio de evacuación, la dirección de vuelo de la nave y su atmósfera local, que es principalmente vapor de agua que se impregna en las placas cerámicas protectoras de la nave, y que son de naturaleza porosa e higroscópica. Cuando el orificio coincide con la dirección de vuelo, el vacío se deteriora al punto de alcanzar valores como los obtenidos con un sistema de vacío convencional (10-4 Torr; el Torr es una unidad para medir vacío, viene del nombre del científico Torricelli, 1 Torr equivale a la presión de 1 mm de mercurio); en cambio, cuando el orificio apunta en la dirección contraria al vuelo, dentro de la cauda o estela que sigue a la nave, se pueden alcanzar vacíos extraordinarios, imposibles de obtener con equipo en tierra (1015 Torr). Debido a que los valores de vacío dependen de toda la serie de factores anotada, no era posible conocer con anterioridad qué niveles se iban a alcanzar exactamente, por lo que uno de los dispositivos a bordo de este contenedor es un medidor de vacío, conocido como cátodo frío. Este medidor está instalado entre el orificio que da al espacio exterior y la cámara de evaporación, además de que también está conectado a la microcomputadora que maneja los parámetros clave del experimento de evaporación de aluminio y guarda los registros de las medidas de vacío, datos que permanecerán almacenados para su análisis posterior, a la vez que alimentan durante el experimento continuamente al controlador para poder utilizarlos en la secuencia de decisiones de control programadas. Por último, se realiza una serie de medidas de temperatura en diferentes lugares de la estación automática. Esta actividad tiene varios propósitos simultáneos: por un lado, las medidas de temperatura se utilizan como medio para prevenir que la falla de algún dispositivo eleve excesivamente la temperatura del contenedor; para esto existe una malla de control capaz de interrumpir cualquiera de las actividades experimentales en caso de que se registren temperaturas por encima de un umbral prestablecido por la agencia lanzadora. Además, los múltiples puntos para realizar las mediciones nos servirán en el futuro para validar modelos térmicos utilizados para predecir las temperaturas en diferentes localidades de un equipo espacial, actividad fundamental para la operación en órbita de un equipo, en el que efectuar el balance térmico es indispensable, como en los satélites de vuelo libre. SEGUNDA ESTACIÓN AUTOMÁTICA DE LA UNAM Si bien hemos venido haciendo una descripción de diversas actividades experimentales que es posible realizar en órbita terrestre, aquí nos vamos a referir a un equipo espacial que está en preparación en la Universidad Nacional y que probablemente subirá a órbita en los próximos años. Como en el caso del equipo anterior, el dispositivo que vamos a describir aquí es parte del proyecto de experimentos espaciales a bordo de transbordadores, que se inició en 1985, y cuya primera parte estaba programada para ponerse en órbita en marzo de 1986. El segundo contenedor con experimentos espaciales se diferencia del primero en que, como decíamos, está equipado con una tapa que puede abrirse en órbita; por lo tanto, los equipos interiores quedan expuestos directamente a todas las condiciones espaciales de la órbita terrestre. Estrictamente, esta segunda estación no puede considerarse como un avance sobre la anterior; en realidad significa un complemento al tipo de actividades de la primera, y es igualmente una incursión en temas de gran importancia dentro de las actividades que hoy se realizan utilizando la órbita como extensión de nuestros laboratorios. Quizá el experimento más importante de la segunda estación es el relacionado con la adquisición de imágenes del territorio nacional por medio de cámaras electroópticas, es decir, cámaras que no utilizan películas fotosensibles, sino que captan la imagen por medios electrónicos. El experimento o, más propiamente, la observación que se realizará con estas cámaras, está basada en la operación de dos cámaras, una electroóptica y otra una cámara convencional de alta definición, capaz de discernir objetos de menos de diez metros desde la órbita terrestre. Ambas cámaras se encuentran dirigidas hacia el mismo objeto, y sus respectivos registros tienen valor complementario. La cámara optoelectrónica adquiere imágenes multiespectrales, como las descritas en el capítulo III, y se utilizan, como mencionábamos, después de realizar un procesamiento por computadora de sus datos; las imágenes grabadas en la cámara de película, al contrario, tienen un registro permanente, con alta resolución, de los rasgos del terreno de donde fueron adquiridas las imágenes multiespectrales. La importancia de esta experiencia radica en que es el primer paso para el diseño y fabricación de un futuro satélite de percepción remota, y que además se podrá instalar a bordo de aviones de control remoto o ultraligeros, de bajo costo; los datos obtenidos de estas actividades tendrán para todos nosotros una gran importancia, ya que las imágenes de satélite, aunque existen, están fuera del presupuesto de la mayoría de los estudiosos del tema. También dentro de este contenedor se colocarán las primeras celdas solares de fabricación totalmente nacional y, como es de suponerse, también este experimento está relacionado con el desarrollo ulterior de equipo espacial que requerirá sus propias fuentes de energía eléctrica. Las celdas solares son, de hecho, convertidores de energía luminosa en electricidad, están fabricadas con base en obleas (discos que presentan similitudes con las hostias) de silicio monocristalino, que sólo recientemente se ha podido obtener en nuestro país, como resultado de los tenaces esfuerzos de investigadores de la Universidad Autónoma de Puebla. Partiendo de la oblea de silicio se procede a depositar una serie de capas finas, fotoeléctricas y protectoras, sobre la superficie pulida del silicio, cuyas propiedades posibilitan la conversión de luz a electricidad mencionada. El objetivo de colocar estas celdas en órbita es evaluar su comportamiento en las condiciones extremosas de la órbita terrestre. Cuando sean recuperadas, se realizará en ellas una serie de análisis para determinar el tipo de degradación causada por la radiación solar y cósmica que literalmente "microapedrean" todo lo que orbita. Además, durante el experimento, las celdas solares van conectadas a una serie de baterías para evaluar su eficiencia durante los ciclos de carga y descarga de las mismas. Parte de la energía captada con los arreglos solares será utilizada en los demás experimentos a bordo. También, teniendo en mente futuros satélites de diseño nacional, se colocará a bordo de esta estación una serie de sensores para determinar la orientación del contenedor durante el vuelo. Los sensores funcionan detectando la radiación directa del Sol, y aquella que refleja la Tierra. Estos sensores están colocados debajo de unas rejillas que permiten el paso de la luz solamente en determinadas direcciones y, utilizados en combinación unos con otros, hacen posible que se conozca la dirección de la que proviene la iluminación. Con estos datos se puede calcular a bordo la posición y orientación de un satélite con relación al Sol y a la Tierra. Es algo conocido que la posición de la estación automática, que tiene una montura fija en relación con el transbordador, se conoce en todo momento debido a la información típica de un vuelo de este tipo. Sin embargo, el objetivo de este experimento es, una vez más, preparar y probar los dispositivos que irían a bordo de cualquier satélite que preparemos en el futuro. Otro de los experimentos a bordo se relaciona con una aleación que posee ciertas propiedades de "memoria" muy especiales. La termomemoria es una propiedad muy estudiada en las últimas décadas que se relaciona con la capacidad de un metal para adquirir diferentes formas cuando es sometido a diferentes temperaturas. Conociendo y manipulando los rasgos de la microestructura de este tipo de aleaciones, se pueden fabricar piezas que respondan de la manera deseada a los cambios de temperatura específicos. Si recordamos que en órbita cualquier equipo está sometido a ciclos de oscuridad total e iluminación solar directa cada 90 minutos aproximadamente, y además, que un material en el espacio baja su temperatura más de cien grados cuando está a la sombra y sube hasta ciento cincuenta grados con el calentamiento solar, podemos imaginar que las aleaciones con termomemoria pueden resultar muy útiles en varias aplicaciones, entre las que destaca la orientación de colectores solares, que aprovechando los ciclos de frío y calor pueden diseñarse para ser orientados automáticamente y quizá durante millones de ciclos en la dirección de máxima iluminación solar. De resultar exitoso este experimento, desarrollado en conjunto con el mencionado especialista del Instituto de Investigaciones en Materiales de la UNAM, se intentará incluir este medio de control de posición, que no requiere de partes mecánicas móviles que puedan fallar, como uno de los elementos a utilizarse en nuestros próximos equipos. También dentro del equipo se instalará nuestro primer dispositivo para purificar material biomédico, por medio de la mencionada electroforesis. De nuevo, buscamos experiencia en un campo que promete resultados de gran valor en sus futuras aplicaciones. Su diseño, hoy en pleno desarrollo, es un proceso bastante elaborado, en el que dominan los criterios dirigidos a evitar la posible contaminación del producto, los medios para iniciar su proceso y frenarlo a voluntad según el control automático inteligente"; es decir que el experimento requiere de un elaborado programa capaz de tomar la mejor decisión ante condiciones variables y ante fallas de los componentes; y la capacidad de almacenar el producto hasta que sea recuperada sin que se deterioren sus propiedades activas. El producto final, si resulta exitoso en el primer intento, sería utilizado en investigación inmunológica en el Instituto Nacional de Nutrición de donde también participan en el diseño y la selección de sustancias interesantes y útiles. Se planea continuar el desarrollo de estos dispositivos hasta lograr en la próxima década fármacos cada vez más útiles y ahora difíciles de producir. Como puede observarse con la revisión de los experimentos incluidos en este segundo contenedor, con estas experiencias se intenta incursionar en la serie de temas cuyo desarrollo parece ser el más prometedor en el panorama actual. Resumiendo, podemos calificar los trabajos en órbita de la Universidad Nacional como un intento por encontrarnos dentro de algunas de las tendencias del avance tecnocientífico desde los primeros momentos en que se está gestando este nuevo campo; con ello, esperamos evitar que en diez o quince años, leamos con cierto celo y perplejidad los avances alcanzados por alguno de los países cuyos programas y políticas espaciales les permiten desarrollar estas actividades con oportunidad. Quizá hoy día muchos entre nosotros, incluyendo a científicos en otros campos, todavía no alcancen a calificar estas actividades como útiles y necesarias para un país que busca el desarrollo, pero aquellos que trabajando en estos temas percibimos su importancia y potencial, nos sentimos absolutamente confiados en que el nada despreciable, pero aún insuficiente presupuesto dirigido hacia estos logros, está absoluta y responsablemente justificado. Insistiremos: la investigación espacial está lejos de ser un lujo; es un camino nuevo del avance tecnocientífico que fructificará con creces los esfuerzos e inversiones por convertirlo en otro campo de investigación en los que el país pone sus esperanzas de que sirva, en su momento, para forjar un mejor futuro para sus ciudadanos, claro está, en parte, en proporción al apoyo. Éstas son las actividades que se nos ocurren como las más importantes para este momento: sin embargo, el panorama futuro tiene elementos de incertidumbre aún mayores. No obstante, en el próximo capítulo trataremos de presentar los aspectos más importantes del panorama que estimamos como el futuro venidero. V I I . H A C I A E L F U T U R O INTRODUCCIÓN PARA hablar del futuro es necesario describir los acontecimientos actuales, ya que acaso sólo así se puede proyectar un panorama con bases. Si bien en las ciencias e ingeniería espaciales casi todo es futuro, estamos viviendo ya las primeras décadas de actividad práctica. Todo lo relacionado con el tema es de actualidad, se está haciendo, o queda, todavía, por hacer; esto último es particularmente cierto en los países en desarrollo, que en su mayoría se mantienen al margen o dan apenas sus primeros pasos en el campo aeroespacial. Para comenzar trataremos de establecer una comparación y evaluación del estado actual de las actividades espaciales de los países más avanzados y continuar después con un análisis de los diversos aspectos de estas actividades, en el que se resuman y destaquen los puntos de interés centrales en este libro, por ejemplo, el campo de los materiales multicomponentes. También aprovecharemos para señalar aquellos factores que particularmente en nuestro país frenan el avance de estas actividades. Asimismo, hablaremos de las estrategias y las herramientas a nuestro alcance que pueden servir para forjarnos un futuro en el área espacial, sin dejar de tratar también los aspectos del contexto socioeconómico en que se dará su aprovechamiento; para finalizar, se puntualizarán algunas de las metas que podemos alcanzar en el corto plazo. Las apreciaciones que siguen a continuación, debe aclararse, carecen de datos suficientemente comprobados que las ubiquen más allá de la duda; son, pues, material que hay que tratar con cuidado, aun cuando se trató de evitar conclusiones en casos de duda en cuanto a la veracidad de las fuentes originales, además de que reflejan la visión de quien está abordando un tema más general que aquel donde se siente en casa. Sin embargo, me atrevo a hacer tales apreciaciones con el ánimo de proyectar el panorama que veo en el ejercicio del trabajo, y aún más, deseando suscitar una sana polémica con lectores que así lo quisieran, para evolucionar en colaboración, hacia posiciones más atinadas y practicar la tarea de afinar el juicio. LOS SATÉLITES DE COMUNICACIONES La industria aeroespacial, sólo en Estados Unidos, empleó 836 000 personas en 1988. Esta cantidad ha ido en aumento desde las primeras décadas del siglo. Para un país como ése, la industria aeroespacial representa el primer contribuyente de la balanza de pagos; en 1987, por ejemplo, sus exportaciones —dirigidas mayoritariamente (80%) a cuatro países: Inglaterra, Canadá, Francia y la RFA—, alcanzaron 102 000 millones de dólares. Anteriormente en la actividad espacial estadunidense el empleo de personas había pasado de 140 000 en 1983, a 220 000 en 1988, mientras que la URSS tiene 600 000 especialistas (claro está que se debe considerar que la cifra estadunidense refleja, además, la baja actividad que causó la falla de varios de sus sistemas de lanzamiento, como el transbordador y dos tipos diferentes de cohetes). La NASA aumentó su presupuesto de 8 900 millones de dólares en 1988 a 11 500 para 1989, con lo que espera retomar la iniciativa espacial cuando menos en algunos rubros; ya no son épocas para destacar en todo. En cuanto a la distribución de gastos dirigidos hacia las actividades espaciales, cabe señalar que 70% van destinados a satélites de comunicación civiles y militares. En general, los satélites de comunicaciones (satcoms) son estaciones repetidoras colocadas sobre un punto fijo en la órbita ecuatorial, la llamada órbita geoestacionaria (OGE), que se encuentra a una distancia de cerca de 36 000 km "anclada" sobre algún punto fijo de la superficie terrestre. A esas alturas los satélites giran en sincronía con la rotación de la Tierra, de donde les viene la oportuna propiedad de mantenerse fijos sobre un punto prestablecido de la superficie terrestre. Para colocar un satélite en la OGE es común, primero, colocarlo en una órbita terrestre baja; una vez ahí, los satélites encienden sus propios motores para impulsarse y colocarse en el plano ecuatorial, plano en el que se corta imaginariamente la Tierra en dos por el ecuador, como una naranja. Aunque a primera vista los satcoms parecen equipos muy complicados, resultan ser en realidad relativamente sencillos: constan de captadores solares que convierten la energía solar en energía eléctrica, que almacenan en baterías, para poder seguir funcionando en los momentos que la sombra de la Tierra los cubre; poseen, también, tanques de combustible y pequeños motores de reacción capaces de corregir su posición orbital, que continuamente es perturbada por la acción gravitatoria de la Luna, el Sol y las variaciones gravitacionales propias de la Tierra; su equipo central consta de antenas diseñadas para recibir ondas electromagnéticas que portan información, mandada desde una estación central en tierra, para, después, enviarla hacia regiones específicas del planeta, que por lo general son los países que pagan los gastos del sistema, su puesta en órbita y operación. Para recibir una señal, los satélites cuentan con una serie de dispositivos llamados transpondedores (TPD), que operan en diferentes frecuencias como las estaciones de radio. Para los primeros meses de 1988 había en órbita 524 transpondedores, muchos de los cuales están llegando al fin de su vida útil. Se espera que para 1996 su número llegue a 710; conociendo su costo unitario, podemos calcular que, hasta esa fecha, el comercio acumulado con estos dispositivos llegará a ser de 5 200 millones de dólares. La gran mayoría de los satélites operan sus transpondedores en la banda "C", que abarca un intervalo de frecuencias que van de 3.7-6.4 Ghz (la G se refiere al prefijo Giga que es un uno seguido por nueve ceros, el Hertz o hz es la unidad de frecuencia, un ciclo por segundo), y que según se ha acordado internacionalmente serán utilizadas exclusivamente en comunicaciones satelitarias. Las nuevas generaciones de satélites operan en frecuencias mayores: 11.7 a 14.5 Ghz, en la llamada banda Ku, lo que permite que se usen antenas parabólicas receptoras más pequeñas. La tendencia de los nuevos satélites es utilizar crecientemente la banda Ku; sin embargo, en los últimos y próximos años se puede hablar de un periodo de transición con los satélites de tipo híbrido, en los que los transpondedores funcionan parte en la banda C y parte en la Ku. El sistema de satélites Morelos por ejemplo, adquirido por México en 1985, es precisamente de tipo híbrido, y tenía en ese momento un costo total de cerca de 200 millones de dólares. A raíz de los problemas del transbordador, la incertidumbre de operación de sistemas espaciales, y en particular, valga la frase, la inseguridad en la que han caído las compañías aseguradoras, hizo que en 1988 el mismo sistema fuera cotizado en 422 millones de dólares. Si en 1985 el precio por transpondedor era de 5.3 millones de dólares, hoy en día ese costo ha aumentado un 20%; en cualquier caso, el incremento del costo de los satélites se debe a la duplicación no tanto del costo del satélite y sus subsistemas, como del costo de lanzamiento y de los seguros de protección. Debido a la limitación de la vida útil que tiene cualquier equipo, se estima que para 1996 todos los transpondedores hoy en órbita estarán fuera de operación, por lo que deberán ser remplazados continuamente por otros. Además, debemos considerar las expansiones de servicios esperados de los satcoms, entre las cuales están: 1) redes privadas de comunicación, de voz y datos, para uso exclusivo de grandes corporaciones o gobiernos, renglón en el que se espera un incremento máximo de nuevos servicios; 2) programas de televisión enviados por cable a los hogares con miras al entretenimiento (y a la nada despreciable penetración cultural); 3) difusión directa de los cada vez más frecuentes "eventos especiales" de televisión; y, 4) a partir de 1993 se puede esperar un importante aumento de los servicios de comunicaciones móviles, tanto para vehículos en tierra, como en mar y aire. Sobre estos nuevos servicios, las cifras de 1988 indican que las redes privadas ocuparon 94 traspondedores, mientras que en 1995 llegarán, según los especialistas, a 315. La razón es que para muchas empresas transnacionales, el servicio público de comunicaciones aun en los países desarrollados, resulta más complicado, costoso e incierto. Otra ventaja notable para el público, en cuanto a los cambios de frecuencias de transmisión en los satélites, de la banda C a la Ku, en la banda Ku tendrán de seis a siete veces más potencia, lo que significa para el consumidor el poder utilizar antenas mucho más pequeñas que las que ostentan múltiples residencias de la ciudad de México; el tamaño de los platos receptores muy probablemente llegará a ser de la sexta a la octava parte de los armatostes que hoy observamos. La ventaja de los satélites con transpondedores híbridos, como el caso de los Morelos, se basa en los costos unitarios, ya que generalmente los satélites emiten en una banda, o en otra, y sin embargo, para un periodo de transición como el referido, lo que conviene es contar con ambos tipos a bordo para suavizar los problemas que implica cambiar el equipo de tierra, que es diferente, no sólo por el tamaño de los platos receptores, sino por la electrónica de recepción y procesamiento. A pesar de esta ventaja, surge también un problema: si se tienen los transpondedores de la banda Ku en órbita, es necesario, considerando su vida limitada, darles uso lo más rápidamente posible, lo que implica gastos considerablemente mayores que los requeridos para la recepción de la banda C (pues su uso ya establecido ha permitido que los costos del desarrollo de la electrónica bajen). En lo que se refiere al futuro, podemos confiar en que la tendencia en el diseño de satcoms será la de aumentar el número y la potencia de cada transpondedor, y asimismo, se puede esperar que los satcoms seguirán dominando la mayor parte del mercado espacial, cuando menos hasta el fin del siglo, por lo que se mantendrá una fuerte demanda que progresivamente iría inclinándose hacia los transpondedores de la banda Ku. EQUIPOS PARA LANZAMIENTO En lo tocante a las inversiones en las actividades espaciales, el segundo renglón en importancia es el desarrollo y operación de diversos sistemas de lanzamiento que, a manera de clasificación, se catalogarían en propulsores recuperables y desechables. Los sistemas recuperables están diseñados para utilizar repetidamente algunas de las partes más costosas. Los ejemplos más conocidos son los transbordadores estadunidenses y el Burán soviético, basados, en el caso de Estados Unidos, en un sistema de propulsión doble; por un lado, en el empenaje o cola del orbitador, los motores de combustible líquido, que queman una combinación de oxígeno e hidrógeno, almacenados en el tanque central de gran tamaño y administrados por medio de bombas que inyectan el combustible y oxidante dosificados a las cámaras de combustión; además, a cada lado del tanque central se encuentran dos motores impulsores que utilizan combustible sólido, previamente mezclado con su oxidante. La combinación de los motores de combustible líquido y sólido funciona simultáneamente hasta que se agotan los impulsores sólidos, que se separan a los dos minutos de lanzamiento, y están provistos de equipos de paracaídas para ser recuperados y reutilizados. Una vez separados los impulsores, el transbordador continúa su ascenso, más ligero, bajo el impulso de los motores de combustible líquido, que funcionan hasta agotarlo. En esa etapa el orbitador, que tiene la forma de un avión con ala delta (triangular), entra en órbita, y se separa del tanque principal, que es la única parte desechable del sistema, pues se quema al entrar dando tumbos a la atmósfera. Las ventajas que teóricamente presenta este tipo de sistema se basan en la reutilización de las partes más caras de un lanzador en otras misiones. No obstante, en la práctica, este nuevo concepto se ha encontrado con problemas técnicos. Para el caso de los lanzadores desechables, históricamente precursores de la actividad espacial, pueden estar hechos también con motores de combustible líquido o sólido; estos últimos se colocan alrededor de la primera etapa en diferentes disposiciones radiales, según los requerimientos de la misión. Sus ventajas principales se relacionan con la ya larga experiencia en su utilización y el gran control de calidad de sus partes (se producen en serie, lo que permite un estricto control de sus características). Como en el caso de los datos en relación con los satcoms, sólo citaremos una serie de datos e información que permitan al lector deducir sus propias conclusiones sobre las actividades espaciales en la actualidad, así como también tener una idea de las tendencias más importantes en el futuro. El estado actual de los equipos de lanzamiento es, en una palabra, desconcertante, aunque para ser justos, debemos señalar que el desconcierto proviene más del llamado mundo occidental, que de la, hoy por hoy, primera potencia mundial espacial, la Unión Soviética. El desconcierto al que nos referimos, como suele ser en estos casos, no proviene solamente de problemas técnicos y científicos, se diría que más bien proviene de una limitante filosófica. Para fundamentar la aseveración anterior, estoy convencido de que conviene presentar al lector algunas experiencias directas. Cuando a finales de la década de 1960, en plena vida el proyecto Apolo, se presentaban ante la prensa los impresionantes planes del futuro programa espacial de los EUA, no faltaban nunca ni bombos ni platillos. Como estudiantes de ingeniería aeroespacial en los últimos años de la carrera, era algo común que recibiéramos la visita de los promotores asociados a las grandes empresas, que entonces preparaban las diversas alternativas de un transbordador, de donde debía surgir el diseño más apropiado del equipo que sustituiría, según ellos de una vez por todas, los cohetes tradicionales que, no obstante, les habían servido bien en el proyecto Apolo y en buena parte de las investigaciones planetarias. Con el transbordador se iniciaba la Era de los Equipos Recuperables. En aquellas fechas, todos los estudios eran favorables a la introducción de equipo recuperable, que por esta virtud hiciera caer los costos de poner cada tonelada en órbita hasta niveles que, en el papel, oscilaban entre la cuarta y la quinta parte de lo que costaban entonces los programas en boga. Seguramente muchos quedarán impresionados por los siguientes datos: la estancia de un astronauta en la Luna costaba 30 000 dólares, ¡cada segundo! El costo de los varios kilogramos de material lunar traído durante el proyecto Apolo fue de 1 000 millones de dólares, y entre 1958 y 1972 los EUA gastaron 63 000 millones de dólares en actividades espaciales (en cualquier caso, sirva de comparación que, algo millones de veces más inútil y oprobioso, como la guerra a Vietnam, costó a los estadunidenses 120 000 millones de dólares). En contraste, los robots de exploración automática Lunajod proporcionaron a la URSS una cantidad suficiente de rocas lunares, a un costo cinco veces menor. Sin embargo, las nuevas tecnologías, o como se reconoce hoy en día, el mito de las nuevas tecnologías, habrían de costar muy caro a aquellos que con la sola promesa de un supersístema de lanzamiento anulaban la cohetería desechable, sin calcular que los cohetes convencionales seguían siendo útiles. Paradójicamente, el estado general de los últimos años del programa espacial norteamericano presenta los siguientes signos diagnósticos: 1) falla catastrófica e identificación de múltiples problemas serios con el transbordador espacial; 2) una serie de fracasos en el lanzamiento de cohetes desechables, supuestamente confiables; y en consecuencia una indecisión gubernamental sobre los caminos que ha de seguir el esfuerzo espacial —quizá sea este el problema más serio— y, por si fuera poco, un desacuerdo de la comunidad aeroespacial sobre las mejores vías para la recuperación. Sobre las repercusiones del trágico final del Challenger y su tripulación en el programa norteamericano, es necesario explayarnos un poco más, pues el accidente expuso las concepciones filosóficas erróneas en las que incurrió la NASA y en las que puede caer cualquiera al emprender programas en búsqueda de una supuesta modernización, que no aproveche ampliamente las experiencias previas y la capacidad instalada. Entre los efectos que tiene el accidente del transbordador podemos citar las siguientes repercusiones: 1) freno a la investigación espacial en ciencias de la microgravedad, y en la colocación de equipos autómatas avanzados ya preparados para el estudio del sistema solar; 2) reducción de operaciones, de 24 vuelos anuales programados (en la década de 1970 se hablaba de hasta 100 vuelos anuales) a menos de la mitad, hecho que por sí solo duplica el ya alto costo de operación del sistema completo. Al respecto, el profesor emérito norteamericano James A. Van Allen, que tiene en su haber no sólo el descubrimiento, en 1958, de los famosos cinturones de radiación alrededor de la Tierra que llevan su nombre, sino que además fue el investigador principal en el desarrollo de 24 satélites y misiones planetarias, expuso las siguientes opiniones sobre el transbordador: 1) "al ritmo, considerado optimista, de ocho a diez lanzamientos al año, el transbordador se convierte en el sistema más costoso y menos robusto [que en el lenguaje espacial significa menos confiable], además de inadecuado para las necesidades de Estados Unidos"; 2) "el fracaso de la política nacional del uso exclusivo del transbordador tripulado para lanzar todo tipo de satélites —muchos de los cuales no requerían de la intervención de astronautas— que sólo fue aclarado ante el público con el accidente del Challenger". Durante los primeros vuelos exitosos del transbordador, se llegó a confirmar, ilusoriamente, que los equipos desechables quedaban atrás. Y adelantándose en los hechos, el mismo Van Allen añade: 3) "el desarrollo de una gran estación espacial es en estos tiempos, groseramente inadecuado; deberíamos buscar avances paulatinos mucho menos costosos, que sean, además, validados por medio de consideraciones apoyadas en información correcta y en una actitud crítica". Finalmente opina, basándose en su experiencia anterior —que abarca desde el Explorador 1 hasta los Viajeros l0 y 11, que nos dieron las impresionantes imágenes de los detalles de la superficie de Júpiter y de los anillos de Saturno—, que: 4) "las ciencias espaciales avanzan más con equipo automático, a excepción de los estudios sobre fisiología y psicología humana en condiciones de microgravedad". Otras repercusiones que podemos citar son: 1) freno al avance y alcance de la estación espacial hacia donde se afocan los principales esfuerzos de la NASA; 2) incremento inusitado del costo de los seguros de vuelo, que pasó a ser de entre 5 y 10%, a 20 o 30% del costo total de un satcom, por ejemplo; 3) la competencia comercial de diversos lanzadores, como el Ariane, de la Agencia Espacial Europea, que a raíz del accidente comprometió sus próximos cuatro años de servicio en el lanzamiento de cargas útiles, principalmente de aquellas que el transbordador no va a poder cumplir (que implican de 65 a 90 satcoms, con costos de lanzamiento de 25 a 40 millones de dólares cada uno y significan 50% del mercado occidental), esto no sólo por su imposibilidad de volar con la frecuencia prevista, sino por la nueva política que pone al transbordador fuera del campo de los lanzamientos comerciales, para poder dedicarlo, en más de un tercio de los vuelos, a misiones militares secretas; 4) el Protón, de la firma Glavcosmos soviética, que por cierto presenta uno de los máximos márgenes de confiabilidad en el mercado (92%), con una experiencia de 110 lanzamientos, con sólo dos fallas registradas desde 1978. También, cabe anotar, que hoy día hay entre 60 y 100 satélites que esperan ser lanzados, hecho que ha provocado que también otros países traten de captar parte del mercado de lanzamiento, por ejemplo, el lanzador chino "Larga Marcha", desarrollado a partir del Vostok, que también ha asegurado a diversos clientes, con costos menores a los del Ariane, los cohetes indios, los japoneses y próximamente los brasileños. En Estados Unidos compiten también las únicas tres firmas que todavía fabrican cohetes desechables; para el año 2000, a la vuelta de la esquina, se espera que 15 países posean cohetes capaces de lanzamiento a la órbita. Desde luego que las opiniones sobre el estado actual del transbordador no se limitan a las enunciadas; se podrían llenar ya varios volúmenes de opiniones, en su mayoría exageradamente contrarias a este nuevo sistema, que si bien presenta serios problemas, éstos pueden ser resueltos, y por tanto sigue teniendo mucho sentido como equipo portador de cargas útiles a órbita baja. Las expectativas iniciales creadas alrededor del transbordador llegaron a generar tales ilusiones, aun entre los expertos, al punto de que su presencia casi acabó con la cohetería desechable, ya que desaparecieron las líneas de producción, y los expertos en estos cohetes en Estados Unidos se han retirado en su mayoría. Sin embargo, con la nueva política que limita el uso del transbordador a actividades militares y científicas, la tendencia que hoy se reestablece es la de comercializar los lanzamientos de cohetes desechables, por lo que la iniciativa privada ha reinstalado, como mencionábamos, tres fábricas de propulsores. Técnicamente hablando, las fallas del transbordador se deben a los siguientes factores: primero, en cuanto a los motores principales, que queman combustibles líquidos, las expectativas iniciales estimaban que sería posible utilizarlos hasta cien veces, con un ajuste general sólo cada 50 vuelos; sin embargo, estos motores se revisan detalladamente cada tres o cuatro vuelos, debido a que, entre otros aspectos, los alabes o aspas de las turbinas inyectoras de combustible se agrietan, así como también, las toberas de los impulsores sólidos, hechas con un nuevo material compuesto, carbono-carbono, se erosionan durante cada uso más allá de lo que se estimó en su diseño; segundo, el conocido problema de las juntas de los impulsores de combustible sólido, que fue el causante directo de la pérdida de la tripulación y del transbordador Challenger; tercero, se han encontrado problemas con los sistemas de direccionamiento de las toberas de estos mismos motores, cuya falla también se traduciría en una catástrofe; cuarto, en pruebas recientes se han registrado problemas con las válvulas que alimentan los motores desde el tanque central; si estas válvulas, de 43 cm de diámetro, se cierran accidentalmente pueden causar una explosión también desastrosa. En fin, no faltan los diagnósticos de todo tipo; sólo de la oficina que agrupa a los astronautas de la NASA surgió en 1986 una lista de 36 aspectos que los astronautas profesionales del transbordador consideraban necesario revisar antes del siguiente lanzamiento: cosa que se hizo sólo parcialmente. Pero los diagnósticos sobre el estado actual del programa espacial estadunidense no se limitan a cuestiones técnicas y científicas, como las que hemos enlistado; resulta interesante por ejemplo citar la opinión de C. J. Brown, asistente del secretario de Comercio de Estados Unidos, quien dijo "...el programa espacial tiene como problema de raíz que se ha frustrado eficazmente al capitalismo empresarial y se le ha reemplazado con un monopolio gubernamental", opinión peculiar y sugestiva puesto que uno esperaría una opinión más meditada en los labios de un funcionario de tan alto rango; un somero vistazo al vigoroso programa espacial de la URSS — prototipo de monopolio gubernamental—, demuestra que ni siquiera en el diagnóstico del problema estadunidense se está logrando suficiente claridad. Entre los múltiples organismos que tienen bajo su responsabilidad el desarrollo tecnocientífico en Estados Unidos, destacan la Academia Nacional de Ciencias y el Consejo Nacional de Investigaciones. Por un pedido de la Casa Blanca, estas dos organizaciones formaron un grupo de estudio —otro más— para diagnosticar los problemas de la empresa espacial y sugerir las estrategias de recuperación a seguir. Entre sus sorprendentes descubrimientos se puede citar la opinión de que la NASA no es una organización tecnológicamente fuerte, aseveración que sin duda a muchos nos suena inesperada. En cuanto a los vuelos tripulados, hizo las siguientes recomendaciones: 1) se requiere de un trabajo extenso para evaluar los efectos de vuelo espacial prolongado; 2) es necesario conocer detalladamente los efectos de radiación espacial en humanos; 3) se requiere de desarrollo y validación en los sistemas de apoyo vital de malla cerrada, es decir, aquellos que hacen una nave espacial habitable por largos periodos; 4) hacer hincapié en el desarrollo de trajes, para actividad extravehicular, de alta presión; 5) aumentar el apoyo robótico en las operaciones humanas. En cuanto a los aspectos de propulsión, recomendó, entre otras cosas: 1) motores de diseño avanzado reutilizables, confiables y que tengan la capacidad de tolerar fallas; 2) motor de combustible líquido para vehículo reutilizable para transferencia orbital, por ejemplo, para viajar entre la estación espacial y algún satélite que requiera de reparaciones; 3) el desarrollo de un propulsor de alto impulso y rendimiento (como el Energía), que se va a requerir para misiones planetarias. En la actualidad, se calcula que se requerirán de 300 a 350 lanzamientos hasta 1995; pero con la precaución de no ignorar que en la bibliografía estadunidense y europea se ignora olímpicamente que la mayor actividad espacial no se da en Occidente, sino en la URSS; este país ha tenido un promedio de cerca de cien lanzamientos anuales en los últimos cinco años, por lo que la cifra mundial de lanzamientos sería más realista si la colocamos entre 1 000 y 1 050 lanzamientos (no se puede suponer tampoco que subirán al espacio sólo 1 050 satélites, ya que hay lanzadores que colocan con un solo impulsor de 8 a 12 satélites pequeños en órbita, o 2 o 3 grandes). La cohetería soviética, a diferencia de lo que muchos piensan en nuestros países, fue desarrollada de manera totalmente independiente de la cohetería occidental (incluyendo la cohetería de la Alemania de la preguerra). Konstantin Tsiolkovski, maestro rural y aficionado a la física, las matemáticas y la astronomía, a principios de siglo publicó un trabajo en donde presenta por primera vez los cálculos básicos necesarios para poner en órbita satélites y exploradores del Sistema Solar. En ése y en trabajos posteriores demuestra la necesidad de recurrir a combustibles líquidos para lograr el impulso necesario para llegar a la órbita. Sin embargo, lo más sorprendente de la contribución de este sabio, aunque él nunca llegó a ver materializadas sus propuestas, es su predicción sobre el futuro de la cosmonáutica, publicada en un folleto que han bautizado recientemente como "Plan Tsiolkovski". Vale la pena reproducir los 16 puntos de este plan, que nos permite entender el origen y dirección que ha tomado el programa espacial de la URSS (se añade, después de la predicción de Tsiolkovski el avance tecnológico que lo materializa): 1) "Se construye un avión cohete con alas y con órganos de control habituales... Año 1942. Avión cohete BI-1 2) "Hay que disminuir poco a poco las alas de los aviones, aumentar la potencia del motor y la velocidad... " Años 1947-1948. Aparatos reactores M1G-15, MIG-17y LA-l5. 3) "El casco de sucesivos aeroplanos hay que hacerlo impenetrable a los gases, y llenarlo de oxígeno, con aparatos que absorban el bióxido de carbono, el amoniaco y otros productos expedidos por el ser humano..." Año 1955. Avión TU-104. 4) "Se adoptan los timones que he descrito [se refiere a los accionados por gases], que funcionan magníficamente en el vacío y en el aire muy enrarecido, a donde llega el proyectil en vuelo. Se pone en servicio un aeroplano sin alas, doble o triple, lleno de oxígeno, herméticamente cerrado..." Año 1956. Cohetes balísticos actuales. 5) "...la velocidad llega a 8 km/s, la fuerza centrífuga elimina por completo el peso y el cohete por primera vez sale de los límites de la atmósfera..." Año 1957. Lanzamiento del primer satélite artificial de la Tierra. 6) "Después se puede utilizar un casco simple, no doble. Se repiten los vuelos más allá de la atmósfera. Los aparatos reactores se alejan más y más de la envoltura aérea de la Tierra y permanecen más tiempo en el éter. No obstante, regresan porque tienen una reserva limitada de alimentos y oxígeno." Comienzo de la década de 1960. Naves espaciales de las series Vostok, Mercurio y Géminis. 7) "Se hacen intentos de librarse del anhídrido carbónico y de otras excreciones humanas mediante plantas enanas seleccionadas que, a la vez, proporcionan sustancias nutritivas..." Año 1964. Experimentos espaciales con la clorela. 8) "Se confeccionan escafandras etéreas (ropas) para salir sin peligro del cohete al éter." Año 1965. Paseo espacial de Alexéi Leónov. Hasta este momento se han cumplido todos estos pronósticos, hechos hace más de 80 años, y vale la pena aclarar que estas actividades fueron desarrolladas en el orden previsto. Los restantes ocho puntos proporcionan una lista de actividades que podemos esperar se den en el futuro de la exploración espacial. 9) "Con el fin de obtener oxígeno, alimentos y depurar el aire del cohete, se inventan compartimentos especiales para plantas. Los cohetes llevan todo esto plegado al éter, y allí se despliega y arma. El hombre consigue una gran independencia de la Tierra, puesto que obtiene medios de subsistencia por sí mismo." 10) "Se instalan amplios poblados alrededor de la Tierra." 11) "Se utiliza la energía solar no sólo para alimentación y comodidades de vida, sino también para la traslación por todo el Sistema Solar." 12) "Se fundan colonias en el cinturón de asteroides y en otros lugares del Sistema Solar donde encuentren pequeños cuerpos celestes." 13) "Se desarrolla la industria y aumenta el número de colonias." 14) "Se consigue la perfección individual (de cada persona) y colectiva (social)." 15) "La población del Sistema Solar se hace 100 000 millones de veces mayor que la actual en la Tierra. Se llega a un límite más allá del cual es inevitable el asentamiento por toda la Vía Láctea." 16) "Comienza a apagarse el Sol. La población restante del Sistema Solar se aleja de éste, partiendo hacia otros soles, a unirse con los hermanos que volaron antes." KONSTANTIN TSIOLKOVSKI, 1903 Aparte de Tsiolkovski podríamos mencionar a Vladimir Vetchinkin (1888-1950) como uno de los pioneros de la cohetería, cuyas soluciones a toda una serie de problemas teóricos tienen vigencia hasta nuestros días. En cuanto a los aspectos prácticos de la cohetería, es indispensable mencionar los trabajos de Serguei Koroliov, a quien los soviéticos llaman "padre de la cosmonáutica práctica" y que fue uno de los primeros constructores de portentosos cohetes de combustible líquido. En 1933 despegaba un pequeño cohete de menos de 20 kg de peso, que alcanzó una altura de 400 metros. Sin embargo, este primer lanzamiento significó una victoria tras muchos años de esfuerzos dedicados al desarrollo de la cohetería para alcanzar la órbita. El nombre del constructor en jefe, Koroliov, está asociado íntimamente al desarrollo de la cohetería soviética (aunque tal hecho no lo salvó de las represiones de Stalin). Poco después del sorpresivo lanzamiento del Sputnik en 1957, el lanzamiento en 1961 del inolvidable Yuri Gagarin (1934-1968) vino a sorprender al mundo todavía más. Pocos más autorizados para referir este excepcional acontecimiento, que el pionero alemán de la cohetería, el profesor Hermann Oberth de la RFA —a quien llaman "el padre de la cohetería alemana": "...ya soy viejo y hubo un tiempo en que perdí la esperanza de llegar a vivir hasta la era cósmica. Pero ahí tenemos en órbita alrededor de la Tierra un Sputnik ruso y dentro de unos cuantos años en el cosmos se hablará en ruso... lamentablemente, no sé quién ha construido el potente cohete y la primera nave para la travesía cósmica. Seguramente si viviera mi colega el señor Tsiolkovski, con quien mantenía correspondencia, cuando nos encontrásemos con el magnífico constructor exclamaríamos: ¡Bravo! ¡Bravo! Usted ha hecho realidad el sueño que alimentó nuestra inteligencia muchos años y a cuya realización hicimos el aporte que pudimos". Precisamente después del vuelo de Gagarin en abril de 1961, el periódico Pravda volvió a hacerle una entrevista al profesor Oberth: —Me alegro mucho —dijo el sabio— de que hayan hecho realidad mis predicciones concernientes a la posibilidad del vuelo del hombre al espacio cósmico. Hice esa predicción en 1923. — Pero entonces usted no suponía que el primer cosmonauta sería un ruso. —No —respondió Oberth—. Creía que sería un alemán. —¿Y cuándo llegó a la convicción de que sería un soviético? —El 4 de octubre de 1957, cuando la Unión Soviética puso con todo éxito en órbita el primer satélite artificial de la Tierra... No es común en nuestro medio encontrar material detallado sobre la cosmonáutica soviética, pero por suerte existe un libro publicado por primera vez en 1981, y en 1986 en su traducción al español, titulado El programa espacial soviético: páginas de la historia, de la editorial Progreso de Moscú, de donde proviene el anterior material. Estoy seguro que para aquellos interesados en el desarrollo de la astronáutica, la lectura de este libro revelará toda una serie de datos e informaciones que hasta nuestros días no se conocían suficientemente en Occidente. En cuanto al futuro de la tecnología coheteril no se puede decir que los actuales cohetes de combustible líquido y sólido sean sustituidos en nuestro siglo, o aun en las primeras décadas del próximo. De los varios conceptos de nueva tecnología que aquí mencionaremos, cabe iniciar la explicación con el más probable sustituto del cohete con base en combustibles líquidos o aquellos híbridos que utilizan simultáneamente propulsores de combustible sólido; nos referimos al llamado cohete atómico. Según lo conciben los que lo han propuesto desde hace varias décadas, el cohete atómico aprovecha una secuencia de minúsculas explosiones atómicas —ojo, ecologistas— que se dan en el interior de la cámara de combustión. Los cohetes atómicos son capaces de generar suficiente energía para impulsar cargas útiles hasta la órbita terrestre o más allá; sin embargo tienen una serie de limitaciones que hasta el momento no se sabe cómo evitar; entre ellas están: a) generan una contaminación inaceptable para la atmósfera terrestre; b) existe un grave riesgo para la tripulación debido a las emisiones radiactivas que se generan durante su funcionamiento; c) se estima que estos cohetes pesarían entre 5 y 10 veces más que los sistemas actuales para la misma cantidad de impulso; d) otro problema de los cohetes atómicos es que el proceso para su puesta en marcha, o para detener su funcionamiento, es considerablemente más complejo que el de los cohetes de combustible líquido. Pero quizá en el futuro no sea un problema si consideramos que, por ejemplo, los cohetes de combustible sólido no se podían apagar hasta que se acababa la mezcla de combustible y comburente, y que en los últimos años se han hecho pruebas con estos cohetes cuyo comburente, en este caso el oxígeno, ahora se inyecta en la cámara de combustión para iniciar la ignición y se puede suspender al detener el suministro de oxígeno, ya que la combustión ocurre solamente en una capa delgada de contacto entre el combustible y el oxígeno inyectado; e) las limitaciones de los cohetes atómicos por sus problemas de contaminación —lo que los hace útiles sólo en el espacio cósmico, lejos de los planetas—, hacen que actualmente se oriente la investigación a tratar de combinarlos con motores de combustible y comburente líquido que los pongan en órbita; f) por otro lado, existe también el problema de que la combustión se da a millones de grados centígrados, y todavía no se conocen materiales que puedan soportar esas temperaturas. Ante esta situación sólo podemos esperar que algún descubrimiento novedoso nulifique en el futuro las desventajas mencionadas, y dé lugar a que el cohete atómico pueda convertirse en realidad. Se ha trabajado también con cohetes de bajo impulso, que basan su funcionamiento en la expulsión de partículas no radiactivas aceleradas por un campo electromagnético en dirección contraria al vuelo. Entre éstos se hallan en primer término los motores iónicos, que aceleran partículas cargadas eléctricamente utilizando campos eléctricos. La ventaja de estos motores es su bajo peso y la larga duración de su funcionamiento, lo que da como resultado, sin embargo, un impulso de baja intensidad, pero que por su larga duración pueden imprimir gran velocidad a la carga útil, hecho que resulta atractivo en misiones de gran distancia dentro o fuera del Sistema Solar. Estos pequeños motores se encuentran ya en el mercado, y probablemente serán incluidos en las futuras generaciones de satélites y naves exploradoras, así como en los satcoms, para lograr el ajuste continuo de su órbita. Entre los nuevos aparatos también podemos mencionar los cohetes electrotérmicos y magnetohidrodinámicos, que también funcionan acelerando partículas no radiactivas. Estos últimos tienen la ventaja de proporcionar decenas de veces más impulso específico que los cohetes líquidos, pero su empuje total es miles de veces menor, y sólo funcionan en el vacío, por lo que desde luego quedan descartados para los lanzamientos desde la superficie terrestre. Sin embargo, si se operan estos motores desde la órbita terrestre, se aprovecha su bajo consumo de combustible y que pueden impulsar las cargas útiles a velocidades de más de 100 km/s. Las fuentes de energía para generar los campos eléctricos necesarios para su funcionamiento tienen un peso considerable, lo cual constituye una limitación; no obstante, es posible utilizar fuentes alternas de energía como la helioeléctrica (la extraída del Sol), por lo que algunos autores se refieren a estas naves como "veleros cósmicos". Por los datos mencionados arriba, se espera una sustitución de los motores tradicionales por aquellos basados en estas nuevas técnicas; sin embargo, esto tardará varias décadas, aunque incuestionablemente estos motores serán los que en el futuro permitirán generar las grandes velocidades requeridas para la exploración práctica del Sistema Solar o más allá. LA PERCEPCIÓN REMOTA La tercera actividad espacial en importancia desde el punto de vista económico es la percepción remota (PR), que se refiere, como ya se mencionó, a la exploración ya sea de la Tierra o del espacio, utilizando equipos que observan y miden a distancia. De aquí al año 2000 se espera que en este renglón se incurra en gastos de 4 000 millones de dólares más o menos. Sólo en 1986 se gastaron 150 millones de dólares para la puesta en órbita, operación y venta de las imágenes obtenidas por estos satélites; de hecho, los satélites meteorológicos que desde la órbita geoestacionaria obtienen datos sobre nubosidad y temperaturas atmosféricas y terrestres, también realizan actividad de percepción a distancia, por lo que las cifras mencionadas llegan en realidad a ser todavía mayores. Para ilustrar el punto anterior diremos que constantemente aumenta la demanda de datos para la previsión del clima, no sólo por parte de agricultores, cuya producción depende mayoritariamente de los aspectos climáticos, sino también de la industria de la construcción, y la del transporte, que desean calcular con anterioridad aumentos en la demanda de sus servicios. Si bien en el caso de los agricultores las necesidades de prever el clima son bastante evidentes, quizá convenga explicar un poco más cómo la predicción climática con datos espaciales afecta a las industrias de la construcción y del transporte. En el primer caso, en los países de clima extremoso es importante establecer las fechas probables del inicio de las primeras heladas, ya que de esto depende la toma de toda una serie de costosas medidas que permiten a las compañías constructoras edificar en climas fríos. En el caso de la industria del transporte es interesante anotar que la cantidad de viajeros en un fin de semana puede variar hasta en un 50% debido a la percepción que del clima se tenga. Hoy en día, existen sólo dos satélites occidentales de percepción remota civiles; sin embargo, la compañía encargada de los lanzamientos europeos estima que, para finales del siglo, subirán al espacio de 8 a 15 naves dedicadas a este propósito. En 1989 se espera colocar en órbita el segundo satélite francés de teleobservación SPOT, que sustituirá, y quizá por algún tiempo complemente al único satélite europeo de percepción remota hoy en órbita. También en los próximos años, los europeos, canadienses y japoneses tienen planeado colocar en órbita los satélites homónimos ERSI y RADARSAT, que son capaces de obtener imágenes de alta resolución, por medio de equipo de radar de apertura sintética. Estos equipos tienen la capacidad de obtener imágenes en la oscuridad y aun a través de la más espesa nubosidad, por lo que resultan particularmente útiles para los países nórdicos y ciertas zonas tropicales. En un principio se esperaba que las imágenes basadas en ondas de radar, a diferencia de las que funcionan en la banda visible del espectro electromagnético, produjeran resultados particularmente útiles a los oceanógrafos; las primeras imágenes de sectores terrestres obtenidas con radar (en particular aquellas obtenidas por los norteamericanos SAR-A y SAR-B, a bordo del transbordador), demostraron la gran utilidad que tienen también para los científicos las imágenes de superficies continentales. Como ejemplo podemos mencionar dos interesantes fenómenos: el primero se relaciona con la obtención de imágenes de estructuras geológicas enterradas hasta 6 m debajo de la superficie en una zona de Egipto; sorpresivamente, las imágenes mostraban dichas estructuras escondidas en las dunas del desierto. Asimismo, por la capacidad de ciertas frecuencias de radar para penetrar la vegetación, fue posible localizar por medio de esta técnica obras arqueológicas olvidadas; en particular, largos caminos mayas bajo las selvas de México y Centroamérica. Además de las agencias occidentales, cabe mencionar las imágenes obtenidas desde el espacio por los equipos soviéticos. Soyuzkarta, la agencia soviética dedicada a la venta de imágenes espaciales, lanzó recientemente al mercado un producto inesperado. Las imágenes soviéticas son diferentes a las occidentales en varios aspectos: primero, debido a que poseen 40% mayor resolución que las del satélite francés SPOT 1, y 80% más que los satélites norteamericanos de la serie LANDSAT-TM, ya que aquellos detectan objetos de sólo 6 m de diámetro, hecho que por sí mismo aumenta la diversidad de usos en los que pueden ser empleadas. Segundo, no son como las "imágenes electrónicas" del equipo occidental, que requieren de computadoras para ser interpretadas, sino que se adquieren ya impresas en papel de color, y presentan directamente los rasgos que interesan al usuario potencial, aunque recientemente se habla de una firma soviética que pretende comercializar también imágenes electrónicas, en cinta magnética como las de Occidente pero con resolución de 4-5 m. Los países que operan este tipo de satélites, o que utilizan estas imágenes para dar servicio a terceros, han encontrado una actividad claramente rentable; por ejemplo, la Agencia Espacial Sueca está realizando mapas topográficos para Filipinas e Indonesia que, con su enorme cantidad de islas, difícilmente podrían realizar este proyecto sin la ayuda de imágenes de satélites. La próxima década Brasil, China y la India colocarán sus propios satélites de teledetección, los dos primeros en conjunto. Los satélites para el estudio de los recursos naturales tienen en su haber una serie de operaciones que pueden ya considerarse rutinarias, entre las cuales están la supervisión de cosechas, el estudio forestal, la planeación urbana, la exploración de petróleo y gas, la mineralogía, el uso de suelos y la investigación oceanográfica, entre otros. Sólo en Estados Unidos hay 100 compañías dedicadas a la interpretación de imágenes satelitarias, se calcula que existen 100 más en otros países. Cabe señalar aquí un hecho muy interesante. El Instituto de Investigaciones Espaciales (INPE) de Brasil tiene una antena para captar las imágenes de los satélites occidentales y cuenta con más de 1 400 usuarios de este tipo de imágenes, lo que hace que Brasil, junto con la India, sea uno de los países en desarrollo que más utiliza las nuevas tecnologías espaciales. Un hecho reciente nos permite aseverar que en las próximas décadas se dará un impulso muy importante a la utilización de imágenes de percepción remota: diferentes grupos dedicados a la teledetección están desarrollando los programas necesarios para la interpretación de imágenes en computadoras personales, lo que multiplicará de manera notable el número de usuarios en todo el orbe. En nuestro país hay un número muy bajo de usuarios (20), aunque al principio esta técnica despertó el entusiasmo de muchos grupos de trabajo, principalmente en las universidades, esto se debe, al menos en parte, al alto costo de las imágenes y de los equipos para su procesamiento, pero creo que principalmente se debe a la ignorancia por parte de quienes toman las decisiones sobre el potencial de estos productos: falta difusión amplia del tema. Un aspecto muy importante respecto al uso de imágenes se refiere al archivo que de éstas guardan principalmente Estados Unidos y la URSS, ya que muchas de las aplicaciones requieren de imágenes de la misma zona obtenidas en diferentes fechas, para analizar los cambios ocurridos. En nuestro país contamos con un excelente ejemplo para ilustrar la importancia de poseer un archivo de imágenes: la ciudad de México, una de las mayores concentraciones urbanas del planeta. Nuestra ciudad crece y crece, sin embargo, nadie sabe a ciencia cierta cuánto ni hacia dónde ni a qué velocidad. Cuando pensamos en la imagen espacial de una ciudad de más de 18 millones de habitantes (véase la figura 28), en la que se puede observar buena parte de sus obras de infraestructura, salta a la vista que las técnicas tradicionales para obtener la información necesaria serían un proyecto complicado, costoso, enorme, además de inútil, debido a lo tardado del proceso de catastro: una vez terminadas ciertas zonas los especialistas se trasladarían a otras, y el rápido, continuo y desordenado crecimiento pondría en duda constantemente la vigencia de sus datos (hace unos años se mencionaba el increíble número de 3 600 personas que diariamente se incorporaban a la ciudad, ya sea por nacimiento o por influjo de las zonas rurales). La técnica de percepción remota permite localizar, con relativa facilidad, los nuevos asentamientos periódicamente (en lapsos semestrales o anuales). Recordando que se pueden restar dos imágenes en una computadora, por lo que con imágenes periódicas de la ciudad podríamos saber, con una precisión de más o menos la quinta parte de una manzana o cuadra, cuánto está creciendo la ciudad, en qué direcciones predomina el crecimiento, y para saber la velocidad a la que ha crecido en los últimos años, además de restar dos imágenes, se utilizarían las imágenes de los archivos de la Soyuzkarta, la rusa, o de EOSAT, su contraparte estadunidense. Figura 28. Imagen digital de la ciudad de México obtenida por satélite francés Spot 1. Nótese los detalles observables a 800 km de altura. Otra novedad que puede difundir el uso de las imágenes satelitarias de percepción remota, es la relacionada con los medios masivos de comunicación. Los ejemplos más notables de esta nueva aplicación son las imágenes publicadas en periódicos y revistas de la zona de Chernóbil después del accidente de la planta nuclear, y las de los sitios en que se ha instalado cohetería antibarcos en Irán (y desde luego en muchos otros países) en el estrecho de Ormuz. Hoy se habla de un proyecto de las agencias informativas para preparar el primer MEDIASAT, un satélite capaz de distinguir objetos menores que un automóvil, hecho hasta ahora exclusivo de los satélites militares. Hay un hecho incuestionable en relación con estos satélites (mencionado detalladamente por la doctora Ruth Gall y sus coautores en el libro Las actividades espaciales en México: una revisión crítica, número 20 de esta misma serie): por la política, aceptada internacionalmente, que permite el vuelo libre de los satélites de un país sobre cualquier otro, todos hemos perdido parte de nuestra soberanía. Los satélites no dan una perspectiva sólo nacional, pues desde la órbita muchas cosas se ven: automáticamente los satélites ofrecen una perspectiva internacional y completa del globo terráqueo. Las nuevas técnicas no presentan soluciones únicamente, sino que también vienen cargadas de problemas, quizá principalmente tecnocientíficos, pero también, como se ilustra en el último caso, de política y derecho internacional. Otro problema que podemos mencionar en relación con el sistema de percepción remota estadunidense, es que como resultado de la suspensión de vuelos del transbordador, y de una política de comercialización confusa y aparentemente prematura de las actividades espaciales, los satélites LANDSAT 4 y 5 ya excedieron su vida útil en órbita y pueden dejar de funcionar en cualquier momento, aun cuando faltan de dos a cuatro años para lanzar sus reemplazos; por lo anterior la continuidad de las imágenes de archivo de Estados Unidos peligran. Por otro lado, ninguno de los satélites en órbita realiza sus observaciones en las mismas bandas del espectro ni cubre las mismas áreas sobre la superficie terrestre, y tampoco funcionan con la misma resolución, por lo que el uso de los datos de distinto origen conlleva una dificultad adicional. Aun así, por la creciente diversidad de fuentes de imágenes, el futuro de las actividades de percepción remota puede considerarse asegurado, y en las próximas dos décadas seremos testigos de la puesta en órbita de satélites cada vez más complejos y costeables por el tipo y utilidad de la información que mandarán a la Tierra. Para ilustrar el creciente número de satélites de percepción remota que dan ya servicio con una calidad de imagen cada vez mejor podemos citar al Cosmos 1906 (lanzado a finales de 1987), que es un satélite de nueva generación capaz de fotografiar, con un detalle antes exclusivo de los militares, amplias zonas de la Tierra; por ejemplo, en 10 minutos puede cubrir una superficie equivalente a la mitad de nuestro país y alcanza una resolución tal que las carreteras, y las terracerías rurales incluso, se pueden distinguir con claridad; según la Agencia Espacial Soviética, con este tipo de satélite se reducen enormemente los costos de los estudios de recursos naturales; posee también la capacidad de fotografiar la misma zona desde distintos ángulos, con lo que es posible reconstruir mapas de relieve del terreno. Estos satélites vuelan a una altura máxima de 270 km y mínima de 190 km (en comparación, LANDSAT y SPOT orbitan a 800 km), y por su tipo de órbita cubren totalmente a los países de América Latina. Cuando estas imágenes empiecen a entrar en el mercado, a través de Soyuzkarta, sin duda resultarán de gran interés para los especialistas, quienes además se verán beneficiados por el supuesto bajo costo. Además, es previsible que en el futuro se sigan colocando otros satélites de percepción remota en la órbita polar, una órbita que pasa por los polos, y que en combinación con la rotación de la Tierra permite una cobertura completa del globo, por lo que será posible estudiar la Tierra en múltiples bandas del espectro electromagnético. Más que satélites éstas son verdaderas plataformas, en las cuales se instala toda una serie de instrumentos científicos que podrán irse actualizando conforme a los avances y necesidades de información. Si bien actualmente la exploración desde el espacio con radar ha demostrado una utilidad incuestionable, quedan muchos aspectos por estudiar de esta nueva técnica, que seguramente darán información hoy difícil de imaginar. Por lo pronto, los equipos de radar que trabajan en órbita han dado a la humanidad importantes descubrimientos, entre los que destaca la sorpresiva topografía mina. Veamos: todos sabemos que los mapas topográficos son de gran utilidad en la exploración y localización de recursos naturales; la "topografía oceánica", quizá para algunos sorprendente, también es importante y con radar, se ha descubierto que la superficie del mar refleja la topografía del fondo marino, esto es: si en alguna parte del océano hay abismos o macizos montañosos, la forma de la superficie del océano cambiará según las estructuras geológicas submarinas, lo que las hará evidentes al observador; este descubrimiento es otro ejemplo más de información inesperada surgida durante el proceso de investigación. Los primeros satélites con radar tenían como propósito localizar y clasificar barcos y submarinos desde el espacio, lo que en el caso de los submarinos lograban porque sobre ellos se observa una especie de joroba, seguida de una estela generalmente de varios kilómetros, y el estudio sistemático de este hecho permitía identificar el tamaño, velocidad y dirección de viaje del submarino. En estas investigaciones se descubrió también que no sólo los objetos móviles causaban efectos en la superficie que podían ser observados desde el espacio, sino que también el subsuelo marino se manifiesta en la superficie, con lo que proporciona datos de utilidad a los ingenieros dedicados al diseño de puertos, plataformas y exploración de otras estructuras marinas. ESTACIONES ESPACIALES Las estaciones espaciales son, sin lugar a dudas, uno de los temas de mayor actualidad, en particular porque implican la presencia constante del hombre en órbita. Las grandes potencias presentan en este renglón quizá una de sus mayores divergencias. Mientras el proyecto Apolo canalizó considerables recursos a la exploración lunar y al transbordador espacial, los soviéticos dirigieron sus esfuerzos a la presencia permanente del hombre en órbita. Hoy somos testigos de la presencia continua de dos y hasta cinco cosmonautas trabajando en la estación espacial Mir por periodos que llegan a más de 12 meses. No se puede concebir el progreso de la investigación espacial tripulada, incluyendo los próximos viajes a Marte, sin tener la experiencia de astronautas en órbita por periodos prolongados. Una estación espacial es mucho más que un puerto para viajar más allá de la órbita terrestre. La estación espacial Mir; y dentro de unos diez años la estadunidense "internacional", son laboratorios multidisciplinarios donde se realizan experimentos para desarrollar muchos campos de la investigación espacial y terrestre: biología, astronomía, ciencias de materiales, farmacología, percepción remota, aprovechamiento de la energía solar y en fisiología y psicología humanas, entre otros. El mundo está viviendo momentos brillantes de la automatización, y muchas de las actividades exploratorias en el espacio se conducen de manera automática con costos mucho menores a los de las naves tripuladas; pero un aparato programado no puede realizar la diversidad de actividades y no puede tomar las decisiones del ser humano, del que depende realmente la exploración y futura colonización del espacio que nos rodea. Por ejemplo, en unos cuantos meses en órbita, la tripulación formada por los cosmonautas Titov y Manarov realizó más de 130 observaciones con el equipo HEXE, un proyecto conjunto soviético-europeo que consiste en cuatro instrumentos diseñados para observar la radiación cósmica de alta energía con un telescopio que detecta los rayos X provenientes de muy diversos objetos astronómicos; asimismo, en la parte ultravioleta del espectro han realizado más de 20 observaciones, desde el módulo Quantum, que fue adicionado a la estación espacial en el primer semestre de 1987. Con estos equipos, por ejemplo, fue posible por primera vez en la historia registrar las emisiones provenientes de la explosión de una estrella "supernova", la SN1987a, que no había sido observada desde los antiguos astrónomos chinos, y presentar ante la comunidad científica internacional, la secuencia de núcleos atómicos y rayos X emitidos durante los primeros días del extraordinario suceso: una demostración de las múltiples posibilidades del hombre permanentemente en órbita terrestre. Asimismo, Romanenko con sus dos acompañantes Laveikin (quien regresó a la Tierra tras serle detectadas anomalías cardiacas) y Alexandrov (quien lo suplió a partir de julio de ese mismo año) realizaron durante su estancia de 325 días en el espacio más de mil experimentos que abarcan las disciplinas mencionadas. Basta citar que a principios de 1988 se anunció que se está preparando la estación espacial denominada Mir 2, que al igual que su antecesora, constará de un módulo básico al que se podrán acoplar grandes elementos que serán puestos en órbita por el cohete Energía, capaz de colocar en órbita cargas de hasta 200 toneladas y que ya fue probado en mayo de 1987, y en 1988 con el lanzamiento del transbordador Burán. No obstante, también el programa de la URSS, debido a problemas técnicos y de balanza de pagos, está sufriendo retrasos. En últimas fechas, al retrasarse la manufactura de dos grandes módulos adicionales de laboratorios, que requieren de una instalación casi simultánea, los soviéticos se vieron obligados a interrumpir su estancia en la Mir por 3 o 4 meses. En esta actividad nadie está a salvo de sorpresas. Referirse a la estación espacial norteamericana y sobre todo a sus características de funcionamiento, o incluso a su forma, no es cosa fácil, ya que en los últimos cinco años la NASA ha realizado una secuencia continua de cambios no poco drásticos que han sumido al proyecto en cierta indefinición. Un hecho particularmente incomprensible para los que observamos el escenario desde fuera, por ejemplo, fue el intento de los militares norteamericanos de ejercer un control considerable de la estación espacial, lo que no sólo antagonizó y desconcertó a los ingenieros y científicos de la NASA, sino que afectó gravemente las negociaciones que el gobierno norteamericano tenía con los países de Europa, Japón y Canadá para compartir los gastos del proyecto, que según los analistas del gobierno de los Estados Unidos alcanzarán los 15 000 millones de dólares; aunque si nos atenemos a las experiencias anteriores, sobre todo en relación con las promesas que rodearon el proyecto del transbordador, podemos prever que esta cifra llegará a multiplicarse por un factor hasta hoy desconocido (entre 2 y 10 veces). Es lógico esperar que un proyecto de esta magnitud, realizado en años cuando inclusive la economía norteamericana enfrenta la incertidumbre, encuentre oposición; nunca ha faltado quien opine que cualquier gasto invertido en los viajes de Colón, en la estación espacial o en la exploración de Marte, es innecesario. Sin embargo, no deja de llamar la atención el hecho de que el ex director de uno de los principales centros de investigación de la NASA, el doctor Bruce Murray, destacado científico planetario, opina que la estación espacial, como sitio para desarrollar procesos que lleguen a ser económicamente costeables y manufacturas de materiales con propiedades extraordinarias, "no tiene fundamento ni el apoyo de las compañías que se proponen utilizarla". Según Murray, las ciencias de la microgravedad son importantes, pero no necesitan de una instalación de ese costo para ser realizadas; dice que la estación sólo tiene sentido lógico principalmente en términos de la misión a Marte, y añade que, a diferencia de la década de 1960, "no hay un interés nacional para realizar un gran malabarismo tripulado, que simplemente se limite a mostrar la musculatura técnica del país", y concluye "...es mejor utilizar tal esfuerzo como un símbolo de que las superpotencias pueden cooperar en el espacio", con lo que toca un punto clave del estado actual de la investigación espacial. A este respecto, tampoco deja de sorprender, al revisar documentos en los que se explican las diversas alternativas del futuro norteamericano en el espacio, que en ellas se ignore, de manera casi infantil, que su contraparte soviética se encuentra en una etapa avanzada en el desarrollo de las estaciones espaciales, por lo que un intercambio entre ambas potencias sería, cuando menos, mutuamente benéfico, o principalmente benéfico para los mismos norteamericanos. En el Foro Espacial Internacional realizado en octubre de 1987 en Moscú, el máximo representante de la delegación estadunidense, y director adjunto de la NASA, se refirió a la imposibilidad de saber, a estas alturas, si un programa de cooperación espacial entre su país y la URSS significa una transferencia de tecnología, y que de todas formas, no podía decir la dirección en que dicha transferencia se daría. Para complicar más el análisis de la estación espacial y sus medios de apoyo, el creciente interés de los militares norteamencanos por utilizar estos recursos ha creado una política verdaderamente sorprendente: a finales de 1986 la administración de Reagan hizo pública su intención de mezclar información técnica falsa con información veraz, supuestamente para despistar al enemigo, pero los más despistados en realidad son aquellos que tratan de entender el avance del proceso tecnológico y las tendencias que realmente serán favorecidas en el futuro; esta situación, pues, ha creado una desconfianza justificada de lo que se lee sobre el campo aeroespacial. Cuando por fin se aclaró que la estación espacial norteamericana no sería controlada por los militares, los socios internacionales de la NASA llegaron, después de más de un año de tensas negociaciones, a la conclusión de que iban a cooperar. La cooperación europea se basa principalmente en el uso del módulo tripulable, llamado Colón, y de una plataforma polar autónoma, a la que se puede dar servicio con el transbordador estadunidense, o con el futuro transbordador europeo conocido como Hermes; y aunque poco se sabe al respecto, los japoneses también han anunciado su interés en construir no sólo un módulo similar, sino además un pequeño transbordador que comenzará a funcionar aproximadamente en una década. A pesar de todas las discusiones y cambios que han plagado el proyecto de la estación espacial norteamericana, ésta será desarrollada sin duda, aun cuando la motivación básica sea solamente no permitir que los soviéticos sean los únicos que orbiten permanentemente la Tierra. Las ventajas de una estación espacial son múltiples, como ya hemos mencionado, pero hay que pensar también en una de ellas: son un lugar de ensamble y prueba de equipos automáticos de exploración espacial, pues toda misión automática, al no contar con la asistencia de una estación de ensamble en órbita, requiere que la carga útil sea totalmente armada y funcional antes de su puesta en órbita y, en vista de los castigos del lanzamiento, las estaciones espaciales ahorrarán la obligación de realizar múltiples pruebas en el equipo antes de enviarlo a órbita. Otra ventaja que se deriva de la estación es su mero carácter de almacén. En el futuro, el flujo de vehículos pesados a órbita, como los cohetes Energía soviéticos (que, por cierto, son reutilizables), y el futuro ALV estadunidense, se incrementará constantemente, por lo que un almacén espacial permitirá que el costo de las partes de diferentes equipos sea distribuido entre muchos usuarios. El cohete ruso Energía comparte con el transbordador espacial estadunidense, con el cual el público está mucho más familiarizado, el hecho de que está equipado con impulsores laterales provistos de sistemas de paracaídas para ser recuperados; asimismo, partes del motor principal serán también recuperables, por lo que los costos de cada lanzamiento se reducirán de manera proporcional con el número de usos que tengan. Con el nuevo impulsor Energía, se espera que la Unión Soviética duplique en los próximos cinco años su capacidad de colocar cargas útiles en órbita, y que ésta sea cuadruplicada en menos de 15 años. Volviendo a las estaciones, otro de los rasgos característicos de éstas, se está ejemplificando ya en la estación espacial Mir; se trata de la solicitud por parte de una compañía privada de Occidente, para utilizar la estación en el desarrollo de experimentos supervisados por los cosmonautas soviéticos a bordo. El experimento, del que hablamos ya un poco, trata sobre el crecimiento de cristales de proteínas, y como parte del convenio la compañía no da a conocer ni al público ni a los soviéticos de qué proteína se trata. Al igual que los cristales usados en microelectrónica, los de proteínas crecidos en el espacio presentan una mayor homogeneidad, y un menor número de defectos en sus arreglos moleculares. El propósito principal de obtener un cristal de proteína con estas características, es realizar estudios de la disposición de cada parte de la cadena que forman estas grandes moléculas. Dichos experimentos se realizan en la estación Mir; no sólo porque el transbordador no esté funcionando normalmente, sino porque la estación Mir con su prolongado estado de microgravedad, provee al experimento de las condiciones que necesita, pues ya en cinco ocasiones anteriores la compañía ha experimentado en el transbordador, pero sus objetivos experimentales exigen una permanencia en el espacio de semanas a meses, situación que no podrá darse en Estados Unidos sino hasta dentro de 8 o 10 años aproximadamente. Retomando las comparaciones de los aspectos filosóficos de los programas espaciales de Estados Unidos y la URSS, cabe mencionar que el gobierno norteamericano permite que las compañías norteamericanas contraten los servicios espaciales soviéticos, como en el caso anterior, pero impone la condición de que los soviéticos no inspeccionen directamente las cápsulas, sino que la inspección (que se lleva a cabo por razones de seguridad) sea realizada por un tercero. En contraposición, cuando el transbordador de la NASA pone en órbita una carga útil de otro país, no sólo es inspeccionada detalladamente, sino que la NASA se considera copropietario de los datos e información técnica y aun científica obtenidos durante el vuelo; además de que debe tener acceso a la información que dé el análisis de los datos, llevado a cabo por científicos en tierra después del vuelo. Curiosa asimetría... PEQUEÑOS EXPERIMENTOS AUTOMÁTICOS Los experimentos automáticos, cuyo propósito es explorar las características de algún proceso que se beneficie con las condiciones espaciales, tienen asegurada una creciente actividad futura. Ya hemos hecho referencia de manera detallada a los experimentos que la UNAM pretende realizar a bordo del transbordador. Los experimentos a los que nos referiremos aquí, son esencialmente similares a éstos, es decir, requieren de un pequeño espacio, de un tiempo limitado en órbita, y de un costo bajo; la investigación exploratoria tiene como objetivo el profundizar en conocimiento, y rara vez la producción constante de algún material especial. Sin embargo, estas actividades no requieren de un sistema tan costoso y complejo como el transbordador. En muchas ocasiones es suficiente el lanzamiento de un cohete con múltiples cargas útiles a bordo que realice vuelos orbitales de varios días, o aun suborbitales, en donde los periodos de microgravedad son menores de media hora, lo cual basta en ocasiones para realizar algunos experimentos. Algunas compañías privadas que pretenden participar en el mercado de pequeñas cargas útiles, estiman que requerirán de 50 a 100 lanzamientos suborbitales por año, y que cada cohete será capaz de portar de 5 a 15 experimentos independientes. En Estados Unidos la primera compañía privada pionera en este nuevo negocio espacial, intentó realizar su primer lanzamiento a mediados de 1988, pero no lo hizo; una segunda compañía pretende realizar algo similar poco menos de un año después. Los objetivos principales de estas compañías son lanzar pequeños satélites, realizar experimentos automáticos, mediciones atmosféricas y, por desgracia, llevar a cabo también experimentos de tipo militar. Otras compañías estiman que, en vuelos orbitales, la demanda para los próximos 6 o 7 años oscilará entre 300 y 350 cargas útiles anuales, lo que implica un promedio de 75 lanzamientos al año. También existen programas como el Lightsat, satélites ligeros, a los que las grandes compañías que controlan los mercados internacionales celosamente se refieren como Cheapsats; dichas compañías proponen cientos de lanzamientos al año de este tipo de satélites, cuyo peso es menor a 2 toneladas, pero se sabe por experiencia que en muchas ocasiones estos proyectos resultan ser algo ilusorios. Una de las mayores ventajas que presentan estos sistemas es su rápido acceso a órbita (contando el tiempo desde que se inicia la integración de la carga útil hasta su puesta en órbita) que va de cuatro meses a dos años, que, comparado con el tiempo requerido por una carga útil mayor, puede llegar a ser 10 o 20 veces más breve. Con este tipo de sistemas se estima que el acceso a la órbita costará cerca de 3 000 dólares por kilogramo, cerca de la mitad de lo que cuestan otros vehículos. A pesar de todo lo anterior, creo pertinente volver a advertir al lector que estos datos, como se puede observar, se derivan de la información que publican las empresas occidentales dedicadas a este nuevo negocio, pero todos conocemos los abismos que existen entre la publicidad y la realidad: nadie en sus cabales podría asegurar siquiera que estas compañías existan dentro de cinco años, y para muestra basta un botón: la empresa más comprometida en esta ocupación y que incluso ya ha probado los motores de sus cohetes, casi desaparece en el llamado "lunes negro" en octubre de 1987, cuando se vino abajo la bolsa de valores de Nueva York. Otra de las empresas mencionadas tiene como su segundo proyecto más importante, el identificado con el glorioso nombre de "Celestis", que se propone nada menos que colocar en una órbita permanente 10 000 urnas de cenizas humanas, y creo que, cuando menos, tenemos el derecho de dudar de que existan 10 000 personas lo suficientemente afectadas en su juicio para desear algo tan frívolo y absurdo. Volviendo a los satélites ligeros, algo que despierta mucha más preocupación e interés es que en 1988 la Agencia de Proyectos Militares Avanzados de Estados Unidos (DARPA) invirtió 35 millones de dólares en esa dirección, y más recientemente han hablado de colocar en órbita este tipo de cargas útiles pequeñas, utilizando como plataforma de lanzamiento un avión que vuela a una altura de 10 a 20 kilómetros. De los programas en pleno funcionamiento para poner en órbita experimentos automáticos de dimensiones reducidas, podemos citar el Fotón, que la firma Glavcosmos de la URSS ofrece comercialmente: coloca en órbita, y recupera, cápsulas que orbitan la Tierra entre 14 y 30 días; las cargas útiles pueden llegar a pesar 500 kg y medir hasta 2 m de diámetro, y pueden ocupar un volumen máximo de cerca de 5 m³. El ejemplo más reciente de la utilización de este medio es el contrato con una compañía privada alemana en el que se ha negociado la utilización de tres cápsulas soviéticas, que se estima volarán a partir de 1989 una cada año. La compañía alemana pretende subcontratar a diferentes instituciones de la RFA para que realicen experimentos en el espacio en las cápsulas. En este sentido también podemos mencionar el ofrecimiento de la Agencia Espacial China de colocar varias cápsulas recuperables y realizar experimentos sobre crecimiento de cristales, que están a cargo de una compañía europea. Como el lector podrá concluir, estos últimos ejemplos, además del programa de pequeños experimentos de la NASA, en el cual ha participado la UNAM, dan una idea del futuro que presenta oportunidades automáticos. crecientes para poner en órbita experimentos MISIONES PLANETARIAS Todavía están frescas en la memoria las sorprendentes imágenes obtenidas por los Voyager I y II que se acercaron primero a Júpiter, luego a Saturno, a Urano y a Neptuno. Sin embargo, hay muchos planes y misiones destinados a la exploración de los planetas de nuestro Sistema Solar que seguramente profundizarán los conocimientos de la humanidad sobre su entorno más inmediato en el Universo. En 1988 la URSS puso en marcha una misión a Marte que dio nuevos datos sobre el planeta rojo y en particular sobre su satélite Fobos; durante su trayectoria, la misión estudió además algunas características del viento solar. Dicha misión tuvo una propiedad a nuestro juicio muy importante: fue de carácter netamente internacional; en ella participaron no sólo los países socialistas miembros de Intercosmos, sino que se unieron varios países de Europa occidental, la Agencia Espacial Europea, y Brasil; incluso los estadunidenses participaron en el proyecto apoyando en la localización precisa de la nave por medio de las antenas de rastreo lejano de la NASA, que también captaron y analizaron la información proveniente de la estación que se posaría sobre Fobos, la luna de Marte; en marzo de 1989, se perdió contacto con la nave, sólo quedaron los datos tomados durante el largo viaje, y algunas de las primeras fotografías tomadas. La siguiente misión a Marte, planeada por la URSS para 1994, plantea enviar dos naves idénticas, programadas para realizar trabajo de exploración por duplicado. Cada una de ellas tiene un aditamento que se quedará en la órbita marciana estudiando el planeta al igual que lo hacen los satélites de percepción remota con la Tierra; simultáneamente, cada uno de ellos lanzará además hacia la superficie de Marte dos equipos exploradores: a) el primero consta de un equipo que, después de posarse sobre la superficie de Marte, realizará una exploración similar a la que efectuaron sobre la Luna los equipos robot Lunajod, es decir, recorrerá la superficie observando con una serie de cámaras y enviando hacia la Tierra las imágenes y los datos físicos obtenidos; b) el segundo equipo consta de un globo equipado con cámaras de baja altitud; el globo, de producción francesa, se mantendrá en la atmósfera durante el día y mediante efectos térmicos bajará a la superficie durante la noche, durante esta etapa enviará información a la Tierra, utilizando los transpondedores de las naves que quedan en órbita. Todavía se están estudiando algunos cambios para la misión, que permitirán ampliar el rendimiento de los equipos enviados a Marte; se planea sustituir, por ejemplo, la entrada directa a la órbita, que exige la utilización de retrocohetes para frenado, para que la nave pueda ser capturada por el campo gravitacional de Marte. La nueva maniobra de aerofrenado tiene la ventaja de que no requiere de combustible para funcionar, pues se da por medio de fuerzas aerodinámicas de la nave cuando comienza a entrar en la atmósfera marciana. Este cambio por sí solo permitirá aumentar en una tonelada y media la carga útil que se enviará al planeta rojo. Además, con este cambio se podrá colocar un segundo satélite de 50 kg en órbita para obtener datos gravitatorios; se mandarán a la superficie diez estaciones meteorológicas equipadas con transmisores, que enviarán durante varios años datos sobre temperatura, presión y velocidad del viento; asimismo, se hace posible el lanzamiento de dos penetrómetros, que se hundirán por impacto hasta cinco metros bajo la superficie, estos dispositivos, que dejarán fuera un equipo transmisor, enviarán datos sobre la composición química, la temperatura del suelo y el contenido de agua. Algunas teorías suponen que bajo la superficie de Marte hay grandes depósitos de agua congelada, en capas como de 10 a 40 m de espesor. Por otro lado, los satélites en la órbita de Marte enviarán a la Tierra imágenes de alta resolución, en las que se pueden distinguir objetos hasta de 1 m de diámetro en la superficie. Estos mismos satélites enviarán de retorno a la Tierra una cápsula con el material fotográfico que probablemente se recupere desde la estación Mir. Actualmente continúan las pláticas entre la URSS y los Estados Unidos para intentar hacer de esta misión un ensayo de cooperación internacional. Aquí, el sentido de cooperación es muy claro, la URSS argumenta, con bases, que la colaboración estadunidense tendrá un papel destacado en el diseño del control de avance del explorador autómata. Recordemos que la distancia de Marte a la Tierra retarda la comunicación de ida y vuelta decenas de minutos, por lo que una nave que avanza en el terreno de Marte corre el peligro de caer o voltearse en los accidentes naturales del mismo. Este problema obliga a usar programas de control "inteligentes", es decir con capacidad de aprender sobre la marcha y tomar decisiones atinadas. En estos programas de inteligencia artificial es donde podrían participar los científicos estadunidenses. Para oponerse a la cooperación, algunos esgrimen los eternos argumentos y políticas que tratan de impedir la transferencia de tecnología, pero de nuevo se tendría que decidir antes en qué sentido se da la cooperación y quién es el que sale ganando. Creo que está claro que todos salimos ganando. Más adelante, en 1995, la URSS lanzará una nave científica que se identifica con el nombre del proyecto, Corona, cuyo propósito es estudiar precisamente la corona solar, o sea la radiación que se observa alrededor del Sol, como cuando se tapa durante un eclipse total o con un disco. Curiosamente esta misión se iniciará en dirección a Júpiter, desde donde mandará datos e imágenes del planeta gigante. Posteriormente, utilizando como propulsión el campo gravitacional de Júpiter, será lanzada hacia el Sol para acercarse a una distancia sin precedente de un millón y medio de kilómetros (la Tierra está a cerca de 150 millones de kilómetros del Sol). En 1998, serán enviados dos equipos simultáneamente hacia la superficie marciana; constarán nuevamente de exploradores móviles, que aparte de enviar imágenes, se espera regresarán a la Tierra por primera vez con muestras de suelo y rocas. Un año después, se enviará a Júpiter una nave que seguirá después hacia Saturno; cerca de éste se desprenderá un explorador que tiene como objetivo descender sobre la superficie de Titán, la única luna de Saturno con atmósfera, de la que se sospecha que tiene océanos de hielo y metano, un hidrocarburo que por la presión atmosférica y la temperatura ambiente se encuentra también en estado gaseoso mezclado con la atmósfera, que es de nitrógeno. Este ingenio llevará a bordo 50 kg de instrumentos, que incluyen cámaras de televisión, y un globo explorador con un equipo científico que viajará a 2 o 3 km sobre la superficie de Titán. Posteriormente, descenderá a la superficie para enviar datos sobre la presión, temperatura y composición química del suelo durante 10 días. En cuanto a una misión tripulada a Marte la limitante principal no es de carácter técnico, sino médico sencillamente. Para llegar a Marte será necesario conocer, o cuando menos poder estimar el funcionamiento del organismo durante una experiencia de 30 meses seguidos en órbita (dos y media veces más que la marca de permanencia actual). El tiempo acumulado por los soviéticos en órbita equivale a 14 hombres/año, en comparación, los estadunidenses tienen sólo 5; la información acumulada en este tiempo por ambos no basta sin embargo para anticipar o calcular lo que ocurriría durante los 30 meses de un viaje a Marte; no obstante, después de observar la notable recuperación de Romanenko, después de 326 días en órbita, Oleg Gazenko, director del Instituto Soviético de Problemas MédicoBiológicos, dijo que con esto se tenía "más que suficiente información biomédica para modelar la forma más económica posible de ir a Marte" y añadió: "no es indispensable para una misión a Marte, probar previamente durante tres años la resistencia de los cosmonautas". Si nos limitáramos a juzgar las secuencias anteriores, ninguno de los dos países está en posibilidades de realizar solo la misión en los próximos 10 años. Por cierto que uno de los rasgos más característicos de la investigación espacial de la URSS es que cada uno de sus avances son prueba de un ejercicio extremo de cautela, hecho en el que muy probablemente se base el que la Unión Soviética sea hoy, en muchos aspectos importantes, la primera potencia espacial. La superioridad de la URSS en el renglón de las investigaciones espaciales es un hecho reconocido hoy en día por los expertos. Sin embargo, el público en general, en países como el nuestro, desconoce esta situación, por lo que considero necesario dedicarle unas líneas. En primer término, es necesario señalar que la URSS nunca desecha equipo probado; por ejemplo, las cápsulas de tipo Vostok utilizadas de septiembre a octubre de 1987 para poner en órbita a dos primates y otros animales, son esencialmente iguales a las utilizadas en el vuelo de Gagarin al espacio hace más de 30 años. Otro ejemplo similar es la utilización de las naves Venera, que en un lapso de dos años fueron reconfiguradas para estudiar no sólo los aspectos de su misión fundamental, la exploración de Venus, sino para que, después de dejar una parte en la órbita venusina, los equipos de exploración siguieran hacia el cometa Halley y mandaran a la Tierra las primeras imágenes de este legendario cometa de 16 km de diámetro. En contraste con este criterio, los estadunidenses llevan a cabo diseños completos de sus equipos en la gran mayoría de las nuevas aplicaciones, lo cual, aunque resulta un buen negocio para las compañías que los fabrican, encarece considerablemente el presupuesto dedicado a la exploración espacial. Otra actitud típica de los investigadores espaciales de Estados Unidos es su desdén generalizado, matizado por grandes lagunas de ignorancia, hacia las actividades espaciales de la URSS, mientras sus contrapartes de la URSS devoran" todo lo publicado en Occidente, filtrando las modas y los aspectos más llamativos del verdadero avance. Además, en Estados Unidos hay una obsesión por los resultados rápidos y espectaculares y se olvidan los planes a largo plazo. Para la URSS al contrario, quizá por su milenaria tradición, tiene menos valor el espectáculo y más la participación en planes y programas a largo plazo, aunque tampoco son inmunes a fallas y retrasos ni es justificada su exagerada modestia y menos su reserva. Las diferentes concepciones filosóficas de ambas potencias en este terreno parecen recordarnos inevitablemente la fábula de la liebre y la tortuga. Hoy en día la tortuga no sólo se encuentra a la cabeza por su capacidad de lanzamiento a órbita, sus estaciones orbitales tripuladas y los logros de sus satélites de percepción remota, sino que sus planes de exploración del Sistema Solar harán que en la próxima década encabece las actividades más avanzadas en el espacio en este rubro, si es que no caen de nuevo en el inmovilismo. En el campo de las ciencias de la microgravedad, Estados Unidos se encuentra, según sus propios expertos, en tercer lugar después de la URSS y la RFA, en el mejor de los casos; en cuarto o quinto lugar si incluimos a franceses y japoneses; estos últimos países, han desarrollado este campo basándose curiosamente en los equipos norteamericanos, aunque los franceses han avanzado todavía más (en 1965 colocaron ya su primer satélite en órbita, llamado Diapason, en un cohete, Diamante de diseño propio), ya que aprovechan también la capacidad y ofrecimientos de la agencia espacial soviética. También en cuanto a plataformas multiusos los soviéticos llevan la delantera, y ni hablar en lo que se refiere a las operaciones tripuladas, en las que sólo hasta el siglo XXI Estados Unidos logrará, quizá, igualar la estancia prolongada de los cosmonautas en órbita. En opinión de los propios expertos de Estados Unidos, el problema no es "...cómo lograr más dólares para actividades en el espacio, sino más rendimiento de sus actividades en el espacio por cada dólar". En cuanto a la exploración de Marte, los estadunidenses basan sus planes principalmente en los proyectos definidos en el informe llamado "Liderazgo y el futuro espacial estadunidense" preparado para el administrador de la NASA por la astronauta doctora Sally K. Ride, que fue presentado en agosto de 1987. Este informe, basado en el análisis de 18 estudios anteriores y en numerosas referencias, fue realizado por medio de talleres en los que participaron cerca de 70 expertos destacados en las actividades de investigación militares y comerciales de ese país. El informe plantea cuatro misiones específicas con las que se intenta dar un impulso a largo plazo a sus planes espaciales: 1) la instalación de una colonia humana en la Luna; 2) la exploración detallada de los planetas externos del Sistema Solar (de Júpiter a Plutón); 3) la colocación de una plataforma en órbita polar equipada con múltiples equipos para estudiar la Tierra, y 4) la exploración humana de Marte. En este último caso el escenario de exploración que visualizan se basa en la exploración robótica de Marte en la década de 1990, que comenzaría con un observador orbital en 1992, para culminar con la colocación de dos exploradores automáticos que bajarían a la superficie y regresarían a la Tierra con muestras de suelo y rocas. Esta misión lograría una caracterización geoquímica del planeta y un mapeo completo del mismo con imágenes ópticas, así como la selección de los sitios más interesantes para la exploración. Planean establecer también un programa de investigación biomédica en su futura estación espacial, para validar la factibilidad del vuelo espacial prolongado, lo cual les permitiría decidir si la nave a Marte debe ir o no equipada con cámaras centrífugas que generen gravedad artificial. Posteriormente, diseñarían y prepararían tres misiones tripuladas para la exploración de la superficie marciana, durante periodos de dos semanas antes del regreso, para que en el año 2010 se pueda instalar un puesto de exploración avanzada en la superficie. Basándonos en los datos incluidos en este informe y en las tareas calificadas de imprescindibles, así como en la situación del futuro cercano en relación con equipos pesados de lanzamiento, podemos llegar a las siguientes estimaciones aproximadas: la misión a Marte requeriría, según ellos, de colocar en la órbita terrestre baja cerca de 1 140 toneladas de equipo, que necesitarían cerca de 38 vuelos del transbordador, utilizado a su máxima capacidad, pero considerando que la eficiencia alcanzada ha sido de 85%, la cifra real sería de aproximadamente 44 vuelos dedicados exclusivamente a la misión a Marte; ahora bien, si se toma la cifra "optimista" de 8 a 10 vuelos anuales del transbordador y considerando que una tercera parte de los vuelos son ocupados por el Departamento de Defensa y que otro tercio, como mínimo, sería dedicado a la manutención de la estación espacial, que es necesaria para organizar la misión, esto implica que utilizando 2 o 3 transbordadores cada año se podría preparar esta misión, cuando muy pronto, en 10 o 14 años; quizá la única manera de llevarla a cabo sería el cambio radical de la política espacial estadunidense, cosa muy difícil de lograr puesto que las administraciones actuales enfrentan un déficit presupuestario que hoy en día alcanza sus más altos niveles. Sin embargo, acaso la nueva administración, más sobria y conocedora de la importancia de las actividades espaciales, suspendería los programas de "Guerra de las Galaxias", con lo cual la misión podría fundamentarse en hechos más reales. Por su lado, la Unión Soviética posee los equipos necesarios para hacer posibles muchos de los pasos intermedios que permitirían alcanzar el objetivo, en particular el potente cohete Energía y la estación espacial, y ha planteado en público, específicamente en el Foro Espacial Internacional en octubre de 1987, que con base en una cooperación internacional, la misión tripulada a Marte sería posible mucho antes de lo planeado por cualquiera de los dos países independientemente. ¿Triunfará la razón? Ya veremos. ACTIVIDADES MILITARES La mayoría de los equipos puestos en la órbita terrestre cumplen misiones militares. Veamos algunos de los hechos más destacados. En primer lugar están los satélites de comunicación de uso militar exclusivo, seguidos por los llamados "Medios Técnicos Nacionales", es decir, los satélites de radio escucha, los de obtención de imágenes de alta resolución, nocturnas y de radar. Sin embargo, en nuestros días se dan pasos muy peligrosos para saturar el espacio con armas llamadas "defensivas", cuyas repercusiones son verdaderamente graves y resultan inaceptables para cualquier persona en su sano juicio. Al respecto, los militares estadunidenses (de los soviéticos no tenemos información) han publicado un plan para la conducción de once ejercicios con misiones militares del transbordador, y según los resultados, se desarrollarían actividades subsecuentes. Los ejercicios se refieren principalmente a tres objetivos: reconocimiento estratégico, aviso de lanzamientos de cohetes balísticos, coordinado con lanzamientos de prueba, y vigilancia de las fuerzas navales soviéticas. Para esto, 8 de los primeros 14 vuelos que siguen a la reanudación de actividades del transbordador se dedicarían a la operación de las cargas útiles militares, necesarias para realizar los ejercicios. Desde luego, la justificación presentada ante el público se basa en información "secreta" que posee el Departamento de Defensa, relativa a actividades soviéticas similares. Sin embargo cabe citar al cosmonauta Jean-Loup Cretiene, militar francés que estuvo un mes en la Mir a finales de 1988, quien afirmó que "...en la estación no hay equipo militar a bordo, sus actividades son claramente civiles..." Los once ejercicios son los siguientes: 1) Intervención humana en la adquisición de imágenes multiespectrales y seguimiento de objetivos en la superficie. 2) Utilización de sextantes espaciales para localizar la latitud y longitud de objetos, con una precisión de más o menos 10 km. 3) Discriminación de barcos y submarinos propios y ajenos. 4) Observación de maniobras militares terrestres con sensores ópticos para apoyar comandantes en batalla. 5) Identificación de objetos espaciales soviéticos que pongan en peligro equipo espacial y terrestre de Estados Unidos. 6) Observaciones geológicas para optimizar los movimientos de equipo pesado y tropas en tierra durante una guerra. 7) Uso de aparatos ópticos manuales para adquirir, observar e identificar blancos móviles y estacionarios. 8) Observaciones con instrumentos ópticos manuales de lanzamientos de misiles terrestres y submarinos. 9) Presencia de un meteorólogo militar para apoyo durante las batallas. 10) Estudios ionosféricos y aurorales para apoyar la selección de equipos y sistemas de armamento estratégico y comunicaciones para uso en batalla. 11) Uso de designador láser de objetivos para adquirir, seguir y ayudar a destruir blancos durante una guerra. Como decíamos, los belicistas aseguran que todas estas actividades se realizan ya a bordo de la estación Mir; pero si recordamos también que con argumentos similares fundamentaron el desarrollo de diversos sistemas militares como los bombarderos estratégicos, los portaviones nucleares y los submarinos misilísticos nucleares, y otros más, cabe la duda sobre su veracidad. Desde el punto de vista de los países en desarrollo y subdesarrollados, los grandes gastos incurridos por las superpotencias en el armamentismo espacial resultan cuando menos insultantes; además, este tipo de programas son financiados, principalmente, con la venta de armamentos a estos países que son, paradójicamente, el mayor mercado militar; por lo anterior, las actividades belicistas a juicio de millones de personas son las que impiden un desarrollo más justo de la sociedad. Algunas cifras adicionales de la actividad belicista en el mundo son: a) en los arsenales de las potencias nucleares existen, según el CIPRI (Instituto de Estudios Militares y Sobre la Paz, en Suecia) cerca de 70 000 ojivas nucleares, es decir, 1 250 000 bombas como las lanzadas sobre Hiroshima y Nagasaki; b) más de la mitad de los físicos e ingenieros de la humanidad trabajan en tecnología bélica; c) se gastan cerca de 35 000 millones de dólares al año en el desarrollo de nuevo armamento. Estas cifras son tan asombrosas, que el común de la gente aparta de su conciencia el significado real del gasto en armamento. Aun más, hacen que los que trabajan en el desarrollo del armamento mundial, generen un cinismo especial, para no pensar en las repercusiones de lo que hacen. Para evitar racionalizar sobre el producto de su trabajo, estos millones de individuos preparados adoptan seudoargumentos de corte sencillo, que si analizáramos con algo de detenimiento, demostraríamos fácilmente su absurdo. De todo esto resalta la importancia de los planteamientos de desarme que surgen; en particular, es necesario recalcar una creciente propuesta en cuanto a que los gastos en armamento se vayan redirigiendo hacia el desarrollo más justo de todos los países, y aunque no faltará quien identifique como utópicos estos planteamientos, creo que las mentes verdaderamente civilizadas de este planeta nunca han hecho un planteamiento más lógico y humanitario. MATERIALES AEROESPACIALES La industria aeroespacial ha generado una gran cantidad de materiales nuevos, cuya utilización rebasa claramente los propósitos originales. Recordemos, para situarnos de nuevo en este campo, que fueron las actividades espaciales las que impulsaron la miniaturización de los circuitos electrónicos (como los microprocesadores, diodos y microcomputadoras) hoy presentes en cualquier lugar del planeta. Tampoco es casual que sea en el ambiente de microgravedad donde se vislumbre el laboratorio del futuro que producirá materiales aún hoy inimaginables. Entre los materiales novedosos que podemos esperar en el futuro próximo, debemos mencionar los metales porosos, los materiales compuestos, las cerámicas reforzadas por fibras, las estructuras laminares de aluminio, cobre y carbono epoxi, el teflón y las fibras de vidrio; estas últimas, por ejemplo, tuvieron un aprovechamiento rápido en la fabricación de lanchas y barcos de pesca, y hoy día se comienzan a utilizar en los llamados materiales "inteligentes", éstos constituidos principalmente por fibras de carbono, kevlar o mylar, inmersos en termoplásticos, pero también una fibra de cada 100 es una fibra de vidrio, o más propiamente dicho, una fibra óptica, por la que se hacen viajar señales de luz. Estas señales nos permiten diagnosticar el estado de fuerzas internas que ocurren en estos materiales durante su fabricación, tratamiento térmico y desempeño práctico; se les llama "materiales inteligentes", por la propiedad que tienen de aprovechar los fenómenos de propagación de la luz dentro de una fibra, en función de las tensiones y deformaciones de las piezas terminadas. El descubrimiento de estas propiedades de las fibras ópticas proviene de las experiencias ocurridas durante su estudio en el laboratorio, e instalación como cables de transmisión de teléfonos. Los cables de fibra óptica posibilitan el mayor flujo de información conocido hasta la fecha en cualquier sistema de comunicaciones, y esto se debe a las altas frecuencias a las que se propaga la luz, en comparación con las ondas de radio o las microondas. Esto ilustra de nuevo cómo de una actividad surgen soluciones a problemas científicos o tecnológicos ajenos. A pesar de que estos materiales apenas han comenzado a surgir, la tremenda ventaja de conocer los esfuerzos internos de un material, durante las diversas solicitaciones o demandas mecánicas a las que es sometido cuando se utiliza, asegura que en el futuro escucharemos cada vez más sobre estos nuevos materiales. En cuanto a los metales porosos, su principal atributo es la posibilidad de bajar su temperatura exterior, con base en procesos de transpiración, tal como lo hace el cuerpo humano, que evapora varios litros de agua al día durante un día caluroso, precisamente con el objeto de bajar su temperatura. Pero volviendo al material aeroespacial, patentado con el nombre de Lamilloy en una de sus primeras versiones, que se espera utilizar por primera vez en la sección de más alta temperatura dentro de un turborreactor, que es donde se inyecta el combustible encendido, acompañado de aire a presión. Para impulsar una aeronave, los gases se expanden y expulsan, generando el efecto de empuje por reacción. Con este tipo de materiales porosos se puede incrementar la temperatura a la que se quema un combustible; la temperatura se podrá acercar hasta al 80% de la temperatura estequiométrica mencionada. Al transpirar continuamente cada una de las aspas de los ventiladores de la turbina, las aleaciones porosas podrán mantener sus características de rigidez y resistencia a pesar de encontrarse en un ambiente en el que se fundirían si faltara el enfriamiento. Con este desarrollo de la técnica metalúrgica se esperan aumentos de rendimiento de entre 20 y 35%, lo que se reflejará también en el ahorro de combustible en proporciones similares. Hemos descrito ya cómo las fibras de diferentes materiales pueden combinarse con termoplásticos para formar piezas de alta resistencia y bajo peso. Sin embargo, uno de los materiales más socorridos para sustituir el uso de placas (por su peso), se elabora por medio de dos delgadas láminas de material compuesto, entre las cuales se coloca una ligera estructura de aluminio con celdas hexagonales, que recuerdan inmediatamente un panal de abejas. En la figura 29 mostramos un esquema de este material. No es posible sólo con números informar sobre las notables propiedades de este material en capas, tres veces más rígido que aceros especiales; la mera experiencia de sostenerlo entre las manos, intentando torcerlo o doblarlo, aun con ayuda de una rodilla, es impresionante, cuando menos para quienes aprecian las sorpresas. Las fibras de refuerzo de este material pueden ser de carbono, Nomex, Kevlar, Cuarzo y Mylar, y presentan ventajas adicionales, como la inmunidad a la corrosión, la facilidad de repararlo con equipo portátil, y el ser impermeables a cualquier líquido. Figura 29. Esquema de material emparedado, en el cual una estructura ligera separa dos capas de alta rigidez. Si bien hemos mencionado que estos materiales se utilizan desde hace algunos años en los equipos aeroespaciales militares, una compañía que fabrica pequeños aviones a reacción para ejecutivos, ha iniciado la producción civil de aeronaves fabricadas en un 90% con estos materiales. Su elaboración implica primero dar a las piezas su forma final, y luego se calientan a 250ºC; simultáneamente se aumenta la presión dentro del horno para evitar que se generen problemas de delaminación, por burbujas de aire atrapadas en el material multicapas; algunos hornos trabajan al vacío. Sorprende un poco el hecho de que a pesar de que estas naves son las primeras fabricadas con una casi total ausencia de metales, sus precios sean, aun los de los primeros modelos, competitivos con sus equivalentes metálicos tradicionales. Para asegurar que las piezas fabricadas queden libres de burbujas, la misma compañía inventó un proceso para visualizar el tamaño y la forma de las burbujas. Dicho proceso consiste en lanzar un pequeño chorro de agua, con ciertos aditivos que aumentan su capacidad de mojar el material, en dirección perpendicular a la superficie; del otro lado, en el mismo punto, se hace incidir otro chorro de agua; el primero de los chorros (el vibratorio) transmite pulsos que hacen variar la presión de agua a frecuencias ultrasónicas, más de 20 000 veces por segundo, mientras que el segundo está equipado con sensores que detectan el paso de los pulsos ultrasónicos del primero a través del material. Los chorros de agua barren la superficie del material y los datos de velocidad de transmisión de las ondas mecánicas, causadas por el chorro vibratorio se almacenan en una memoria de computadora; después, con técnicas similares a las del procesamiento de imágenes de satélite por computadora, se reconstruye un mapa de la superficie usando diferentes colores para representar las distintas velocidades de propagación; de esta manera se identifica la gravedad de los defectos que puede tener el material. Los materiales multicapas son sometidos además a pruebas experimentales de fatiga (que en los aviones equivalen, por ejemplo, al desgaste ocasionado por vibración de las alas y los ciclos de presurización) doblándolos y desdoblándolos millones de veces, proceso que se interrumpe para observar la evolución de los defectos que causa la fatiga. Estas son pruebas de laboratorio necesarias para anticipar la vida útil de estos materiales; además, con este mismo objetivo, se someten también a ciclos de calor, frío y humedad, precedidos por inmersión total en agua, lo que permite estimar en un corto plazo las acciones de los drásticos cambios ambientales a los que serán expuestos. Aparte de los sensores basados en fibras ópticas inmersas en los termoplásticos, también se han desarrollado sensores de presión, vibración y deformación del tamaño de una tarjeta de crédito. Éstos se adhieren a las paredes internas del fuselaje y las alas, y se usan para realizar estudios aerodinámicos y estructurales en los prototipos fabricados por esta compañía. Además, se ha colocado este tipo de sensores bajo los mosaicos cerámicos que protegen al transbordador espacial de las altas temperaturas que causa la fricción durante el regreso a la Tierra. Estos sensores cubren los intervalos de presión generalmente encontrados en aerodinámica, así como las vibraciones y deformaciones comunes al vuelo de una aeronave, lo que hace de los prototipos verdaderos laboratorios aerodinámicos en pleno vuelo. En cuanto a la metalurgia y, en particular, a la utilización de nuevos metales para la industria aeroespacial, creo que resultará ilustrativo enterarse de los siguientes antecedentes: en 1880 el 96% de la producción total de metales correspondía al hierro y a los aceros que con él se fabrican; unos 50 años después, esta cifra había cambiado sólo en 1.5%; ahora bien, la introducción de aviones fabricados totalmente de metal, a finales de la década de 1930, aumentó también la utilización de metales diferentes al acero, principalmente aleaciones de aluminio y magnesio. De la producción de acero, 25% es consumido por la corrosión, por lo que la vida útil de este metal es de cerca de 35 años, con lo que es evidente que lo deseable es sustituirlo o añadirle nuevos elementos que aumenten su rendimiento y vida útil. Sin embargo, como las cifras indican, no estamos ni siquiera cerca de abandonar la utilización del hierro; las investigaciones recientes encaminadas a mejorar las propiedades de los aceros, en particular los tratamientos radiactivos del hierro con base en neutrones, imprimen a este metal propiedades completamente nuevas, inesperadas, sorprendentes y útiles, además de que la introducción de aceros inoxidables y tenaces ha mejorado mucho su aplicabilidad. Adicionalmente, es tal la inversión mundial en plantas de producción de acero, que nadie se propondría derribarlas, por las promesas de los nuevos materiales. Aparte de los aluminios aeroespaciales el cambio más importante en la metalurgia aeroespacial se está dando con la aplicación del titanio, y en mucho menor proporción, del circonio. El primero es muy abundante en la Tierra, llega a formar 0.6% de la corteza terrestre. Sus propiedades en relación con los aceros lo hacen particularmente notable: a) presenta una resistencia del doble de los aceros tenaces; b) es relativamente más ligero, pero, sobre todo, tiene una resistencia a la corrosión que resulta para todo fin práctico, eterna. Además, su punto de fusión es de cerca de 1 725 º C: supera en esto al acero por 200ºC aproximadamente. Es también curioso enterarse de que, aunque este metal fue descubierto como óxido hace poco menos de 200 años, la primera producción ya como metal se dio después de finalizar la segunda Guerra Mundial. En 1948 se produjeron sólo 10 toneladas, mientras que apenas siete años después se producían ya 20 000 toneladas y la producción de 1986 alcanzó las 87 000 toneladas. PROGRAMAS ESPACIALES DE OTROS PAÍSES DESARROLLADOS Ya nos hemos referido a los programas y actividades espaciales de las dos superpotencias. En esta sección quisiéramos incluir, aunque sea brevemente, algunas de las actividades espaciales de otros países desarrollados que tienen mucha importancia porque abarcan un gran número de programas que veremos florecer en el futuro. Hemos mencionado la importancia económica que para Europa tienen las actividades de los países de la Agencia Espacial Europea, y aunque no sea posible cubrirlas en detalle, sí es importante dar a conocer algunos de sus principales logros. Hoy en Europa se están multiplicando las actividades espaciales. En 1965 los franceses colocaron su primer satélite en órbita, pero el verdadero impulso de la actividad europea se dio en el momento en el que tuvieron una serie de lanzadores propios. Además de los antecedentes teóricos de Oberth y las posteriores experiencias bélicas de W. von Braun, debemos mencionar el destacado trabajo del ingeniero francés Robert Esnault Pelterie, miembro de la Academia de Ciencias desde 1936, quien inventó el motor radial de aviación y el control de vuelo con base en el bastón de mando. Éste se llegó a interesar tanto en la cohetería y la astronáutica, que en 1930 publicó un libro llamado La astronáutica, donde trata algunos de los aspectos ya conocidos por nosotros a lo largo de este trabajo. Casi desde principio del siglo, se dio cuenta del futuro de la propulsión nuclear, y una anécdota nos muestra su dedicación directa al tema coheteril: perdió cuatro dedos experimentando con tetranitro metano como combustible. Este notable ingeniero, al igual que Oberth para Alemania, puede ser considerado el padre de la astronáutica francesa. Además de la ya mencionada repercusión de la cohetería europea, basada en los modelos Ariane I a V, en el mercado comercial de lanzamiento de satélites, es importante señalar que este propulsor fue desarrollado por la Sociedad Europea de Propulsión (SEP), en la que colaboran cercanamente Francia, Alemania y otros, como antes, Inglaterra. Hoy las actividades espaciales europeas se adentran en múltiples campos: nuevos servicios de comunicaciones, preparación de la estación espacial Colón, satélites autónomos y recuperables, investigación de materiales en microgravedad, efectos de la microgravedad en humanos —en particular estudios sobre el SV desarrollados a bordo del laboratorio espacial europeo SPACELAB, puesto en órbita por el transbordador—, protección de los seres humanos a la radiación cósmica, resistencia de microorganismos a las condiciones espaciales, previsión climática, cartografía antártica, exploración geológica y geofísica, desarrollo de infraestructura nacional basada en observaciones espaciales, mediciones de los movimientos de la corteza terrestre con una precisión de centímetros, fuentes extraterrestres de rayos X (proyecto ROSAT y HEXE), estudio de fuentes infrarrojas astronómicas, exploración de los planetas gaseosos y otras más. En cuanto a las políticas espaciales, haremos referencia en particular a la de la RFA, confiando en que los elementos clave que mencionamos; son parecidos a los demás miembros de la Comunidad Europea: 1) fomento a la investigación básica y aplicada; 2) búsqueda de aplicaciones de tecnología espacial para aprovecharla en el desarrollo general de sus países; 3) apoyo a la capacidad de competitividad internacional de su industria espacial; 4) mejoramiento de la colaboración internacional y, de particular interés para nosotros, 5) ayuda a los países en desarrollo en sus propias tareas de desarrollo. Los puntos capitales de dicha política espacial pueden dividirse en dos: la investigación extraterrestre (ciencias biomédicas y astronómicas) y la investigación espacial hacia la Tierra (el estudio de las zonas polares, mapas de zonas inexploradas, la oceanografía, la exploración y descubrimiento de recursos, estudios atmosféricos que incluyen la supervisión ambiental, y satélites para apoyar la navegación). Entre sus programas exploratorios sobre el aprovechamiento del espacio destacan los usos de la microgravedad para obtener sustancias activas (como fármacos totalmente nuevos) y desarrollar la tecnología para producirlos; el programa para desarrollo de nuevos materiales y tecnología de procesos, así como el de biotécnica. Queda claro que este tipo de programas busca una mayor independencia espacial respecto a las superpotencias y, a juzgar por las relaciones que tienen los organismos espaciales de cada país con los diversos ministerios de sus gobiernos, no sólo coordinan las investigaciones técnicas y científicas del espacio, sino que además sirven como punto de contacto con la política industrial del gobierno. ESTADO COMPARATIVO México carece de un programa que impulse su desarrollo aeroespacial y, lo que es más grave, de una política que defina el estado deseable de nuestra competencia en este campo. Por consiguiente, al igual que otros países, avanzados o no, su participación en actividades espaciales y aeronáuticas se limita a dar respuesta a situaciones que se presentan sin invitación: no se controlan ni dirigen los esfuerzos de manera congruente con un plan para forjar conscientemente el futuro. La ausencia de un programa y de una política aeroespacial se debe, a mi juicio, a un desconocimiento de la capacidad que la ciencia y tecnología espacial tienen para fomentar el progreso general de las naciones, y en particular, a la errónea percepción de que las actividades espaciales son un lujo exclusivo de países tecnificados. Sin duda, el argumento más frecuente en contra es el de la falta de recursos, pero no creo que eso refleje la realidad, pues sí se han hecho inversiones nada despreciables en temas aeroespaciales, con pocos o nulos resultados, pero sin la coherencia, seriedad y continuidad que requiere cualquier programa estratégico de este calibre. Sabemos que países similares al nuestro han avanzado notablemente en esta dirección, como la India y Brasil, que comparten con México una cierta desorganización económica y social y la presencia de una comunidad científica bastante capaz, en comparación con la de otros países en desarrollo. Los casos citados quizá pueden explicarse porque su actividad espacial es fruto de sus políticas militares que nulificaron las consideraciones socioeconómicas. Ambos países iniciaron su actividad espacial incursionando en el desarrollo de cohetes lanzadores de uso militar, y gobiernos subsecuentes, más sobrios y acordes con una política de desarrollo social, redirigieron estas actividades a objetivos civiles, como los de comunicaciones, teledetección de recursos y metereología, por ejemplo. En nuestro caso la cercanía de una gran potencia espacial nos inclinó quizá a pensar que tal desarrollo acabaría por trasponer las fronteras y nos haría partícipes automáticamente. Pero la realidad, siempre tan implacable, es que la tecnología se atrinchera y no pasa las fronteras tan fácilmente como lo hacen las ideas frívolas de un cantante, o una moda de ropa o peinado. Es evidente pues que cualquier desarrollo científico o tecnológico tendrá que venir principalmente de nuestros propios esfuerzos y programas, y pasaríamos del campo de los inocentes al de los tontos si esperáramos lo contrario. Sin embargo, la colaboración seria y, sobre todo, desinteresada debe ser siempre bienvenida y fomentada. Con algunos ejemplos hemos ilustrado ya la importancia de la cooperación internacional. Analicemos qué requerimos para un desarrollo en aspectos espaciales: lo primero, y más evidente, son los sistemas coheteriles para llegar con nuestra carga útil a la órbita terrestre. Que cada país desarrolle sus propios lanzadores es caro y poco práctico. Actualmente son muchos los países. que tienen ya capacidad de lanzamiento a la órbita; a pesar de los recientes accidentes con el transbordador espacial de Estados Unidos, y con el Ariane europeo durante 1986 y 1987, los esfuerzos, por ejemplo, de la URSS, demuestran la importancia que este país pionero atribuye a la potenciación del cosmos y al instaurar, entre todos los países con capacidad espacial, una organización espacial mundial, similar a la que se ocupa de la salud desde la ONU. Nuestros medios para llegar con una carga a órbita, no son pues un esfuerzo tardío y aislado, es el de la cooperación internacional con diversos países dispuestos a ello, hay que evitar una sola relación, ya que esto aumenta nuestra dependencia. El segundo argumento a favor del desarrollo de un programa espacial mexicano es que esto nos daría la posibilidad de alcanzar tecnologías avanzadas y conocimientos prácticos para una producción especializada: a lo largo de esta obra se han dado numerosos ejemplos de cómo la actividad espacial ha fomentado el avance de campos afines a muchas otras actividades de importancia económica; si retomamos el ejemplo de los materiales nuevos, es evidente que en el futuro se requerirá de una utilización más racional de los materiales para construir equipos científicos, tecnológicos y de producción; en esa dirección, en los estudios espaciales mexicanos se deberá incluir el fomento a la metalurgia, particularmente la no ferrosa, pues, como lo demuestra la práctica de las actividades espaciales en países avanzados y en desarrollo, los equipos modernos requerirán de materiales que presenten ventajas en sus relaciones de resistenciapeso y rigidez-resistencia, como ejemplifican las aleaciones de aluminio-litio, las de titanio y también para ciertos casos, las de circonio; todos ellos materiales abundantes en la amplia gama de recursos naturales de nuestro país. El prestigio internacional derivado de la conducción de programas espaciales adecuados a las condiciones de cada país es un aspecto que no debe descuidarse. México, como otros países similares, busca entrar al siglo XXI con la imagen, respaldada ampliamente por los hechos, de un país con autodeterminación, lo que implica necesariamente que el país respalde su pleno desarrollo integral con una actividad seria en campos considerados estratégicos dentro de la ciencia y la tecnología, en vista de su considerable potencial económico. Asimismo, un programa espacial nacional sería una de las semillas de la integración tecnocientífica latinoamericana, que no puede dejar de ser considerada, sin pagar por ello el costo implícito de permanecer en el subdesarrollo. Otro argumento de importancia se refiere al ejercicio de nuestra soberanía, que depende, en los aspectos técnicos, del conocimiento de nuestros propios recursos, que hoy en día se pueden estudiar de manera más rápida, precisa y racional desde el espacio o por medio de técnicas de origen espacial. El impulso que imprimen las actividades aeroespaciales a una amplia gama de proyectos, ajenos en principio a este tema, es en sí uno de los argumentos con más significado. En la última década se han identificado varios campos prioritarios para el desarrollo de un país; entre ellos hay una serie de actividades cuyo origen puede el lector asociar fácilmente con muchos de los diversos proyectos de investigación espacial de otros países, concretamente con el desarrollo de nuevos materiales, la microelectrónica y computación, la biotecnología, la exploración de recursos, las comunicaciones por satélite, las fibras ópticas, y con la aeronáutica, entre otros. Desde luego el desarrollo de estos campos no puede basarse exclusivamente en un programa espacial; cada uno de ellos debe impulsarse de manera consiente según la necesidad; sin embargo, la práctica demuestra que los avances tienen su origen en los grandes proyectos multidisciplinarios, como lo fue el Apolo para la exploración lunar, y que hoy se simbolizan con la serie de esfuerzos encaminados a la exploración del planeta más parecido al nuestro: Marte. HERRAMIENTAS DE RECUPERACIÓN A estas alturas de la revolución tecnocientífica, sería un error de impredecibles consecuencias quedar al margen del desarrollo espacial. En las llamadas "ciencias de la microgravedad" sólo hay que ver los primeros resultados de estas investigaciones, para identificar una ciencia que aun estando en formación, proporciona, y con toda seguridad lo hará en el futuro, resultados útiles para el progreso de ése y muchos otros temas de interés práctico y científico. La investigación espacial no es un tema de moda (eso ya pasó); se perfila hoy como una herramienta con potencial comprobado en la producción de materiales muy especiales, como en el ya mencionado caso de los fármacos y aleaciones de características extraordinarias, que dependen directamente de una o de varias de las condiciones presentes en la fabricación espacial. Por el lado de los recursos humanos calificados, el país cuenta ya con suficientes investigadores e ingenieros, principalmente en sus universidades y centros de investigación, para abordar un modesto y útil programa espacial, con objetivos centrados en, por ejemplo, la búsqueda de nuevos conocimientos, la captación y aplicación de tecnologías aeroespaciales a problemas de índole muy variada, que incluya además una valiosa formación de equipos de profesionistas, acostumbrados al hábito de buscar el mejor diseño y a innovar, cumpliendo con las más estrictas normas de calidad internacional. Algo menos tangible, en el campo de las ideas, afecta concretamente también los planes para utilizar la ciencia y la tecnología en todo su caudal en nuestros países: su identificación como una actividad improductiva, aunque seria, pero vista como un oficio privilegiado y reservado a las mentes superdotadas, que excluyen al resto de la sociedad de saber para qué sirve su trabajo, y del aprovechamiento de los resultados. Estos conceptos incorrectos, pero firmemente arraigados, no sólo limitan el acceso al conocimiento de mentes jóvenes y más prácticas, sino que provocan el aislamiento de una actividad tan importante como la ciencia de otras actividades sociales básicas como la industria, con lo que se desperdicia una condición necesaria para su progreso mutuo. Estas concepciones, que mantienen alejadas a la ciencia y a la tecnología avanzada de la industria, tienen un efecto negativo adicional: la acumulación de industrias atrasadas y de baja productividad, hecho que aletarga al sistema económico general del país y sus posibilidades reales de desarrollarse, y hasta de sobrevivir en el mundo moderno, caracterizado por una dura competencia. Asimismo, limitando las actividades que pudiera desarrollar nuestro país, está el hecho de que la información aeroespacial presentada al público no se orienta a la comprensión del potencial benéfico que esta actividad conlleva. Antes por el contrario, el manejo frívolo y personalista de esta información parece corroborar y fortalecer la visión de que éstas no son actividades necesarias ni propias de nuestro país. Es muy frecuente en nuestro medio encontrar que un alto porcentaje de ciudadanos no tienen ni idea de la necesidad de realizar investigaciones y estudios espaciales (resultado del tipo y la forma en que esta información se presenta al público). Existen otras dificultades que impiden que la población juzgue correctamente las ventajas de proyectos tecnocientíficos, aun cuando sean sensiblemente cercanas a cada ciudadano, como el caso de la investigación biomédica. Acentuando la situación, actúa otro tipo de factores que provienen de la baja escolaridad de la mayoría de la población. Estos factores se manifiestan con las siguientes carencias generalizadas: un muy bajo porcentaje de la población conoce las ventajas de utilizar y fomentar una mentalidad cuantitativa, es decir, la gente incurre en comparaciones demasiado vagas para ir formando una opinión objetiva sobre muchos campos. Esto se puede explicar de manera mas clara por medio de una serie de ejemplos: la mentalidad cuantitativa se manifiesta en la apreciación comparativa de diferentes medidas, por medio de cantidades, como "tantos por ciento"; la gente sabe que hay muchos mexicanos sin hogar, pero no se preocupa por saber o difundir qué porcentaje de mexicanos no tiene hogar. Estas cantidades son las que permiten actuar, ya que neutralizan las contraopiniones irresponsables, como la de "es que no trabajan". Tampoco se han aprovechado los múltiples medios de comunicación, en particular la televisión, para familiarizar a nuestros ciudadanos con el manejo de gráficas, que muchas veces pueden sustituir una discusión complicada; aquello de que una imagen vale más que mil palabras se manifiesta claramente con el ejemplo de las gráficas. Se utiliza poco también el expresar la distribución de sucesos en el tiempo, que si bien se emplea mucho en las ciencias e ingenierías por medio de distribuciones estadísticas, ni los científicos ni los ingenieros nos hemos preocupado por aprovechar las oportunidades de difusión para acostumbrar a la población paulatina, pero continuamente, a la comprensión y uso de este tipo de representación abstracta. En muchos casos, se podría utilizar también la analogía y la comparación de costos de diferentes actividades para que la gente capte con claridad el significado de las cifras, sobre todo cuando éstas van acompañadas de más de seis ceros. Decir en televisión que se invirtieron 63 000 millones de dólares en el programa espacial estadunidense entre 1958 y 1972, para la gran mayoría explica muy poco. Sin embargo, si se expresara esta misma cantidad en el número de viviendas, escuelas, hospitales y centros culturales que se podrían construir con esa suma, a nadie le quedaría duda de lo que significan verdaderamente esas cantidades. Lo más sorprendente de todo esto es que no existe ningún argumento en contra de impulsar la mentalidad cuantitativa en la población, pues se tienen los medios, particularmente los canales televisivos culturales que existen —y los que se podrían iniciar con el uso de los transpondedores latentes del Sistema Morelos de Satélites— para fomentar este importante aspecto de la percepción de la realidad. Desde luego existen algunos hechos que demuestran la presencia de personas conscientes de la capacidad de la televisión para educar; sin embargo, es necesario hacer de esta actividad una política fomentada por todos los sectores sociales. Refiriéndonos de nuevo a los aspectos aeroespaciales, brilla por su ausencia la expresión, ya no de una política nacional sobre la investigación espacial, sino siquiera la de una expresión ponderada de los beneficios que este tipo de actividades tendrían para el país. México, repetimos, no es ajeno a las actividades espaciales. Una parte importante de la actividad económica del país está basada en los diversos equipos en órbita. A lo largo del libro se ha hablado de la utilización de los satélites de comunicaciones que vinculan por primera vez a todo el país, de los satélites meteorológicos que, en combinación con el sistema climatológico mundial (que incluye de 15 000 a 20 000 estaciones terrestres), nos permite aprovechar esta información en actividades tan importantes como la agricultura, la pesca y, hasta donde cabe, en prevención de desastres. Asimismo, los satélites de percepción remota, y las imágenes que éstos proporcionan, están siendo utilizados a un mínimo de la capacidad que nos corresponde; en la gran mayoría de los casos, los costos asociados con las imágenes y aun la fabricación de satélites de este tipo, quedan plenamente justificados por los efectos económicos favorables que esta información tiene (que superan de decenas a cientos de veces los costos del estudio). Por último, cabe recordar otro de los aspectos centrales de este libro, que se refiere a la conducción de experimentos en microgravedad. Este es un campo que apenas comienza a dar frutos, y éstos son todavía de naturaleza especializada, por lo que es más difícil evaluarlos en comparación con las tres actividades mencionadas arriba. No obstante, estamos a muy buen tiempo para entrar en este nuevo campo, cosa que ya hemos hecho y continuaremos, pero enfrentando un futuro algo incierto la próxima década. EL INVESTIGADOR ESPACIAL EN MÉXICO La mayoría de los investigadores en nuestro país trabaja en un tema en el que no se cuestiona la necesidad de la propia disciplina, ésta es aceptada como útil. En el caso de los investigadores espaciales, sólo una parte se acepta como justificada: la que se refiere a sus aspectos geofísicos, planetarios y astronómicos, que además ya han alcanzado tradición seria y robusta. Para dedicarse a los aspectos más aplicados de la ciencia y la tecnología espacial, como los satélites de investigación, los experimentos en microgravedad y la fabricación de materiales en el espacio, el marco de referencia y de evaluación cambia sustancialmente. Se carece de una tradición, que en nuestro medio puede tomar muchos años forjar. Así pues, el establecimiento y homologación de esta actividad al nivel de otros temas asociados, como la geofísica y la astronomía, dependerá de su desempeño inicial y de la seriedad de sus esfuerzos en los próximos años. Evidentemente, también dependerá del apoyo financiero que reciba esta área, pero este aspecto no es el más importante, ya que, en general, es posible definir proyectos que encuentren suficiente financiamiento, cuando éstos justifican su existencia por su relevancia y potencial, aunque se consuma mucho tiempo en lograrlo. Un punto que adquiere particular importancia en tiempos de crisis económica, es la imagen que de los investigadores espaciales tienen los comités de evaluación de los investigadores, ya que de la percepción que tengan de la relevancia y seriedad del trabajo espacial, resultan las remuneraciones adicionales, y los apoyos que para intentar sostener el salario se han instituido dentro y fuera de las dependencias de investigación en México. Si, como buena parte de la población, perciben el tema espacial como un lujo, propagandístico y ajeno a las necesidades nacionales, su evaluación resultará consecuentemente limitada. Esta situación afecta, por factores meramente económicos, el interés de nuevos investigadores para dedicarse a éste y otros nuevos campos. Aquí también afecta la carencia de una política espacial nacional, enrareciendo aún más la atmósfera donde se intentan actividades de vanguardia como éstas. Por lo pronto y en el futuro cercano, los que ahora dedicamos esfuerzos para introducir la investigación y desarrollo de la ingeniería aeroespacial, nos encontramos ante autoridades y comités que desconocen la importancia de adentrarnos en el campo aeroespacial y pagamos, como también se paga en los casos de otros campos relativamente nuevos, con remuneraciones inferiores a la que tienen acceso aquellos que laboran en campos con mayor tradición y mejor comprendidos, más "científicos", digamos, menos "tecnológicos". Aparte de no existir en el país personas capacitadas para evaluar con conocimiento de causa a los investigadores y proyectos aeroespaciales, tampoco existe todavía un gremio o escuela con presencia académica suficiente, por lo que los contactos con investigadores del tema se reducen a esporádicas pláticas con académicos de otros países, quienes, habría que anotar, no siempre sitúan sus consejos y sugerencias en el contexto de la realidad de un país en desarrollo. Este proceso de adaptación reduce aún más, para los investigadores de países en desarrollo, el principal recurso contra el que se mide el avance de un tema: el tiempo. LA ORGANIZACIÓN DEL TRABAJO ESPACIAL Se ha señalado en diversas secciones del libro la necesidad de enmarcar el trabajo de investigación espacial dentro de un programa nacional; sin embargo, al no existir todavía siquiera una política espacial, los investigadores interesados en nuestros temas nos hemos visto obligados a organizarnos bajo los auspicios de alguna institución sólida. Como es natural, en un país que vive una centralización de las funciones de investigación, se tomó como sede la Universidad Nacional (UNAM) pero sin excluir interesados de otras instituciones, como el Politécnico (IPN), el Instituto de Investigaciones Eléctricas, etcétera. En junio de 1985 se formalizó con la rectoría de la UNAM el Grupo Interdisciplinario de Actividades Espaciales (GIAE), que venía funcionando esporádicamente desde más de un año antes. El GIAE quedó adscrito a la Coordinación de la Investigación Científica de la Universidad, y sin contar con instalaciones ni personal propio, funciona con investigadores prestados de varios institutos de investigación y facultades, dentro y fuera de la UNAM. Entre los objetivos más importantes del GIAE, está el de fomentar la autodeterminación y crear una autosuficiencia creciente en la materia. Como es lógico, sus vínculos no sólo rebasan a la Universidad, sino que incluso se ha realizado una labor fuera del país. Así, el GIAE ha concertado convenios de colaboración con países como Brasil y la India para desarrollar proyectos conjuntos, y hemos continuado los esfuerzos para incluir a Argentina, la URSS y la Agencia Espacial Europea (ESA), además de que planeamos proseguir el trabajo iniciado en 1985 con la NASA de Estados Unidos. La diversidad de nuestras relaciones responde a la necesidad de mantener la autodeterminación que consideramos indispensable en un trabajo de carácter estratégico, aparte de que ello aumenta nuestros márgenes de operación y reduce la vulnerabilidad de nuestros proyectos: a pesar de la corta vida el GIAE, ya vivió una primera experiencia al quedarse en tierra, cuando menos tres años, su equipo listo para vuelo con la suspensión de vuelos del transbordador estadunidense. Se estima que los equipos de investigación futuros, a la luz de los convenios ya concertados o en trámite, contarán con varias alternativas para subir instrumentos al espacio y en muchos casos para recuperarlos de la órbita. CONTEXTO SOCIOECONÓMICO DE LA INVESTIGACIÓN ESPACIAL EN LATINOAMÉRICA Ningún programa de investigación y desarrollo puede darse al margen de la situación social y económica de un país; más aún cuando los países están inmersos en una crisis económica para la cual no parece haber programas de recuperación claros y contundentes. En América Latina, cualquier actividad nueva o que implique gastos considerables debe ser analizada en cuanto a su potencial en el contexto de la deuda externa, y en el de los programas políticos, que si bien varían de país a país, comparten en el caso de Latinoamérica el mismo interés: sacar a sus países del subdesarrollo y encaminarlos en la vía del crecimiento económico estable. Para finales de 1987, la deuda de Latinoamérica alcanzaba cerca de 500 000 millones de dólares (casi 8 programas espaciales de Estados Unidos), de los cuales 114 000 millones correspondían a Brasil, 105 000 millones a México, y casi 50 000 millones a la Argentina. Según estimaciones de diversas fuentes, para el año 2000 el total de la deuda de Latinoamérica alcanzará de 650 a 700 000 millones de dólares, lo que hoy día representa la deuda total de los países en desarrollo. Como todos sabemos, los pagos de la deuda se vuelven cada vez más difíciles de saldar, al punto de que buena parte de los economistas, independientemente de su orientación ideológica, se acercan progresivamente a la conclusión de que la deuda es impagable. Para ilustrar este punto, podemos mencionar que de 30 a 40% del Producto Interno Bruto (PIB) de México se dedica al mero pago de los servicios que esta deuda devenga, por lo que con el porcentaje restante se vuelve cada vez más difícil invertir en programas que posibiliten el crecimiento económico del país. Esta situación ha generado condiciones de inflación que corroen rápidamente las economías de los países en desarrollo. Si bien en 1973 los intereses ascendían de 3 a 4% anual, para 1983 esta cifra había subido de 22 a 23% anual; esta situación se debe directamente a la desvalorización del dólar, que a su vez responde al intento por aumentar la competitividad de sus exportaciones, a su inflación y al aumento de cerca de 50% de los gastos militares que se acentuó desde que Reagan llegara al poder. El drástico salto de intereses anuales obliga a que los países de Latinoamérica inviertan crecientes cantidades del producto de sus exportaciones para pagos relacionados con la deuda externa, sacrificando su propio crecimiento y pauperizando de manera creciente a sus sociedades. No es necesario ser economista para comprender que esta tendencia es insostenible. Tampoco se requiere ser un político muy hábil para comprender que la población, en continua pérdida de su poder adquisitivo, pondrá, tarde o temprano, un alto a esta inaceptable situación. Entre las soluciones que se manejan como posibles para dicha situación podemos destacar dos: primero, elevar la eficiencia de la economía y ampliar la capacidad de exportación; y el segundo se basa en una recomendación esgrimida por el Fondo Monetario Internacional, que sugiere abatir drásticamente el consumo y elevar los impuestos y precios, con lo cual se viviría en un ambiente permanente de inflación incontrolada a hiperinflación. Por otro lado, la primera solución requiere de una inyección de recursos a las industrias nacionales, lo cual implica poder dedicar parte de las ganancias de su exportación a la modernización, pero como decíamos, una vez que se cubren los intereses, queda demasiado poco para realizar tan magna tarea. Como ejemplo de una medida económica concreta, podemos mencionar los casos de Brasil, que suspendió temporalmente el pago de servicios de la deuda. Una medida más radical y lógica fue tomada por el gobierno del Perú, que limitó sus pagos de intereses a 10% de los ingresos procedentes de la exportación, con lo que en 1986 el PIB creció a 8.5%, mientras que al año siguiente se mantuvo el crecimiento en 7%, muy por encima de cualquier otro país de Latinoamérica. Claro está, estos dos países, al proceder sin el apoyo concertado de los demás deudores, sufrieron solos las contramedidas de los acreedores hasta doblegarlos. Esta medida sólo funciona cuando se actúa en concierto; entonces sí, la deuda se vuelve no sólo impagable, sino también incobrable. Adicionalmente al drástico salto de intereses, se ha dado un fenómeno relativamente nuevo en la economía mundial, caracterizado por la exportación de capital privado, de los países endeudados a los bancos de los países industrializados. Como ejemplo cabe mencionar el caso de México, que desde 1976 hasta la fecha transfirió a las cuentas privadas de los bancos de los países industrializados, principalmente Estados Unidos, 53 000 millones de dólares, es decir que con esa cantidad de capital que se fuga de la economía nacional se hubiera podido pagar la mitad de la deuda nacional. Como si esto fuera poco, en nuestros países se dan de manera más acentuada que en los industrializados, niveles de corrupción que encarecen aún más el capital utilizable para el desarrollo, y claro está, el dinero proveniente de la corrupción fluye directamente hacia bancos que, como los suizos y estadunidenses, reciben capitales sin importar la legalidad de su procedencia; por algo en las recientes manifestaciones en Europa en contra del Fondo Monetario Internacional, se mostraban mantas diciendo no más blood money, dinero sangriento. Para asociar cifras al aspecto de la corrupción, podemos mencionar que, sólo en Argentina, los fraudes incurridos por banqueros, y directamente por las empresas (hoy día enjuiciados) costaron a la Argentina el 10% de su deuda externa. Tanto en México como en Brasil, las soluciones se refieren a una combinación de las enunciadas al principio de esta sección. Por un lado, se dan programas de "modernización" y de incremento de las exportaciones, y simultáneamente, se trata de complacer los dictados del Fondo Monetario Internacional, recortando el gasto público y permitiendo el aumento incontrolado de los precios, a lo que algunos todavía llaman "poner en libertad las leyes de la oferta y la demanda". Sin embargo, las cifras dejan muy claro que ninguna de estas dos soluciones por sí solas, o combinadas, podrá permitir a los países salir de tan grande encrucijada; por lo que economistas de todo el espectro político están llegando a la conclusión de que se requiere, antes de cualquier otra medida, un arreglo político entre deudores y acreedores: es decir, regresan a las tesis básicas del "nuevo orden económico internacional". Sobre el arreglo político las opiniones son también divergentes; abarcan desde la mencionada proposición de que la deuda externa de los países en desarrollo es no sólo impagable, sino también incobrable, hasta las sugerencias de que la solución radica en abrir nuestras fronteras a la libre competencia de las transnacionales. Solución que encierra, por un lado, la pérdida de la industria nacional debido a su incapacidad de modernizarse en plena crisis y, por otro, la consiguiente pérdida del control gubernamental de la economía. Por supuesto que ésta es la solución que proponen los acreedores. Otro ejemplo, en cuanto a los arreglos políticos para la salida de la crisis, es el novedoso plan de vender la deuda a cambio de bonos, respaldados principalmente por el gobierno estadunidense, que supuestamente aligerarían la carga impuesta por los pagos, pero que además implica compromisos que deben estudiarse detalladamente para evitar que afecten la soberanía económica de un país. Otras sugerencias sobre posibles arreglos políticos flotan en el ambiente; no obstante, si bien políticamente atractivas para los países deudores, para los acreedores implican un cambio de política nacional, que hasta estos momentos perciben como condición inaceptable. Nos referimos aquí a la utilización de los gastos militares ahorrados, como resultado de los acuerdos de desarme. Sobre esto tenemos ya ejemplos palpables, con la firma del tratado sobre la destrucción de los cohetes nucleares de alcance intermedio y táctico y las armas químicas. Si bien el ahorro que resulta del primero implica solamente el 4% del total de armas nucleares, estamos viviendo la elaboración de un tratado mucho más amplio que pretende reducir los armamentos nucleares basados en cohetes balísticos intercontinentales al 50% de las cifras actuales. A este respecto, diversos grupos de la comunidad internacional sugieren que los montos ahorrados con el desmantelamiento de este armamento pueden concentrarse en un fondo común a cargo de la ONU, y que pudiera utilizarse, precisamente, para el financiamiento de la modernización de las economías de los países en vías de desarrollo. Quizá para algunos esta solución carezca de realismo; sin embargo, por primera vez en la historia testimoniamos la destrucción de todo un tipo de armamentos, y hoy en día se discute la reducción de armas que generarían un ahorro mucho mayor que el manejado actualmente. Esta última reducción desataría recursos que van de 7 000 a 10 000 millones de dólares al año, y contiene otras propiedades menos evidentes, que también requieren considerar esta opción seriamente. Nos referimos al hecho ya mencionado de que más de la mitad de los físicos e ingenieros de los países industrializados trabajan en el desarrollo de la técnica militar, lo que hace evidente que con esas sumas de dinero, acompañadas de tales recursos humanos, ¡que oscilan entre 2 y 3 millones de especialistas!, pudiera darse un impulso histórico al desarrollo de una sociedad más justa. Cabe señalar aquí, por su repercusión favorable al tema de investigación espacial, que la firma de un tratado de reducción de 50% de los armamentos estratégicos significa la liberación de cuantiosos cohetes impulsores de alta fiabilidad, que hoy descansan inútilmente en los silos con cargas mortíferas listas para el despegue, pero que pudieran modificarse para lanzar a órbita equipos de importancia económica y científica en beneficio de toda la humanidad. Para los escépticos y cínicos que piensan que esta solución es ilusoria y hasta alucinante, es necesario recordar que, acompañando a los acuerdos de destrucción de los armamentos mencionados, se dan una serie de requerimientos en cuanto a la verificación del cumplimiento por ambas partes —este aspecto es quizá el factor más importante que tiene el acuerdo en sí. Si el avance de la ciencia y la técnica han hecho posible que los ingenieros de la industria militar desarrollen tan portentoso armamento, a su vez los acuerdos han considerado los medios técnicos necesarios, descritos más adelante, para comprobar el cumplimiento mutuo y preciso. En el contexto de consideraciones sociopolíticas, debemos dar su lugar a tan importante hecho sin precedentes: el tratado de eliminación de misiles de mediano alcance incluye, por primera vez, la verificación por cada uno de los firmantes de los sitios de emplazamiento, producción y almacenamiento de este tipo de armamento. La combinación de los medios técnicos y visitas súbitas a los sitios mencionados es considerada por los expertos de ambas superpotencias como suficiente para saber, más allá de la duda, si se respeta el cumplimiento de los acuerdos. Con este paso se rompe una tradición impuesta por los belicistas, que impedía la verificación directa, dejando siempre lugar a dudas y a desconfianza mutua. Por ello, ¡éste es un acontecimiento histórico! Si a este tratado se añaden los que hoy ocupan las mesas de negociación en Ginebra, como las discusiones sobre armas bioquímicas, espaciales y, pronto, el armamento convencional que devora enormes sumas de capital, aun los escépticos, aunque no es necesario incluirlos a todos, aceptarán que se está abriendo una nueva vía en cuanto a las relaciones internacionales. Entre los argumentos más socorridos por los militaristas que se oponen al proceso de desarme, destaca el alegato de que una vez puesto en marcha un programa mundial para destruir los armamentos, las economías perderían una parte importante de su quehacer industrial, afectando drásticamente el bienestar de sus pobladores. Al respecto nos referiremos a un trabajo desarrollado hace unos años por el profesor S. Melman de la Universidad de Columbia de los EUA, que estudia las barreras que supuestamente impiden la conversión de la industria y economía militar en civil. Entre sus conclusiones principales podemos leer: "Donde hay una industria militar enraizada, la acompaña una ideología que la considera fenómeno positivo e imprescindible para la seguridad, para consolidar los sectores civiles, crear empleos, y para desarrollar tecnologías avanzadas". Pero añade que, en realidad, "...la aplicación de la economía militar se lleva una parte considerable de la riqueza nacional. Es más, reduce las posibilidades de crecimiento de la productividad del trabajo, sobre todo en la industria", ya que la industria militar es menos eficiente que la civil. En principio, las necesidades de defensa justifican los gastos militares, pero en el caso de las potencias nucleares, la defensa no existe. Y señala que el desarme no sólo debe incluir las armas nucleares, ya que son grandísimos los presupuestos dedicados a las fuerzas y medios técnicos no nucleares. Para dar pie a un proceso de desarme realista, Melman hace una serie de sugerencias interesantes que coinciden con algunas elaboradas por sus contrapartes soviéticos. En particular, se refiere a constituir comisiones encargadas de planificar el uso alterno de las fábricas y laboratorios militares; para cumplir esa tarea sugiere además una serie de medidas de apoyo: a) el reciclaje de técnicos entre la industria militar y la civil, ya que los primeros no reparan en los gastos de producción, mientras que en la civil tendrán que atender lo relativo al costo y al ahorro; b) reciclaje del cuerpo administrativo para que practique el ejercicio de vender sus productos sin tener asegurada la venta previamente, como ocurre con los equipos militares, ya que el comercio requiere de satisfacer demandas reales; por último, c) sugiere una migración de administradores e ingenieros hacia la industria civil, pues las cantidades de las industrias militares son excesivas y hace falta que se preparen en puestos en que puedan trabajar en proyectos civiles con una eficacia mucho mayor. Al respecto conviene señalar, en primer lugar, el destacado caso de Japón, que desde la posguerra ha demostrado que los ingenieros de las ramas civiles desarrollan y aplican tecnologías nuevas con mayor eficacia que sus colegas en los sectores militares, ya que por cada 30 000 millones de dólares invertidos en la industria militar, se refleja una baja de más de 12 000 millones de dólares en productos y servicios para la población en general. Adicionalmente, en diversos estudios como el citado se sugiere la utilización tanto de las industrias y de los mismos efectivos militares en tareas que beneficien directamente a sus países; por ejemplo, para enfrentar calamidades, catástrofes naturales y ecológicas, como se viene haciendo en México desde hace varias décadas. Se sugiere, también, que se utilicen los medios de registro sísmico para aumentar la vigilancia sísmica, como en el caso de erupciones volcánicas, donde se han podido tomar medidas preventivas, reduciendo considerablemente sus repercusiones en la ciudadanía. En esa misma línea, se citan actividades como el combate de grandes incendios, o la asistencia durante inundaciones; casos en los que se requiere del manejo de grandes cantidades de personas y equipos, en forma coordinada, muy parecida a las operaciones militares. Asimismo se pueden dedicar las organizaciones militares a la regulación de crecidas de ríos, en la prevención y control de contaminaciones accidentales (como en el caso del accidente de Chernobil, y más recientemente, con la contaminación accidental del Rin en Europa, cuando se volcaron al río inmensas cantidades de desechos químicos peligrosos). También es evidente que buena parte de los ingenieros y físicos asociados a la industria militar pudieran ocuparse en elevar la fiabilidad de las instalaciones potencialmente peligrosas, como las plantas nucleares; los militares pueden ocuparse también en la lucha antinarcóticos, y utilizar su propio equipo, capaz de transitar en cualquier condición de terreno y contaminación, para la asistencia en los desastres industriales y naturales, y para la reconstrucción de viviendas e instalaciones sociales después de terremotos y del paso de trombas y ciclones. En fin, las dificultades para dar cauce a un programa de esta magnitud son inevitables, y quienes están mejor equipados para sugerir la conversión de una industria militar a una actividad civil son precisamente las comisiones formadas dentro de cada industria para planificar el uso alternativo de sus instalaciones. A pesar de las dificultades, no es tan arduo vencerlas, sobre todo en comparación con los peligros que entraña la militarización de la economía y de la sociedad, que en el mejor de los casos incrementa sin cesar los riesgos de la guerra. A este respecto podemos citar otro acuerdo importante firmado entre las potencias sobre la puesta en marcha de los llamados Centros de Reducción del Peligro Nuclear. Estos centros, que se han comenzado ya a instalar, iniciarán sus labores con la modesta función de notificar a sus contrapartes sobre el lanzamiento de misiles balísticos de ensayo, con tres a cinco días de anticipación; en particular cuando las acciones impliquen un riesgo para la navegación en altamar o para el vuelo en corredores comerciales. El acuerdo no descarta que se utilicen tales centros para avisar con urgencia sobre incidentes casuales relacionados con armas nucleares, por avería de una carga nuclear o de su portador. Más adelante, estos centros suponen la ampliación de sus actividades, según los acuerdos que vayan surgiendo entre las potencias. Los centros utilizan instalaciones con la tecnología más avanzada, basada en satélites y comunicaciones ópticas, y además desarrollan procedimientos idénticos para el uso, mantenimiento y formación del personal; además de que sostienen reuniones periódicas con los representantes de cada centro para discutir el perfeccionamiento de sus procedimientos y equipos. Por considerarlo interesante y oportuno, recordaremos brevemente algunos de los sistemas que forman la espina dorsal de los llamados "medios técnicos nacionales" de verificación mutua, porque aun cuando este trabajo no es un estudio sobre desarme, la gran mayoría de estas técnicas se basan precisamente en el equipo aeroespacial, con el que el lector se ha familiarizado ya. En primer término, tenemos las plataformas de teleobservación de aplicación militar. Ya hemos descrito algunas de las características de los satélites de percepción remota, y también hemos hecho referencia a libros dedicados a este tema; sin embargo, los satélites militares se distinguen de los civiles en cuanto a sus alcances e infraestructuras de apoyo: 1) Al hablar sobre los sensores remotos, nos referimos tanto a las cámaras ópticas equipadas con películas de alta resolución, como a las nuevas cámaras optoelectrónicas elaboradas con base en sensores semiconductores (cámaras de CCD); hoy en día estas cámaras pueden captar imágenes de zonas selectas del planeta y detectar, desde 800 km de distancia, objetos del tamaño de un libro; además, ya que los equipos vuelan repetidamente sobre todas las zonas de interés militar, por medio de computadoras pueden realizar comparaciones diarias que detectan cualquier cambio ocurrido en una instalación militar. 2) Con otro tipo de sensores, aquellos que funcionan en la banda térmica o infrarroja del espectro, se puede detectar incluso equipo mimetizado (con camuflaje) dentro del más espeso bosque, pues siempre las creaciones del hombre tienen una temperatura diferente, aunque sea ligeramente, del medio que las rodea. 5) En cuanto al desarrollo del armamento nuclear, que requiere de incesantes pruebas para establecer su fiabilidad y estado de funcionamiento, la ingeniería sísmica ha desarrollado medios similares a los sismógrafos convencionales, que son capaces de detectar y registrar hasta la más pequeña explosión nuclear. 6) Por último, existen medios para comprobar el tipo de carga, en particular del armamento nuclear, que transporta un barco y hasta un submarino. Para esto se utilizan helicópteros y aviones equipados con aceleradores portátiles de partículas nucleares, que generan un haz concentrado de neutrones de alta energía que irradia el blanco bajo estudio; los neutrones provocan reacciones de fisión dentro de las ojivas nucleares de los misiles, lo que en consecuencia genera nuevos neutrones y rayos gamma que pueden ser detectados por el equipo de observación. Con estos medios se pueden detectar no sólo la presencia, sino también la capacidad de estas ojivas nucleares. Cabe aclarar que también es posible realizar, aun con mayor facilidad, este tipo de detecciones en cuanto a armamento en el espacio, pero con la ventaja de que por estar al vacío se logran resultados a distancias mucho mayores. Sólo para propósitos de detección remota, los Estados Unidos gastan cerca de 15 000 millones de dólares al año en equipo de verificación de alta tecnología; y como decíamos, los expertos de Estados Unidos y de la URSS están de acuerdo en que la combinación de los Medios Técnicos Nacionales y las visitas súbitas a las instalaciones de la contraparte, son suficientes hoy en día para verificar el cumplimiento de los tratados. Estoy convencido de que los acuerdos firmados recientemente incluyen, por medio de la verificación in situ de las instalaciones de su contraparte, una situación cualitativamente nueva, que da lugar a los primeros procesos serios sobre desarme, y que a la vez hace posible que los habitantes de la Tierra finquen en un hecho concreto su primera esperanza sobre el control de armamentos. Resta desde luego incluir dentro de las negociaciones sobre desarme el compromiso de desviar los gastos que se asignaban al desarrollo y mantenimiento de la estructura militar hacia la preparación de programas que, de manera eficaz, hagan posible la modernización de las industrias de los países en desarrollo, para lo que habrán de diseñarse nuevas estructuras de intercambio comercial, que a su vez permitirán hacer de este proceso inicial una política permanente que supere los intereses particulares y exclusivos de cada nación en aras del beneficio de la humanidad. Tenemos que detener la autoestrangulación económica por gastos militares. Desde el momento mismo en que se creó el primer explosivo atómico, el hecho imponía una responsabilidad, que si bien ha tardado casi 40 años en percibirse diariamente, debido a su contundencia lógica se está convirtiendo en una idea aceptada por una cada vez mayor proporción de los políticos, científicos, ingenieros y aun militares. La responsabilidad a la que nos referimos se manifiesta si percibimos a nuestro planeta como una nave cósmica en donde las acciones de unos afectan directamente los derechos de los demás. Por cuestiones de enfrentamiento ideológico, es posible que se requiere esperar una o más décadas para que comience a materializarse una institución de autoridad respetada por todos los países. Es indispensable que el mundo abandone la concepción de que es necesario el enfrentamiento armado para la solución de los problemas entre los países, y que alcance un concepto muy superior que establezca la negociación, el arreglo y la puesta en práctica de compromisos para la solución de los problemas, antes resueltos con la intervención bélica. Quizá como base para implantar esta política mundial se requiera en un principio de directrices de carácter general, como aquellas de considerar a la guerra, comenzando por la guerra nuclear, como un medio inaceptable para extender la influencia política y económica de un país. Por eso en la actualidad el reto más importante que enfrentamos todos y cada uno de los pobladores de la Tierra es impulsar el desarme, pero en particular la tarea corresponde a los científicos e ingenieros que pueden conducir, sin ninguna duda, que es imposible que en una guerra nuclear alguien resulte vencedor. Los cálculos que han hecho los especialistas en relación con las repercusiones de una guerra nuclear, aun limitada, arrojan datos de un escenario totalmente desconsolador: el "invierno nuclear". Este estado climático alcanzaría, según los científicos, temperaturas de -15ºC en el ecuador, y por lo tanto, temperaturas aún más bajas en las partes frías del planeta. El invierno nuclear sería resultado directo de la inyección de inmensas cantidades de polvos y partículas provenientes de la combustión de ciudades, bosques, industrias y territorios enteros: cosa de la que son capaces de sobra las ojivas nucleares de la actualidad. Las partículas en suspensión atmosférica interferirían con la insolación de la superficie terrestre, impidiendo el calentamiento diario que mantiene las temperaturas de la superficie tal y como las conocemos. Cuando una sociedad, y específicamente, cuando la sociedad entera del planeta perciba la gravedad de las repercusiones de una guerra nuclear (que desde luego implica el fin de la vida por muchos miles de años sobre el planeta), despertará una conciencia que nada tiene que ver con las naciones, sino con el futuro mismo de la humanidad y de la gran mayoría de los seres vivos. A pesar de las grandes contradicciones ideológicas, económicas y políticas de los bloques esteoeste, el instinto de sobrevivencia, arraigado profundamente en la estructura del pensamiento humano, debe dominar sobre cualquier otro instinto y generar una conciencia clara de las situaciones sin precedente que enfrentamos. Hay quienes a pesar de la contundencia de los datos sobre el invierno nuclear sueñan con la posibilidad de conducir una guerra nuclear limitada; sin embargo, en la historia del armamento militar no se conoce ningún caso de autocontrol en donde alguna de las partes del conflicto haya decidido no utilizar el armamento más poderoso a su alcance. Múltiples discusiones entre militares de la posguerra llegaban al acuerdo de que no eran necesarios los ataques atómicos sobre las ciudades japonesas, puesto que el curso de la guerra llevaba una dirección indudable hacia la derrota de la última potencia del Eje, Japón. Sin embargo, la historia demostró que en manos de militares y políticos irresponsables, como los que hoy día se observan por decenas, la mentalidad destructora se impuso ante la lógica más elemental. El futuro no tiene por qué ser diferente. Entre los múltiples sectores de la sociedad actual, los científicos e ingenieros tienen una responsabilidad adicional por el conocimiento que poseen de las repercusiones de una guerra como ésta, por lo que a la vez sobre ellos recae la responsabilidad de utilizar sus conocimientos para informar al género humano sobre las responsabilidades que enfrentamos. No es suficiente que la ciencia busque el conocimiento y la verdad, sino que es necesario que aceptemos como parte de nuestras tareas diarias el difundir todo tipo de información y no sólo de las ciencias naturales, sino también de las sociales. Adicionalmente, debemos procurar que esta información alcance a todo habitante del planeta para generar con ello una conciencia general sobre los imperativos ecológicos, es decir, sobre el conocimiento y manejo responsable de nuestro medio, así como sobre los aspectos de moralidad y política que la información científica puede brindar. En pocas palabras, decimos que la responsabilidad de los científicos e ingenieros que desarrollan todo tipo de armamentos debe convertirse progresivamente en una conciencia generalizada que tenga como propósito fundamental acabar con el armamentismo. Sin embargo, este cambio radical de política internacional demanda un esfuerzo tal, que es fácil dudar de que pudiera alcanzarse. Pero, por otro lado, existe un antecedente histórico que demuestra que la humanidad, aun de manera aislada, ha tomado medidas radicales en aras de la sobrevivencia. Nos referimos en particular a cuando, hace miles de años, por alguna razón muchos de los grandes mamíferos de la época, como los mamuts, perecieron en un periodo relativamente corto de tiempo. En aquel entonces, sólo un sector de la humanidad respondió adecuadamente al reto, cambiando sus medios de subsistencia, y de la caza pasó a la agricultura y la ganadería. Aunque el hombre sobrevivió a esa importante crisis, la humanidad perdió, según estiman especialistas, cerca del 90% de su población, aquellos que no supieron adaptarse. El futuro, pues, nos presenta una puerta en cuyo rótulo se lee ADAPTACIÓN. Primero, para sobrevivir, usando la organización social, la ciencia y la tecnología para resolver racionalmente los problemas que enfrentamos: la destrucción ecológica, el cambio climático generalizado, la pérdida de zonas agrícolas, bosques y selvas. Segundo, para una utilización más justa de los recursos mundiales: los mares, sus recursos alimenticios, minerales —sobre todo en aguas internacionales—, la exclusiva órbita geoestacionaria, las grandes superficies boscosas —el Amazonas—, la atmósfera, sus propiedades vitales, y los depósitos minerales escondidos en la geología. Todo esto y más es patrimonio de la humanidad, y como tal debemos administrarlo. Y como ejemplos prácticos del intento por la aplicación de este raciocinio, quizá para algunos utópico, están la Antártida, los corredores aéreos, los sitios declarados patrimonio de la humanidad, como: Teotihuacán, Monte Albán, la gran Muralla China y las reservas animales del África. Tercero, la adaptación nos debe impulsar en el camino de la negociación y el acuerdo, para disminuir a los valores más bajos posibles la pérdida de recursos en actividades morbosas, como el armamentismo como política alterna, el crimen y la represión de las ideas justas y humanitarias. Por lo pronto, cada país tiene el futuro en sus manos; las herramientas que use y desarrolle, y los conceptos que orienten sus objetivos, decidirán si sobrevive. Parece que una vez más nos enfrentamos a una amenaza mundial. Los cambios que hemos provocado en nuestro ambiente requieren de acciones contundentes y atinadas. Como ejemplo basta un botón: la notable caída en la proporción de ozono en la Antártida, demostrada ya claramente, puede inducir cambios en cuanto a la radiación que llega a la superficie, y cuyos efectos serían nefastos para la vida en la Tierra. Pienso que son las herramientas tecnocientíficas actuales, y muchas otras que se desarrollarán sin parar, las que, como en el caso del cazador que abandona la lanza para tomar el azadón, o que utiliza el metal o mineral que usaba en la caza, para confeccionar el implemento agrícola, lo harán sobrevivir al cambio ambiental: una reorientación de recursos, que difícilmente pueden salir de otro concepto que no sea el desmesurado y costoso armamento. ¿Acaso no podemos, con tanta civilización y cultura, cambiar las herramientas bélicas —las que hoy se siguen usando para continuar la política por otros medios— por las herramientas que detengan el deterioro de nuestro único hogar? Creo firmemente que sí, pero primero hay que acostumbrarse al concepto de adaptación, y luego, pronto en términos históricos, pasar a la acción. Invertir lo ahorrado en armamento en acciones para el desarrollo integral, solución al hambre y la salud, a la educación y a la vivienda. ¿De qué nos sirve tanta tecnología si no damos salida al desarrollo general? Finalmente, al buscar soluciones y seleccionar las herramientas idóneas, nos percatamos de una situación real: la naturaleza de todos los cambios inducidos en el ambiente es de carácter global, a todos nos afectan, de modo que la solución tiene que ser, por definición, global. Entre las herramientas más poderosas y globales, una de las más generales es aquella que surge como resultado de la investigación espacial. Con ella, entre muchas otras cosas descritas a lo largo de este trabajo, podemos: comunicarnos al instante con todo el planeta, supervisar los cambios climáticos y los de la delicada química atmosférica, y poco a poco aprender a disminuir los estragos que generamos. En esto estriba, paciente lector, la necesidad de conocer y saber utilizar la ciencia y la técnica espacial. Son, como la microelectrónica, la biotecnología y los nuevos materiales, herramientas de nuestro tiempo, y no un lujo. G L O S A R I O absorber. Fenómeno que consiste en la adhesión de capas de moléculas a la superficie de un cuerpo o partícula debido a las fuerzas electrostáticas. calibrar. En instrumentos electrónicos es el ajuste de las señales eléctricas respecto a parámetros externos como luz, temperatura, sonido, etc., cuyo valor se conoce de antemano, para evaluar su rendimiento o tener una referencia. capa dura. Capa de arcilla limosa de resistencia alta que se encuentra entre 35 y 40 m de profundidad en el subsuelo del centro de la ciudad de México. carga útil. Aparatos, materiales, personas, etc., transportadas por una nave aérea o espacial y que no son parte de ésta. coalescencia. Acción de unirse o soldarse dos partes separadas. coloide. Dispersión de partículas sólidas muy pequeñas en un medio acuoso en el que no se disuelven. Por ejemplo, la gelatina antes de endurecerse, o el lodo. digitación. Conversión de una imagen de tonos continuos a puntos discretos representados por dígitos en una computadora. electrólisis. Migración de partículas cargadas eléctricamente sometidas a la acción de un campo eléctrico. Es un método muy importante para el análisis y la purificación de proteínas en mezclas complejas, que es como generalmente se encuentran en preparaciones de material biológico. energía. Vehículo soviético de lanzamiento capaz de elevar hasta 200 toneladas a órbita baja, mediante combustible líquido. espectrofotometría infrarroja. Técnica analítica para discriminar e identificar por comparación espectros de un material excitado molecularmente con radiación infrarroja. fotocátodo. Película delgada donde con la llegada de fotón a su superficie externa se genera un electrón en su cara interna. fotocolorímetro. Aparato para medir la transmitancia y absorbencia de luz de alguna sustancia, a diferentes longitudes de onda. geofísica. Ciencia que estudia la física terrestre y su entorno inmediato. geoide. Forma teórica de la Tierra deducida por métodos geodésicos, esto es, de mediciones y observaciones directas de la Tierra. guerra de las Galaxias. Sobrenombre popularmente impuesto a la "Iniciativa de Defensa Estratégica" de EUA, consistente en la militarización del espacio. higroscopía. Capacidad de un material de absorber agua. imágenes multiespectrales. Imágenes de un objeto obtenidas por separado en diferentes bandas del espectro electromagnético. imponderabilidad. Ausencia de peso, imposibilidad de pesar un objeto. ingenio espacial. Conjunto de aparatos dedicado a la experimentación, exploración y a la producción de materiales y equipos en el espacio. intemperización. Alteración de los materiales por la acción de los fenómenos climáticos. longitud de onda. Distancia entre dos puntos análogos de dos ondas consecutivas. macroiones. Moléculas de gran tamaño que tienen una carga eléctrica neta, producto de las cargas individuales que se localizan en distintos puntos de su superficie. microestructura. cuerpos sólidos. Estructura microscópica que forma todos los microgravedad. Fuerza de un millonésimo de la gravedad en la superficie terrestre. mir. En ruso significa paz. Nombre de la más reciente de las estaciones espaciales soviéticas. morfología matemática. Derivación matemática de formas y volúmenes tridimensionales a partir de cortes secuenciales de un objeto. muestras inalteradas. Muestras de material del subsuelo en que la posición de las partículas, el contenido de agua y el volumen no han sido modificados por el proceso de extracción. nistagmo. Movimiento en pequeños saltos de los ojos inducido por el sistema vestibular en la misma dirección que el giro de la cabeza, y que permite fijar la vista en un objeto en movimiento. nistagmo calórico. Movimiento a saltos producidos por introducción de un fluido caliente al oído externo. ojivas nucleares. Cabeza explosiva o carga nuclear de un cohete balístico o de vuelo rasante. ostrácodos. Crustáceos marinos y de agua dulce que secretan dos conchas en ambos lados del cuerpo, articuladas en la parte dorsal. Se alimentan de partículas de materia en descomposición y de organismos. pirómetro. Instrumento para medir temperaturas. pixel. Cada punto cuadrado de los que forman una imagen digital (del inglés picture element, pix-el). plano ecuatorial. Plano imaginario que corta a la Tierra por el ecuador. quantum. Módulo para investigaciones astrofísicas que forma parte de la estación espacial Mir. radar de apertura sintética. Equipo de radar para hacer imágenes de objetos o territorios sobrevolados. selección natural. Proceso mediante el cual individuos o grupos taxonómicos son seleccionados, permaneciendo los que mejor se adaptan para responder a las presiones del medio y desapareciendo aquellos no aptos. Es uno de los mecanismos fundamentales de la teoría de la evolución de las especies formulada por Darwin. sistema operativo. Conjunto básico funcionamiento de una computadora. de programas para el sistema vestibular. Parte del oído interno formada por los conductos semicirculares y los sacos llamados sáculo y máculo que sirve para la percepción de posición, aceleración y equilibrio. sondeo inalterado. Extracción de muestras inalteradas del subsuelo mediante el empleo de tubos que se hincan en él. temperatura estequiométrica. En cohetería, es la temperatura máxima alcanzada en la cámara de combustión con la proporción de combustible y oxidante. termopar. Sensor de temperatura que funciona mediante la variación del voltaje producido en la unión de dos metales. tomografía. Formación de imágenes de un plano que intersecta a un objeto. ultra alto vacío. Se llama así al vacío cuya presión es menor a 10 Torr. visión sinóptica. Visión amplia que abarca a todo un objeto o a un conjunto de éstos. zinalco. Aleación de zinc, aluminio y cobre. B I B L I O G R A F Í A Aguilar Sahagún, G., 1988, El hombre y los materiales. SEP/FCE/ CONACYT, Serie: La Ciencia desde México, núm. 69, México. Alonso Concheiro, A., 1987, Capacidad tecnológica y porvenir de México, Comercio Exterior, BNCE, Vol. 37, núm. 12, México. Aviation Week and Space Technology, McGraw-Hill Pub, semanario aeroespacial, EUA. Bonfil Batalla, G., 1987, México profundo. Una civilización negada, SEPCIESAS, México. Braun, E., 1987, Arquitectura de sólidos y líquidos, SEP/FCE/CONACYT, Serie: La Ciencia desde México, núm. 26, México. Cetto, A. M., 1987, La luz, SEP/FCE/CONACYT, Serie: La Ciencia desde México, núm. 32, México. Díaz del Castillo, B., Historia verdadera de la conquista de la Nueva España, Ed. Porrúa, México. El programa espacial soviético: páginas de la historia, 1986. Editorial Progreso, Moscú, URSS. Gall, R., et al,1986, Las actividades espaciales en México: Una revisión crítica, SEP/FCE/CONACYT, Serie: La ciencia desde México, núm. 20, México. Gómez Looh, B., 1987, "Análisis pro difracción de rayos X de las arcillas del subsuelo de la ciudad de México", Tesis de licenciatura, Facultad de Química, UNAM, México. Lira, J., 1987, La percepción remota: nuestros ojos desde el espacio, SEP/FCE/CONACYT, Serie: La Ciencia desde México, núm. 33, México. Marsal, R. J. y M. Mazari, 1959, El subsuelo de la ciudad de México, I Congreso Panamericano de Mecánica de suelos y Cimentaciones, UNAM, México. Melman, S., Barreras a la conversión de la economía militar en civil, University of Columbia Press, EUA. Microgravity Science and Applications Program Tasks, 1987, NASA Memorándum Técnico 89607, Washington, EUA. Peralta, R., 1984, Micromecánica de suelos, informe final a la Fundación R. J. Zevada, UNAM, México. Ride, S. K, 1987, Leadership in space, NASA, Informe al Administrador, EUA. Shapland, D. y M. Rycroft, 1984, Spacelab. Research in Earth Orbit, Cambridge University Press, Inglaterra. Schukin, E. D., A. V. Perstov y E. A. Amélina, 1988, Química coloidal, Ed. Mir, URSS. Valdés, J. F., 1988, Nuestro hogar en el espacio, SEP/FCE/CONACYT, Serie: La Ciencia desde México, núm. 66, México. C O N T R A P O R T A D A La ciencia actual ha entrado en una etapa de superespecialización y quizá por eso sorprenda este libro de Ricardo Peralta que pasa de la aeronáutica a la astronáutica —con un estudio sobre la historia y la tecnología de las naves espaciales— para enlazarlas con un análisis de la atmósfera terrestre, del suelo que pisamos y de la estructura del subsuelo, en particular el de la ciudad de México. No se crea de lo anterior que se trata de un texto improvisado. Los temas incluidos son resultado de un trabajo de diez años en que Peralta, durante sus estudios de licenciatura y maestría, se dedicó por entero a la ingeniería aeroespacial y que, al iniciar su doctorado, decidió trabajar sobre las propiedades ingenieriles de materiales complejos, campo en el que encontró "un material fascinante: los suelos arcillosos del valle de México". Poseedor de amplios conocimientos y también de llaneza y claridad en la exposición, puede escribir que, "para confundir al público sobre los valores de la ciencia y la tecnología, la tendencia actual en los medios de comunicación es presentar los avances de la tecnología y de la exploración espacial como casos extraordinarios del talento, situados más allá de la comprensión y la realidad cotidianas; pareciera que estos avances sirven más para hacernos sentir pequeños e insignificantes que para fincar sobre ellos la confianza en que son las herramientas principales para el desarrollo más justo de la sociedad futura". Este libro estudia el llamado "reto espacial", los microorganismos y los minerales, el efecto que la microgravedad ejerce sobre las propiedades de los materiales en un laboratorio colocado en órbita terrestre y lo que la ciencia puede hacer por el hombre en el futuro inmediato, considerando que aquélla es una herramienta de nuestro tiempo y no un lujo. Ricardo Peralta y Fabi se graduó de ingeniero aeroespacial en Chicago y posteriormente, en Montreal, obtuvo su maestría y el doctorado en mecánica de materiales. Desde 1979 trabaja en el Instituto de Ingeniería de la UNAM, donde estableció el Laboratorio de Micromecánica. En la actualidad coordina el Sub-programa de Ingeniería Espacial de esa institución. Ha publicado artículos científicos en revistas nacionales y extranjeras. Diseño: Carlos Haces / Fotografía: Carlos franco / Fotografía de fondo: Mayte Soberanes.