Del espacio al subsuelo

Anuncio
Del espacio al subsuelo
Del espacio al subsuelo
D E L
E S P A C I O
A L
Autor: RICARDO PERALTA Y FABI
COMITÉ DE SELECCIÓN
EDICIONES
PRÓLOGO
I. EL RETO ESPACIAL
II. DE REGRESO A LA TIERRA, PASANDO POR
...LA ATMÓSFERA
III. EL INGRESO AL SUBSUELO
IV: MICROORGANISMOS Y MINERALES
V. LA MICROGRAVEDAD Y LOS MATERIALES
VI. NUESTRO LABORATORIO EN ÓRBITA
TERRESTRE
VII. HACIA EL FUTURO
GLOSARIO
BIBLIOGRAFÍA
CONTRAPORTADA
S U B S U E L O
C O M I T É
D E
S E L E C C I Ó N
Dr. Antonio Alonso
Dr. Juan Ramón de la Fuente
Dr. Jorge Flores
Dr. Leopoldo García-Colín
Dr. Tomás Garza
Dr. Gonzalo Halffter
Dr. Guillermo Haro †
Dr. Jaime Martuscelli
Dr. Héctor Nava Jaimes
Dr. Manuel Peimbert
Dr. Juan José Rivaud
Dr. Emilio Rosenblueth †
Dr. José Sarukhán
Dr. Guillermo Soberón
Coordinadora Fundadora:
Física Alejandra Jaidar †
Coordinadora:
María del Carmen Farías
E D I C I O N E S
Primera edición, 1990
Segunda edición, 1995
La ciencia para Todos es proyecto y propiedad del Fondo de Cultura
Económica, al que pertenecen también sus derechos. Se publica con
los auspicios de la Secretaría de Educación Pública y del Consejo
Nacional de Ciencia y Tecnología.
D. R. © 1990 FONDO DE CULTURA ECONÓMICA, S. A. DE C.V.
D. R. © 1995 FONDO DE CULTURA ECONÓMICA
Carretera Picacho-Ajusco 227; 14200 México, D.F.
ISBN 968-16-4806-4 (2a. edición)
ISBN 968-16-3l50-l (la. edición)
Impreso en México
P R Ó L O G O
Sobre la marcha decidí no dedicar este trabajo a un solo tema de entre
las investigaciones que realizo junto con el grupo interdisciplinario en
el que trabajo. Los temas incluidos tomaron 10 años para su desarrollo
y tocan materias muy diversas. Todo esto lo permití por varias
razones, entre ellas:
Primero, el deseo de plasmar el complejo proceso de cambio de un
tema de investigación a otro. Durante mis estudios de licenciatura y
maestría (1968-1974) me dediqué con obsesión a la ingeniería
aeroespacial, incluyendo temas de neurociencias espaciales; pero
entonces, desde lejos, decidí que iba a regresar a trabajar a mi patria,
así que el doctorado lo hice especializándome en propiedades
ingenieriles de materiales complejos, que juzgaba como más
importante para cuando trabajara en México. Durante los primeros seis
años de mi regreso, seguí el tema de estudio doctoral, por cierta
inercia como ocurre a menudo, pero con otro tipo de material,
fascinante como todos: los suelos arcillosos del valle de México. Pero
bien dicen que "la cabra tira pa'l monte" (sin alusión personal) y
regresé irremediablemente al campo aeroespacial. El libro lo había
primero titulado "Del espacio al subsuelo, y de regreso", mas al fin lo
acorté, aunque como verá el lector, lo cumplí; además de
entretenerme en actividades atmosféricas. Segundo, como esta serie
se llama La Ciencia desde México, me propuse incluir principalmente el
trabajo realizado en las condiciones de nuestro país, con todo y sus
coyunturas, altibajos, influencia de modas exteriores, aventuras,
superapoyos y leves "represiones" académicas, así que sin
proponérmelo conscientemente, el escrito refleja la influencia de todos
estos factores.
Al lector adaptado a este país y a esta super ciudad no le parecerá
muy raro el a veces pintoresco proceso; a un rígido sistemático, y a su
análogo tropical, les parecerá un viaje en montaña rusa y, a ratos, una
caminata en el desierto. Sin embargo, así han sido para mí los intentos
de hacer ciencia desde México. En 1978 se vivía la ilusoria
administración de la petro-opulencia, hoy día, vivimos la cruda social,
y quizá la búsqueda del verdadero desarrollo. Eso sí, creo que deja ver
la realidad que me ha tocado vivir. Como no sabía escribir, cuando
menos en correcto español y para el público en general, no entrego al
lector una obra fácil de leer ni con la brevedad óptima, aunque creo
que va mejorando hacia el final. Como tampoco soy ratón de
biblioteca, aunque acabo leyendo muchas de las horas de cada día, las
apreciaciones finales toman rumbos que hasta a mí me sorprendieron
por su contenido social. No obstante, esa afición humanística la
aprendí, como suele decirse, en la escuela de la vida, y esto no me
apena, me enorgullece como mexicano y como latinoamericano; por
algo el logotipo de nuestra Universidad Nacional incluye el mapa de
toda la patria grande y reza "Por mi raza hablará el espíritu", frase que
sé interpretar, y que me gusta.
Advertidos, pues, sólo me resta reconocer la ayuda entusiasta y
desinteresada que otros prestaron para que el libro fuera posible y
tuviera menos errores, aunque en mí recae la responsabilidad de
tantas aseveraciones que por ahí van saliendo. Como es natural, el
libro no presenta sólo el trabajo propio, sino el de muchas personas
con las que colaboro y que sería muy largo mencionar. No obstante,
como otros autores, ahora lo comprendo claramente, reconozco que lo
válido que puede tener esta obra se debe también a su influencia
constructiva. En primer término, a la de mi compañera Rosalinda
Medina, que no sé cómo todavía me aguanta; a la de nuestros hijos
Ernesto y Emiliano que, aunque pequeños, les tocó facilitar mi
comprensión de cómo analizan y entienden las personas las cosas que
parecen complejas, y por sufrir, casi sin decírmelo, la ausencia de su
padre, aun estando en su presencia. A la influencia de mis padres, que
aparte de ser los culpables de que esté yo aquí, lo son de que me
dedique con pasión a todas mis ocurrencias. Profesionalmente,
agradezco a mi principal formador (o reformador), al profesor D. R.
Axelrad que me enseñó a atar hasta el último cabo y a quien tanto
desobedezco; al entonces director de mi centro de trabajo, el Instituto
de Ingeniería, profesor Daniel Reséndiz, que supo apoyar una
investigación sin esperar garantías a cambio, a pesar de ser de su más
cercano interés y aun cuando me vio derivar hacia el monte; a mis
colegas más cercanos: Esaú Vicente, Jorge Prado, Armando Peralta,
Orlando Palacios (mi primer colaborador), Oscar Weckmann, Margarita
Navarrete y Víctor Romero quienes, con su juventud crítica, no me
dejan fallar ni rezagarme. En la revisión conceptual del manuscrito
participaron, además, mi hermano Ramón, el físico, Efraín Ovando,
amigo, investigador de suelos, y Jesús Machado Salas, otro amigo
investigador, pero de neuro. La redacción, labor titánica en mi caso, la
hizo Maribel Madero, quien casi califica de coautora. En el
procesamiento del texto y otros mil apoyos más, Alma Chacón, quien
no sé cómo no pierde el ánimo, y aún más.
Aparte de la ayuda de tanta gente, este libro no hubiera visto la luz si
no fuera por otras dos razones más. Una de tipo casual: tuvo una
participación importante un didáctico avionazo que me postró meses
en una silla de ruedas y me animó a vivir aún más, mientras Perla
Castillo tomaba dictado y corregía; la otra razón fue fruto de la más
cálida y exigente dedicación al trabajo por parte de la coordinadora de
esta serie, la querida doctora María del Carmen Farías y sus
colaboradores del Fondo de Cultura Económica. Te añado también a ti,
a quien olvidé incluir, e hiciste también un esfuerzo para hacer de mí
una persona deseosa de ser útil a la sociedad, sólo espero que la obra
lo alcance a reflejar, y haga que el lector sienta la vitalidad y
dedicación de toda esta gente. Amén.
RICARDO PERALTA
I .
E L
R E T O
E S P A C I A L
LOS INICIOS
UN HOMBRE solo no puede escapar de la gravedad. Su presencia en el
espacio es fruto del trabajo de cientos de miles de personas creativas y
organizadas. En un principio, la imaginación de los escritores de
ciencia ficción hizo que el hombre surcara y explorara el espacio.
Siguieron después los ingeniosos, que tradujeron tales sueños a
fórmulas y cálculos, luego los prácticos convirtieron esas ecuaciones en
los materiales y sistemas que conforman una nave espacial. Los Verne,
Tsiolkovski, Oberth, Goddard y Koroliov, apoyados por cientos de miles
de trabajadores multidisciplinarios, convirtieron un viejo sueño de la
humanidad en la realidad tangible de nuestros días.
Desde que el Sputnik 1 hizo su sorpresiva aparición el 4 de octubre de
1957, el mundo ya no fue el mismo: la cohetería capaz de colocar en
órbita un satélite, y poco después al hombre, abría una nueva era de
la humanidad, la Era Espacial.
La noticia del primer lanzamiento al espacio causó innumerables
reacciones: unos consideraban factible establecer, en este siglo, las
primeras colonias espaciales; otros, contemplaban la posibilidad de
que cayeran bombas atómicas sobre sus ciudades, y otros más, el
inicio de una competencia bélico-espacial entre las potencias
económicas más importantes. Quizá en algo estaban todos de acuerdo:
se nos presentaba otra frontera, la más vasta de todas, que a la vez
constituía un nuevo gran reto para los pueblos que podían apostar su
prestigio a la manera de enfrentarlo.
También en los momentos iniciales de la era espacial se establecieron,
teniendo en cuenta el prestigio nacional, los programas que darían
empuje a tal empresa; es una pena que desde sus inicios el desarrollo
espacial tomara la forma de una colosal competencia, y no el camino
de la cooperación, que sin duda permitiría un avance mucho más
rápido, costeable y beneficioso para la humanidad. Sin embargo,
motivaciones principalmente de tipo militar han determinado que hasta
la fecha los programas espaciales hayan desaprovechado en gran
medida las ventajas de la cooperación internacional.
Hoy en día, los alcances tecnológicos y científicos han avanzado tan
aceleradamente que ya muy pocas personas reconocen claramente los
límites entre la ficción y la realidad. Paradójicamente, en la actualidad
la magnitud y la difusión de los avances científicos y tecnológicos han
hecho que las personas pierdan contacto con los alcances reales y
potenciales de esos conocimientos, que tengan la idea de un mundo
ilusorio y lejano, y que desaprovechen actividades benéficas,
desprendidas de ese saber.
Para confundir más al público sobre los valores de la ciencia y la
tecnología, la tendencia actual en los medios masivos de comunicación
es presentar los avances de la humanidad y los de la exploración
espacial como casos extraordinarios del talento, más allá de la
comprensión y realidad cotidiana de cualquiera; pareciera que estos
avances sirven más para hacernos sentir pequeños e insignificantes,
que para fincar sobre ellos la confianza en que son las herramientas
principales para el desarrollo más justo de la sociedad futura.
Esta
desinformación
sobre
la
utilidad
de
las
actividades
tecnocientíficas, aunada a la distorsión que implica su militarización
son, sin duda, algunos de los acontecimientos más contradictorios y
funestos de la vida moderna.
Por estas razones, antes de proseguir, creo justo advertir al lector que
si piensa alimentar un mero entusiasmo por todo lo espacial con este
libro, que no pierda su tiempo y lo regale, pues corre además el
peligro de destruir un castillo de ilusiones. Este trabajo tiene la
intención de tratar sólo con la realidad más tangible del quehacer
espacial; y en particular, sobre el efecto que tienen en el avance de la
humanidad el estudio y desarrollo de viejos y nuevos materiales, así
como las diversas actividades espaciales. Asimismo, esta obra
pretende ayudar a desmitificar el tema espacial, a nulificar un abismo
imaginario entre las actividades espaciales y la vida diaria y acercarnos
hacia la comprensión de una interesante actividad que en nuestros
días nos afecta crecientemente.
LA ACTUALIDAD
Ahora sabemos que algunos frutos de la era espacial son las
comunicaciones amplias o gente trabajando en el espacio; también,
aparatos automáticos que estudian casi todo: desde los recursos
naturales propios y ajenos, hasta los planetas más alejados en nuestro
Sistema Solar. Los adelantos implican astronautas y equipos militares,
experimentos científicos y también estudios médicos y biológicos.
Poco a poco, los resultados de las tecnologías aeroespaciales llegan a
todos los rincones del planeta, hecho que no mucha gente reconoce, a
pesar de que gran parte de los habitantes del planeta tiene ya acceso
por ejemplo a información climática, a comunicaciones y a útiles
imágenes de la Tierra provenientes de sistemas establecidos en el
espacio exterior.
Esta falta de conocimiento sobre las repercusiones del quehacer
espacial en la humanidad causó un entusiasmo realmente desmedido
en la primera década de la actividad espacial, que muchas veces
rayaba en lo delirante: algunos programas como la colonización de
Marte en nuestro siglo, difundidos en un principio, resultaron
totalmente falsos o excesivamente ambiciosos a la hora de enfrentar
los hechos; otros programas son tétricos y apocalípticos, como los
cohetes intercontinentales portadores de ojivas nucleares y, más
recientemente, se ha llegado al colmo de confundir la realidad y la
ilusión con los planes y programas para desatar la llamada "guerra de
las galaxias".
NUESTRAS PERSPECTIVAS EN EL ESPACIO
Demasiados dudan de que los países en desarrollo, como México,
tengan algo que hacer en el espacio; idea que sólo apoya lo dicho
sobre el supuesto abismo entre el trabajo espacial y las necesidades de
los países en desarrollo. No obstante, la verdadera dificultad de estos
países para abordar temas espaciales es otra: estriba en saber a qué
aspirar dentro de la variedad de actividades e investigaciones
espaciales actuales. Seguir, por ejemplo, el camino de los países
industrializados hasta alcanzar sus logros espaciales, no parece viable;
esto debimos haberlo hecho hace décadas, como lo hicieron la India y
Brasil. Hoy, y en el futuro cercano, nuestros pasos en esa dirección
deben ser necesariamente cautos y certeros, lejanos de lo inseguro,
coyuntural o propagandístico. El desarrollo de un país no depende de
grandes pasos o saltos hacia adelante, y sí de una mayor cantidad de
trabajo sobrio por parte de sus ciudadanos, así como también, no
sobra nunca señalarlo, de una autoevaluación justa, que se base en los
logros pasados y presentes, y en las expectativas futuras de cada
sociedad.
En los países en vías de desarrollo el impedimento para hacer estudios
espaciales suele ser, en principio, mental; es decir, de antemano se
suponen temas y caminos vedados, o al menos ajenos. Al pensar esto,
nos autolimitamos y consentimos en algunos aspectos del
subdesarrollo, haciendo a un lado la búsqueda de nuestras propias vías
para el crecimiento económico y social, y dejando de utilizar los
medios que nos proporciona el avance del conocimiento. Uno de los
primeros pasos a dar es encontrar las mejores herramientas, las más
adecuadas a nuestro estado real, que nos posibiliten un avance y un
auge económico estable. Claro está, también se requiere que nuestra
organización social responda y se encuentre a la altura de las
necesidades. Un desafío para nuestros países.
Para encaminarnos se puede, por ejemplo, elaborar políticas y
procurar los medios que permitan al país avanzar con seguridad en la
dirección que su sociedad y su gobierno seleccionen, sin tener que
imitar tardía y torpemente el camino de otros. En cuanto a logros
espaciales, México posee la capacidad en un corto plazo, dos o tres
años, de manejar satélites en órbita, de diseño y fabricación
nacionales. Primero, unos satélites de experimentación, para allanar
solamente el camino de la técnica: de hecho, al escribir estas líneas,
los planes al respecto avanzan y han recibido su primer apoyo
financiero; del diseño preliminar ya se encarga la Universidad
Nacional, con la colaboración de otros importantes centros de
investigación, en los que se visualizan con claridad las ventajas futuras
de tal empresa y que apoyan este tipo de proyectos piloto. Al primer
satélite seguirán otros y en pocos años tendremos la tecnología
necesaria para no volver a gastar grandes cantidades en comprar
satélites a los países desarrollados, sino hasta exportárselos, como lo
hace hoy Brasil con su aviación. Claro está, en el espacio no todo son
satélites o astronautas, como parece al primer vistazo; hay otras
actividades que también requieren de la atención de todos nosotros, o
cuando menos, de que las conozcamos. Dichas actividades pueden ser
experimentos y observaciones realizados en el espacio, preparados
para conocer más sobre la naturaleza que nos rodea, que hacen uso de
las condiciones propias y únicas del ambiente espacial, o aquellas que
pretenden fabricar productos en el espacio, y que resultan, como
veremos, de gran valor para todos. En las siguientes secciones
analizaremos con detenimiento las condiciones que ofrece la órbita
terrestre.
LA MICROGRAVEDAD
En el espacio, particularmente en la órbita terrestre, hay varias
condiciones especiales y únicas, que resultan muy útiles para gran
número de actividades. Entre estas condiciones, primero veremos una
de las más curiosas: la microgravedad, o imponderabilidad.
Estando dentro de una nave en órbita, los efectos de la gravedad no se
perciben: las cosas no caen al suelo, todo flota, la gente, el jugo de
naranja, las cámaras fotográficas, todo. En órbita, por ejemplo a una
altura de 300 km, un satélite se encuentra bajo el efecto de dos
fuerzas en equilibrio: por un lado la gravedad que tiende, como
sabemos, a provocar que las cosas caigan hacia la Tierra, y por otro,
una fuerza (centrífuga) opuesta que proviene de la trayectoria del
satélite alrededor de la Tierra.
Sin embargo, la Tierra no es una esfera de dimensiones precisas y
uniformes, de hecho, tiene una forma tan especial que se tuvo que
inventar una nueva palabra, geoide (algo entre una pera y una
naranja), y por tal motivo, cuando un satélite orbita el planeta, la
fuerza de gravedad varía ligeramente, según el lugar que sobrevuela;
por esto el equilibrio entre las fuerzas mencionadas varía, provocando
pequeñas aceleraciones que oscilan de milésimas a millonésimas de los
valores de la gravedad en la superficie terrestre.
De la magnitud de estas pequeñas variaciones, proviene el nombre de
microgravedad: fuerzas que alcanzan la millonésima parte de la
gravedad sobre la Tierra. Es quizá más preciso llamarla
imponderabilidad que "ingravidez", como la llaman algunos autores, ya
que la palabra gravidez se refiere sólo al estado de embarazo en la
mujer, y destacados médicos ginecobstetras me aseguran que decir
ingravidez o microgravidez no es correcto, ya que, en el primer caso,
si no hay embarazo no hay por qué señalarlo llamándolo ingravidez; y
en el segundo caso, no se puede estar embarazada una millonésima
parte. En fin, la fuerza de la costumbre acabará dictando cómo
llamaremos al fenómeno de microgravedad o imponderabilidad.
Ponderar es pesar: las cosas se ponderan, es decir se pesan; pero
estando en órbita nada pesa, las cosas por tanto son imponderables.
En todo el libro hablaremos de esta propiedad de las cosas en órbita,
porque tiene muchas y muy importantes repercusiones para los
científicos e ingenieros espaciales, y en consecuencia podría tener
también —dentro de muy poco tiempo— efectos benéficos para los
habitantes de cualquier país del planeta, como trataremos de mostrar
en varias secciones de esta obra. Uno de los primeros efectos que
notaríamos estando en órbita, aparte de que nuestro estómago no se
sentiría igual y de que entraríamos en un estado medio eufórico de
tanta emoción, es que al ponerle leche al café, no se mezclarían tan
fácilmente solos, puesto que en órbita no se llevan a cabo las
corrientes naturales que en la Tierra mezclan las cosas frías y
calientes.
Por estas características, en órbita se pueden tener experiencias y,
sobre todo, hacer experimentos únicos imposibles de repetir en tierra;
por eso, la microgravedad es tan interesante. Entre las muchas
posibilidades que nos abre la imponderabilidad, podemos, a modo de
introducción, mencionar la producción de medicamentos de ultra alta
pureza, la preparación de aleaciones con resistencias cientos de veces
mayores que las producidas en tierra, el estudio de fuerzas muy
pequeñas, que en los laboratorios terrestres se esconden detrás de los
efectos de la gravedad, y muchas otras actividades.
LA VISIÓN AMPLIA
Otra condición única del espacio es la visión total que la gente o los
equipos en órbita tienen de la Tierra y del resto del Universo: a esta
propiedad los científicos e ingenieros la llaman visión sinóptica. Si bien
los aviones pueden volar muy alto, normalmente a unos diez
kilómetros, o hasta a 90 algunos muy especiales y costosos, los
ingenios espaciales pueden colocarse a cientos y hasta a muchos miles
de kilómetros de la Tierra, en posiciones móviles o fijas en el plano
ecuatorial, con lo que pueden cubrir a un país dado con sus señales.
Desde allá arriba, aparte de verse bellísima la Tierra, como lo
muestran las fotos, las películas tomadas desde el espacio y las
descripciones de los cosmonautas, se puede observar nuestro planeta
y otros cuerpos celestes de manera muy especial, única, más aún si
para ello se cuenta con instrumentos ópticos y electrónicos adecuados.
Desde el espacio se exploran los recursos naturales de extensas zonas
del planeta, que tomaría años explorar en la Tierra. Con imágenes
especiales tomadas con satélites de percepción remota o teledetección
(detección a distancia), se preparan mapas de regiones o de países
enteros con gran precisión. México y otros países así lo hicieron, y sólo
tardaron 15 años; digo sólo, porque otros países tardaron hasta 100
años en lograrlo recorriendo su territorio por tierra o con aviones.
Después volveremos sobre esto.
Además, desde el espacio se estudia el crecimiento anual o incluso
mensual de las ciudades, sus procesos de contaminación, los de los
mares, bahías y ríos, y asimismo —tomen nota— se detectan posibles
depósitos de minerales, que incluyen oro y plata, fósforo y potasio
para fertilizantes, tungsteno y titanio para industrias clave, zonas de
potencial petrolífero, concentraciones de alimentos para peces, con lo
que se pueden orientar flotas pesqueras hacia lugares más
productivos, y otras muchas actividades, algunas de las cuales irán
apareciendo en el libro, y otras, tratadas con más detalle por
especialistas, en libros de esta misma serie (véase La percepción
remota: nuestros ojos desde el espacio).
La visión amplia tiene otra cara, de la misma o incluso mayor
importancia para los científicos, en particular para los astrónomos. Nos
referimos a la visión hacia el resto del Universo. Los astrónomos han
soñado durante siglos con poder quitarse de encima los efectos
distorsionadores que sobre sus observaciones tiene la atmósfera de la
Tierra; la atmósfera cambia los colores, las formas, las propiedades, y
hasta las posiciones de objetos distantes. La manera más sencilla de
evitar las distorsiones es poner en órbita los telescopios, que pesan
varias toneladas. Este viejo sueño se está logrando progresivamente
en la actualidad, por un lado, mediante la cooperación internacional:
grupos de los más prestigiosos investigadores han diseñado un
telescopio (el Telescopio Espacial Hubble) para que funcione a cientos
de kilómetros de altura sobre gran parte de la atmósfera, y que se
puede operar a control remoto desde la Tierra. Por otro lado, a la
estación espacial soviética Mir, puesta en órbita en 1986, se le han ido
fijando módulos adicionales, entre los cuales se ha colocado ya el
observatorio astrofísico Quantum de 20 toneladas; en este proyecto
han participado con algo de instrumentación científicos holandeses,
alemanes, suizos y la Agencia Espacial Europea. Sin duda, este tipo de
instalaciones revolucionará la física del espacio al aumentar los
conocimientos sobre el inmenso entorno del hombre.
Y no sólo los países más desarrollados se abocan a hacer esto; para
sorpresa de muchos, las primeras pláticas para diseñar y fabricar un
satélite-telelescopio se han llevado a cabo; actualmente se está
discutiendo entre universitarios el proyecto, y quizá para el inicio de la
década de 1990 empiece a instrumentarse este satélite mexicano. Más
adelante nos referiremos a él.
EL ALTO VACÍO
Se dice que en el espacio interplanetario no hay nada, esto es, hay un
vacío, pues aunque éste contenga muchas cosas, su proporción es
muy baja. Sin embargo, hasta el vacío es útil, tanto que en tierra, por
medio de aparatos como bombas difusoras, turbomoleculares,
criogénicas y mecánicas, se pueden alcanzar, con no pocas
dificultades, los altos y los llamados ultraltos vacíos; sin embargo,
mientras más alto sea el vacío que deseamos, más trabajo, costo y
técnica se requieren.
Los altos vacíos son muy útiles en muchos procesos tecnológicos e
industriales: desde algunas actividades aparentemente tan complejas
como la observación en microscopios electrónicos, hasta otras como
dorar o platear joyería de fantasía. Todos los países industrializados, y
muchos en desarrollo, manejan técnicas de vacío en una amplia gama
de actividades; casi se podría medir el avance de una sociedad en
términos del número de sistemas de vacío por habitante. Asimismo,
hay muchos avances de la ciencia y la tecnología que hubiera sido
imposible alcanzar sin estas técnicas de vacío; por ejemplo, los
continuos descubrimientos de partículas dentro del núcleo atómico,
que se conocen por medio de estudios con aceleradores que lanzan
hacia un blanco experimental partículas submicroscópicas, para
observar los efectos de la colisión, son un logro que sin el vacío no
podría haberse realizado, ya que el aire pronto las frenaría.
En el espacio no sólo hay vacío, sino, valga la expresión, hay mucho,
lo que hace posible desarrollos tecnológicos muy importantes. Hoy en
día se diseñan fábricas para operar en el espacio, que utilizan
principalmente el vacío, y a una gran compañera de la que ya hemos
hablado, la imponderabilidad. ¿Por qué subir a órbita terrestre toda
una fábrica, teniendo todavía un costo tan alto? Esto sólo se puede
contestar considerando a fondo las ventajas del vacío, sus costos en
tierra, la frecuencia de su uso y otros factores. Lo que es seguro es
que nadie lo financiaría por puro gusto.
RADIACIÓN DIRECTA
Por último, otra importante condición de la órbita terrestre es el acceso
a la radiación que proviene del Sol y de otros cuerpos del Universo. La
atmósfera no deja pasar o frena muchas partículas y radiaciones que
viajan en el espacio en dirección a la Tierra; nuestro conocimiento del
Universo creció en forma importante cuando la humanidad pudo
colocar artefactos sobre las capas más densas de la atmósfera. Entre
los primeros descubrimientos, vino la sorpresa de que la Tierra tenía
unos cinturones o bandas que atrapaban radiaciones (los cinturones de
Van Allen, 1958) y que su campo magnético, como el de un gran imán,
dirigía muchas de estas partículas cargadas eléctricamente (como los
electrones, con carga negativa, y los protones, con positiva) hacia los
polos norte y sur, generando entre otras cosas la Aurora Boreal o
Austral —por cierto, un gran espectáculo visual, que francamente hay
que ver para creer. Los habitantes y afortunados viajeros de esas frías
regiones gozan con cierta frecuencia de tan imponente espectáculo de
luz y sonido (o cuando menos a mí me parece que nos acompañaba en
aquella experiencia un sonido, aunque sospecho que fue
exclusivamente resultado de la emoción y el entusiasmo de ese
momento). Pero, que no cundan las envidias, pues para los habitantes
de regiones más cercanas al ecuador, se compensa tal carencia de
espectáculo con creces, pues seguro que los que gozan de las auroras,
preferirían ver y nadar en los mares cálidos, transparentes y llenos de
vida como el Caribe. Pero volvamos al tema de la radiación.
Unos años después de que se conocieran los cinturones de Van Allen,
se descubrió que la Tierra, como los cometas, tiene cola que le pisen:
una cauda que se extiende, según se sabe, hasta 65 000 kilómetros en
dirección siempre opuesta al Sol, y que junto con la Tierra da vueltas
anuales sin descanso.
Entre las radiaciones que casi no llegan a la superficie terrestre, lo que
por cierto es una suerte, está la radiación ultravioleta. Invisible al ojo
pero dañina para la piel y para las partes más delicadas del ojo
humano: principalmente para la retina y sus receptores. Estudiar las
emisiones de cuerpos celestes con éste y otros tipos de radiaciones, ha
hecho posible el conocimiento de una serie de datos del Universo que
antes de la Era Espacial nos eran ajenos.
Estas son, pues, a grandes rasgos, las principales condiciones de la
órbita terrestre que tanto atraen a los científicos aeroespaciales:
imponderabilidad, visión amplia, vacío y radiación. Si bien todo lo que
hemos tratado tiene carácter espacial y no es muy difícil
entusiasmarse con ello, me voy a permitir intentar poner los pies en la
Tierra, ya que lo que ocurre aquí abajo determina lo que podemos
hacer en órbita, y esto lo hace tanto o más interesante. Más adelante
retomaremos el tema del espacio, después de haber recogido en el
camino alguna información, en apariencia muy diferente pero, como
veremos, con mucha relación con los temas espaciales: la aeronáutica,
los materiales complejos, así como los medios de investigación que se
utilizan para hacer avanzar el conocimiento en muchos campos.
I I . D E R E G R E S O A L A T I E R R A ,
P A S A N D O P O R L A A T M Ó S F E R A
INTRODUCCIÓN
DENTRO de los países que buscan desarrollarse, existe una sociedad
frágil y con un buen número de problemas serios y graves. Esto se
manifiesta, entre otras cosas, en la concepción arraigada en buena
parte de la población de que la ciencia y la tecnología son un lujo, y no
una condición indispensable para el desarrollo. Existe además,
agravando el problema, un divorcio entre las actividades de
investigación y las productivas, lo cual representa un verdadero
desperdicio del potencial en el que se puede fundar la superación
económica y social de estos países. En este contexto, frecuentemente
surgen las preguntas: ¿cuál es nuestra función como científicos en el
desarrollo del país?, ¿cuáles nuestras responsabilidades? Tratemos
ahora de comenzar a dilucidar cuestiones tan importantes, para que a
partir de ahí identifiquemos las posibles líneas de acción, y les
adjudiquen un orden de prioridades.
Cualquier actividad de los científicos que vivimos del presupuesto
público debe considerar, en diferentes etapas del trabajo, el intentar
una justificación de su actividad ante la sociedad, para lo cual deberá
valerse de alguno de los múltiples medios de la difusión científica. El
pueblo que financia nuestro trabajo, tiene todo el derecho de saber, y
de preguntar a los miembros de la comunidad científica, de qué sirve
lo que hacen, aun en los casos donde el tema no es fácil de entender.
De hecho, el haber gozado de varios años de trabajo de investigación
financiado y protegido por una estructura universitaria, o similar,
debiera bastar cuando menos para intentar una explicación del valor
que tiene lo que hacemos para la sociedad que nos sostiene. Hablando
con autores de esta serie, La Ciencia desde México, y leyendo su
trabajo, se da uno cuenta de que muchos más también lo ven así.
En este capítulo trataremos, pues, de explicar la faceta del trabajo que
realizamos, en términos de su justificación social; de estar
razonablemente bien escrito, debiera quedarle claro al lector que el
trabajo sobre materiales terrestres, junto con el del espacio, debe
continuar recibiendo apoyo, y si no quedara claro, se intentaría
comunicarlo de nuevo.
El científico, y el que aspira a serlo, trabaja en un entorno social que lo
influye o controla en términos de su ánimo, de los recursos con los que
cuenta para trabajar, de su pasión por el tema, y hasta del tema
mismo que escoge en las diferentes etapas de decisión que enfrenta
(por ejemplo, cuando cambia o ajusta su tema de trabajo). Sin
embargo, al formar parte de este entorno social, es también influido,
en mayor o menor grado, por los temas en boga o francamente de
moda en los países altamente industrializados, que se enfrentan, como
es de esperarse, a otro tipo de problemas urgentes. Es durante estas
consideraciones cuando su conciencia de científico, que es sólo una
parte de su conciencia social, debe influir para que al menos parte de
su inteligencia y producción sea honestamente dedicada a mejorar la
situación de sus conciudadanos que, en última instancia, son los que
financian sus búsquedas más o menos atinadas.
La investigación espacial, por sus aspectos aparatosos, cae fácilmente
en modas y en manos interesadas que la pueden mostrar como una
actividad quizá muy divertida, y por su propia ignorancia y torpeza,
proyectarla como algo superfluo, lejos de lo indispensable. En
contraposición, también hay que considerar que aun los caminos que
hoy nos parecen poco útiles pueden sorprendernos al perfilarse como
los más promisorios en el futuro.
Si tratamos de establecer los mejores caminos a seguir en la
investigación espacial de un país en desarrollo, tendremos que
seleccionar y jerarquizar los proyectos que en su conjunto definan un
programa espacial, y todo esto sin perder de vista que la sociedad
debe ser la principal receptora de los beneficios que se puedan
generar. Esto no es nada nuevo, sólo se señala que, como en todas las
profesiones, se espera que el científico y el ingeniero se equivoquen
menos de lo que aciertan y que, en general, produzcan algo que tarde
o temprano beneficie verdaderamente a sus coterráneos.
En las cuestiones espaciales hay factores que complican esta verdad,
debidas, por un lado, a la gran propaganda que acompaña un tema tan
vistoso (el prestigio que mencionábamos), y por otro, a los intentos de
disfrazar con piel de cordero programas militares que ni a un pobre
lobo se le ocurrirían. Considerando lo anterior, vemos que tan sólo
opinar sobre el tema, implica una mayor responsabilidad para el
investigador. Trataré de ilustrar el punto con un ejemplo, que no
carece totalmente de realidad.
UNA HISTORIA CON FINAL FELIZ
En estos finales del siglo XX un niño mexicano puede soñar, como
muchos otros niños, con ser astronauta cuando sea mayor. Después de
todo, entre las noticias, revistas, programas de televisión y películas,
así como con aquello de que "el que persevera alcanza", nada le dice
que esto le será casi imposible; o dicho en el sobrio lenguaje de la
ciencia, que llegar a astronauta para él (o ella), es muy poco probable,
lo que "no es lo mismo, pero es igual", como dice una canción popular.
Así que nuestro niño mexicano con todo el entusiasmo que sólo la
inocencia o la temprana juventud permite, se lanzará decidido y como
mejor se le ocurra a tal empresa. La realidad, por su parte, le irá
informando que si bien no le falta nada para cumplir esa meta, en
cuanto a cualidades y virtudes se refiere, existe una fuerza contraria a
sus deseos, desconocida para él, y que algunos adultos llamarían
geopolítica, que reduce drásticamente sus posibilidades reales de
cumplirla.
Los
factores
geopolíticos
serían
los
siguientes.
Considerando:
1) que, con base en las actividades espaciales
precedentes, de aquí al año 2030 subirán al espacio, como
máximo, unos 10 000 astronautas y cosmonautas, al
inaudito ritmo de 15 mensuales;tr>
2) que la población del planeta, creciendo como va, tendrá
entonces como máximo unos 10 500 millones de
habitantes, de los cuales, con los continuos avances
tecnológicos de dichos habitantes, el 80% podría soportar
el viaje al espacio (unos 8 400 millones), pero que de
éstos, sólo la cuarta parte (2 100 millones) querría
verdaderamente subir al espacio; es decir, que los
aspirantes y competidores sumarían 2 100 millones, y
3) que como máximo, 10% de la población mundial es
latinoamericana (y que es probable que esto siga igual),
por lo que los aspirantes a subir al espacio en
Latinoamérica serían 210 millones.
De estos datos resulta que se puede estimar que si de los 10 000
astronautas posibles mil (el 10%) correspondieran a la América Latina,
la probabilidad de ser seleccionados se dará en una proporción de uno
entre 210 000.
Por otro lado, ya que los seleccionados deberán ser gente preparada y
capaz de hacer algo útil allá arriba, como competidores tendríamos
que prepararnos y ser capaces de hacer algo valioso, capacidad que
tendríamos que demostrar en Tierra (claro está que suponemos aquí
que para entonces no mandarán advenedizos, ni se colarán
oportunistas). ¿Qué podemos, por fin, concluir? En pocas palabras, no
es el tipo de profesión a la cual los niños y jóvenes en Latinoamérica
puedan aspirar con alguna seguridad, sin que la mayoría resulte
frustrada (209 999 aspirantes por cada elegido). Estas cifras (que si
las viéramos con más cuidado resultarían aún más desoladoras) dejan
muy claro el hecho de que sólo se podría motivar irresponsablemente
a nuestros niños en esa dirección.
Y se preguntarán: ¿dónde está el final feliz? ¡Ah! Veamos más allá:
como de todos los competidores es casi seguro que los seleccionados
sean científicos y técnicos muy preparados y útiles a la sociedad, los
aspirantes más listos pueden adelantarse a los soñadores, comenzando
por prepararse con seriedad y sin descanso. De este modo, si no
resultaran elegidos, sí serán personas útiles de todos modos, cosa que
los hará tanto o más felices que si llegaran a ser "cosmoastronautas".
La moraleja de esta historia señala que, dentro de las actividades
espaciales de los países de América Latina, no tiene ningún sentido la
preparación de astronautas. Los latinoamericanos que sí vuelen, lo
harán en números muy reducidos y, seguramente, asociados y
entrenados para participar en vuelos con las agencias espaciales de los
países industrializados en los próximos 15 a 20 años. Como en el
pasado, y ojalá en esto me equivoque rotundamente, es probable que
buena parte de las invitaciones a volar al espacio por parte de los
países con capacidad espacial, sea motivada por razones inicialmente
políticas y propagandísticas; pero posteriormente, con más experiencia
y madurez, los diferentes grupos nacionales de científicos e ingenieros
se habrán preocupado lo suficiente para no desperdiciar oportunidades
tan especiales, y presionarán a los políticos para poder realizar, no
malabarismos televisivos, sino un trabajo serio de investigación, con la
mira puesta en beneficiar realmente a las sociedades a las que
pertenecen.
El secreto es, pues, encontrar un punto de balance en el que la
investigación aeroespacial beneficie a la sociedad en general con sus
productos, para que ésta, a su vez, asigne las inversiones necesarias
para encaminar y sostener la investigación aeroespacial, y para
apoyarla con políticas nacionales ideadas para obtener beneficios
concretos en el mediano y largo plazo.
En el caso de países como México, la localización del punto de
equilibrio no es evidente. Quedarnos fuera de toda investigación
aeroespacial sería, cuando menos, irresponsable, lo que se
demostraría en poco tiempo. Veamos: los estudios espaciales han dado
al hombre una visión más realista de su posición con respecto al
Universo. Hoy sabemos que la Tierra no sólo no es el centro del
Sistema Solar, ni mucho menos lo es de la galaxia donde nos
encontramos, sino que es uno de miles de millones de lugares donde
puede haber vida. También sabemos que los demás posibles
habitantes del Universo viven tan lejos que están prácticamente fuera
de nuestras posibilidades de comunicación, tal como la conocemos, y
hasta como la podemos imaginar, siempre y cuando nos mantengamos
en nuestros cabales.
LA PRECURSORA ESPACIAL: LA AERONÁUTICA
La mayoría de las consideraciones abordadas hasta ahora se han
referido principalmente al tema espacial; no obstante, hay varias
razones para hablar de aeronáutica cada vez que abordamos el tema
espacial. Primero, tendríamos que reconocer su origen común. En un
principio sonaba tan imposible volar a través de los aires, como en el
mismo cosmos, aunque desde Julio Verne se veían necesidades
diferentes para cada empresa. La aeronáutica y la cosmonáutica
comparten buena parte de los medios técnicos: las primeras naves
espaciales fueron desarrolladas por diseñadores aeronáuticos, que
utilizaron buena parte de sus materiales, hoy en día comunes a las
dos. En cuanto a las tripulaciones, también desde el inicio se hace uso
de personal capacitado para vuelo en aeronaves de alto rendimiento,
ya que el piloto posee toda una serie de atributos que le permitirán
adentrarse en la actividad cosmonáutica.
Aparte de los materiales, podemos también referirnos a una base
tecnológica común a ambas: parte de la instrumentación
electromecánica utilizada en la navegación, los dispositivos de
comunicaciones, la necesidad de mantener y conocer los parámetros
vitales
del
organismo
humano
a
distancias
considerables
(biomonitoreo), técnicas de diseño estructural y aerodinámico para
naves e impulsores y, asimismo, las que se utilizan para seguimiento y
control de proyectos complejos, que comenzaron a desarrollarse y
utilizarse con los grandes proyectos aeronáuticos, y que han
encontrado su estado de pleno desarrollo dentro de las actividades
espaciales.
Desgraciadamente,
también
comparten
ciertas
características que resultan de gran atractivo para la mentalidad
belicista, por lo que buena parte del financiamiento que impulsó tales
actividades proviene de presupuestos militares, que nunca han
descuidado el desarrollo aeroespacial.
Principalmente por estas razones, podemos afirmar que no puede
concebirse el desarrollo de una de estas actividades, como la
investigación en microgravedad o el desarrollo de satélites, sin
reconocer que con las mismas herramientas con las que se resuelven
los problemas tecnocientíficos de la investigación espacial, se pueden
resolver problemas urgentes y económicamente apremiantes de la
aeronáutica.
ALGUNAS CONSIDERACIONES AERONÁUTICAS
En las primeras décadas de este siglo, se generó en México y en
muchos otros países el interés por la aeronáutica. Los primeros vuelos
en México se realizaron poco tiempo después que en los países más
industrializados, promovidos por entusiastas personalidades dispuestas
a arriesgar tanto su vida como su capital, en aras de una actividad que
muy pocos en ese entonces visualizaban como un renglón clave de la
economía futura. Hoy en día, los gastos mundiales relacionados con la
investigación, desarrollo y operación de sistemas aeroespaciales,
superan las decenas de miles de millones de dólares cada año, y ya
muy pocos dudan que esta actividad sea socialmente útil.
Los hechos más notables que podemos mencionar sobre el desarrollo
de una aeronáutica mexicana están naturalmente asociados con las
partes clave de un avión: hélice, motor y alas. Si consideramos que
despegar de la meseta central de la República Mexicana (altura mayor
a los 2 200 m), era hacerlo desde las máximas alturas de operación de
la mayoría de las aeronaves de aquel entonces, nos podemos percatar
fácilmente de por qué desde sus inicios la aviación mexicana tuvo que
emprender caminos novedosos y desconocidos. La presión atmosférica
en el Valle de México es, durante las etapas de vuelo más peligrosas
(despegue y aterrizaje), equivalente a la de alturas de vuelo de
crucero para las aeronaves que despegan desde nivel del mar; a esas
alturas, las aeronaves de otros países sólo requieren de pequeños
ajustes para dirigir el vuelo, y no de un mayor esfuerzo de la
estructura y del motor para remontarlo.
En la práctica, durante la segunda década del siglo esta demanda se
tradujo en la presencia de aviones con mayor superficie alar que los
importados, equipados con hélices más eficientes, como la llamada
hélice Anáhuac, que permitió que nuestro país registrara la máxima
altura alcanzada mundialmente por un avión en aquellos días. Otro
tanto puede decirse sobre los esfuerzos llevados a cabo por el equipo
de fundición de la compañía Talleres de Construcciones Aeronáuticas,
S. A., subvencionada por el Estado, que desarrolló las aleaciones y
moldes de uno de los primeros motores con disposición radial de los
cilindros, inventado poco antes por el ingeniero francés EsnaultPelterie, y que dominaron hasta la década de 1960. Asimismo, fue en
nuestro país donde se dio un impulso serio al diseño de aeroplanos de
ala baja, sin soportes laterales, tendencia que habría de dominar el
diseño aeronáutico los siguientes 25 años.
No obstante el grado de avance alcanzado hasta la década de 1930,
después de ese momento se comenzaron a adquirir en el extranjero
motores de mayor potencia para aeronaves fabricadas en el país, y de
este modo, poco a poco, se fue asentando esa tendencia que en
nuestros días nos hace adquirir la casi totalidad de equipos y
refacciones aeronáuticas fuera de nuestras fronteras —a pesar de que
no existe razón objetiva que nos impida llevar a cabo estos dispositivos
con nuestros propios medios. Es una verdadera pena que sigamos
pagando hoy en día la poca visión que ante una tecnología de gran
futuro tuvieron los empresarios y el Estado mexicano (cuando Obregón
firmó los oscuros tratados de Bucareli a cambio de su reconocimiento
por una potencia poco interesada en nuestro desarrollo). La actuación
ante la aeronáutica, con excepción de la del general Carranza, nunca
llegó a fomentar una política nacional para favorecer el desarrollo de
un renglón clave en la economía de cualquier país moderno. Un hecho
particularmente grave ante nuestros ojos, es que haber evitado la
situación actual hubiera resultado relativamente fácil, con sólo
auspiciar que una comisión calificada analizara las repercusiones de
ignorar la aeronáutica y, en particular, el desarrollo de sus principales
materiales en México.
Si bien la aeronáutica no se frenó drásticamente en esos años pues su
uso práctico impedía ignorarla totalmente (basta recordar que la
creación de las primeras rutas de correo en nuestro país se dio a la
par, o incluso antes, que en muchos países hoy desarrollados), el
hecho de no haber continuado con la metalurgia y el uso de otros
materiales surgidos desde las primeras décadas de la aeronáutica, sí
acabó frenando de manera irremediable el desarrollo propio en este
terreno, sobre todo, después de que se utilizaron materiales muy
sencillos, y al alcance de todos en la construcción de las primeras
generaciones de aeronaves. De haberse continuado los ensayos que
sobre aleaciones desarrollaban los talleres de aeronáutica para su uso
en motores, y de haberse emprendido el desarrollo de duraluminios,
que se convirtieron en material primordial de la aeronáutica de las
siguientes décadas, el país habría podido mantenerse a flote, sin duda
alguna, y alcanzar un nivel digno, aunque acaso modesto, dentro de la
aeronáutica mundial.
En nuestros días, tenemos la idea de que la construcción de un avión
es una actividad excesivamente compleja y que técnicamente escapa a
nuestra capacidad actual; una apreciación errónea sin duda (¿nos
persigue el Síndrome de Bucareli?). Como decíamos, en los últimos 50
años sigue brillando por su ausencia una política de fomento sobre la
aeronáutica, un renglón clave en la economía de un país que aspira al
desarrollo.
Vemos con esto que las actividades aeronáuticas y espaciales
comparten en nuestro país una concepción nueva y grave: que ambas
son actividades superfluas en las que poco tenemos por hacer,
promoviendo una dependencia total del exterior, con lo que dejamos
salir del país cantidades importantes de recursos que bien pudieran
aprovecharse en el desarrollo de diversas industrias.
EL ESTADO ACTUAL DE LA AERONÁUTICA
La aeronáutica, ya como negocio, perdió su aureola inicial de
aventurerismo para convertirse en una industria primordial en la
economía, con ramificaciones en múltiples actividades económicas de
los países desarrollados, sobre todo de los países que percibieron su
importancia histórica. Los diseños abandonaron gradualmente los
aspectos meramente novedosos, para acumular y utilizar la
experiencia previa en el continuo mejoramiento del diseño,
construcción y operación de las aeronaves. Quizá el paso más
significativo de la década de 1940, fue el desarrollo de aeronaves
totalmente metálicas. La metalurgia recibió así un impulso sin
precedentes, especialmente porque los diseñadores han aumentado
constantemente las demandas de materiales con alta resistencia y
rigidez pero de bajo peso.
Por su valor estratégico en la conducción de una guerra, y táctico
durante las batallas, la aviación pasó a ser, de una herramienta
oportuna para observar evoluciones en combate, como en la primera
Guerra Mundial, a una arma temible capaz de afectar drásticamente
los escenarios de las batallas y a ser factor decisivo en algunas
situaciones, como en la segunda conflagración.
La constante búsqueda de aeronaves más rápidas y con creciente
capacidad de carga dio como resultado la creación de una aviación que
presenta claras ventajas económicas sobre los medios de transporte
tradicionales, principalmente para ciertas actividades y mercancías, en
primer término, los viajeros invierten su tiempo en cuestiones
laborales o de descanso y no viajando; segundo, los obstáculos
geográficos, terrestres y acuáticos, pierden su significado, con lo que
la utilización cada vez más frecuente de este medio de transporte
reduce continuamente sus costos, y la hace una actividad a todas luces
rentable.
Ante estos hechos, se inicia un cambio de mentalidad que permite a
los gobernantes ver a la aeronáutica como un factor de desarrollo del
transporte de carga y de personal de un país. Los servicios de la
aeronáutica dentro de la economía agrícola, el correo, la aerofotografía
y la teleobservación, así como en muchos otros campos de aplicación,
hacen que ésta se haya desarrollado con mayor ímpetu que cualquier
otro sistema de transporte.
En el área de los materiales, como decíamos, la aeronáutica se sitúa
como el mayor promotor del desarrollo de la metalurgia, los plásticos,
los textiles de alta resistencia, los adhesivos y ciertos tipos de
instrumentación. Hoy en día, las técnicas de diseño y de manufactura
asistidas por computadora, conocidas por sus siglas en inglés CAD y CAM
respectivamente, encuentran dentro de la industria aeroespacial el
campo de mayor aplicación. En este campo se requiere de un
conocimiento más preciso sobre el comportamiento de una estructura
y de cada una de sus partes, pues en el equipo aeroespacial trabajan
cerca de sus límites de resistencia, y por la necesidad de estimaciones
confiables en cuanto a la vida útil que pueda tener cualquier accesorio
de aviación. Si recordamos que antes el diseño de un ala podía tomar
hasta varios meses de cálculos y experimentos de un equipo completo
de ingenieros y técnicos, y que hoy es una actividad que un ingeniero
aeronáutico sin mucha experiencia puede realizar en algunas horas con
una microcomputadora, nos podemos percatar de que, si bien no se ha
simplificado el diseño de una aeronave, sí se han desarrollado
herramientas capaces de hacerlo en poco tiempo.
Ya que la industria aeroespacial usa y desarrolla intensamente la
técnica y la ciencia, buena parte de sus métodos y avances ha sido
archivada con medios electrónicos en bancos de información, lo que
facilita su consulta y utilización (como los de las grandes compañías
aeroespaciales como la Boeing y Lockheed, de EUA, la Aeroespatial
francesa y muy probablemente la Ilyushin, la Tupolev y la Mikoyan
soviéticas). La consulta de estos bancos de información aeroespaciales
en un principio parece algo caro (de 80 a 90 dólares la hora de
consulta), pero a fin de cuentas resulta costeable, pues en dichos
bancos se concentra tanta experiencia, que permite que los nuevos
usuarios ahorren costos evitando pruebas innecesarias o nuevos
diseños que ya hayan sido abordados con anterioridad.
Pero no sólo la metalurgia recibe en las últimas décadas el impulso de
la aeronáutica, ya que existe otra serie de materiales que se han ido
incorporando de manera creciente a los diseños aeroespaciales: los
materiales compuestos. Estos son materiales plásticos o metálicos
reforzados con fibras microscópicas de muy alta resistencia. La
aeronáutica, en su constante búsqueda de materiales resistentes y
ligeros, nunca antes encontró semejante solución; los termoplásticos
epóxicos y las resinas fenólicas, provistas de un armado de fibras de
carbono y otros elementos, presentan hoy la más alta relación entre
resistencia, rigidez y peso: de dos piezas diseñadas para cumplir la
misma función, una metálica y otra de termoplásticocarbono, la última
presenta la misma resistencia, pero pesa sólo la tercera parte que la
metálica.
En la investigación sobre nuevos materiales hay muchas anécdotas o
situaciones inesperadas que han dado como resultado grandes avances
en el campo tecnocientífico: las fibras de carbono, por ejemplo, fueron
fruto de un accidente de laboratorio que bien pudo haber pasado
inadvertido, de no ser por la presencia de mentes curiosas y
observadoras. Para fabricar fibras de carbono hay varios métodos
conocidos, sin embargo, su descubrimiento se dio casualmente,
cuando se preparaba en un horno un termoplástico reforzado con
fibras orgánicas, en el que una secuencia de tratamientos térmicos
imprime en un material las propiedades mecánicas deseadas. Ese
mismo horno se utilizaba también en el tratamiento de materiales con
altas temperaturas y para otros propósitos. En una ocasión, uno de los
técnicos encargados del horno encontró unos filamentos muy finos,
restos de alguna fibra orgánica carbonizada, y observó que
presentaban una sorprendentemente alta resistencia a la tensión. Las
fibras encontradas en el horno no sobrepasaban las 10 micras de
diámetro (de una décima a una decimoquinta parte del diámetro de un
cabello humano). Cuando se sometieron tales fibras a pruebas de
tensión, cuál no sería la sorpresa de los investigadores cuando
encontraron que poseían resistencias tres veces mayores que las de
aceros especiales. En ese tipo de horno se prepararon entonces los
primeros filamentos de estas fibras a principios de la década de 1970.
Su combinación con materiales termoplásticos —aquellos plásticos que
requieren de un tratamiento térmico para fijar su estructura química—
acabó siendo una consecuencia muy natural, dados los antecedentes
de uso de los materiales compuestos con fibras de vidrio que todos
conocemos. A los pocos meses, pequeñas muestras de este nuevo
material recorrían discretamente los principales laboratorios de
mecánica y micromecánica del mundo, con el fin de encontrar métodos
que permitieran conocer y luego predecir su comportamiento mecánico
y encontrar usos prácticos. Así, de un accidente y de una mente
curiosa surgió uno de los materiales más portentosos con los que
puede soñar un ingeniero.
Actualmente se fabrican fibras de muy diversas resistencias, con
variadas matrices de termoplástico, y su utilización en la industria
aeroespacial precedida, claro está, por aplicaciones militares, implica
su inclusión como piezas clave de la estructura de aeronaves (a veces
forman parte del 85% de la estructura de un moderno avión de
transporte). Los materiales carbono-epoxi tienen propiedades que,
sumadas a su considerable resistencia, los hacen deseables para
múltiples aplicaciones. Entre estas propiedades cabe mencionar su
rigidez, ya que, junto con las cerámicas, son de los materiales más
rígidos que se conocen; su resistencia a la corrosión, comparada con la
de los materiales metálicos, es claramente superior; así como su
estabilidad termomecánica, es decir, el que puedan mantener su forma
con mucha precisión, a pesar de las variaciones considerables de la
temperatura ambiente, tal como sucede constantemente en la órbita
terrestre. Sin embargo, la característica quizá más tristemente notable
de estos materiales provenga de su comportamiento ante las ondas de
radar. Los materiales termoplásticos-carbono, a pesar de que en buena
medida están constituidos por fibras conductoras de electricidad,
pueden fabricarse fácilmente como aislantes eléctricos. Ahora bien,
para que un material refleje una onda de radar, y sea detectado a
distancia, se requiere que su superficie sea conductora de electricidad
como los metálicos, por lo que un avión fabricado con este tipo de
materiales acaba siendo "invisible" al radar. Ya se han construido
algunos cazabombarderos llamados invisibles (tipo B2 y F-117A de
EUA, y otros) aunque oficialmente no existían hace poco, ha habido
cuando menos dos accidentes de este último tipo de avión en las zonas
usualmente reservadas para pruebas de armamento secreto
localizadas en el país del norte (por cierto que el diseño del B-2 nos
recuerda más la línea aerodinámica de la década de 1950 que la de
1980, y el F-1 1 7A parece golondrina).
Otros de los materiales que van tomando auge en estas décadas son
los cerámicos, algunos de ellos reforzados por fibras también
cerámicas. Su ventaja principal se deriva de su capacidad para
soportar altas temperaturas manteniendo su resistencia mecánica.
Muchos hemos oído que se están fabricando en Japón los primeros
motores de cerámica para automóvil, pero pocos conocen cuáles son
las ventajas de tener estos materiales en el motor; brevemente, se
puede anotar que la principal es su utilización en conexión con
cámaras de combustión. Desde hace muchos años se ha soñado con
quemar combustibles en la llamada temperatura estequiométrica,
aquella en la que los combustibles ceden la máxima cantidad de
energía. Hoy las turbinas más modernas que se utilizan en aeronaves,
funcionan a más de la mitad de esa temperatura, y algunas alcanzan
hasta el 80%, por lo que este avance significa no sólo duplicar la
eficiencia de una turbina, sino que se puede llegar hasta a cuadruplicar
si se utilizan cerámicas, y ya que además éstas son más ligeras que
los metales, se obtiene con ellas, igual que con los materiales carbonoepoxi, una relación favorable entre peso y resistencia.
Es curioso que a pesar de que el hombre desde hace siglos esta muy
familiarizado con la cerámica (recuérdese la elaboración de vasijas y
utensilios), actualmente sea uno de los materiales más complicados, y
cuyo comportamiento le resulta muy difícil predecir. Hoy por hoy
podemos afirmar, sin temor a equivocarnos, que las cerámicas, debido
a su abundancia y bajo costo de materia prima, se encuentran en una
nueva etapa histórica de avance en la ciencia de materiales, y que
podemos esperar sorpresas agradables en cuanto a la generación de
nuevos materiales basados en la diversidad de ellas. Como veremos
más adelante, los materiales basados en minerales arcillosos de origen
natural, suelen presentar características sumamente curiosas en
cuanto a sus propiedades mecánicas. La limitante principal para su uso
es su fragilidad; si bien tienen una alta resistencia a la compresión y
una considerable resistencia a la tensión, se rompen como los vidrios,
sin agrietamientos evidentes previos, y sin que exista un claro aviso
previo de que el material va a fallar; este hecho limita drásticamente
sus aplicaciones actuales, pero sin duda podrá superarse, aunque no
se sepa todavía cómo. Quizá por medio de otro "accidente" de
laboratorio; pero, eso sí, ante la presencia de un investigador curioso y
desconfiado.
RECUPERACIÓN DE LA AERONÁUTICA NACIONAL
En las últimas páginas hemos tratado de analizar algunos aspectos de
la aeronáutica en el país y el estado actual del uso de nuevos
materiales aeroespaciales en el mundo. Con estos elementos, aún
escasos, podemos visualizar que un país interesado en la recuperación
de una industria clave como la aeronáutica, está necesariamente
obligado a considerar como factor prioritario el uso y aplicación de
materiales novedosos. En el caso contrario, tarde o temprano el
esfuerzo de recuperación sería un nuevo fracaso, pues según
diagnosticamos, la aeronáutica en nuestro país quedó a la zaga debido
a la falta de investigación y desarrollo asociados a la producción de las
materias primas requeridas para su avance, situación que
paradójicamente se dio en un país tan rico en materias primas y
talento como el nuestro.
Intentar desarrollar la aeronáutica nacional a partir de donde la
dejamos en la década de 1930 sería por lo menos un gran error,
matizado de extemporáneo romanticismo. Para abordar los problemas
del futuro, se deben considerar los mejores materiales con que
contamos en el presente.
Si la aeronáutica nacional se desvaneció por la carencia de materias
primas necesarias para su desarrollo y una falta de una política
nacional al respecto, no existe un argumento que perpetúe esta
situación. Lo que sí sería torpe es volver a intentar su recuperación
ignorando estas lecciones históricas. Ahora bien, en última instancia la
aeronáutica se fundamenta en el uso de aeronaves, y no directamente
en el uso de materiales, por tanto, la recuperación queda
necesariamente vinculada a uno o varios proyectos piloto que
propongan, como producto central, una aeronave de clara utilidad en
nuestro medio. Quizá un ejemplo
posibilidades.
ayude
a visualizar nuestras
Algunos conceptos que consideramos deben estar irremediablemente
asociados con un proyecto de recuperación aeronáutica son los
siguientes: primero, es necesario que algún proyecto piloto justifique
los gastos para desarrollar la técnica y adquirir la experiencia necesaria
en la fabricación de los materiales básicos de la aviación actual;
segundo, que la aeronave prototipo sea a la vez una herramienta de
trabajo con reconocida versatilidad y aplicabilidad y que, por su bajo
costo de adquisición y mantenimiento, sea costeable para los grupos
de usuarios potenciales. Es necesario también que el proyecto defina
de manera integral sus alcances, es decir que no se debe descuidar la
solución de los problemas anexos como el pilotaje, el mantenimiento
de campo, las reparaciones no especializadas y una adecuada
infraestructura que apoye cada una de las aplicaciones que se
pretendan.
Adentrándonos aún más en esta dirección, podríamos citar, no sin
cierto riesgo, por basarnos en un solo ejemplo, cuáles serían a nuestro
parecer algunas de las características particulares de las aeronaves
prototipo que se comienzan a perfilar aquí.
Como
no
quisiéramos
depender
sólo
de
infraestructuras
aeroportuarias, por los costos que implican, uno de los primeros
requisitos de la aeronave se relaciona con su capacidad para aterrizar
en todo tipo de terreno, sin requerir de pistas especiales. Desde el
inicio del diseño se deberá tener en mente la zona en que trabajará la
aeronave (el altiplano, la zona de la sierra, o las planicies costeras),
por lo que las alas y la potencia del motor tendrían que responder a
este hecho. De esta manera se evitaría uno de los defectos más
comunes de la aeronáutica mexicana: utilizar motores cerca de treinta
por ciento más potentes (y por tanto más caros) de lo necesario, pues
las alas y hélices que utilizan los aviones en México están diseñadas
para el nivel del mar. Una tercera consideración se refiere al motor de
la aeronave. Por lo general, las opciones económicas para aviones de
hélice son dos: o motores de cuatro ciclos, con probada fiabilidad en la
aeronáutica comercial, o la selección y rediseño de un motor de dos
ciclos, que con la mitad del peso proporcione la misma potencia que el
caso anterior, pero que requiere de una atención especial respecto al
diseño del sistema de encendido para poder igualar a los anteriores en
confiabilidad. Una ventaja adicional de los motores de dos ciclos,
aparte de la relación potencia-peso, es la utilización de gasolinas para
automóvil mezcladas con aceite, lo que reduce la complejidad y los
costos de mantenimiento y operación del motor. Adicionalmente, y en
contra de lo que la tendencia dominante parece indicar, no se buscaría
alcanzar altos rendimientos con base en high-tec, ya que ésta, por la
poca experiencia que tenemos, no deja de dar sorpresas
desagradables además de que los costos suben innecesariamente, lo
anterior nos conduce a aceptar criterios conservadores en el diseño de
las partes clave y a basarnos en técnica probada. Por otro lado, si la
nueva aeronave requiriera de una base de mantenimiento compleja y
costosa, estaríamos condenando el esfuerzo de recuperación al
fracaso, la poca tradición de mantenimiento de maquinaria en nuestro
país no debe afectar la seguridad de vuelo de la aeronave.
La falta de una tradición aeronáutica en México y la consecuente
desconfianza del público hacia algunos productos nacionales, hace
indispensable que se demuestre que, junto con lo costeable del
producto, dentro de los criterios de diseño se le ha asignado máxima
prioridad a la seguridad del piloto y de la posible tripulación, o equipo
de trabajo a bordo; cada aeronave tendría que ser equipada con
sistemas de paracaídas de apertura pirotécnica rápida y cabina de alta
protección para el piloto o el equipo.
Los márgenes de operación de la aeronave tendrán que ser óptimos,
sin sacrificar el costo general de la aeronave. La velocidad máxima de
la aeronave debe ir en relación directa con su aplicación, por ejemplo,
una aeronave de transporte para distancias cortas, requeriría de una
velocidad máxima de 20 a 140 km/h; en el caso de un fumigador, por
el contrario, no sería necesario que la velocidad de trabajo sobrepasara
los 60 km/h, incluso convendría que fuera capaz de operar a 45 o 50
km/h, y por el conocido riesgo para el piloto, habría que evaluar si
puede operarse con equipo de control remoto.
En cuanto a la capacidad de carga, y tratando de mantener costos
accesibles, tendría que ser un avión esencialmente monoplaza, pero
capaz de levantar hasta 100 kg de equipo de diversas aplicaciones,
como cámaras de fotografía o para percepción remota. Por otro lado,
para el transporte, la aeronave proyectada debería ser capaz de
transportar a un pasajero con equipaje ligero.
Esta aeronave no es necesariamente una innovación mundial: durante
las últimas dos décadas ha habido un auge sorprendente en el diseño
de aeronaves ligeras (de menos de 300 kg) y ultraligeras (UL, de cerca
de 120 kg), algunas totalmente automáticas.
La gran cantidad de diseños de este tipo desarrollados hasta la fecha
ha producido una especie de selección natural en la cual sólo los
productos más robustos y confiables han sobrevivido, mientras los
inseguros o poco maniobrables se han ido extinguiendo, algunos junto
con sus intrépidos pero incautos diseñadores. Del análisis cuidadoso de
las mejores aeronaves de este tipo, resultaría casi de inmediato una
lista de componentes sencillos y confiables, y un programa de pruebas
sobre los materiales utilizados en su construcción aumentaría la
confiabilidad en su estructura.
Ya que muchas de estas aeronaves ligeras han surgido del ingenio
popular, sobra quien piense, erróneamente, que una aeronave puede
ser diseñada por cualquiera; sin embargo, basta referirnos a los
diseños de alas, para percatamos de que su diseño es, en la gran
mayoría de los casos, producto de programas de investigación
avanzada. De hecho, con los nuevos programas para cálculo de
aeroplanos, se han diseñado literalmente miles de perfiles alares, y en
sus publicaciones se pueden encontrar los datos aeronáuticos básicos.
Por otro lado, la gran mayoría de las aeronaves mencionadas están
construidas con materiales de calidad, pero sus motores, por ser de
dos ciclos y con un solo sistema de encendido, resultan demasiado
delicados en su operación y mantenimiento.
Es interesante señalar que buena parte del auge de las aeronaves
ligeras y UL proviene de sus bajos costos de operación, por lo que en
un contexto de crisis económica mundial, en muchos casos estas
aeronaves son las únicas que permiten a los pilotos mantener su
capacidad de operación, sin que se invierta tanto capital.
Mucho se ha hablado de la inseguridad inherente a una aeronave
ultraligera, sin embargo, pocos conocen los estudios que se han
elaborado sobre la seguridad. Quizá sorprenda al lector saber que la
principal causa de accidentes mortales en ultraligeros proviene de que
están mal armados, es decir, una persona sin experiencia mecánica
arma un ultraligero en su propia casa, lo vuela, y en los primeros
vuelos, tiene una falla estructural o de alguna superficie de control que
lo precipita a tierra.
La segunda causa de accidentes mortales proviene de una
sobreestimación de las características aeronáuticas del aparato
resultado de su muy bajo peso. Además, como los ultraligeros se
asemejan más a una aeronave de principios de siglo, que a alguna otra
más actual, la gente tiende a ignorar la necesidad de una instrucción
adecuada, incluso los pilotos profesionales, que no han recibido un
curso de transición para volar ultraligeros, intentan volarlos como es
su costumbre, e ignoran las particularidades de estas aeronaves. Por
último, mencionaremos el hecho de que pocas aeronaves ultraligeras
cuentan con una estructura protectora para el piloto, lo que convierte
muchos accidentes leves en graves aunque, comparativamente,
resultan más seguros que los aviones comerciales debido, también, a
su baja masa o inercia.
APLICACIONES DE ULTRALIGEROS: RUBROS ECONÓMICOS
Uno de los primeros hechos que sorprenden al analizar la aviación
ultraligera es su escasa aplicación en rubros económicos; pero si se
analiza un poco más a fondo el problema, surgen varias explicaciones.
En primer término, es costumbre que la mayoría de las funciones que
puede desarrollar un ultraligero las realicen equipos de mucho mayor
costo, que han incorporado pocos adelantos tecnológicos, y que aun
así mantienen cautivo el mercado. Por ejemplo, en EUA está prohibido
fumigar, fertilizar y sembrar con UL, a excepción de que el piloto sea,
además, dueño de los campos que va a trabajar. Esta regla favorece la
fumigación tradicional, cuyos costos son entre 8 y 20 veces más altos
que la fumigación con UL. El reglamento de la Agencia Federal de
Aviación de ese país, en su cláusula 103, impide el uso de estas
aeronaves en cualquier renglón económico, ni siquiera las acepta
oficialmente como aeronaves. Como anécdota y diagnóstico de sus
ventajas económicas sobre otros equipos de fumigación, cabe
mencionar que los pilotos de UL, para quedar libres de esta
disposición, hacen un contrato de compraventa con los agricultores,
por áreas tan ridículas como un pie cuadrado, con lo que ganan el
derecho a fumigar una zona donde comparten la propiedad.
En cuanto a los argumentos económicos a favor del uso de técnicas
novedosas y de alto rendimiento para apoyar el desarrollo agrícola,
podemos citar un reciente trabajo del destacado investigador mexicano
Antonio Alonso Concheiro ("Capacidad tecnológica y porvenir de
México") en el que apunta: "...dado que el crecimiento agrícola será
menor que el demográfico, se necesitará incrementar el rendimiento
por unidad de superficie cosechada y reducir las pérdidas, en particular
las que ocurren después de la cosecha..." y añade: "Las tierras que se
incorporen al cultivo serán tropicales y semiáridas y para
aprovecharlas con la eficiencia requerida habrá que desarrollar nuevas
tecnologías, ya que las disponibles, cuando existen, no son
apropiadas". Más adelante refiere uno de los problemas clave del
desarrollo tecnocientífico del país, citando estas cifras: "México invierte
actualmente sólo alrededor de 0.28% de su PIB en actividades de
investigación y desarrollo...", mientras que los países capitalistas
industrializados invierten del 2 al 3.5% y la URSS, del 3 al 5%. Otro
dato de interés para comprender la falta de impulso a la investigación
en nuestro país, es que las industrias privadas colaboran con sólo 15%
de la inversión total en ciencia y tecnología del país, mientras que sus
contrapartes en los países industrializados de economía de mercado
alcanzan cifras entre 50 y 60% del total.
En relación con la utilización de aeronaves ultraligeras en renglones
económicos cabe citar el caso de Perú, que está fabricando una
avioneta ligera, más pequeña y barata que el automóvil más
económico: la avioneta, llamada Chuspi (vocablo que significa
mosquito en quechua, idioma hablado en la serranía andina), ya fue
exhibida al público en vuelos experimentales, y será destinada a tareas
de fumigación, fertilización, vigilancia e instrucción de pilotaje. Este
avión ligero funciona con un motor de dos ciclos, que utiliza gasolina
de automóvil mezclada con aceite. Está construida a base de aluminios
aeronáuticos, madera y telas de alta resistencia. El tren de aterrizaje
usa llantas de motocicleta y su costo total es menor a 9 000 dólares,
por lo que en sólo dos meses ya se habían recibido más de 25 pedidos
por parte de agricultores. Con este ejemplo se vislumbra una nueva
mentalidad dentro de los países en desarrollo, que refleja una continua
búsqueda de técnicas alternas a aquellas utilizadas en los países
industrializados.
Otra de las aplicaciones costeables de los UL se relaciona con la toma
de imágenes de la superficie terrestre. Estas imágenes pueden ser tan
sencillas como una aerofotografía, para uso de cartografía o catastro,
hasta las multiespectrales, obtenidas por cámaras de tecnología similar
a las de los satélites de teledetección. Si hacemos un breve análisis de
costos, la balanza se inclina de manera absoluta en favor de los UL,
pero todavía hay pocos estudios publicados en donde se den cifras
suficientes. Por nuestra parte, nosotros estamos analizando con detalle
la utilización de UL de operación remota para la adquisición de
imágenes multiespectrales.
Los UL pueden utilizarse también para diversos tipos de vigilancia. En
el caso de las costas mexicanas, cuya longitud alcanza más de 9 000
km, no es posible supervisar amplias zonas si no se cuenta con alguna
tecnología alterna a las aeronaves de vigilancia actuales. Aquí los UL
tienen algunas ventajas, como su capacidad de amarizar y despegar
del agua, su bajo costo de operación y mantenimiento, y que no
requieren de instalaciones especiales para su funcionamiento. Como en
otros países, también puede pensarse emplearlos para la vigilancia del
tráfico en las ciudades y en las carreteras más transitadas. Asimismo
se pueden utilizar en la supervisión de bosques, para evitar la
propagación de incendios; si se equipan con instrumentos de visión
térmica, pueden servir no sólo en la localización de incendios, sino en
la administración y evaluación de la eficacia de las acciones para
combatirlos. En la bibliografía especializada se ha informado sobre
aeronaves de control remoto capaces de permanecer volando sobre
una zona hasta tres días, vigilando continuamente, cuya información,
generalmente a través de video y termovideo, se envía a consolas
remotas para la evaluación y toma de decisiones.
En cuanto al empleo de UL como transporte, puede pensarse en su
utilización por médicos rurales, que con una de estas aeronaves
podrían visitar varios poblados en un día. O bien, pueden usarse para
llevar correo, medicamentos o paquetería ligera, y como apoyo a la
ayuda en zonas de desastre.
De todas estas opciones, su aplicación dentro de la agricultura, tanto
en fumigación, fertilización y sembrado, como en seguimiento de
cultivos, pudiera resultar uno de los renglones más favorables; pero en
su conjunto, todas las aplicaciones parecen ser claramente suficientes
para justificar un proyecto piloto en esta dirección, aunque para ello
habría que incluir el entrenamiento de pilotos jóvenes, tanto para
vuelo, como para el mantenimiento de las aeronaves, y la evaluación
de sus rendimientos económicos.
Ya que hemos iniciado el regreso a la Tierra, después de haber
recorrido la atmósfera y parte de la actividad económica que ahí
ocurre, permítame el lector un voto de confianza y acompáñeme para
que, traspasando la superficie terrestre penetremos en el subsuelo. Es
seguro que nos esperan algunos placeres.
I I I .
E L
I N G R E S O
A L
S U B S U E L O
INTRODUCCIÓN
EN ESTE capítulo incursionaremos en el mundo de los materiales más
terrestres: los suelos; nos ocuparemos de algunos de los temas que
surgen al emprender su estudio como material utilizado por el hombre.
Después de trabajar en temas espaciales, de estudiar los diseños de
las naves para ir a Marte, y los aviones más avanzados
aeronáuticamente, ¿qué pueden tener los suelos y el subsuelo para
atraer la atención de una persona curiosa, tanto como lo hizo el tema
anterior? Para contestar, apelamos a una característica de la mente
humana: su interminable e insaciable inquietud por lo nuevo y lo
complejo, lo desconocido y lo práctico. Tanto en el trabajo científico
como en el eminentemente práctico, se aprende pronto a reconocer
que cada tema es tan difícil o fácil como otro, y que las preguntas
sencillas que uno se formula pueden tomar caminos de extraordinario
interés y dificultad. Exhorto pues al lector que no se sienta muy
atraído por el tema del subsuelo, a que prosiga con la lectura y se
convenza de que lo dicho es una verdad propia de cada tema.
El suelo y lo que está directamente debajo de éste, el subsuelo, están
constituidos por materiales muy complejos aunque parezcan muy
simples. Muchos desconocen que los suelos se estudian desde muy
diversos puntos de vista. La mayoría, incluso los más urbanos de
nosotros, sabemos que no todos los suelos son buenos para sembrar,
pero son pocos los que saben que para construir un edificio (sólo en el
espacio se construirían sin tocar el suelo) es necesario analizar las
propiedades del sitio, un "estudio de mecánica de suelos", el cual tiene
como finalidad conocer si el suelo soportará el peso del edificio, si
tendrá asentamientos excesivos y también si resistirá durante sismos.
UNA DESCRIPCIÓN DEL SUBSUELO: EL CASO DE LA CIUDAD DE
MÉXICO
El subsuelo de la ciudad de México es fascinante. Esa fascinación
aumenta constantemente según se le vaya conociendo; antes que
ciudad este subsuelo fue un lago, o una serie de lagos, algunos de
ellos salados, que se fueron secando por varias razones: el acarreo de
material de las laderas montañosas y las actividades humanas, entre
las más importantes. Si los aztecas decidieron fundar una ciudad en
medio de un lago, empresa nada fácil, tendrían sus razones (militares,
culturales y otras, conocidas o no). El hecho es que lo hicieron, y con
ello propiciaron las condiciones que siglos después obligan a cientos de
ingenieros y científicos a estudiar los suelos con mucho detenimiento.
Para vivir aquí, los aztecas tuvieron que aprender y saber muchas
cosas: cómo aliviar el efecto de inundaciones catastróficas, cómo
lograr que sus construcciones no se hundieran de lado, y con qué
medios evitar que los sismos no destruyeran ni a sus edificaciones ni a
sus familias. Hoy, al igual que en el tiempo de los aztecas, una de las
mayores concentraciones de habitantes del planeta se asienta en el
Valle de México y sobre su interesante subsuelo. Pero ahora los
problemas de la ciudad se han multiplicado: hay obras de drenaje
profundo, transporte subterráneo, pozos de extracción de agua,
instalaciones bajo tierra de todo tipo, edificios más altos,
contaminación y un tráfico interminable, entre otros; todos estos
problemas nuevos y viejos nos llevan a intentar comprender lo que
sucede y, sobre todo, lo que sucederá en esta ciudad. El caso concreto
del subsuelo, interconectado por todas las obras mencionadas, nos
obliga a tratar de conocer el problema en todos sus detalles,
comenzando desde su origen.
EL ORIGEN DEL VALLE Y DE LA CIUDAD DE MÉXICO
El Valle de México comenzó a formarse cuando una importante
actividad volcánica cerró el paso de una cuenca formada por dos
macizos montañosos paralelos: hacia el poniente, corriendo
alargadamente de norte a sur, la Sierra de las Cruces, y hacia el
oriente, con alturas imponentes, la Sierra Nevada, que incluye a los
volcanes Iztaccíhuatl (mujer blanca, en la lengua náhuatl) y
Popocatépetl (montaña humeante). Por el sur, en la parte más baja de
la cuenca, surge después la llamada sierra del Chichinautzin, que
acabó por unir la base sur de la Sierra Nevada con la Sierra de las
Cruces, con lo que convirtió una amplia zona en un nuevo valle
rodeado con grandes montañas por tres lados y por tierras altas en su
lado norte (véase la figura 1). Desde ese momento, todo el material de
los volcanes (el lavado de sus laderas, y el transportado por los
vientos), se empezó a acumular en los puntos más bajos del flamante
valle. Si llovía mucho, era un gran lago, si no, un pantano inmenso con
islotes secos y aislados, uno de los cuales fue escogido como lugar de
asentamiento por los aztecas, pequeño pueblo teocrático, disciplinado
y tenaz, y dispuesto a dominar tanto su entorno físico como cultural.
Figura 1. Perspectiva del valle de México desde el sur. 1) México-Tenochtitlan,
2) Texcoco, 3)Sierra de Chichinautzin, 4) lago de Texcoco, 5) volcán Xitle,
último
activo
en
el
valle.
Los aztecas desarrollaron un sistema de aprovechamiento de la tierra
que se basó principalmente en el acondicionamiento de chinampas,
confeccionadas con fango extraído por medio de canastillas del fondo
del lago, y amontonado hasta formar una fértil parcela de tierra firme,
que sobresalía del lago menos de un metro; entre las chinampas
dejaban canales para transportar productos y personas en chalupas o
barcazas, sistema que subsiste hasta nuestros días, como podemos
observar en la figura 2. Las construcciones más grandes fueron hechas
de tezontle, piedra volcánica porosa y muy ligera (algunas de ellas
flotan), que cimentaban sobre numerosos y pequeños pilotes o estacas
de madera, colocados uno cerca del otro. Cuando el peso y el tiempo
sumían o ladeaban las construcciones importantes, construían sobre
los restos una nueva, cada vez más grande y majestuosa, hasta que
formaron una gran ciudad.
Figura 2.
Se ha escrito o conservado muy poco sobre cómo era aquello; sin
embargo, la emoción de observar la magna obra por primera vez, se
puede volver a vivir brevemente cuando leemos a Bernal Díaz del
Castillo, que con sus ojos de soldado y cruda pluma, describe una
impresión de la ciudad viéndola desde uno de los templos más altos:
... He ansí como llegamos salió el Montezuma de un
adoratorio, a donde estaban sus malditos ídolos, que era
en lo alto del gran cu, y vinieron con él dos papas, y con
mucho acato que hicieron a Cortés e a todos nosotros, le
dijo: "Cansado estaréis, señor Malinche, de subir a este
nuestro gran templo". Y Cortés le dijo con nuestras
lenguas, que iban con nosotros, que él ni nosotros no nos
cansábamos en cosa ninguna. Y luego le tomó por la mano
y le dijo que mirase su gran ciudad y todas las más
ciudades que había dentro en el agua, e otros muchos
pueblos alrededor de la misma laguna en tierra, y que sí
no había visto muy bien su gran plaza, que desde allí la
podría ver muy mejor, e ansí lo estuvimos mirando,
porque desde aquel grande y maldito templo estaba tan
alto que todo lo señoreaba muy bien; y de allí vimos las
tres calzadas que entran a Méjico, ques la de Iztapalapa,
que fue por la que entramos cuatro días hacía, y la de
Tacuba, que fue por donde después salimos huyendo la
noche de nuestro gran desbarate, cuando Cuedlavaca,
nuevo señor, nos echó de la ciudad, como adelante
diremos, y la de Tepeaquilla. Y víamos el agua dulce que
venía de Chapultepec, de que se proveía la ciudad, y en
aquellas tres calzadas, las puentes que tenían echas de
trecho a trecho, por donde entraba y salía el agua de la
laguna de una parte a la otra; e víamos en aquella gran
laguna tanta multitud de canoas, unas que venían con
bastimentos e otras que volvían con cargas y mercaderías;
e víamos que cada casa de aquella gran ciudad, y de todas
las más ciudades questaban pobladas en el agua, de casa
a casa no se pasaba sino por unas puentes levadizas que
tenían echas de madera, o en canoas; y víamos en
aquellas ciudades cues y adoratorios a manera de torres e
fortalezas, y todas blanqueando, que era cosa de
admiración, y las casas de azoteas, y en las calzadas otras
torrecillas y adoratorios que eran como fortalezas. Y
después de bien mirado y considerado todo lo que
habíamos visto, tornamos a ver la gran plaza y la multitud
de gente que en ella había, unos comprando e otros
vendiendo, que solamente el rumor y zumbido de las voces
y palabras que allí había sonaba más que de una legua, e
entre nosotros hobo soldados que habían estado en
muchas partes del mundo, e en Constantinopla e en toda
Italia y Roma, y dijeron que plaza tan bien compasada y
con tanto concierto y tamaño e llena de tanta gente no la
habían visto...
Hábiles fueron aquellos constructores y hábiles tendrían que ser
quienes siguieran sus pasos, si difícil fue construir en un suelo
pantanoso, difícil y peligroso seguiría siendo al paso de los siglos.
La productividad de sus métodos agrícolas, de su caza y pesca, así
como sus considerables habilidades militares, convirtieron en poco
tiempo a los aztecas en próspero pueblo, cuyos emperadores además
de sus conocidas conquistas del entorno, impulsaron el auge de la gran
urbe en pleno lago, unida a tierra firme por amplias calzadas,
interrumpidas por puentes estratégicos —como habría de comprobar
en carne propia el invasor— cuyo centro ceremonial estaba provisto de
imponentes edificios y plazas, hecho que demuestra lo bien que
llegaron a entender las propiedades mecánicas del subsuelo que los
sustentaba.
Así pues, con los aztecas comienza el estudio experimental de los
suelos del Valle de México. Como han demostrado recientes
investigaciones sobre la cimentación del Templo Mayor (realizadas por
Mazan, Marsal y Alberro, de la Universidad Nacional), los aztecas
fueron progresando cautelosamente en el tamaño y altura de sus
templos, con el fin de garantizar el éxito constructivo. Seis etapas de
construcción se dieron antes de alcanzar las alturas de las pirámides
que vería maravillado el conquistador.
LAS PARTICULARIDADES DEL VALLE
Los efectos de la conquista también habrían de sentirse en la
ingeniería de cimentaciones; con métodos nuevos y tradicionales, los
constructores de la colonia fueron construyendo y reconstruyendo sus
edificios hasta que comprendieron, como antes lo hicieron los aztecas,
que con un suelo donde casi todo el volumen se debe al agua, debe
acostumbrarse primero el terreno a una carga o peso, para que las
construcciones puedan quedarse en su lugar. Hoy podemos observar
que cuando en alguna construcción nueva no se consideraron estas
sencillas pero novedosas necesidades de cimentación, los edificios, o
cuando menos partes de edificios nuevos no construidos sobre
antiguas construcciones, tienen hasta nuestros días hundimientos
diferenciales (véase la figura 3).
Figura 3.
Como este efecto, muchos otros hay que responden a la mentalidad
del colonizador. Éste siempre pensó que su ventaja militar suponía
ventajas en todos los ámbitos, y se negó a aceptar que sus
predecesores habían acumulado más conocimientos en ciertos campos
del que ellos hubieran admitido. Todo esto es parte de cualquier
proceso o mentalidad colonizadora, y sabemos que con estas torpezas
se pierden valores inimaginables de una civilización conquistada, y en
esto no sólo nos referimos a la ingeniería de cimentaciones.
En un reciente libro, el profesor Bonfil Batalla señala algunos hechos
de la invasión extranjera del siglo XVI vigentes hasta nuestros días:
"...la multiplicidad de culturas del México conquistado fue negada y
repudiada desde el primer momento..." y añade: "...en el fondo no hay
una cultura única mexicana, porque hubo la presencia de dos
civilizaciones que no se fusionaron, ni han coexistido en armonía..." y
más adelante, para ilustrar este punto, dice: "Cuando el alarife García
Bravo hizo el trazo de linderos de la ciudad española propia de los
dominadores, fue más para poner fuera de ésta a los dominados, no
para crear una ciudad que ya estaba estructuralmente hecha...".
Hasta nuestros días se pretende vivir de manera exclusiva dentro de la
cultura occidental (ignorando y a veces despreciando nuestra realidad
multicultural) y este hecho impide de diversas maneras nuestro
desarrollo y autonomía plena.
LAS INUNDACIONES
Aparte de los problemas del subsuelo, las inundaciones fueron siempre
una amenaza adicional. Viviendo como vivimos en la parte más baja
de un valle, y con los torrenciales aguaceros que caen en estas tierras,
las inundaciones estaban garantizadas. Nuevo reto, resuelto sólo hasta
nuestros días —e incluso hoy de manera parcial, pues todavía hay
muchas zonas del Valle que se inundan año con año. La precipitación
pluvial en el Valle es francamente impresionante: en sólo unos minutos
pueden caer cientos de miles de toneladas de agua, y ya que éste es
un terreno bastante plano, típico de un lago desecado, el agua no tiene
mucho apuro por escurrir; por otro lado, los drenajes, aunque ahora
son monumentales, siguen siendo insuficientes, por lo menos durante
algunas horas o días y en algunas zonas.
LOS TERREMOTOS
Por si fuera poco, a todo lo anterior hay que añadir varios problemas
más: el más importante es desde luego el de los temblores y
terremotos. Los habitantes de la ciudad de México estamos
acostumbrados a algunos temblores, pero a los terremotos, que ahora
sabemos bien que pueden ocurrir con devastadoras consecuencias,
nadie se puede acostumbrar. Apenas hoy día se comienza a estudiar el
mecanismo que hace que un temblor concentre sus daños en zonas
relativamente pequeñas, no sólo del país, sino en la misma ciudad, lo
que deja buena parte de las construcciones intactas y destruye otras
bien edificadas. Esto perfila un desafío adicional: entender cómo las
particularidades de nuestro subsuelo lacustre actúan junto con las
ondas sísmicas durante un terremoto, es actualmente uno de los
mayores retos para la investigación en ingeniería y para la ciencia del
país.
Pocos expertos dudan hoy de que éste y otros subsuelos difíciles,
requieren de estudios en los que el enfoque de diversas disciplinas se
unan para explicar lo que algunos llaman amplificación sísmica local,
como la que se observó en ciertas zonas de la ciudad durante el sismo
del 19 de septiembre de 1985. En las investigaciones sobre este
fenómeno se usan modelos, tanto matemáticos como de laboratorio,
que simulan las formaciones geológicas cercanas a la superficie y se
intenta reproducir en condiciones de laboratorio los movimientos del
suelo por medio de ondas sísmicas simuladas para estudiar los efectos.
Es previsible y deseable que ingenieros y físicos trabajen
conjuntamente en la búsqueda de tales resultados. Su alianza
producirá información de gran utilidad práctica para los habitantes de
una de las urbes más castigadas del planeta.
LA CONTAMINACIÓN
Pero la ciudad de México tenía que enfrentar más retos. Por lo general
la contaminación se relaciona con el aire y el agua, pero también en
este renglón el subsuelo de las ciudades está en peligro. La industria
desecha sustancias contaminantes de manera irresponsable que se
difunden en el subsuelo, como es el caso de la contaminación del
subsuelo con cromo, constatado por los especialistas, aunque se
desconozcan por ahora muchas de sus consecuencias en el futuro. Es
posible que la difusión contaminante en el subsuelo proceda
lentamente, durante años quizá, pero es probable por ejemplo, que
estos procesos alcancen mantos acuíferos (los depósitos de agua
subterránea de donde se bombea hasta la superficie para uso de la
población), caso en el que las consecuencias serían desastrosas. Este
tipo de situaciones es muy delicado porque al principio pueden pasar
inadvertidas hasta que el problema se manifieste claramente, estando
ya muy avanzado, y las soluciones resulten o imposibles o
costosísimas. Se tiene pues la necesidad de vigilar las actividades
industriales con potencial contaminante, y de fomentar programas de
investigación que se adelanten a los hechos, y elaboren planes para
enfrentar accidentes de esta naturaleza antes de que se conviertan en
una catástrofe irreparable para el medio.
LOS VOLCANES
Para completar un poco más este cuadro, recordemos que buena parte
del subsuelo de la ciudad de México se formó con materiales volcánicos
que provienen de erupciones cercanas, y que los volcanes no suelen
dar aviso de su próxima actividad y mucho menos de la intensidad con
la que ocurrirá (recuérdese el Chichonal en 1982 en Chiapas, México, y
el Nevado del Ruiz, en Colombia). Luego entonces, es también posible
que, de la misma manera en que encontramos en el subsuelo
depósitos espesos, que atestiguan la caída de arenas finas y cenizas
con varios metros de espesor, fruto de la actividad volcánica, en el
futuro algo equivalente podría suceder. Vale la pena detenernos un
momento para señalar que no se trata aquí de crear temor hacia la
naturaleza, ni a la "ira de los dioses", pero sí de preguntarnos si los
científicos que trabajan en geofísica cuentan con los fondos suficientes
para estudiar los volcanes más importantes, como el de Colima o el
Popocatépetl por ejemplo; antes de que el peligro sea inminente y que
no sea en ese momento cuando se dé a esas investigaciones un
financiamiento abundante, como ocurrió con la investigación
sismológica después del gran sismo de 1985.
Los casos anteriores, insistimos, no se presentan para alimentar el
alarmismo simplón, o el ecologismo de fin de semana; lo que sí se
pretende es mantenernos alerta sobre lo complicado y serio que son
los efectos directos e indirectos de nuestras actividades e industrias, y
que tengamos presente la necesidad de conocer los agentes
desfavorables que nos rodean y nos pueden afectar.
Por cierto, de la predicción y prevención trata en gran medida la
investigación en ingeniería y la científica, y para desgracia y
detrimento de todos, todavía muy pocos ciudadanos (y gobernantes)
aprecian el potencial que la ciencia y la tecnología tienen como fuerza
productiva en nuestro país, ignorando que estas actividades
constituyen probablemente la única salida real para encauzar a los
países latinoamericanos en la vía del desarrollo y la prosperidad, que
sin duda nos aguardan.
Si consideramos lo impotentes que somos ante ciertas fuerzas de la
naturaleza, como los sismos y volcanes, lo que nos queda en esos
casos es estudiarlos, y de esta manera planear las medidas que
podemos tomar para minimizar sus efectos indeseables o destructores,
que siempre nos acecharán, por ser parte de las condiciones
geológicas de nuestro medio. Todos estos temas son complicados y
requieren ser estudiados por personas responsables y preparadas en la
investigación. Pero sobre todo, por aquellos que demuestren la
creatividad y disciplina suficientes para abordar temas que demandan
dedicación, paciencia, y también, como en las artes, una buena dosis
de pasión. Antes de seguir con el subsuelo, y sus exquisitas
particularidades que lo hacen tan complejo e interesante, vamos a
mezclar un poco el tema de los suelos y el espacial; acomódese en su
asiento.
CONTACTOS ESPACIALES CON LO TERRESTRE
Por primera vez intentemos aquí encontrar contacto entre los temas
centrales del libro. ¿Qué conexiones encontramos entre las actividades
aeroespaciales y el subsuelo, al que más adelante volveremos? En
primer término podemos referir toda una serie de relaciones más o
menos directas, entre las que destaca la exploración de los suelos
desde el espacio y la geología, que tiene como finalidad clasificar,
identificar y localizar fallas, tipos de minerales, formas geológicas y
mantos petrolíferos, entre otras muchas.
Desde una nave en órbita no se ve el petróleo, como algunas personas
podrían creer, pero sí se ven las sierras y montañas o estructuras
geológicas como las denominan los geólogos. El estudio de estas
estructuras hace posible que los especialistas determinen antiguos
movimientos de la corteza terrestre, que a su vez pudieron sepultar
regiones selváticas o boscosas. Descubrimiento importante si se tiene
en cuenta que la descomposición del contenido orgánico (plantas
principalmente) de dichas regiones es la que generó, con los años y la
temperatura del subsuelo, el petróleo, según se cree. Las compañías
que buscan petróleo son por esto las principales consumidoras de
imágenes de satélites de prospección o percepción remota. En la
actualidad, más de siete países están preparando satélites para
realizar sus propios estudios, a pesar de que se dice que con un solo
satélite bastaría para todos (esto es técnicamente hablando, aunque la
realidad política sea otra y pocos compartan datos e información, lo
que a fin de cuentas puede afectarlos, reduciendo su control de los
mercados internacionales). América Latina también tendrá que
preparar, seguramente unida, sus satélites propios. De nuevo, esta es
otra idea que ha sido planteada por investigadores espaciales
mexicanos en un foro de especialistas de la región en percepción
remota, y es posible que en un futuro cercano se den los primeros
pasos concretos para elaborar un proyecto al respecto; el talento y el
conocimiento suficientes ya existen.
El uso y caracterización de los suelos también se realiza ya desde el
espacio, utilizando la visión amplia que se tiene desde allá. Teniendo
como base estas observaciones, pueden ser estimados el tipo y la
cantidad de producción agrícola, la mineralogía del suelo, la humedad,
el grado de erosión y la topografía, entre otras cosas. Estas
estimaciones no son cosa sencilla; tendremos que analizar y
adentrarnos, con cierto detenimiento, en los hechos que sustentan
este novedoso e importante tema. Cuando el Sol ilumina la Tierra,
parte de esa radiación se refleja en el espacio. Si a bordo de una nave
colocamos una cámara, o simplemente lo vemos, fácilmente podremos
captar una imagen del terreno iluminada por el Sol. Las cámaras que
se utilizan para esto se llaman multiespectrales, es decir, que son
capaces de captar imágenes en bandas selectas del espectro.
EL ESPECTRO ELECTROMAGNÉTICO
No es nuestro propósito hacer aquí una descripción detallada de lo que
es el espectro electromagnético, pues ya hay quienes lo han hecho con
más detalle y claridad dentro de esta misma serie (véase el libro de A.
M. Cetto, La luz). Solamente se da alguna información de lo que es el
espectro, para poder explicar después cómo se usa en la percepción
remota para localizar minerales, estudiar cultivos, registrar actividad
nocturna y clasificar uso de suelos, entre otros.
La manera más conveniente de comprender algunos aspectos del
espectro electromagnético es a través del ejemplo de los colores, la
manifestación más conocida del espectro. Cuando el Sol ilumina un
cristal cortado en ángulos, vemos los colores del arcoiris: o sea, un
espectro. Este efecto, llamado descomposición espectral, se da porque
la luz del Sol está compuesta de todos estos colores que vemos, y al
atravesar el cristal, cada color se desvía o refracta de manera
diferente: el violeta menos que el verde y el rojo más que todos; cada
componente de la luz sale por caminos distintos y el ojo detecta este
fenómeno en forma de colores.
Los colores son distinguidos por el lugar que ocupan en el espectro
electromagnético y se identifican por una serie de medidas, una de
ellas, la llamada longitud de onda, la utilizaremos aquí para referirnos
a las diversas radiaciones que componen el espectro. Por ejemplo, el
azul tiene una longitud de onda de cerca de 0.45 micras, el rojo, de
0.65, y el verde pasto esta entre los dos (0.54 micras). Con el aparato
llamado fotocolorímetro se puede medir la longitud de onda de los
colores para diferenciarlos y clasificarlos objetivamente, más allá de
las opiniones personales. Ahora bien, los colores son sólo una pequeña
parte del espectro, las otras partes también las conocemos y
utilizamos, pero no todos saben que cada uno de los componentes del
espectro que vamos a mencionar comparten buena parte de las
propiedades de los colores, y que están asociadas por características
esenciales; los colores se diferencian
precisamente por su longitud de onda.
de
otras
radiaciones
Los colores se llaman también espectro visible, porque son la única
parte del espectro que vemos a simple vista, los colores se encuentran
enmarcados en el extremo del violeta; por el ultravioleta, que nuestros
ojos ya no ven, y más allá de donde está el rojo, por el otro lado, está
el infrarrojo, que a su vez los expertos dividen, para fines prácticos, en
cercano, medio y lejano. Al infrarrojo lejano (cuyas longitudes de onda
van de 5 a 30 micras) se le conoce como infrarrojo térmico, pues en
esta parte o banda del espectro se percibe el calor de las cosas. Hay
cámaras que detectan imágenes térmicas, que en lugar de los colores
"visualizan" las temperaturas. En estas imágenes se diferencia lo
caliente de lo frío a tal grado que es posible ver partes del cuerpo
humano en donde la circulación de sangre es mayor, y por lo tanto
están más calientes, como ocurre cerca de los tumores.
Pero si esta misma cámara térmica está a bordo de un satélite o
estación espacial, en una de sus imágenes se puede ver, por ejemplo,
un pequeño avión (o cohete) a miles de kilómetros de distancia, por
los chorros de gas caliente que arrojan sus reactores; también, y de
más interés para nosotros, se puede ver un volcán que comienza a
activarse. Si seguimos aumentando la longitud de onda, recorriendo el
espectro más allá del infrarrojo, entraremos en las frecuencias de las
microondas; y más allá, a las señales de radio, donde las longitudes de
onda comienzan en los milímetros y terminan en los kilómetros.
Regresando al otro extremo, sobrepasando el sector visible de los
colores y el ultravioleta ya mencionado, están los rayos X, y más allá,
los rayos gamma. La figura 4 muestra un esquema del espectro
electromagnético donde se incluyen las radiaciones descritas.
Figura 4. Esquema del espectro electromagnético. Nótese que el sector visible
es
el
más
angosto
de
todas
las
radiaciones
que
conocemos.
Volviendo ahora a las cámaras multiespectrales de los satélites de
teleobservación, éstas captan imágenes de la Tierra en varias regiones
o bandas del espectro, a saber, algunas en el visible y otras en el
infrarrojo. Al pasar sobre una zona de estudio, las cámaras
multiespectrales toman imágenes a través de filtros que sólo permiten
"ver" la escena dentro de una estrecha banda del espectro, por
ejemplo, una banda podría abarcar desde 0.45 micras hasta 0.52, lo
que cae dentro del azul (desde el azul marino hasta el turquesa), otra
banda pudiera localizarse en el amarillo o en el verde, pero siempre
entre dos longitudes de onda fijas y muy bien definidas: a este tipo de
imágenes se les denomina multiespectrales, pues se componen de
imágenes tomadas en múltiples bandas del espectro. Los filtros
espectrales que logran tal especificidad se fabrican depositando sobre
algún cristal capas ultrafinas de materiales especiales para cada color
o banda. De esta manera, la cámara capta varias imágenes de la
misma zona terrestre, pero cada una tomada en segmentos estrechos
del espectro. La figura 5 a modo de ejemplo muestra la radiación que
deja pasar uno de los filtros. (Por cierto que estos filtros están siendo
fabricados en laboratorios de centros de investigación del país, donde
ya se cuenta con la experiencia para su diseño, fabricación y prueba, y
han dado resultados muy alentadores, ya que muchos aparatos ópticos
de medición los usan como componentes principales.)
Figura 5. Imagen aérea de una zona urbana. Nótese en el centro inferior
izquierdo cuatro cuadros de calibración. De arriba hacia abajo: filtros
infrarrojo,
rojo,
verde
y
azul.
Para el caso concreto de los proyectos espaciales que actualmente
llevamos a cabo en la Universidad Nacional, se ha solicitado a
investigadores del Centro de Investigaciones en Óptica de León,
Guanajuato, la fabricación de una serie de filtros para realizar
experimentos con cámaras multiespectrales montadas en un avión,
para preparar un equipo que subirá al espacio, probablemente en 1990
o 1991, y que tiene entre sus objetivos tomar imágenes del territorio
mexicano en diferentes bandas del espectro. Este esfuerzo, a su vez,
se encamina a la preparación del equipo óptico que irá a bordo de uno
de los futuros satélites de investigación, que también forma parte del
programa espacial que realizamos en la UNAM en colaboración con otros
centros del país y del extranjero.
Las imágenes multiespectrales son de utilidad para estudiar los
recursos de la naturaleza. Al igual que los ojos, estas cámaras captan,
identifican y clasifican cosas por su color, textura y forma. Las
imágenes de satélite se analizan con computadoras para extraer
información útil para muchos usuarios. Digamos, a modo de ejemplo,
que hubiera interés en saber cuáles son los cultivos en una extensa
región agrícola; si la recorriéramos a pie o en algún vehículo para
preparar mapas de cultivo, esta labor se llevaría mucho tiempo, sin
hablar ya de que nos propusiéramos conocer todo un país o todo el
planeta. Aprovechando la visión amplia que logran los satélites,
obtener imágenes de todo un país sería relativamente fácil, aunque en
la actualidad esto es muy costoso, pues muy pocas empresas venden
estas imágenes. Sin embargo, hay múltiples proyectos que justifican el
gasto.
Si ya contáramos con las tomas de nuestra zona de estudio,
comenzaríamos el proceso de análisis y extracción de información de la
siguiente manera: primero, haríamos una corrección geométrica de las
imágenes, es decir, haríamos coincidir la imagen espacial o aérea, con
un mapa de la zona: carreteras con carreteras, ríos con ríos y
estructuras geológicas consigo mismas. Este es un proceso
matemático que se realiza automáticamente metiendo las imágenes a
una computadora con un programa especial; de esta manera
observaríamos los procesos y resultados en una pantalla de televisión
en color.
Después, procederíamos a observar la imagen de cada banda, por
ejemplo, la imagen en el azul o en el amarillo, y comenzaríamos una
paciente mezcla de imágenes, que poco a poco iría cediendo la
información buscada. Veamos.
Cuando la radiación solar llega a la Tierra, ilumina la superficie de
extensas zonas de una manera uniforme, especialmente cuando hay
poca nubosidad. Esta iluminación nos permite observar las cosas con
los ojos; sin embargo, cuando nuestros "ojos" son los instrumentos a
bordo de un satélite, a éstos llega una radiación diferente a la del Sol
que ilumina la Tierra. La diferencia resulta del efecto de absorción
selectiva que tienen los diversos materiales en la superficie terrestre y
en la atmósfera, o sea que cada material tiene una manera única de
absorber la radiación solar. Un ejemplo, que nos ayuda a comprender
la diferente absorción de la radiación solar es éste: aunque la gran
mayoría de las plantas son verdes, todos sabemos, por experiencia,
que hay muchos tonos de verde; los tonos de verde son precisamente
el resultado de cómo cada planta absorbe y en consecuencia refleja de
modo diferente la luz solar. Es la experiencia práctica la que ha
permitido a los especialistas desarrollar ciertos métodos, y hasta
recetas, que les indican cuáles imágenes de diferentes bandas deben
mezclar para obtener información de diverso tipo. En el análisis de
imágenes de zonas cultivadas por ejemplo, se aprovecha la propiedad
de absorción diferencial de las plantas para distinguir diferentes
cultivos desde el espacio, y se ha llegado al grado de poder clasificar
con una precisión mayor al 85% el tipo de cultivos de amplias zonas
productivas de un país. Este logro tiene enormes consecuencias
económicas: por medio de estas técnicas se puede determinar la
presencia y avance de plagas en ciertos cultivos, o el rendimiento que
van a presentar algunas regiones agrícolas; lo que permite, por
ejemplo, preparar esquemas especulativos para el control del mercado
internacional de productos agrícolas. La técnica del análisis de
imágenes por computadora tiene gran importancia en el futuro de
muchos campos del saber: desde las imágenes médicas tomográficas,
hasta las observaciones militares más increíbles para nosotros.
Veamos, para comenzar, un ejemplo de lo que puede lograr un satélite
militar de reconocimiento: los satélites dedicados al espionaje
electrónico observan en muchas bandas del espectro, incluyendo las
que posibilitan la visión nocturna; y tienen más bandas que las cinco o
siete que se utilizan en los satélites civiles, y tampoco están limitados
a la resolución de éstos (que por cierto no es nada despreciable, pues
pueden diferenciar desde el espacio objetos separados por unos diez
metros, como edificios, barcos y aviones); los satélites militares de las
grandes potencias están equipados para diferenciar hasta doscientas
bandas espectrales, y su resolución, es decir, su capacidad para
distinguir objetos en la superficie terrestre, no se cuenta en metros
sino en centímetros (son capaces de distinguir objetos de unos cuantos
centímetros en la superficie de la Tierra o en el mar). La gran cantidad
de bandas o ventanas por las que registran las imágenes hace posibles
detecciones que se asemejan más a la ciencia ficción, que a la
realidad. Por medio de la manipulación por computadora de imágenes
de tantas bandas, los especialistas militares pueden diferenciar los
materiales con los que se construyen los equipos bélicos de sus
enemigos potenciales, reales o, como bien suele ser, imaginarios. De
esta manera se logra tal especificidad, que les es posible saber el tipo
de aleaciones que utiliza el contrario en los tubos de escape de aviones
a reacción, el de los cañones de su armamento o los componentes de
aspas de sus helicópteros, entre muchas otras cosas que desafían la
imaginación.
Más que impresionar, estos datos nos demuestran que la era espacial
no sólo consiste en noticias de aventuras o logros científicos, sino que
es un medio eficaz de observación, que reduce la privacía y viola la
soberanía de los pueblos, "amigos" o enemigos". En el tristemente
famoso caso de las Malvinas por ejemplo, un aliado se unió a otro
aliado para minimizar la eficacia militar de un tercer aliado, que es un
país en desarrollo y por tanto menos aliado que el segundo. Con las
imágenes de satélite, se detectaron los movimientos de la flota y
aviación argentinas para reducir sorpresas desagradables a los
británicos que, solos, hubieran pagado un costo aún mayor en
pérdidas de combate; quizá esto lo sabrán muy pocos, pero tal vez la
misma operación hubiera fracasado sin esta ayuda entre cómplices.
EL PROCESAMIENTO DE IMÁGENES POR COMPUTADORA
Para que una computadora analice una imagen, es preciso traducir
previamente la imagen al lenguaje de las computadoras: los números.
Es decir, la imagen debe ser representada como una lista de números,
ya que las computadoras fueron originalmente creadas para su
manejo. El paso de imágenes a números es un proceso llamado
digitación, aunque hay maneras más complicadas de llamarlo. La
digitación se efectúa dividiendo la imagen en los pequeños elementos
que forman un cuadro (constituido por una cuadrícula de columnas y
filas); las filas van de izquierda a derecha y las columnas de arriba
hacia abajo y, tomadas en conjunto, forman un cuadro compuesto a su
vez de cuadritos alineados; la posición de cada cuadrito o elemento de
imagen, que los especialistas llaman PIXEL (de la contracción del inglés
PIXcture-ELement), se logra identificando la fila y la columna en la que
se encuentra (véase la figura 6). Ahora bien, para ahondar y facilitar
esta explicación, tendremos que revisar un poco cómo funciona el
equipo íntimamente ligado con esta técnica: la conocida pantalla de
televisión.
Figura 6. Ejemplo de imagen digital. La ampliación de un fragmento, a la
derecha,
muestra
los
elementos
individuales
de
la
imagen.
Las imágenes de televisión están formadas por secuencias rápidas de
cuadros, y éstos, a su vez, de líneas; que son visibles cuando algo falla
en nuestro aparato. La TV nos presenta muchos cuadros por segundo,
por lo que cuando funciona normalmente no se nota que las escenas
estén formadas por secuencias de cuadros, y éstos por secuencias de
líneas. Las líneas se trazan sobre la pantalla de TV por medio del
movimiento de un fino rayo de electrones que se produce con un
filamento incandescente (semejante al de los focos domésticos) y que,
manipulado electrónicamente, barre la pantalla, como quien barre un
patio, de izquierda a derecha, o sea, en la dirección de las filas.
Durante el barrido, el rayo va cambiando de intensidad; en algunos
lugares es muy brillante y en otros puede ser oscuro, dependiendo de
los cambios de intensidad que registra la cámara de televisión en la
escena original. Las líneas de barrido de una televisión, en conjunto,
constituyen la imagen.
Entendidos ya algunos de los rudimentos del funcionamiento de la TV,
regresemos a la técnica de digitación: las líneas de barrido de una TV
se pueden representar como una fila o una secuencia de pixeles, en la
que cada pixel tiene una determinada intensidad. Esta intensidad
corresponde al brillo que tiene la imagen original, vista por la cámara.
Si a cada cuadrito le adjudicamos un valor numérico, por ejemplo, del
1 al 16 (o al 32, o al 256, o sea siempre una potencia de 2 ), donde el
número 1 es el de mayor brillo o blanco total, y el 16 el negro, o
menor brillo posible, y entre ellos hay una escala gradual de grises,
entonces, si ya una línea se puede representar por una serie de
números (equivalentes a los tonos de gris), que van del 1 al 16, por
extensión, podemos representar un cuadro de TV como un conjunto de
líneas con valores numéricos definidos, que es precisamente lo que
necesitábamos para poder manejar las imágenes con una
computadora. ¿Y ahora qué?
LA EXTRACCIÓN
COMPUTADORA
DE
INFORMACIÓN
DE
UNA
IMAGEN,
POR
La mejor manera de explicar cómo un programa de computadora
extrae información de una imagen es quizá con un ejemplo sencillo:
imaginemos que con la cámara de TV captamos la imagen de un
círculo totalmente negro, frente a un fondo blanco; en la pantalla,
veríamos naturalmente una imagen del círculo negro con el fondo
blanco (véase la figura 7). Ahora, no sólo vamos a digitar la imagen,
sino además la guardaremos en una memoria, algo tan común como
una videograbadora o la memoria de una computadora.
Figura 7. Fotografía de pantalla de computadora mostrando el círculo negro
sobre
un
fondo
blanco.
Al entrar en la memoria donde guardamos el círculo negro con el fondo
blanco, el programa detectará que en toda la memoria sólo hay dos
valores o tonos, el blanco y el negro, correspondientes al círculo y su
fondo. No es nada difícil lograr una respuesta a ¿cuánto hay del negro
y cuánto hay del blanco?; en la pantalla veremos por ejemplo, unos
números que dicen blanco = 32 000, negro = 33 500. Si sabemos que
el negro es el círculo, podemos calcular, o mejor pedirle a la máquina
que lo haga, de qué diámetro es un círculo en el que caben 33 500
pixeles, cuyo tamaño conocemos con anterioridad, ya que para esto
antes vimos un objeto de dimensiones conocidas, para calibrar el
sistema. Los que se inquietan con las computadoras, porque no las
entienden, dirían, ¿y de qué me sirve ese cálculo por computadora si lo
puedo hacer más rápido a mano? Claro que ese solo cálculo se hace
más rápido a mano, pero ¿qué tal si en vez de un círculo tenemos cien
círculos en la imagen, y si hay cientos de imágenes como ésa? En los
casos en los que el trabajo es repetitivo y sin reto ni gloria para la
exquisita mente humana, es donde son buenas las computadoras;
aunque, es justo mencionarlo, las nuevas generaciones de
computadoras ya realizan algunas verdaderas exquisiteces, siempre y
cuando el programador las sepa instruir.
El ejemplo de los círculos no salió de la imaginación: un caso similar se
nos ha planteado en el laboratorio para resolver un problema práctico
y de importancia económica, que vamos a describir a continuación
para validar ante el lector la utilidad de los programas de cómputo
para procesar imágenes, aun así de sencillos. Además, nos
proponemos continuar con la cita de ejemplos que ilustren cómo
muchas veces se ha enriquecido el conocimiento de un campo de
aplicación por caminos indirectos como, por ejemplo, cuando la
ingeniería civil y los ciudadanos que costean sus obras se han
beneficiado con la técnica del procesamiento digital de imágenes, que
originalmente tenía como propósito el estudio de la Tierra desde el
espacio.
EL CÁLCULO DE LOS CÍRCULOS
Cuando un ingeniero va a edificar una gran obra, digamos una presa,
necesita utilizar materiales de construcción baratos y que de
preferencia se encuentren cerca del sitio de construcción, ya que es
muy caro su transporte. Así, recorre la zona cercana a la futura obra y
estudia los depósitos geológicos de los cerros; en eso se encuentra con
que una carretera tiene unas altas paredes a los lados, que él llama
taludes; en los taludes observa que hay cantos rodados o rocas de río,
dentro de una matriz de tierra, que él llama arena arcillosa. Las rocas
se asoman un poco, por lo que puede ver que hay muchas. Pero eso
no basta: para estimar de manera certera los costos del transporte, él
tiene que saber cuántas rocas hay ahí aproximadamente; no
exactamente, pero si se equivoca por mucho, lo pueden despedir del
trabajo por inepto. Así pues, trata de estimar cuántas toneladas de
piedras hay entre la arcilla. Para hacer esto, observa un talud o excava
con una máquina o a mano, y ve cuánta roca hay en un volumen que
excava de la pared o de un hoyo y, con la experiencia, a veces de
muchos años, va aprendiendo a estimar cada vez mejor estos
volúmenes. Pero cuando el tamaño de una obra requiere de
estimaciones más precisas, y no es permisible equivocarse ni por poco,
es cuando trata de encontrar un mejor método de estimación, y para
esto se pone en contacto con otros ingenieros, que trabajan dentro de
los institutos de investigación y manejan métodos avanzados. Y
conjuntamente, tratan de resolver el problema. Después de estudiarlo,
llegan a la conclusión de que el meollo del asunto está en poder
estimar el volumen de rocas viendo sólo algunos de esos taludes,
contar el número de rocas que se asoman y medir su diámetro
aparente, para después, con métodos matemáticos, estimar con mayor
precisión lo que antes hacía "a ojo de buen cubero".
Pero, y siempre salen más peros, ahora resulta que para que el
método funcione con la precisión necesaria, tiene que ver muchos
taludes y esto le resulta poco práctico, así que decide inyectar más
tecnología, y pide fotografías de los taludes, con las que puede medir
precisa y rápidamente todo esto, sin moverse de su escritorio. Logra
su objetivo y hasta cierta fama entre sus colegas, porque ha hecho las
mejores estimaciones y ha bajado los costos en cantidades muy
respetables. Tanto, que de todo el país, y hasta de fuera, le llegan
pedidos para estimar nuevas obras, y no sólo le piden estimar la
proporción de rocas en arcillas con su flamante método, sino hasta
contar el número de grietas que hay en macizos rocosos, pero ya son
tantas las fotografías que recibe, que su problema ya cambió: ¿cómo
estudiar tal cantidad de fotografías? ¿Saben cómo lo resolvió?
Procesando imágenes por computadora. Primero, pidió a su fotógrafo
que tomara las fotografías de tal manera que se notara el contraste
entre las rocas y la matriz de arena arcillosa lo más posible; después,
durante el revelado, forzaba también el proceso para aumentar el
contraste, tanto que parecían fotos mal tomadas, pero eso era lo que
quería: alto contraste entre rocas y matriz. Posteriormente, con una
cámara de TV y un equipo para digitar, adquiría cada imagen y la
almacenaba en memoria para procesarla después con los programas
de computación. El programa inicial aumentaba el contraste corriendo
los tonos hacia los extremos, es decir, si tenía 16 tonos del blanco al
negro, todos los tonos arriba del 5 los convertía en 16 y los de abajo
de 5, en 1. Así, la imagen resultante sólo presentaba dos tonos muy
contrastados: o negro, o blanco. Esta imagen en la pantalla (véase la
figura 8) la comparaba con la fotografía original, para ver si las rocas
mostraban su tamaño real; de lo contrario, en vez de usar como
umbral el tono 5, usaba otro cuyos artificios no cambiaran de tamaño
las cosas. Ya que tenía la imagen en alto contraste, entraba en acción
un segundo programa, que hacía algo muy similar al descrito en un
principio, el del círculo negro con fondo blanco, y que más o menos
funciona así: este programa tiene un interrogador que pregunta
ordenadamente (de pixel a pixel hasta completar todos los que
constituyen la imagen), el tono guardado en la memoria. Si el
interrogador que viaja fila por fila por toda la imagen encuentra un
tono blanco, que corresponde a las rocas, toma nota y prosigue
contando los pixeles blancos hasta llegar a un tono negro, que es una
nueva frontera (la arcilla), y que esta vez no atraviesa, sino que,
cambiando la dirección de exploración, pasa a otra columna o fila y
continúa su exploración programada. Cada punto recorrido es
acumulado o sumado, para que al finalizar el recorrido por una roca en
particular, tenga apuntado el número de pixeles blancos que
conforman esta unidad. Si en las fotografías se incluye una escala, una
regla graduada por ejemplo, podemos saber fácilmente cuántos
elementos de imagen se requieren para un centímetro y, con la misma
información, calcular el área que ocupa cada roca o mancha blanca de
la imagen. Es evidente que las rocas asoman una parte solamente, por
lo que se realiza entonces una serie de operaciones llamadas
operaciones de morfología matemática, para que a partir de los datos
fotográficos evaluados, se calcule el volumen que ocupan las rocas en
relación con la matriz.
Figura 8. Imagen de alto contraste que simula piedras de río en una matriz
arcillosa.
Esto ejemplifica algunos de los tenues hilos que conectan campos
disímiles, pero a la vez con amplias equivalencias. Lo mismo ocurre
cuando al desarrollar un método para estudiar un suelo natural,
avanzamos, sin saberlo ni planearlo, y a veces sin descubrirlo nunca,
en la técnica que resuelve el problema de un material aeroespacial.
Veamos con más detenimiento semejante aseveración: el subsuelo y
los materiales de uso aeroespacial comparten el hecho de que sus
materiales son difíciles de conocer. Se diferencian completamente en
cuanto a su uso, de esto no cabe duda, aunque ambos poseen una
microestructura compleja que determina su manera de comportarse,
deformarse o fallar al someterlos a cargas. Para entender sus
afinidades y diferencias, analicemos con algún detalle su esencia;
comencemos por el subsuelo.
Primero, el subsuelo no está constituido de un solo material, sino que
es una mezcla de tres: agua, algunos minerales, y aire o gases —que a
veces no se perciben pues están en solución o forman burbujas tan
pequeñas que no se aprecian a simple vista. Entre los tres
componentes de un suelo se da toda una serie de interacciones
complejas, de las que conocemos poco, aunque sepamos que de ellas
depende su comportamiento al usarlos para construir algo. En los
suelos siempre encontramos minerales mezclados de una manera muy
particular, es decir, cada suelo es único. Tan único que los policías que
hacen investigación, usan el lodo pegado a los zapatos de un
sospechoso para saber si estuvo en la escena de un crimen, pues ahí y
sólo ahí, hay ese tipo de suelo. Así que, si todos los suelos son
diferentes, ¿se comportan todos también de manera diferente? Sí. Por
eso, cada vez que se construye una edificación costosa o importante,
se hace un estudio de mecánica de suelos, que realizan grupos de
investigación utilizando toda la técnica a su alcance, para resolver
problemas de suelos con propiedades tan especiales como el subsuelo
de la ciudad de México, por ejemplo.
Como los suelos, los materiales usados para construir aviones y naves
espaciales tienen también particularidades que los hacen únicos. Entre
los más conocidos están las aleaciones metálicas (mezclas de
diferentes metales que unidos superan las ventajas de sus
componentes), cuyas propiedades y modo de comportarse son
bastante predecibles. Por lo menos eso se pensó en un inicio. Ahora se
sabe que la industria aeroespacial ha tenido que desarrollar una gran
variedad de materiales especiales, como pocas industrias. Esto por la
necesidad de contar con naves seguras o lo más seguras posibles.
Además de los metales, se buscan siempre materiales de poco peso,
alta resistencia y que, cuando vayan a fallar, no lo hagan de manera
catastrófica, por lo que la aeronáutica ha incluido desde sus inicios una
serie de materiales no metálicos, como aquellos con base en fibras de
vidrio y cerámicas (preparadas con suelos seleccionados), maderas,
telas de tipos muy variados, adhesivos y, más recientemente, con
fibras ultrafinas de carbono, boro y cosas más exóticas (véase la figura
9).
Figura 9. Micrografía de zona de fractura en un material carbonotermoplástico. Nótese las fibras estriadas de carbono ( 6 µm de diámetro )
con rotura frágil y matriz de plástico heterogénea con signos de
deslizamiento
de
fibras.
En los materiales aeroespaciales reforzados con fibras se presentan
también, como en los suelos, interacciones sustanciales de sus
componentes. Por ejemplo, las fibras rígidas —y lisas— que son el
componente que soporta buena parte de la carga, pueden deslizarse
de la matriz (como puede apreciarse en el centro de la microfotografía)
o medio que las contiene, por lo general adhesivos epoxis y otros
plásticos. Cuando dichos materiales se fabrican por capas, éstas
pueden separarse o delaminarse (como las capas encimadas de varias
pinturas viejas) deteriorando drásticamente la resistencia. Los
materiales carbono-epoxi, cuyo desarrollo se ha orientado más a los
productos aeroespaciales, que requieren comportamientos especiales,
son poco conocidos por el público, y el que los conoce, lo hace a través
de artículos deportivos como raquetas de tenis, cañas para pescar,
mástiles de veleros, etcétera. En la fabricación de estos materiales se
requiere generalmente de mucha mano de obra y de un control de
calidad riguroso, por lo que los países con salarios relativamente bajos,
con respecto a los países más industrializados, pueden aprovechar esta
situación, y generar empleo con un producto de un considerable valor
agregado, y un mercado de exportación en continua expansión.
MICROMECÁNICA DE LOS MATERIALES
La observación de gran diversidad de materiales tiene ciertos
denominadores comunes; uno de los más notables es que todos los
materiales poseen una microestructura, es decir, observados al
microscopio, presentan una serie de elementos repetitivos que, en su
conjunto, constituyen la esencia y dan origen a las propiedades
particulares —exclusivas— de cada material. La madera, por ejemplo,
desde un punto de vista micromecánico, está compuesta de
innumerables celdas alargadas y huecas, de paredes sólidas, adheridas
entre ellas con contactos hasta con diez celdas vecinas, y que vistas en
corte longitudinal, parecen ladrillos de un muro (véase la figura 10).
Esta disposición de elementos estructurales determina todas sus
propiedades en cuanto a resistencia, peso y modo de fracturarse; es
por las celdas vacías por lo que flota cuando está seca. A partir del
estudio de la microestructura se ha podido revolucionar la larga
historia de los metales y sus múltiples aleaciones. El comportamiento
de estos elementos ante esfuerzos y deformaciones es resultado de la
interacción de sus componentes microscópicos: los pequeños cristales
o granos que los conforman (véase la figura 11). Con seguridad se
debió a un accidente histórico el descubrimiento de que un metal
calentado al rojo vivo, cuando se enfría rápidamente aumenta
notablemente su resistencia y dureza superficial. Sólo hace falta
imaginar un ejército primitivo que antes de la lucha hubiera purificado
con fuego sus hachas y puntas de lanza, o una ama de casa que
cocinando hubiera calentado inadvertidamente un rudo utensilio, y que
al querer usarlo, lo hubiera enfriado con agua, notando que después el
metal se había endurecido o mejorado de alguna manera. Cómo haya
sucedido esto no importa: seguramente ocurrió en varios sitios
simultáneamente. Lo que sí importa es que alguien con esa incesante
curiosidad que la naturaleza favorece en algunas mentes, observó el
hecho con cuidado y se dio a la tarea de demostrar, tal vez ante la risa
de los más "prácticos", que su hallazgo era útil.
Figura 10. Micrografía de un pedazo de madera mostrando corte longitudinal
(a la izquierda) de celdas, y corte transversal a la derecha. La longitud de la
línea de calibración es de 1 000 µm = 1 milímetro.
Figura 11. Micrografía de una zona de fractura en acero para herramientas. Se
observan granos individuales de unas 20-30 micras con fronteras irregulares.
Hoy en día, el tratamiento térmico de los metales es una ciencia casi
exacta, en la que se determina con toda precisión el tipo de proceso a
seguir, según los componentes iniciales y el uso que se dará a la pieza
metálica a elaborar. Para explicar lo que ocurre en el metal con esos
calentamientos y enfriamientos contamos con el microscopio. Con él,
se ha podido entender y posteriormente explicar qué le ocurre a las
aleaciones metálicas. Según el tamaño y forma de los granos de la
microestructura, los metales cambian ampliamente sus propiedades. Al
colocar un acero en una máquina de tracción, para estirarlo y anotar
su resistencia a una carga creciente, vemos que si variamos la
proporción de componentes, como el carbono o el cromo, o si lo
tratamos con calor, los aceros resistirán más carga, o se elongarán o
estirarán más antes de romperse. Lo que pasa internamente en la
microestructura de un material es objeto de toda una nueva ciencia, la
micromecánica, de la que ya se han publicado miles de trabajos.
El carbono es el componente más socorrido y barato para obtener un
acero duro. Añadiéndole al acero proporciones de menos de 1% por lo
general, el carbono aumenta la dureza y la resistencia; cuando se
aumenta hasta varios porcientos la proporción de carbono, los aceros
son tan duros que se vuelven frágiles y se rompen con un golpe, como
si fueran de vidrio. En proporciones pequeñas, de unas décimas de
porcentaje, adquieren una combinación de propiedades más útiles.
Además del carbono, en estos procesos se utilizan principalmente
níquel, cromo, vanadio, molibdeno y muchos otros elementos
químicos. Cada mezcla presentará propiedades nuevas y útiles, que a
lo largo de la historia se han venido conociendo y aplicando;
propiedades como la resistencia a la corrosión, las fallas dúctiles, que
son un tipo de falla donde el refuerzo metálico no se rompe
súbitamente, sino que "avisa" que se va romper con el agrietamiento
de la matriz que lo soporta, el cual puede ser de concreto, por
ejemplo, como en los casos de agrietamiento o laminación de las
matrices de termoplásticos que soportan las fibras de carbono de los
aparatos de la ingeniería espacial.
En los inicios de la aviación se utilizaron los materiales que había:
madera, telas de algodón y lino, cola como adhesivo, etcétera. Cuando
aumentó la potencia de los motores, la velocidad de vuelo y las
consecuentes vibraciones de la estructura, las demandas de un
comportamiento más controlable de los materiales aeronáuticos
exigieron materiales especialmente diseñados para las nuevas tareas.
Así, entraron en juego nuevos metales: manganeso, berilio, titanio,
tungsteno, niobio y litio, entre otros. Buena parte resultan de la
investigación motivada, no por el afán de conocer los materiales, sino
por algo mucho más primitivo: las guerras, esa actividad febril que
todo acelera, menos la civilización. Como veremos en el último
capítulo, dicha aceleración es en realidad una ilusión: el impulso a
proyectos con base en las necesidades bélicas es un método muy poco
eficaz para motivar el desarrollo de la ciencia y la técnica. Mientras
llegamos al capítulo VII, pensemos en el ejemplo que al respecto nos
da el Japón de la posguerra, un país avanzado con uno de los más
bajos presupuestos militares en relación con su producto interno.
I V :
M I C R O O R G A N I S M O S
M I N E R A L E S
Y
INTRODUCCIÓN
RETOMANDO el tema visto a principios del capítulo precedente, veamos
por qué el subsuelo de la ciudad de México posee una serie de
propiedades que lo distinguen y destacan entre la mayoría de los
suelos conocidos. Sus orígenes lacustre y volcánico causan en parte su
complejidad, además influyen su edad y las condiciones geológicas en
que se formó. Para entender y, aún más, para explicar sus
propiedades y comportamiento, no basta con señalar estos
importantes factores: es necesario además estudiar los materiales que
surgen de tales condiciones y comprender con creciente detalle las
interacciones de sus componentes.
Por su composición variada, este tipo de materiales se conoce como
materiales multicomponentes, y para ellos existen métodos especiales
de estudio, como la micromecánica. Adentrémonos en este capítulo,
primero, en la descripción de sus componentes, para después hablar
de sus interacciones y sobre todo, de las características
microestructurales que provocan un comportamiento tan especial. Más
tarde podremos ahondar más aún en los intrincados aspectos del
comportamiento y propiedades de este suelo, cuando lo equiparemos a
las investigaciones de materiales espaciales y sus equipos.
MINERALOGÍA DEL SUBSUELO
La complicada naturaleza de la composición del subsuelo de la ciudad
de México ha sido causa de opiniones encontradas y de no pocas
confusiones o ignorancia, al grado de que durante un tiempo los
conocimientos fueron sustituidos por inexactitudes o hasta por mitos,
que formaron un aura de misterio que oscurecía su verdadera
naturaleza. A resolver el enigma se han dedicado grandes esfuerzos y
talentos, entre los que destaca el cabal estudio de los investigadores
universitarios Marsal y Mazan, importante tanto por el detalle como
por el alcance y proyección de su obra. Sin embargo, algunos
investigadores que realizaron estudios posteriores, antes de clarificar y
ampliar la abundante información publicada, sucumbieron ante sus
prejuicios predilectos y volvieron a poner en duda una serie de hechos
ya establecidos con cierto rigor. Tratando de avanzar en el
conocimiento sobre lo que el principal estudio del subsuelo encontró,
se inició en 1980 una nueva investigación, todavía en proceso, que
pretende seleccionar los hechos comprobados, añadir los nuevos
resultados que hace posible el avance de la técnica de instrumentación
y las teorías micromecánica y coloidal, así como abrir el camino para
explorar conceptos poco estudiados, que pudieran ayudar a resolver
algunas de las todavía múltiples y desafiantes incógnitas.
Entre las técnicas utilizadas para conocer la naturaleza de los
materiales del subsuelo destaca el análisis a través de los patrones de
rayos X, que se registran después de irradiar las arcillas. Los rayos X
nos permiten ver , mucho más allá de lo que ven los ojos, algunas
propiedades fundamentales de la materia. Se dice que los rayos X se
difractan, o sea cambian su dirección de propagación, cuando son
afectados de una manera muy particular por cada material. El
fenómeno de la difracción "desenmascara" la estructura geométrica de
los materiales (véase en la bibliografía, E. Braun), por lo que nos
permite conocer la distancia que hay entre los átomos de las redes
cristalinas o los arreglos de átomos de un material y, de ahí, identificar
los compuestos que forman parte de la estructura. Para inferir qué
compuestos están presentes, se compara el patrón de rayos X de cada
muestra con unos patrones almacenados en un archivo, y con ello es
posible concluir de qué materiales se trata (véase la figura 12). Pero
todo no podía ser tan fácil: los minerales arcillosos del subsuelo, objeto
de estudio de esta investigación, no son muy cristalinos, es decir, sus
átomos no están tan ordenados como los cristales de la sal, por
ejemplo. Entonces, sólo una parte de los componentes del subsuelo
citadino se pueden identificar con este método, por lo que el estudioso
se ve obligado a hacer uso de técnicas complementarias para clarificar
su naturaleza compleja. No obstante, el análisis por rayos X de gran
cantidad de muestras de diversas profundidades (se prepararon hasta
550 muestras de 163 estratos), nos ha posibilitado encontrar algunas
interesantes variaciones de la composición de las arcillas de acuerdo
con la profundidad a la que se hallaron. Así, se encontró que las
muestras contienen mezclas de minerales como ilitas, plagioclasas,
montmorilonitas y otros más; todos producto de las erupciones de
volcanes que rodean el valle y del proceso de cambio natural
(intemperización) que estos materiales sufren con el tiempo. Pero ya
que cada volcán arroja materiales diferentes, además de que pueden
llegar por otras vías, no necesariamente la aérea (como por el arrastre
pluvial), los depósitos son de muy diversa naturaleza, lo que dificulta
una identificación rápida o fácil.
Figura 12 Diafractogramas de rayos X que muestran la variabilidad de
componentes y grados de cristalización de las arcillas que forman parte del
subsuelo.
Del análisis de las muestras del subsuelo del Valle de México,
provenientes de varios sondeos realizados en la zona del lago,
basándonos principalmente en un sondeo efectuado muy cerca del
centro de la ciudad, se puede deducir lo siguiente:
Primero, la mineralogía cambia con la profundidad, como resultado de
condiciones volcánicas y climáticas variables durante los procesos de
sedimentación.
Segundo, las muestras analizadas fueron divididas con base en el
tamaño de las partículas encontradas, que van desde décimas hasta
decenas de micras. Entre la fracción más gruesa encontramos un
predominio de feldespatos, que son los óxidos de silicio o silicatos más
abundantes en la corteza terrestre (llegan a constituir el 50% del peso
de la corteza), que se presentan probablemente como plagioclasas,
que son minerales producto típico de erupciones, acompañados de
considerables cantidades de carbonato de calcio, en su variedad de
calcita; cabe resaltar que éste no se debe a la presencia de evaporitas
de calcio, el llamado caliche (producto del afloramiento de minerales
de calcio cuando un lago llega a secarse totalmente). Por medio de
otra técnica, la microscopía electrónica, se confirmó que la mayoría de
los cristales de calcita encontrados provienen de la concha de
crustáceos microscópicos, identificados como ostrácodos, y también de
la capa dura que más adelante describimos. También, en la fracción
gruesa, se encontraron minerales no arcillosos, como la dolomita,
especie identificada por primera vez en estratos del subsuelo de la
ciudad, o los óxidos de silicio (cuarzo- y cristobalita, en su forma de
baja temperatura). Asimismo, se identificaron anfibolas, en su forma
de hornblenda.
En cuanto a la fracción menor a 2 micras, donde se incluyen los
minerales arcillosos, se identificó la montmorilonita, el mineral más
abundante en muchos estratos. En forma de agregados que superan
las 2 micras, se halló también ilita, caolinita, y mica, lo cual significa
que la mayor parte de los minerales arcillosos del subsuelo se
concentran en estos agregados. La montmorilonita encontrada varía
ampliamente en su grado de cristalización (ya con elevada, ya con
pobre cristalización). Si bien estos minerales no son del conocimiento
del público en general, tampoco son raros ni extraordinarios, por lo
que su aparente carácter místico no tiene bases, fuera de la
ignorancia.
Si con la lectura de los resultados de investigaciones previas no se
puede llegar a entender la compleja constitución microscópica del
subsuelo, más dudas habrían de surgir con el estudio sistemático de
cada estrato encontrado en los primeros treinta o cuarenta metros de
profundidad. Estos primeros depósitos son importantes para la
ingeniería, ya que sustentan las cimentaciones de todas las
construcciones del centro de la ciudad. A profundidades de 30 a 40 in
se encuentra la mencionada "primera capa dura" que es un potente
(grueso) depósito, que evidencia quizá la más importante secuencia de
las erupciones volcánicas de los últimos 60 000 años. El nombre de
capa dura refleja el hecho de que éste es uno de los estratos más
resistentes de los primeros 80 m del subsuelo (sobre esta capa
descansan la gran mayoría de los pilotes de punta de las edificaciones
más pesadas). Esta capa dura se encuentra a su máxima profundidad
en la zona central de la ciudad y va siendo menos profunda a medida
que se acerca a las orillas de lo que fue el antiguo lago.
Es interesante notar que la montmorilonita se caracteriza, en particular
la poco cristalizada, por su alta capacidad de integrar y retener
(absorber) el agua en su estructura microscópica, hecho que explica su
notable pérdida de volumen cuando se seca al aire. Cuando los
minerales arcillosos presentan una cristalinidad muy baja, es decir,
cuando carecen de periodicidad en su estructura, difractan los rayos X
desordenadamente, hecho que imposibilita su identificación, al punto
de que a veces sólo se pueden clasificar como materiales amorfos,
técnicamente llamados alófanos.
Tercero, la baja cristalización de las arcillas que encontramos en los
primeros 30 m de profundidad, se debe principalmente a su origen
volcánico y corta edad (menor a 30 000 años). Las arcillas de alta
cristalinidad pertenecen generalmente a depósitos más antiguos.
Cuarto, como los factores climáticos afectaban la profundidad de las
aguas del antiguo lago, en las épocas en las que ésta era muy baja,
dichos factores inducían una alta concentración de sales, dando origen
a horizontes abundantes en crustáceos, que son los que otros autores
han confundido con el caliche: polvo blanquecino que aflora en suelos
predominantemente de origen marino.
Quinto, se ha descartado la singularización de la mineralogía del
subsuelo con nombres genéricos, como alófanas o montmorilonitas o
ilitas, por ejemplo, y se describen con más precisión como mezclas de
minerales varios, en su estructura y grado de cristalización.
Sexto, los fósiles microscópicos intercalados entre la arcilla afectan
algunas de las propiedades mecánicas macroscópicas, como las de
fragilidad, rigidez, plasticidad y resistencia.
Séptimo, el alto contenido de agua se puede explicar no sólo por la
baja cristalinidad de los minerales arcillosos (cuyas grandes
superficies, por un lado, llegan a tener hasta 800 metros cuadrados
por cada gramo de material y, por otro lado, están altamente
energizadas debido a los defectos cristalinos cercanos a la superficie,
que por esta virtud forman múltiples capas de agua absorbida, es decir
de agua que se estructura alrededor de los minerales, sobre todo en
los poco cristalinos), sino también por la gran capacidad de los fósiles
para retener agua en su estructura porosa. Por último, la variabilidad
encontrada en la resistencia mecánica de los diferentes estratos se
debe principalmente, entre otros factores, a la diversidad de
microestructura de estos suelos, que incluyen además variaciones en
la proporción del contenido de fósiles de los estratos.
Como cualquier otra investigación, el trabajo realizado para clarificar
los aspectos relacionados con la composición fisicoquímica de los
materiales que forman el subsuelo de la ciudad de México, no está
concluido totalmente, pues si bien en los últimos ocho años se ha
podido aumentar y precisar la información que se tenía previamente,
también es cierto que la nueva investigación ha abierto nuevas
interrogantes. Entre éstas podemos citar las siguientes: es necesario
determinar los mecanismos de falla microestructural para los
materiales más comunes del subsuelo, considerando sus diferentes
propiedades mecánicas en función de la profundidad. Es conveniente,
también, ahondar en la explicación de las causas de la gran capacidad
de estos materiales para retener agua en su estructura. Por último, se
estima conveniente continuar obteniendo información de utilidad para
la ingeniería, a través de los datos que nos proporcionan los fósiles
interestratificados, profundizando en particular en la manera en que
éstos participan como elementos de la microestructura en las
deformaciones causadas por los sismos y por las construcciones de la
ciudad en continuo asentamiento.
MICROORGANISMOS DEL SUBSUELO
Los materiales que conforman el subsuelo de la ciudad de México son,
como decíamos, principalmente minerales arcillosos de composición
química muy variable, con una proporción elevada de agua y sales en
solución, como suele suceder en los suelos de origen lacustre, es decir,
aquellos que se forman por la sedimentación en lagos. El tamaño de
sus componentes, como las partículas de arcillas, son sumamente
finos, va de 0.1 a 4 micras (pequeñísimas, si pensamos en que un
cabello humano, tiene de 50 a 150 micras de diámetro) o de 2 a 400
micras si hablamos del componente de limos y arenas. Además de los
minerales, dichos suelos de sedimentación lacustre contienen una gran
variedad de fósiles microscópicos, principalmente restos de algas de
hermoso y variado aspecto (véase, por ejemplo, la microfotografía de
la figura 13), que se sitúan a diferentes profundidades y que miden de
1 a 200 micras. Hay también ostrácodos, unos crustáceos entre dos
conchas, parecidas a las de la almeja, pero de unas 50 a 500 micras
(medio milímetro) solamente. En algunos de los estratos los fósiles son
tan abundantes que, al tacto del experto en mecánica de suelos, se
pueden tomar por arenas limosas y, por su tamaño mucho mayor en
relación con las arcillas, añaden a tales estratos propiedades de
comportamiento mecánico muy peculiares.
Figura 13. Micrografía de una diatomea. (Cyclotella s.p.) presente entre las
arcillas del subsuelo de la ciudad de México. Véase la contratapa debajo de la
valva.
Diámetro
aproximado,
9
micras.
Estudiando el material en su estado natural, en las llamadas muestras
inalteradas, mediante un microscopio electrónico, se pudo constatar
que los fósiles forman parte importante de la microestructura; por lo
anterior, si se quiere entender cómo se comporta el suelo en el nivel
microscópico, al ser sometido a esfuerzos similares a los de los sismos
y otras solicitaciones mecánicas, es necesario tomar en cuenta los
componentes fósiles que integran el suelo (véase, por ejemplo, la
figura 14). Si pensamos en analogía con los metales y otros materiales
compuestos, donde la densidad de microgrietas, es decir, el número de
grietas dentro de un volumen dado, determina la resistencia máxima,
los suelos son materiales que, dentro de un estrato en particular,
presentan una considerable homogeneidad, pero ésta es interrumpida
por innumerables fósiles, que en su mayoría no se adhieren a los
minerales. Por lo tanto son nícrogrietas donde se interrumpe la
continuidad formando planos de debilidad en donde la resistencia de
las arcillas es menor, en proporción a la cantidad de fósiles. Como esta
proporción varia de un estrato a otro de una manera notable, estratos
de la misma mineralogía y proporción de agua pueden variar
ampliamente en su resistencia y rigidez. La proporción depende del
ambiente biológico que existió durante el proceso de sedimentación de
cada estrato.
Figura 14. Micrografía del suelo arcilloso de la ciudad de Mexico. En ocasiones
los fósiles alineados crean grietas, o discontinuidades en la arcilla, causando
debilidades
locales
y
fragilidad
en
las
muestras.
En nuestro equipo de trabajo fue tal la impresión ante el hallazgo de la
proporción y diversidad de fósiles en los diferentes estratos arcillosos,
que la pregunta "¿que nos puede decir la presencia de cada especie
fósil?" comenzó a ser cada vez más natural. No obstante, las primeras
respuestas
resultaban
bastante
dudosas
o
cuando
menos
excesivamente vagas. Aprovechando que trabaja una gran variedad de
especialistas en los institutos de investigación de la Universidad
Nacional, pronto nos acercamos a biólogos, paleontólogos y geólogos,
para buscar ayuda en la comprensión de nuestro hallazgo. No
tardamos mucho tiempo en decidir que para dar una respuesta
apropiada a lo que resultaba ser una pregunta compleja, sería
necesaria la integración de alguien que, con herramientas biológicas,
buscara respuestas más firmes e informativas. Así, se incluyó al primer
profesionista ajeno a la ingeniería en el Grupo de Micromecánica donde
trabajo.
Las diatomeas presentes en el subsuelo de la ciudad de México
presentan una variedad indiscutible. Con el desarrollo de la
investigación sistemática, pudimos encontrar nueva información para
completar el complicado cuadro que muestra el subsuelo de esta
ciudad y causa algunas de sus propiedades micromecánicas. El estudio
se inició con la observación de las muestras extraídas del subsuelo por
medio del sondeo inalterado. Se obtiene una columna de unos 13
centímetros de diámetro y 35 a 40 metros de longitud, extraída por
medio de tubos metálicos en sectores de un metro cada uno. A
continuación, los cilindros de suelo descubiertos fueron cortados
longitudinalmente para exponer los horizontes sedimentados durante
un periodo de miles de años. Ahora creemos que estos primeros 30
metros tienen una edad de 30 000 años aproximadamente. Esta
estimación se debe al hallazgo de un tronco, localizado a 28 metros de
profundidad, por uno de los ingenieros que estudiaba la zona de paso
de uno de los túneles del drenaje profundo, que se ha venido
construyendo durante la última década en la ciudad. Este tronco fue
fechado con la técnica de carbono 14 y la edad encontrada, según
recuerdo, sorprendió a todos aquellos que dedicaron o dedican tiempo
a entender los diversos parámetros del subsuelo. Estudios anteriores
(como el de Marsal y Mazari, o el de D. Reséndiz) inferían, comparando
diversos depósitos geológicos, edades mucho mayores.
Treinta mil años no es nada, cuando menos para los geólogos, que
generalmente empiezan a interesarse en depósitos cuando éstos
superan los 100 000 años de edad. Tampoco los paleontólogos
encontraban mucho qué hacer, ya que los fósiles que ellos estudian
llegan a tener, no miles, sino millones de años, por lo que los fósiles
encontrados podían clasificarse, valga la expresión, como fósiles vivos;
es decir, son restos de organismos de especies que aún existen.
Una de las formas de comprender la diversidad de estratos
encontrados en el subsuelo es tener una noción de cómo se formaron.
Con un esquema de los materiales originalmente sedimentados en el
fondo del lago en cada época, es más fácil conocer los procesos de
intemperización que dieron lugar a las arcillas tal y como las
observamos hoy. Los principales factores que determinan qué
materiales se sedimentan en un lago en cada época son diversos;
hemos mencionado ya el origen volcánico de algunos de ellos, sin
embargo, hay que considerar que el viento puede acarrear materiales
a grandes distancias y, también, que la actividad de los organismos
que habitaban el lago aportó una cantidad notable de materiales de
origen orgánico al fondo. El estudio de los fósiles microscópicos, que
en nuestro caso son las conchas de los ostrácodos y las valvas
(esqueletos) de las diatomeas, hace posible que se identifiquen por
medio de claves. Como este tipo de organismos aún habitan muchos
lagos y presas mexicanos, es posible saber bajo qué condiciones se
desarrollan mejor. Gracias a estos datos, de la evaluación de la
cantidad y diversidad de fósiles, se pueden inferir las condiciones
climáticas y químicas del lago en diferentes épocas. Para ello nos
hemos valido de algunas herramientas de la ecología, que, justamente,
estudia las relaciones entre las poblaciones y su ambiente. Con esto se
ha podido reconstruir cuál fue, por ejemplo, la profundidad,
temperatura, turbidez, actividad biológica y salinidad del lago, factores
que ceden información no sólo de utilidad biológica, sino de otra
índole, como la velocidad de sedimentación, la historia del peso
soportado por estos sedimentos, su evolución, y también algunas
estimaciones sobre su proceso de formación, que interesan a la
geología o a la ingeniería (la salinidad y la acidez, por ejemplo,
influyen notablemente sobre la resistencia del suelo, por lo que es muy
importante saber cómo han cambiado éstas, y cuáles fueron sus
valores aproximados en cada uno de los estratos).
Las diatomeas son algas unicelulares cubiertas por unas estructuras
llamadas valvas, que embonan entre sí como una caja de Petri (de las
que se usan en cultivos de microorganismos). Su forma puede ser
circular, triangular, alargada como huso, o casi cualquier otra; estas
valvas son las que permanecen como fósiles. Existen grandes
depósitos (diatomitas) de estas valvas, que por cierto tienen muchas
aplicaciones industriales y domésticas: se emplean por ejemplo, en la
fabricación de dinamita, en ladrillos refractarios o en los filtros de
agua, pues con una trama fina de diatomeas se pueden detener las
partículas contaminantes (véase la figura 15).
Figura 15. Micrografía doble de superficie de un ostrácodo. A la izquierda
tomada con unos 1 000 aumentos y a la derecha 5 500x. Estas superficies
retienen mucho agua en sus numerosos poros. Se componen de carbonato de
calcio, cuyos cristales se puedan apreciar en la de mayor aumento.
Las diatomeas son vegetales fotosintéticos, es decir,
energía principalmente de la luz solar, igual que las
embargo, en ausencia de luz, algunas de ellas son
alimentarse temporalmente de materia orgánica, por lo
obtienen su
plantas. Sin
capaces de
que cuando
hallamos una gran cantidad de éstas, podemos suponer con toda
confianza que el lago era un lago eutrófico, con gran cantidad de sales
y materia orgánica disueltas y en el fondo. El método de análisis que
utilizamos consiste básicamente en identificar las diatomeas presentes,
contar la abundancia relativa de cada especie, y con criterios
semicuantitativos y comparativos, hacer inferencias sobre la
combinación de factores ambientales que favorecían la proporción de
unas y otras. Esta metodología se emplea por lo común para
establecer la calidad del agua en ríos y embalses. Por ejemplo, si
encontramos una alta proporción de diatomeas planctónicas (que viven
en la superficie o en suspensión) frente a las del fondo (bentónicas),
podemos pensar que el agua era suficientemente clara o el lago poco
profundo, y que permitía la entrada de luz y la actividad fotosintética.
Si por el contrario hallamos una gran proporción de diatomeas que
pudieran usar fuentes alternativas de energía, el dato nos llevaría a
concluir que el agua tendría abundantes nutrientes, que sería turbia y
con menos facilidad para la actividad fotosintética.
Esto parece fácil de llevar a cabo, pero hay múltiples problemas que
enfrentar; por ejemplo, la alteración de las valvas con el tiempo:
cuando el ambiente químico del fondo les es muy agresivo (corrosivo),
se hace difícil o imposible identificarlas. Aunque también esto puede
ser aprovechado para obtener resultados, como el de definir el
ambiente químico y los iones presentes en los estratos, por ejemplo.
Otro problema es que estamos reconstruyendo el panorama de
diferentes épocas analizando sólo algunos de los muchos organismos
que existieron en esos ecosistemas; los peces, las plantas acuáticas y
otras algas, bacterias y protozoarios, por ejemplo, no dejan rastros tan
evidentes y duraderos.
La especie de diatomea más notable por su gran tamaño es la llamada
Campilodiscus clypeus (véase la figura 16). Es ésta la especie que
cuando se combina con material muy fino se percibe al mero tacto,
como los ostrácodos, y hace pensar en la presencia de limos y arenas
finas entre las arcillas (cuando los suelos son de color oscuro, estas
diatomeas resaltan como puntos blancos). La Campilodiscus se
desarrolla bien en condiciones de abundante materia orgánica y en un
ambiente azufroso, como el que probablemente dominó el lago durante
algunos de los periodos de actividad volcánica. Esta especie es la
dominante antes de la erupción, pero desaparece prácticamente
después de ésta. Lo que observamos en los estratos subsecuentes es
un aumento en las diatomeas planctónicas, que con el tiempo van
cediendo su lugar poco a poco a diatomeas del fondo, con lo que se
restablece una situación similar a la de antes de la erupción. Esto
obliga a concluir que las emisiones de arena basáltica y posteriormente
pumítica durante las explosiones volcánicas eliminaban gran parte de
la actividad biológica en el lago, por un cambio drástico en acidez,
temperatura, partículas en suspensión y en proceso de sedimentación,
y que probablemente permanecían sólo algunas sales disueltas. El
lago, de agua relativamente clara, impulsó el desarrollo de organismos
planctónicos, lo que dio pie a una secuencia que condujo a un sistema
cada vez más complejo de organismos, que se refleja en el aumento
de nutrientes, materia orgánica y en el tipo de fósiles encontrados.
Figura 16. Diatomea Campilodiscus Clypeus, muy abundante en el subsuelo.
Su tamaño alcanza 50 micras.
Además de la proporción de diatomeas planctónicas frente a las
bentónicas, el tipo de ostrácodos presentes depende de las condiciones
de profundidad, salinidad, y energía de movimiento del agua. Los
ostrácodos producen un par de conchas que los protegen; es posible
verlos agrupados y nadando rápidamente de la superficie al fondo en
algunos charcos y lagunas poco profundas. Ya que los ostrácodos que
hemos encontrado del género Cypris parecen haber habitado en un
ambiente de alta salinidad, es de esperarse que los estratos donde
abundan correspondan a épocas de bajo nivel del lago, en las que
aumentó la concentración de las sales disueltas. Éste parece haber
sido un proceso en aumento continuo en las épocas finales del lago,
como producto de la reducción en su tamaño por la evaporación y por
el efecto de los primeros asentamientos humanos. En estudios
anteriores sobre la mineralogía del subsuelo, se encontró calcita en
abundancia en múltiples estratos, lo que, como decíamos, otros
autores han interpretado como periodos de sequía, en los cuales afloró
a la superficie seca el carbonato de calcio. Durante esta investigación
se ha encontrado que, en la mayoría de los casos, esta calcita
pertenece a las conchas de los ostrácodos, lo que indica que no había
sequías, pues si había ostrácodos, había agua, aunque fuera poca. En
cambio, hemos encontrado verdaderos cristales de carbonato de calcio
que sí pueden indicar sequías breves, pero en estratos donde antes no
se había demostrado tal efecto, como por ejemplo, en la capa dura
(véase la figura 17).
Figura 17. Micrografía de material que compone capa dura, donde se asientan
muchos de los pilotes de las edificaciones de la ciudad de México. Nótese los
cristales
de
carbonato
de
calcio.
La idea que tenemos hoy del lago de la cuenca del Valle de México
durante los últimos 30 000 años, es la de un lago relativamente poco
profundo (probablemente tendría alrededor de 2 a 4 m en la zona más
profunda), con gran cantidad de materiales disueltos, provenientes
tanto de la actividad biológica como del arrastre pluvial y eólico de las
laderas circundantes, de aguas turbias, y con una tendencia a secarse
en algunas épocas (distantes unas de otras miles de años), y que
culminó en su desaparición debido a factores principalmente humanos
en los siglos XVI y XVII; sin embargo los actuales lagos de Texcoco,
Xochimilco y Chalco, que continúan reduciéndose, son restos de aquel
extenso lago. Las erupciones volcánicas fueron relativamente
frecuentes y dominaron el paisaje en varios períodos. La vida en el
Valle de México nunca ha sido tranquila y, a juzgar por la actual
actividad humana, probablemente nunca lo será.
MEDIOS TÉCNICOS DE INVESTIGACIÓN
Para observar la respuesta de la microestructura de las arcillas del
Valle
ante
cargas
externas,
se
desarrolló
un
dispositivo
electromecánico que puede comprimir una muestra pequeña (un cubo
de 5 mm por lado) dentro de la cámara de observación del
microscopio. Así, es posible observar, y medir, toda una serie de
parámetros
mecánicos
como
los
desplazamientos
de
los
microelementos que forman la microestructura (véase la figura 18), la
propagación de grietas durante el proceso de falla, la influencia de los
poros y del fluido interparticular. Por cierto, durante la observación en
el microscopio electrónico de barrido de muestras del subsuelo no
puede mantenerse toda el agua original dentro, pues los microscopios
electrónicos funcionan sometiendo las muestras al alto vacío, y para
evitar la evaporación del agua de los poros, ésta se sustituye por un
polímero, soluble en agua, que tiene una viscosidad equivalente a la
del agua. Para asegurarnos de que estos fluidos no cambiarán las
propiedades mecánicas de manera notable, se realizó una
investigación comparativa con el material natural (incluyendo agua,
sales y grasas) y otra del material con un fluido sustituto (véase
Peralta, Micromecánica de suelos, 1984). Los resultados obtenidos
demostraron que la sustitución no causó cambios, ni en la resistencia,
ni en las propiedades de deformación evaluadas contra el tiempo. Ya
que esto no constituía un problema para la observación al microscopio
electrónico, pudimos continuar, pero antes modificamos el equipo para
que fuera capaz de extraer información cuantitativa mediante un
accesorio ideado por nosotros que era capaz de permitir operaciones
de resta de imágenes. Este proceso permite registrar y medir el
desplazamiento de los componentes de la microestructura mientras la
muestra se está sometiendo a regímenes de deformación. En su
momento, el desarrollo de esta técnica de microscopía resultó ser muy
novedoso: se anticipó con más de cuatro años a los modelos
comerciales. Nosotros buscamos industriales que, apreciando sus
ventajas, invirtieran en el desarrollo de un prototipo industrial, pero los
únicos interesados fueron los fabricantes del microscopio, quienes nos
propusieron un arreglo en donde ellos se quedaban con la parte del
león, cosa que desde luego no aceptamos. Hoy, diversas compañías
venden el accesorio a costos equivalentes al precio de un microscopio
nuevo, diciendo que es una parte indispensable de todo equipo
avanzado. Nuestros costos para lograr tal avance no llegaron ni a la
décima parte del costo total del equipo. Moraleja: se puede, aun en
países en desarrollo, innovar y hasta anticiparse a la gran mayoría,
pero, por otro lado, esas cosas pasan desapercibidas en nuestro medio
y ni siquiera son apreciadas en su dimensión real. Por lo pronto,
nuestro accesorio siguió su curso, y dio lugar a múltiples trabajos
útiles, ya publicados en el país y en el extranjero.
Figura 18. Micrografía de una muestra de arcilla del subsuelo del Valle de
México que muestra partículas arcillosas de baja cristalinidad. Son amorfas y
siempre se encuentran en agregados de múltiples individuos y sin orientación
preferencial. Las partículas más grandes son feldespatos, éstos sí, algo
cristalinos.
Aunque el dispositivo de carga y otros equipos complicados como el
procesador de imágenes fueron desarrollados específicamente para
este estudio, sus funciones son aplicables a una gama de problemas
que rebasan la ingeniería y fisicoquímica de suelos, como los de la
biología, la investigación médica y la metalurgia, entre otros. Como
nuestro interés es conocer la relación entre el comportamiento de la
microestructura de un material y las características que lo hacen útil
para la ingeniería, no basta la mera observación, aun cuando ésta sea
muy importante en la gran mayoría de las veces. Por tanto, nuestro
trabajo va encaminado a saber lo que ocurre microscópicamente en los
materiales mientras están siendo sometidos a fuerzas externas, y a
medir los desplazamientos de las partículas. Por cierto, este proceso de
generación de los medios técnicos de investigación científica, resulta
ser el origen de buena parte de los descubrimientos más notables de la
humanidad, y acompaña siempre al desarrollo del avance científico. En
ocasiones, los logros colaterales, muchas veces casuales, son de tal
magnitud, que bien pueden justificar solos los gastos de investigación
de un país. Cada técnica de análisis da una información precisa, pero
nunca completa; este hecho, lejos de desalentar a un investigador,
debe motivarlo a buscar nuevos medios para adentrarse en los
enigmas de la naturaleza. Uno de los medios alternos que incluimos en
nuestra investigación fue la espectrofotometría infrarroja, que
utilizamos para el análisis de las arcillas. El infrarrojo, decíamos, es la
radiación que sigue más allá del rojo en el espectro electromagnético y
que el ojo humano no ve. Al irradiar una muestra con infrarrojo, ésta
absorbe selectivamente más o menos radiación, según el compuesto
que tenga el material. Si contamos con un dispositivo optoelectrónico
para medir la energía emitida o absorbida por la muestra, podemos
obtener un espectro del material: es decir, una especie de firma
característica, específica de cada compuesto, que nos permite
compararlo y diferenciar materiales que no pueden distinguirse con
otras técnicas. Con esta técnica, hallamos que, entre sus
componentes, nuestro subsuelo contiene grasas de origen animal.
La materia orgánica en descomposición se asentaba en el lecho del
lago que hoy forma nuestro subsuelo y, como buen lago eutrófico, es
decir, con mucha vida (los aztecas basaban buena parte de su
alimentación proteínica en el pescado), estos desechos eran muy
abundantes. Las grasas animales tardan muchos miles de años en
degradarse totalmente, y ya que los suelos del Valle de México son de
origen muy reciente, la presencia de las grasas y de ciertas sales da
algunos estratos adicionales. Popularmente se da a una de esas
propiedades el nombre de "jaboncillo", ya que, al tacto, algunos
estratos se perciben como resbalosos. De esta nueva información
surgieron preguntas, muchas de las cuales todavía no tienen repuesta,
a saber: ¿cómo afecta la presencia de grasas y sales en solución las
propiedades mecánicas del subsuelo?, ¿cuánto aumentan estos
componentes la cohesión entre los elementos de la microestructura?, y
también, ¿cuánto y cómo modifican las fuerzas de adsorción de agua,
la tensión superficial y la viscosidad del líquido entre partículas? Las
respuestas nos acercarían a poder explicar el comportamiento de las
muestras de laboratorio, y quizá de todo el subsuelo. Para obtener
esas respuestas fue necesario ampliar una vez más la investigación,
incluyendo el uso de nuevos medios técnicos. Así como las últimas
técnicas de que hablamos nos adentraron en el entendimiento de tan
complejo material, en su momento también nos indujeron a averiguar
sus propiedades más importantes. Por lo tanto, se buscaron y siguen
buscándose otras técnicas instrumentales que abran caminos
prometedores, como los nuevos tipos de microscopía en los que hemos
depositado nuestras esperanzas. Además de los microscopios
electrónicos que usamos para esta investigación, el avance de la
técnica de microscopía más reciente nos presenta un novedoso e
impresionante instrumento más: los microscopios túnel de barrido,
que, para variar, son resultado de una búsqueda experimental dirigida
a otros objetivos. Estos equipos han logrado imágenes de átomos y
moléculas individuales y de sus vecinos. Con este nuevo microscopio
nosotros podríamos determinar, entre miles de cosas más, cómo es la
superficie de las partículas arcillosas del subsuelo, lo que nos serviría
para entender lo que pasa entre dos partículas, cómo y cuánto se
atraen o repelen, la fricción que existe entre ellas, y la repercusión de
la presencia de la parte fluida: componente de la mayor importancia
en nuestro subsuelo, tanto por su cantidad como por las sustancias
que tiene disueltas
La interacción entre los minerales y el agua que contienen es un tema
de gran importancia. El agua se adhiere a la superficie mineral y se
estructura o acomoda hasta formar capas monomoleculares. Las
moléculas ejercen fuerzas de atracción que pueden ser enlaces de
hidrógeno, uno de los tipos de unión más comunes entre las moléculas
de agua. Los enlaces de hidrógeno se forman de manera espontánea,
progresiva y a temperatura ambiente, generando un efecto colectivo
que hace que los materiales como los minerales arcillosos o las cenizas
volcánicas, se estructuren crecientemente, integrando sólidos, líquidos
y sales en solución hasta formar un sólido algo gelatinoso con
propiedades macroscópicas uniformes; o variando de estrato a estrato
por efecto a su vez de los cambios en la mineralogía, el tamaño de los
componentes sólidos, las sales y en la proporción de líquido. Después
de saber lo que pasa entre dos partículas, el conocimiento se puede
ampliar utilizando algunos de los conceptos teóricos de la mecánica
probabilística, que darían forma a las observaciones realizadas con
miles de partículas, actividad que no se podría realizar con medios
como los manuales, debido a la gigantesca cantidad de datos en forma
de fotografías o imágenes; de ahí la importancia teórico-práctica del
microscopio computarizado creado para esta investigación.
Los equipos que nos dan acceso a los detalles más recónditos de la
naturaleza forman una estirpe fascinante. En cierta medida son
extensiones de nuestros sentidos, y ampliaciones de la capacidad de
cálculo y de representación. Los ojos, verdadera maravilla de la
evolución natural, se agudizan hoy día aceleradamente por medio de
los diversos tipos de microscopios, en especial los electrónicos. El
alcance de las cámaras de fotografía y de sensores basados en las
cámaras de televisión de nuevas tecnologías de semiconductores han
aumentado la capacidad del ojo humano muchos cientos de veces.
Respecto a la capacidad para distinguir objetos lejanos, tenemos el
ejemplo de la astronomía con sus telescopios acoplados a sensores
electrópticos que hacen posible que el hombre aprecie objetos tan
lejanos, que primero sería necesario acostumbrarse a esas enormes
distancias, para que siquiera nos signifiquen algo.
Actualmente, el hombre puede apreciar, con la ayuda de dispositivos
ópticos especiales, regiones del espectro antes invisibles a sus ojos:
los rayos X en un fluoroscopio médico o, con un telescopio equipado
con detectores optoelectrónicos especiales, podría "ver" el ultravioleta,
como veremos más adelante. También, el ojo puede hoy tener una
visión nocturna-térmica (véase la figura 19) con los equipos de visión
infrarroja, que pueden detectar pequeñas variaciones de temperatura
en circuitos electrónicos, cojinetes, maquinaria y transformadores,
anticipando así fallas futuras y haciendo posible un mantenimiento
preventivo. Más aún, la visión infrarroja, sobre la cual podría escribirse
todo un volumen, se utiliza en el diagnóstico de tumores y problemas
de circulación, pues detecta las diferencias leves de la temperatura de
la piel asociadas con estas alteraciones. Además, los dispositivos
infrarrojos se utilizan para visión nocturna por su capacidad para
captar imágenes en completa oscuridad; como podemos imaginar
fácilmente, estos sistemas surgieron para uso militar.
Figura 19. Termogramas diversos. Los tonos grises y sus diferencias
muestran la distribución de temperaturas en, por ejemplo, una casa, el
cuerpo
humano,
un
circuito
electrónico
y
una
aeronave.
Y hablando del desarrollo tecnológico de instrumentos no podemos
dejar de referirnos al dispositivo
MEPSICRON, realizado por
investigadores del Instituto de Astronomía de la UNAM, que es un
aparato que sirve para visualizar imágenes en diversas bandas del
espectro, que incluyen aparte del visible, el ultravioleta y los rayos X.
Este dispositivo es uno de los avances tecnológicos recientes más
notables en el país. A pesar de que fue hecho para realizar
observaciones astronómicas, sus campos de aplicación rebasan con
mucho el interés original y ponen a la investigación científica mexicana
en un alto puesto en un campo donde no es fácil figurar.
El MEPSICRON es un dispositivo para detectar radiación en cantidades
muy reducidas, por ejemplo, puede detectar la llegada de hasta un
solo fotón. Para el lector no familiarizado con la importancia de esta
cifra, basta pensar que cuando nos encontramos en una habitación con
una lámpara prendida, llegan a nuestro ojo 1023 (¡un uno seguido de
23 ceros!) fotones por segundo (véase A. M. Cetto, La luz). En otras
palabras, este aparato es capaz de detectar pequeñísimas cantidades
de radiación electromagnética, o sea que se puede utilizar para formar
imágenes de objetos que se encuentran a las mayores distancias
conocidas, en lo que hoy se describe como el límite del Universo.
La capacidad del MEPSICRON para visualizar imágenes desde el espectro
visible hasta los rayos X se debe a que puede detectar fotones de
diferentes longitudes de onda. Los fotones, cosa nada fácil de describir
con lenguaje común y corriente, son, digamos, los portadores de la
radiación electromagnética, en su expresión más común, a la cual
conocemos como luz. Cuando colocamos este dispositivo en el plano
focal de un telescopio, plano donde las imágenes están afocadas, los
fotones que reflejan los espejos del telescopio se dirigen a la superficie
del MEPSICRON; al llegar ahí, se convierten en electrones después de
atravesar una delgada película conocida como fotocátodo. A partir de
ahí, los ahora electrones son multiplicados aprovechando un efecto
físico conocido como "cascada", con el que cada electrón genera a su
vez otros 100 millones de electrones, los cuales son acumulados por
un colector de carga eléctrica en donde, además, se registra la
posición en la que impactó el fotón original la superficie del detector.
De esta manera, análoga a como lo hacen el ojo humano o las
cámaras fotográficas, se forma una imagen, resultado de la colecta de
los fotones provenientes del objeto que se observa.
Quizá los detalles técnicos, que a muchos nos fascinan, no sean lo más
interesante de este asunto, sino el hecho de que precisamente en
nuestro país sea posible desarrollar un dispositivo con características
que ya hubieran deseado investigadores de todos los países
avanzados. Este es el tipo de circunstancia que alienta a los
investigadores mexicanos a continuar sus búsquedas, a pesar de que
muy poca gente en nuestro medio aprecia, valora, fomenta o da
crédito al avance de la investigación en nuestro país, y particularmente
en casos como éste en el que los resultados, en un principio,
"solamente" repercuten en el avance de la tecnología instrumental
para investigar.
Además del ojo, el oído es otro de los detectores naturales sobre los
que el desarrollo tecnológico ha incidido para aumentar notablemente
su alcance y capacidad de discriminacíon. No sólo nos referimos a la
posibilidad de fabricar micrófonos transmisores minúsculos que
permiten a algunos escuchar, sin invitación, lo que ocurre en reuniones
dentro de habitaciones a kilómetros de distancia; o los pequeños
colectores parabólicos, del tamaño de un plato sopero, que apuntando
a un lugar específico, permiten escuchar una conversación que ocurre
a cientos de metros. Sin embargo, esto no es nada: la versión
optoelectrónica de los aparatos de escucha puede aumentar la
capacidad del oído hasta situaciones que de nuevo hacen sospechar la
influencia de la ciencia ficción (que, por cierto, ha sido precursora de
casi todos los inventos técnicos más importantes).
Con equipos basados en láseres, es posible, por ejemplo, lanzar a
grandes distancias rayos invisibles, en la banda infrarroja, que al
apuntar hacia una ventana, a kilómetros de distancia, nos sirven para
escuchar conversaciones; esta técnica utiliza la flexibilidad del vidrio
de una ventana para que, actuando como membrana, haga el papel de
un gran micrófono, y el láser es capaz de detectar las ínfimas
vibraciones que provoca cualquier conversación sobre los cristales de
la habitación.
En el caso del olfato, podemos citar los diversos dispositivos capaces
de percibir minúsculas cantidades de material tóxico en el aire o en un
líquido. Con la serie de aparatos conocidos como espectrofotómetros,
se pueden desarrollar sistemas de alarma que oportunamente avisen a
los tripulantes de una nave espacial, por ejemplo, que los niveles de
oxígeno se alejan de los requerimientos vitales. Esto se puede aplicar
en muchas situaciones más, como en la detección de fugas de gas o
petróleo en tuberías subterráneas ¡aun desde helicópteros! Sin
embargo, en el caso del olfato, el desarrollo de la técnica no ha
sobrepasado a la naturaleza, ya que las cantidades detectables por un
buen sabueso siguen estando fuera del alcance de los más modernos
instrumentos. Pero lo que sí no sabemos es cuánto va a durar esta
ventaja.
El tacto también ha alcanzado con el desarrollo tecnológico una
sensibilidad extraordinaria, que hoy día se utiliza en la robótica.
También son diversos los aparatos que sirven para determinar la
textura, dureza, temperatura o grado de humedad de las cosas. Sólo
unas líneas antes mencionábamos la capacidad de un láser para
detectar cosas en movimiento, ya sea el vidrio de una ventana, la
deformación del aspa de una turbina rotando a alta velocidad, y
cientos de otros ejemplos, en que la vibración significa el reflejo de
algún fenómeno mecánico cercano; movimientos y vibraciones que no
se pueden detectar con el tacto o con la vista. Con un dispositivo
llamado perfilómetro se puede evaluar la textura de una superficie con
millones de veces más sensibilidad que con el tacto humano. Este
aparato barre la superficie midiendo corrientes minúsculas que se
establecen entre el perfilómetro y la superficie bajo estudio, y produce
unas gráficas que nos muestran en forma amplificada las rugosidades
de una superficie. Fue precisamente del perfilómetro de donde surgió
la idea y la técnica básica para la invención del microscopio túnel de
barrido, que, como decíamos, es capaz de representar en imágenes
amplificadas la disposición de átomos adheridos o, como se dice en
fisicoquímica, adsorbidos a un material. El tacto ha sido también
mejorado con mucho por los equipos de termovisión, que detectan
diferencias de temperatura un millón de veces menores que las que
capta el tacto humano más experimentado.
V .
L A
M I C R O G R A V E D A D
M A T E R I A L E S
Y
L O S
INTRODUCCIÓN
EN LOS capítulos anteriores se han dado ejemplos del efecto que la
gravedad y sobre todo su contraparte, la microgravedad, tienen en la
instauración de propiedades durante la elaboración de los materiales.
Aquí incursionaremos un poco más a fondo en las causas y efectos de
la microgravedad tanto en los materiales como en los sistemas
biológicos, ya que tales actividades tienen un futuro insospechado para
la investigación básica y sus aplicaciones, por lo que se puede anticipar
que serán campo atractivo y fértil. Es natural que muchos procesos
tecnológicos utilicen los efectos de la gravedad para sus propios fines:
la gravedad está siempre presente y es lo suficientemente constante
para asistirnos en hechos tan simples como vaciar un camión de
volteo, o usar el agua para generar electricidad, o para bajar mineros
por el tiro de la mina. Pero la gravedad también actúa en contra de
nuestros intereses en muchas situaciones, como cuando nos caemos o
cuando nos cae algo en la cabeza, o al tener que usar electricidad para
subir agua a un depósito, o al subir en un elevador. La gravedad es
una propiedad de atracción, presente en las cosas que tienen masa; el
hecho de que algo sea muy pesado, o masivo, implica necesariamente
que sienta y ejerza notablemente fuerzas de gravedad. Suele ser más
fácil visualizar este fenómeno en términos astronómicos, a saber:
cuando algo tan masivo como el Sol está presente en un lugar del
Universo, en su zona circundante se extiende un campo de fuerza que
hace que todo objeto con masa lo perciba. Si éste es pequeño tiende a
precipitarse hacia él. La única manera de evitar precipitarse hacia el
Sol, estando dentro de su campo de atracción, es desplazarse a su
alrededor a gran velocidad, como lo hacen los planetas y satélites.
Veamos este ejemplo con algún detalle; el campo gravitacional del Sol,
que como dijimos es resultado de su gran masa, hace sentir sus
efectos de acuerdo con la distancia: de hecho, es proporcional al
cuadrado de la distancia, así que mientras más cerca se esté del Sol,
mucho más fuertes serán los efectos de este campo. Los planetas
describen trayectorias casi circulares alrededor del Sol, es decir, se
encuentran en la órbita solar. Mientras mayor sea la velocidad de un
planeta (la Tierra viaja a 108 000 km/h), más lejos del Sol tendrá el
planeta su órbita. No obstante, para cada cuerpo en órbita existe una
velocidad llamada velocidad de escape, que es la velocidad a la que un
satélite escapa del campo gravitacional de un cuerpo, y que se utiliza
en la práctica para mandar, por ejemplo, sondas automáticas a otros
cuerpos como la Luna y los planetas. Para nosotros, que estamos
sobre la superficie de uno de estos planetas, la gravitación solar se
manifiesta principalmente a través del calendario anual, que es una
medida detallada de nuestra órbita solar. Pero, al ser la Tierra mucho
más masiva que nosotros, nos atrae con una fuerza que depende de
ambas masas (suya y nuestra), y que también, como en el caso de los
planetas, depende de nuestra distancia de la superficie. A Kepler, con
sus leyes, y años después a Newton, con la expresión matemática de
esas leyes, debemos las explicaciones sobre los fenómenos que causa
la gravedad. Pero sólo hasta nuestros días ha sido posible, como
resultado del inicio de la conquista del cosmos, apreciar y visualizar la
potenciación que tiene para la humanidad la ausencia de esta fuerza:
el estado de imponderabilidad o microgravedad.
En la Tierra, como era de esperarse, la gravedad participa y genera un
sinnúmero de fenómenos como: las mareas del océano, la
sedimentación de polvo en lagos, el mantener a la Luna en su órbita, o
hacer que los ríos bajen al mar y que rueden las piedras cuesta abajo.
Pero, en cambio, en un laboratorio, la gravedad es utilizada por su
constancia como elemento de control y medición: por ejemplo, al
sedimentar un material, al vaciar un líquido en un vaso de precipitado
(de la gravedad viene que se precipiten las cosas), al pesar un objeto
en una báscula (que sin gravedad no pesaría), y cuando se mezclan
solos dos líquidos con diferente temperatura, como la leche y el café.
En este y en todos los casos de convección térmica, cuando agregamos
a un líquido frío una parte caliente, la caliente, por ser menos densa
tiende a irse hacia arriba, a flotar, y la fría hacia abajo. Las corrientes
que se forman con estos movimientos (llamadas corrientes
convectivas) son causadas por la gravedad terrestre y, como están
presentes en numerosos procesos de la vida diaria, desde el hogar
hasta la industria, su estudio y comprensión tienen una gran
importancia práctica.
En cualquier caso, dentro y fuera del laboratorio, muchas veces nos
estorba la gravedad, y ahí sí que tenemos un problema: quitarse la
gravedad de encima (o de dentro), aunque sea por algunos segundos,
resulta ser bastante complicado al punto que suele catalogársele de
desafío o de mera locura. ¿Acaso los primeros aeronautas y pilotos no
"desafiaban" la gravedad, y estaban, en opinión de muchos,
catalogados como locos e intrépidos, temerarios o soñadores? Pero,
¿qué motivación sentían para atreverse a desafiarla?, y sobre todo,
¿qué inesperado e inimaginable resultado surgió a partir de esas
primeras hazañas?: la conquista aeroespacial dio inicio con estos
intrépidos. Por cierto que los intrépidos llevan muchos siglos soñando
con desafiar la gravedad, y si tuviéramos que citar un solo ejemplo,
indiscutiblemente tendríamos que hablar del ingenioso Dédalo, el
mitológico ateniense. Dédalo puede ser considerado el prototipo del
artista universal, el arquitecto y el más notable inventor de recursos
mecánicos (antes que el histórico Da Vinci). Cuando este genio fue
desterrado de Creta por el crimen de su sobrino y ayudante Talo, se
refugió con el rey Minos, a quien rendía su agradecimiento con su
talento, que incluía además el de ser escultor.
Minos, por descuidar a la bella Pasifae, su esposa, tuvo que vivir con la
afrenta de ver a su mujer dar a luz al Minotauro: fruto de los amores
contra natura de Pasifae con un toro. Minotauro, si bien tenía un
apuesto cuerpo humano, tenía una horrible cabeza de toro, y algunas
mañas, como un formidable apetito, que lo hacía devorar siete jóvenes
y siete doncellas cada año (otros dicen que tres veces por año). Para
controlar a tan desmesurada criatura, Minos ordenó al ingenioso
Dédalo construir el famoso Laberinto de Cnosos, donde encerraron al
monstruo.
Así estaban las cosas, cuando Dédalo cedió a los ruegos de Ariadna,
hija de Minos, y le aconseja cómo salvar al último pasto de
jovenzuelos, entre los que se encontraba su amado Teseo. Este
penetra en el laberinto utilizando el viejo truco de atar un hilo a la
entrada, y prosigue hasta encontrar al Minotauro, a quien da muerte,
escapando vivo junto con la dieta, y de paso también con Ariadna. La
fuga despierta tal ira en Minos, que encarcela al solícito Dédalo y a su
hijo Ícaro dentro de la misma complicada obra que había construido
para satisfacer al rey. Pacientemente, el avispado Dédalo, ayudado por
Ícaro, fue coleccionando todas las plumas que dentro del laberinto
caían, y con su tradicional destreza, fabricó con ellas, y con cera de los
panales que ahí se instalaban, unas enormes alas, atando las plumas
con lino, y pegándolas con cera; las alas se fijaban a los brazos de
estos intrépidos por medio de correas de cuero. Un buen día subieron
a la torre que dominaba el paisaje y se lanzaron al vacío, escapando
del laberinto en lo que constituyó el primer desafío a la gravedad. No
obstante el éxito inicial, el entusiasmo juvenil de Ícaro lo indujo a
olvidar momentáneamente su propósito, y distrayéndose con el
panorama de libertad y el canto de los pájaros, se remontó impetuoso
a las alturas, contra las indicaciones de su propio padre, quien a gritos
le advertía que el Sol derretiría la cera de sus alas; cosa que ocurrió, e
Ícaro se precipitó al mar, y se ahogó, constituyéndose así en la víctima
precursora de todos aquellos que después sucumbirían por su deseo de
volar.
La creación de Dédalo, junto con la aleccionadora muerte de Ícaro,
inspiró a inventores como Da Vinci, que en el siglo XV descubrió los
principios del aeroplano y el helicóptero.
Se pueden citar otras muchas maneras de desafiar la gravedad,
aunque casi todas son peligrosas, mortales, breves, o insuficientes
para hacer algo útil. Podemos desafiarla brevemente por ejemplo
lanzándonos al vacío —como Ícaro—, pero no viviríamos para contarlo.
También
dentro
de
un
elevador
con
los
cables
rotos,
experimentaríamos lo que es flotar verdaderamente, pero a la vez
tendríamos una breve e irrepetible sensación. Más caro, pero más
seguro, resulta hacerlo en un avión en caída libre, donde podríamos
gozar verdaderamente durante unos 30 segundos, una y otra vez. Sin
embargo, el pago puede ser excesivo para cualquier mortal, y
demasiado breve para casi todo experimento de laboratorio.
Así pues, los científicos experimentales tuvieron que esperar una
nueva era, la era espacial, para percatarse de que la microgravedad
abría nuevos y numerosos caminos, en los que podían dar rienda
suelta a su imaginación, disponiendo de cuanta "ausencia" de
gravedad desearan, aunque, por ser una actividad tan cara, queda uno
obligado a hacer un uso eficiente del tiempo; es decir, los
experimentos deben diseñarse y controlarse conforme a un detallado
programa, que antes debe pasar con éxito un número apropiado de
pruebas y evaluaciones críticas.
Ahora veamos qué pasa con una nave que viaja en la órbita terrestre,
comenzando con un ejemplo de la física clásica o de un juego de niños.
Cuando atamos con una cuerda una masa, digamos una pelota, y le
damos vueltas como a la honda de un pastor, podemos sentir que
mientras más rápido gira alrededor de la mano, con más fuerza nos
jala. Esta fuerza, llamada centrífuga (que se fuga del centro), depende
directamente de la velocidad del giro. Al girar la pelota describe un
círculo, una órbita, que tiene como radio el largo de la cuerda. Una
nave en órbita también tiene una fuerza que la mantiene dando
vueltas, pero es una fuerza invisible, no como la cuerda: es la
gravedad. Pero el hecho de que esta fuerza sea invisible no le quita
sus propiedades de fuerza, es decir, el causar efectos en las cosas: el
que dude de la existencia de fuerzas invisibles, recuerde su última
caída al suelo. Ahora bien, para colocar una carga útil en órbita, hay
que acelerarla con un cohete, primero verticalmente para abandonar la
atmósfera, aunque ya durante el ascenso el cohete se irá inclinando
progresivamente para acelerar el vuelo también en sentido horizontal,
hasta alcanzar velocidad orbital, que varía según la altura: para una
órbita de 300 km de altura, por ejemplo, la velocidad circular es de
cerca de 7.8 km/s (más de 28 000 km/h). Estas velocidades no se
pueden alcanzar dentro de la atmósfera por la fricción del aire, que
mientras más rápido fluye alrededor de algo, produce efectos más
destructivos. Para alcanzar estas velocidades, es común que los
propulsores y combustible de una nave espacial pesen de 10 a 15
veces más que su carga útil.
Desde el punto de vista de la mecánica, una nave espacial en órbita es
un ejemplo del equilibrio de dos fuerzas: la fuerza de gravedad, por un
lado (que en órbita a 300 km de altura sigue teniendo un valor de
cerca de 80% del que tiene sobre la superficie terrestre) y por otro, la
fuerza centrífuga, que, en ejemplo de la cuerda y la pelota es la fuerza
que sentimos en la mano y que aumenta o disminuye según la
velocidad a la que gire la pelota, o en este caso, la nave que viaja
alrededor de la Tierra.
Un tripulante adentro de una nave espacial no percibe la gran
velocidad a la que viaja pues fuera de la atmósfera, sin aire, la nave
no tiene fricción, por lo que no se manifiestan los indicadores
habituales de velocidad: la vibración y el ruido. Tampoco percibe la
atracción de la gravedad, ya que se contrarresta por el efecto de la
velocidad circular, así que todo dentro de la nave flota, o, dicho de otra
manera, en ella se instala la condición de imponderabilidad.
Resumiendo: la única manera de "desafiar" la gravedad es, o en caída
libre por periodos cortos, o en órbita, donde esto puede ser una
condición permanente.
Como se mencionó anteriormente, un avión en caída libre permite
cerca de 30 segundos de microgravedad continua, y cierta parte de los
experimentos que se van a realizar en órbita se ensayan primero en
una serie de vuelos parabólicos. Estos vuelos se realizan generalmente
en aviones grandes, equipados con motores particularmente potentes,
y que describen trayectorias de forma parabólica, como la que sigue
una piedra lanzada hacia arriba. Los aviones de entrenamiento en
microgravedad suben con una inclinación de 45 grados y, súbitamente,
invierten la trayectoria para bajar también a 45 grados: con esta
operación los tripulantes son acelerados primero hacia arriba, y
después caen libremente junto con el avión, aun cuando su sensación
no es la de caer, sino la de flotar dentro de la cabina; ésta es la
situación donde mejor se simula la microgravedad espacial sin estar en
el espacio, pero con la importante diferencia de que ocurre por
periodos breves, e interrumpidos periódicamente. Es evidente que
entre cada trayectoria parabólica el avión tiene que recuperar altura,
por lo que frena la caída con un cambio de trayectoria, esta vez hacia
arriba. En esta última operación los tripulantes se pegan al piso con
gran fuerza; en la práctica, esta fuerza equivale a dos veces la fuerza
de la gravedad: 2 g (en términos más técnicos la gravedad se
simboliza con la letra g). De hecho todos hemos experimentado una
situación similar al subirnos a un elevador o a los juegos mecánicos de
una feria: cuando subimos nos sentimos más pesados, pero si bajamos
súbitamente tenemos una cierta sensación (sobre todo en el
estómago) de flotar. La única diferencia con el caso del avión es que
en éste el fenómeno dura más.
Algunas de las sensaciones de la microgravedad se pueden
experimentar también en piscinas, donde las personas y los materiales
han sido previamente balanceados con cámaras de aire para que
tengan una flotación neutra, aquella condición en la que los cuerpos no
tienden ni a subir ni a caer al fondo de la piscina. No obstante, la
diferencia aquí entre la flotación en la piscina y la del espacio es, por
un lado, la fricción del cuerpo en movimiento dentro del agua, ausente
en el espacio, dado el vacío, y que produce efectos algo diferentes de
los del estado en órbita; por otro lado, también el hecho de que la
persona dentro de la piscina no flota dentro del espacioso y rígido traje
espacial, y durante el entrenamiento en la piscina lo llega a cansar y a
molestar. Otra diferencia es que si se coloca con el traje con los pies
hacia arriba, la sangre se le acumula en la cabeza, cosa que no ocurre
en órbita, donde hasta puede dormir con cualquier orientación.
Volvemos, pues, a lo mismo: sólo en órbita y brevemente en la caída
libre se da el estado de imponderabilidad. Una vez en órbita, las
principales fuerzas a bordo son las provenientes de los motores de
ajuste de órbita, aquellas que provienen de las pequeñas variaciones
del valor de la gravedad en los diferentes lugares que sobrevuela, y
aquellas provocadas directamente por la tripulación al usar las paredes
de la nave para impulsarse de un lugar a otro. En los experimentos de
microgravedad, en una nave espacial se tienen que vigilar todos los
detalles: en ocasiones es necesario esperar a que la tripulación
duerma, para evitar así las pequeñas fuerzas que provocan con su
actividad en la cabina, pues en general, las fuerzas causadas por el
movimiento de los astronautas son mil veces mayores que las del
ambiente "natural" estando en órbita, y alcanzan el orden de
milésimas de gravedad, o sea "miligravedad", diferente de la
microgravedad, que sería sólo la millonésima parte.
Trataremos de presentar a continuación los efectos
microgravedad por áreas de interés o disciplinas beneficiadas.
de
la
EL LABORATORIO BIOMÉDICO
Entre los experimentos biomédicos, pocas cosas se encuentran en la
vida tan interesantes como las investigaciones sobre el cerebro. Y con
el cerebro, aquello que le da vida y sentido: la interpretación atinada y
el funcionamiento adecuado ante la realidad. Estando en condiciones
de microgravedad, el cerebro pierde parte de la información sobre su
entorno; sencillamente pierde el sentido de orientación. Para
orientarse, todo animal cuenta con receptores que le indican dónde
está el piso La visión, la presión en los pies, la dirección en la que
cuelgan sus brazos, etc., todos estos medios nos informan dónde se
encuentra el piso, pero además, en la parte interna del oído, los
animales cuentan con una de las tantas maravillas de la evolución: el
sistema vestibular (aquí abreviado como "SV"). Este sistema es el
equivalente natural de los sistemas electroópticos con los que cuentan
los aviones y naves espaciales para determinar su orientación y
dirección de vuelo.
El SV cuenta con receptores de movimiento y aceleración en tres
direcciones: hacia adelante y atrás, los lados, y hacia arriba y abajo.
Con esos receptores se es capaz de detectar movimientos y cambios
en el movimiento, y poner tal información a disposición del cerebro
para que responda acorde con la voluntad o con los reflejos
condicionados, como en el caso de las caídas.
Para percibir la rotación de la cabeza, el SV utiliza los llamados
"conductos semicirculares" (véase la figura 20), que tienen una
compuerta hermética que interrumpe el paso del líquido que los llena.
Al rotar estos conductos en su plano, como una llanta de auto, se pone
en movimiento el líquido que contienen, y con ello se presiona y
deforma la compuerta, provista de receptores que detectan este
efecto. Según el movimiento es la deformación de la compuerta, y así
influye o modula las señales eléctricas que mandan los receptores a
diversas estructuras del cerebro. Para detectar movimiento rotatorio o
aceleraciones en los tres planos (frontal, sagital y transversal) existe
un conducto para cada plano, es decir, cada oído tiene tres conductos
semicirculares para la detección de rotación. Por ejemplo, al rotar la
cabeza para seguir el movimiento de un tren en el horizonte, los
conductos horizontales detectan este movimiento de la cabeza y
contrarrestan de manera muy precisa la posición de los ojos respecto a
la cabeza, de tal forma que los ojos no pierden su objetivo. De hecho,
el sistema vestibular anticipa la posición de un objeto seguido por los
ojos por medio de pequeños saltos llamados nistagmo. Y aquí
encontramos una de las conexiones más importantes del SV con los
centros que controlan la tensión de los músculos de los ojos, y que, a
su vez, determinan la dirección de la línea visual. En ingeniería a este
tipo de sistema se le llama sistema de "control adaptivo", es decir, que
va anticipando la posición del objeto, para que su imagen (la del tren
en movimiento) se combine con la información visual que se envía al
cerebro, y así compensar con precisión la posición de la cabeza y los
ojos, sin que el objetivo escape del campo visual.
Figura 20. Esquema funcional y anatómico de los conductos semicirculares y
otolitos.
Como hay un sistema idéntico en cada oído, todas las funciones se
realizan por duplicado, con lo que se reduce el error del
funcionamiento y se aumenta la fiabilidad del SV. Esta duplicidad de
funciones lleva a ejemplificar una de las características principales del
cerebro: su redundancia o, en otras palabras, su habilidad de no
perder su capacidad de funcionar aunque parte de sus funciones se
pierdan; aun con la pérdida de un sector de receptores, el cerebro
aprende de nuevo a funcionar normalmente con la otra parte. Ahora
bien, los conductos semicirculares del oído interno son los detectores
de la rotación, pero también el SV cuenta con sensores de movimiento
y aceleración lineal, como la que percibimos al acelerar o frenar un
vehículo, y al caer.
Para la detección de movimiento lineal existe otra estructura
anatómica, también duplicada, cuyos componentes se llaman mácula y
sáculo, que son dos cavidades con forma de globulitos, que en su
interior tienen una masa gelatinosa provista de una especie de
incrustaciones calcáreas, llamadas otolitos, que las hacen más pesadas
que el medio que las circunda y que a su vez están sostenidas por
unas células ciliares (esbeltas como columnas), que son sensibles al
alargamiento o tensión (véase la figura 21). Cuando la cabeza se pone
en movimiento, los otolitos tienden a quedarse atrás por ser más
pesados y con ello, a alargar las células ciliares, que, como en el caso
de la compuerta de los conductos semicirculares, modifican sus
señales eléctricas para informar al cerebro sobre la presencia de la
intensidad y dirección del movimiento. Una de estas cavidades tiene
entre sus funciones detectar la dirección en la que se encuentra el
piso, es decir, la gravedad. También detecta vibraciones y cadencias,
como cuando caminamos o bailamos. Un estudio encaminado a
comprender la capacidad de los otolitos para detectar diferentes
frecuencias de vibración encontró que los bailes folclóricos de muy
diversas culturas comparten frecuencias (o ritmos) casi idénticos (2.06
Hz ±0.02); en otro trabajo también se descubrió que la gran mayoría
de las madres mecen a sus bebés con frecuencias de 4 Hz, lo que nos
indica que existen frecuencias idóneas a las que casi todos preferimos
bailar, o dormir bebés, y que naturalmente coinciden con la capacidad
de percepción más favorable de las estructuras anatómicas del SV;
estructuras que, por cierto, el proceso de evolución fue afinando en el
curso de millones de años, hasta alcanzar su actual grado de
adaptación al medio ambiente y a los movimientos naturales de cada
organismo.
Figura 21. Esquema de los otolitos.
Este sistema es lo que hace posible que los seres vivos se orienten y
se desplacen hábilmente en el espacio tridimensional en el que se dio
su proceso de evolución. Sin embargo, cuando el humano abandona en
sólo un par de generaciones su entorno y actividad natural (correr,
caminar, brincar y cambiar de posición) para adentrarse en nuevas
actividades de movimiento y aceleración, como los vuelos, acrobacias
y, más recientemente, el estado de imponderabilidad en órbita, se
enfrenta a condiciones totalmente nuevas, donde la evolución no ha
contribuido con su adaptación y perfeccionamiento. Por lo tanto, el
hombre no puede funcionar ni adaptarse tan pronto a estas nuevas
actividades. Las serias limitantes del organismo en este sentido
requieren de estudios multidisciplinarios para, por ejemplo, esclarecer
cómo proceder y planear el trabajo en órbita.
El SV en órbita se encuentra en condiciones en las que carece de
experiencia. Por una parte, los otolitos están acostumbrados a que las
células columnares los soporten, y ahora éstas no los soportan, pues
en órbita las cosas no pesan, y por lo tanto los otolitos también flotan,
por lo que no funcionan como normalmente lo hacen. Al no pesar, sus
movimientos se vuelven erráticos, y mandan señales conflictivas a los
centros de interpretación de este tipo de datos en el cerebro. La
consecuencia directa de esta situación es la desorientación del
organismo en el entorno de microgravedad, que va además
acompañada de varios síntomas poco agradables: mareo, falta de
coordinación de los movimientos, vómito, y desconcierto general, entre
otros, al grado de que prácticamente inutilizan a la persona que, en
algunos casos, llega a requerir de medicamentos y atenciones de
miembros más afortunados de la tripulación.
Hasta la fecha, no se sabe cómo remediar los efectos del ahora
conocido como síndrome de adaptación espacial a pesar de los
esfuerzos de los investigadores. En las primeras décadas de vuelo
espacial, existía la confianza de que el problema se podría resolver en
poco tiempo, pero la naturaleza, siempre ajena a los optimistas
programas de investigación, se encargaría de informarnos que los
aspectos funcionales del cerebro no son presa fácil ni comparten
nuestra pretenciosa prisa.
Así las cosas, la actividad espacial tripulada plantea toda una gama de
nuevos retos biomédicos. De hecho, el síndrome de adaptación se
manifiesta en un sistema tan complejo, que los científicos dedicados al
tema sólo han comenzado apenas a conocer las magnitudes del reto.
Sin duda se han realizado numerosos estudios médicos sobre este
síndrome; pocos vuelos, tal vez ninguno, se dan sin el seguimiento
médico continuo, y en la mayoría se realiza algún estudio, entre los
que destacan los relacionados con el sistema cardiovascular, el
metabolismo, la actividad de los fármacos; todo como parte del
estudio del síndrome de adaptación. Quizá el lector se sorprenda al
saber que este último incapacita drásticamente a más del 40% de las
tripulaciones de uno a tres días, independientemente de los
antecedentes y experiencia previa; puede afectar tanto a
experimentados pilotos de prueba, como dejar tranquilos y gozosos a
neófitos que pasaron criterios médicos menos estrictos de selección.
El problema más serio del síndrome de adaptación espacial radica en la
complejidad y extensión de las ramificaciones provenientes del sistema
vestibular. Hemos mencionado brevemente su conexión con los
músculos óculomotores, y las extremidades; sin embargo, como suele
suceder, el panorama es mucho más complicado de lo que percibimos
a primera vista, y a pesar de que en este problema se han invertido
millones de dólares (y seguramente de rublos también), nuestros
medios técnicos de investigación tendrán que desarrollarse mucho más
para arrancar sus secretos a la materia más complicada y organizada
que conocemos en el Universo: el cerebro. Profundicemos un poco
más.
El SV se comunica hacia el cerebro a través de un haz de fibras (o
nervios) que acompaña a las que vienen del oído, su estructura
adyacente; ya antes las terminales de los conductos semicirculares y
los de los otolitos se juntan en unos ganglios, donde al parecer ocurre
un cierto grado de acondicionamiento de las señales eléctricas. Al
cerebro llegan por la zona llamada puente, donde se encuentran los
núcleos vestibulares, que son centros de procesamiento y
redistribución de fibras nerviosas hacia otras estructuras. De estos
núcleos se proyectan fibras hacia varios lugares: a la corteza cerebral,
en sus regiones visual y motora, hacia el cerebelo (el "Gran No" o
inhibidor del Sistema Nervioso Central), hacia los núcleos
óculomotores (que controlan los músculos de los ojos), y en forma
indirecta hacia algunos órganos internos (como el estómago, los
intestinos y el hígado), y hacia diversos músculos, llamados
antigravitatorios, que poseen una doble función: la de compensar las
caídas, como cuando encontramos un escalón inesperado en el piso, y
la de mantener la verticalidad, aun cuando nos falta la información
visual, como en un cuarto totalmente oscuro. Las proyecciones del SV
están, según apuntan los especialistas, pródigamente presentes en
todo el cuerpo, por lo que entender su funcionamiento es, y seguirá
siéndolo por varias décadas, un tema abierto a la continua
investigación científica.
En 1983, a bordo del laboratorio espacial "DI", diseñado por la Agencia
Espacial Alemana (DFVLR), y puesto en órbita por el transbordador
estadunidense, se realizó un estudio a cargo del agradable profesor
Von Baumgarten, de la Universidad de Maguncia, sobre el nistagmo
calórico. El nistagmo, como decíamos, es el movimiento súbito o salto
de los ojos que provocan los músculos oculares al seguir visualmente
un objeto en movimiento; ahora bien, el nistagmo calórico es la
producción artificial de estos saltos oculares por medio de cambios de
temperatura en el tímpano con agua caliente (44º C), procedimiento
utilizado, desde principios de siglo en la medicina clínica para
diagnosticar alteraciones del estado neurológico de un paciente.
En la primera década de nuestro siglo, el médico húngaro R. Bárány
presentó la hipótesis de que el nistagmo calórico era resultado directo
de corrientes convectivas térmicas que inducen el movimiento de los
otolitos y las ámpulas de los conductos semicirculares. Estos cambios
de temperatura que provocan el nistagmo y la sensación de
movimiento, a pesar de que la cabeza esté totalmente fija, fueron un
descubrimiento suficientemente importante, por lo que se le otorgó el
premio Nobel en 1914. Pero en la ciencia todo puede cambiar. En la
misión del laboratorio Dl se demostró, por medio de un casco que
inyectaba aire caliente o frío al oído interno, que el nistagmo calórico
¡también se presenta en ausencia de gravedad! Si las corrientes
convectivas son causadas por la presencia de la gravedad, la hipótesis
del nistagmo calórico de Bárány quedó, si no totalmente refutada,
cuando menos puesta en duda después del experimento espacial.
Actualmente, muchos grupos de investigación se han abocado a
estudiar esta paradoja, que pone en duda una de las "verdades"
básicas del tema.
Entre los experimentos más importantes realizados en órbita hasta la
fecha, seguramente debemos mencionar los recientes trabajos
llevados a cabo en la cápsula Cosmos 1887, tripulada solamente por
animales, y donde se condujeron automáticamente decenas de
experimentos elaborados por científicos de más de 50 centros de
investigación en todo el mundo. A la par que los científicos soviéticos,
en el diseño de esta misión participaron sus colegas de EUA, Francia y
otra docena de países; cabe destacar que por ello éste fue un ejemplo
racional del tipo de programas que deben dominar en el futuro de la
investigación espacial. Entre lo más notable de estos experimentos
destaca la presencia de dos pequeños simios, preparados con
implantes cerebrales para estudiar las señales vestibulares durante el
periodo de adaptación espacial. Por primera vez fue posible registrar
señales eléctricas del SV en un primate, vecino evolutivo del humano
(aunque usted no lo crea), en condiciones orbitales. Cabe anotar aquí
que no es posible hacer tales experimentos con seres humanos, pues
la implantación de electrodos en las partes profundas del cerebro,
donde están los centros de proceso del SV, conlleva un grave peligro
de infección. Sin embargo, los datos neurofisiológicos de los simios
cosmonautas son primordiales para el futuro de los vuelos de larga
duración tripulados, sobre todo para la comprensión de los fenómenos
que ocurren al hombre durante su adaptación en los primeros días en
el espacio.
Un aspecto curioso del síndrome de adaptación espacial son los efectos
posteriores, cuando los cosmonautas regresan a la Tierra: la falta de
información visual los hacía perder el equilibrio en un cuarto oscuro,
pero también durante varios meses después del vuelo, los astronautas
quedaron exentos de todo tipo de mareos terrestres.
Otros hechos biomédicos interesantes estudiados en órbita son los
relacionados con la pérdida de calcio de los huesos.
Los huesos son estructuras que responden activamente a las
demandas del organismo y como otras estructuras anatómicas, se
atrofian cuando no se utilizan. Al flotar dentro de la nave, las piernas
carecen de función; y aunque se utilizan para impulsarse de un lugar a
otro, la fuerza requerida es mínima: una persona puede proyectarse
hasta el otro extremo de la nave con un solo dedo. A partir de los
primeros días en órbita, el organismo resiente la falta de uso de buena
parte del esqueleto. Varios de los estudios a bordo están precisamente
orientados a determinar qué pasa con el calcio que forma parte de los
huesos (cuya pérdida alcanza hasta un 10% del total). Para establecer
la vía de pérdida de calcio, se analizan los desechos del organismo
durante el vuelo y posteriormente la disminución de la masa ósea.
Durante todo el vuelo se programan periodos de ejercicio como medida
preventiva, que se van aumentando hasta el día del aterrizaje. El
ejercicio para las piernas se realiza con una bicicleta fija, o sujetando
con unas bandas elásticas la cintura al piso; después el astronauta
"corre" sobre una banda móvil; así los huesos largos de las piernas
recuperan gradualmente su resistencia y musculatura, así como sus
niveles normales de calcio. La columna vertebral pierde parte de su
función también, pues en el espacio no soporta el peso al que está
acostumbrada, y por lo tanto, los discos que separan las vértebras se
dilatan unos milímetros, pero como son tantas, las personas "crecen"
en algunos casos hasta cinco centímetros, además, la columna pierde
su curvatura, que carece de sentido al no tener que ejercer la
capacidad de carga como lo hace en la Tierra.
Uno de los cambios reconocidos desde los primeros vuelos se refiere a
la relocalización de los fluidos corporales. En la Tierra, el organismo
compensa la tendencia de la gravedad a acumular abajo los fluidos
corporales (sangre, suero y agua) por medio de la presión de las venas
y el juego de ciertas válvulas localizadas en piernas y tronco; sin
embargo, en el estado de microgravedad, este reflejo continúa durante
un tiempo, causando la migración de fluidos hacia las partes superiores
del organismo, y provocando con esto la hinchazón de tórax y cara que
se observa en los cosmonautas. Para evitar una reacción opuesta al
reincorporarse a la gravedad, los tripulantes de las naves espaciales,
poco antes de su regreso, se colocan un traje especial que oprime las
piernas para mantener suficiente presión sanguínea en la parte
superior del cuerpo y evitar así mareos y desmayos por falta de
irrigación cerebral.
Resumiendo: el organismo sufre toda una serie de alteraciones
durante el vuelo espacial: pérdida de orientación —a la que sigue
generalmente un periodo de adaptación—, pérdida de calcio,
relocalización de fluidos, desadaptación a los ciclos normales díanoche, exposición a radiación, debilitamiento de los músculos
antigravitatorios, crecimiento de la columna vertebral y pérdida de su
curvatura. En estos temas, la URSS posee ciertas ventajas sobre su
contraparte estadunidense, ya que no sólo tienen casi el triple de
horas/hombre en el espacio, sino que sus vuelos han durado hasta 4.5
veces más tiempo. Como anécdota, cabe referir un hecho curioso:
anticipándose a los informes médicos soviéticos, uno de los más
destacados médicos de la NASA se refirió a los serios problemas de
readaptación a la gravedad que supuestamente iba a sufrir Romanenko
con su regreso a la Tierra, después de 326 días seguidos en órbita,
entre ellos: dificultad para caminar, estar de pie, orientación en la
oscuridad, etc. Como única respuesta a sus muy desatinadas
estimaciones, los soviéticos mostraron a Romanenko frente a las
cámaras haciendo una serie de piruetas. Posteriormente, la
recuperación de Titov y Manarov, quienes pasaron poco más de un año
en órbita, también fortalece la confianza establecida, aunque según
Titov, la permanencia "ideal" es de seis meses. La lección que de aquí
se puede recibir es que cada organismo reacciona de manera diferente
durante su adaptación al espacio y su readaptación a la Tierra, y que
todavía nos falta mucho por comprender en este campo. Algunos
médicos soviéticos dicen que con estos vuelos de Romanenko, Titov y
Manarov se puede ya visualizar claramente el viaje tripulado a Marte.
En conclusión, éste es un campo muy dinámico, que se enriquece cada
día, especialmente ahora, con la presencia casi continua de
cosmonautas a bordo de estaciones orbitales.
TENSIÓN SUPERFICIAL
El comportamiento de los fluidos en microgravedad ha resultado ser
uno de los campos de mayor interés, debido principalmente a que se
han observado fenómenos inesperados. Elaboremos el tema
comenzando con la tensión superficial de los líquidos. Ésta es una
propiedad fundamental de los líquidos, cuya manifestación más
conocida es la forma de una gota de agua: esférica cuando cae o
cuando flota en una nave espacial, pero semiesférica cuando se pega a
un sólido, un vidrio por ejemplo, donde surgen otras fuerzas de
contacto. No es ni obvio ni fácil de explicar en términos sencillos por
qué es de esta forma, pero intentémoslo, ya que en parte de esto
depende el entender las ventajas de experimentos con fluidos en
microgravedad.
Las moléculas de agua en una gota, muchos millones de ellas,
interaccionan por medio de las llamadas fuerzas moleculares
generando una presión interna que las obliga, jalándolas, a
mantenerse lo más juntas posible, lo que en un líquido se manifiesta
en la forma de una gota. La forma esférica es efecto de la tensión
superficial, que a su vez es afectada de manera compleja por la
polaridad de las moléculas, digamos, la molécula de agua (H2O),
formada por un átomo de oxígeno y dos de hidrógeno, forma un dipolo
eléctrico, es decir, en un extremo es positiva y negativa en el otro
(véase la figura 22). Mientras más intensa sea la polaridad molecular,
los líquidos tendrán más presión interna que los lleva a mantenerse
juntos. En el caso del agua, la presión interna es muy alta (de 14 800
atmósferas) y por tanto sus moléculas están tan juntas que provoca,
por ejemplo, que los líquidos sean muy poco propicios a la compresión.
En la superficie de una gota de líquido, las fuerzas de tensión se
alinean con la forma de la superficie y tratan de hacerla lo más
reducida posible: de ahí que tomen la forma de una esfera, que
representa la menor superficie posible de un volumen, sin importar el
tipo de líquido (agua, jugo de naranja, alcohol, o un metal fundido).
En tierra no es tan común percatarse de este hecho fundamental, pues
generalmente las gotas de agua, o caen muy rápido como para
observar su forma con precisión, o las vemos pegadas a un sólido, con
lo que sólo vemos parte de una esfera o elipse. Con mercurio, que
tiene casi seis veces más tensión superficial que el agua, sí alcanzamos
a ver la forma esférica de gotas chicas cuando ruedan, pero también
podemos observar que se achatan para formar cuerpos elipsoidales por
la acción de la siempre presente gravedad.
Figura 22. (a) Moléculas de agua absorbidas a una superficie. (b) La
distribución de carga en la molécula forma un dipolo que se orienta en un
campo
eléctrico.
COLISIONES ENTRE ESFERAS DE AGUA Y METAL
Analicemos ahora el resultado de un curioso experimento espacial,
donde se observan hechos todavía por explicar, para que quizá algún
ingenioso lector proponga una explicación correcta y completa. Un
típico experimento de microgravedad, que sólo puede hacerse en
órbita, fue financiado por el periódico japonés Asahi Shimbun, uno de
los de más tiraje en Japón. El propósito del periódico era simplemente
despertar el interés de los niños japoneses respecto a actividades
espaciales, ya que su país ha incursionado decididamente en el tema,
y desde ahora orienta y motiva responsablemente la mente siempre
inquieta de los niños, futuros científicos espaciales. Pero resultó tan
novedoso el producto del experimento, que destacados físicos
japoneses trataron, hasta donde sabemos sin éxito, de explicar los
curiosos hechos observados. La idea que motivó el experimento es
bastante sencilla: se trataba de observar y explicar el fenómeno de la
colisión entre dos esferas, una grande, líquida, de agua, y otra
pequeña, de acero. Un cañón dispara las esferas de metal, una a una,
a diferentes velocidades, contra la de agua, que se forma
espontáneamente en la microgravedad por efecto de la tensión
superficial. La esfera de agua se encuentra sobre un pedestal mientras
es observada por una cámara (véase la figura 23). La esfera de metal
choca contra la de agua cerca del centro y, para sorpresa de todos, se
adhiere con fuerza a esta última, penetrando hasta cerca de la mitad
de su diámetro, quedándose, por decirlo así, en órbita, capturada
permanentemente por fuerzas de atracción entre las dos. En la misma
figura, se observa una fotografía de la esfera de metal metida a la
mitad. Cuando se aumentó la velocidad del impacto, los hechos se
repetían, hasta que la velocidad fue suficiente (cerca de 1 500 mm/s)
para que la metálica atravesara, no sin dificultad, a la esfera de agua.
(a)
i)
ii )
iii )
(b)
Figura 23. (a) Esquema del dispositivo espacial para el estudio de colisiones
entre esferas. (b) Fotografía del proceso de colisión, en condiciones de
microgravedad, entre una esfera de agua y una de metal. i)Antes de la
colisión; ii) la esfera de metal deforma la de agua sin penetrar; iii) ya en
equilibrio la esfera de metal que parcialmente incluida en la de agua y
girando a su alrededor como "en órbita". El fenómeno fue observado por
primera vez en microgravedad . Sus efectos han atraído la atención de físicos
nucleares por sus características, que son formalmente análogas a fenómenos
nucleares.
Tratando de dilucidar este fenómeno, recordemos algunos hechos
acerca de la interacción entre agua y sólidos, por ejemplo: 1) el
mojado de la superficie de un sólido es un proceso selectivo que
depende del tipo de sólido y de líquido; 2) el ángulo que forma la
frontera sólido-líquido depende de la intensidad de las fuerzas
moleculares entre los dos y de las fuerzas intermoleculares del líquido,
pero como hay gas alrededor de la esfera de metal, la interfase
adicional sólido-gas participa en el balance de las fuerzas (por cierto,
en el experimento espacial, están todas en equilibrio, ya que la esfera
de metal se queda parcialmente dentro de la de agua de manera
permanente). En pocas palabras, el fenómeno sencillo que observamos
resulta en realidad de una compleja interacción física entre los tres
medios: el agua, el gas (nitrógeno) que rodea las esferas, y
probablemente el tipo y rugosidad del metal de la esfera impactora. En
principio, parece fácil explicar lo observado; sin embargo, al
adentrarnos en los posibles mecanismos que dominaron tal resultado
vemos que el fenómeno empieza a complicarse; para explicar el
fenómeno tienen una gran ventaja los fisicoquímicos que conocen de
los procesos de interacción entre materiales, pues saben mucho de
factores como absorción, mojado, adhesión y otros eslabones de una
cadena que se va complicando con rapidez hasta adentrarse en temas
tan fascinantes y laberínticos como la mecánica cuántica.
Quizá la moraleja más importante para nosotros, después de saber del
experimento de la colisión de esferas, es que tengamos en cuenta que,
como en el caso de una pregunta tan sencilla como por qué el cielo es
azul, la naturaleza se nos revela como bastante complicada, y que rara
vez evidencia sus secretos para permitirnos dar explicaciones sencillas
o directas. Asimismo, podemos percatarnos de que las condiciones de
microgravedad abren camino a nuevos y poderosos experimentos para
entender un poco más acerca de los intrincados fenómenos de la
tensión superficial.
MATERIALES BIOLÓGICOS EN MICROGRAVEDAD
Una de las aplicaciones biomédicas más importantes relacionadas con
el procesamiento de materiales en condiciones de microgravedad, es la
purificación o separación de moléculas bioquímicas y otras partículas
por medio de la técnica de electroforesis. Esta técnica aprovecha la
diferente migración de partículas cargadas eléctricamente dentro de un
fluido, que es provocada por un campo eléctrico. Estudios recientes
han demostrado la posibilidad de producir sustancias activas cuatro
veces más puras en la órbita terrestre, a la vez de que el tiempo para
purificarlas es siete veces menor que en los laboratorios terrestres.
Hasta el momento, las investigaciones se han orientado a la
producción de medicamentos y sustancias de alto valor agregado,
como el alfa-l-timosín y el interferón, fármacos que se utilizan en la
lucha contra el cáncer y hoy día contra el SIDA. La eficiencia de los
equipos en órbita se debe de nuevo a la ausencia del transporte
convectivo causado por las fuerzas de flotación y sedimentación que,
en general, causan desplazamientos cientos de veces mayores que la
migración provocada por campos eléctricos, así que en tierra este
proceso no es muy eficiente, si lo comparamos con su versión espacial.
Para comprender la electroforesis, es necesario recordar que muchas
biomoléculas, como las enzimas y las hormonas, poseen una
distribución asimétrica de carga eléctrica, es decir, que la forma en
que se reparten las cargas eléctricas es distinta de una región a otra
debido a la presencia de los llamados macroiones. Al establecer una
tensión eléctrica entre dos electródos, como las baterías, inmersos en
la solución que contiene las sustancias, algunas moléculas, debido a su
carga, se irán hacia uno de los electrodos, mientras que otras serán
atraídas al contrario. Sometiendo parte de la solución cercana a
cualquiera de los electrodos a un nuevo campo eléctrico, y realizando
esta operación en repetidas ocasiones, el material más cercano al
último electrodo será de una mayor concentración o pureza, ya que en
cada paso sucesivo se han ido atrayendo moléculas del signo contrario
al del electrodo, hasta lograr la separación o purificación de alguna
molécula o mineral en particular, que sea de nuestro interés.
El efecto de la separación se logra no sólo por el campo eléctrico, sino
por la velocidad que cada molécula tiene en su camino hacia uno de
los electrodos, lo que domina además el proceso de purificación.
Pueden existir muchas moléculas con distribuciones de carga similares,
pero no todas ellas viajarán a la misma velocidad, hecho que se debe a
varios factores, entre los cuales uno de los más importantes es la
forma. La forma de un objeto determina la velocidad a la que puede
movilizarse dentro de un fluido bajo el efecto de una fuerza dada, en el
que todas las moléculas están afectadas por la aplicación del campo
eléctrico.
Resulta ilustrativo conocer un hecho reciente en relación con las
actividades farmacéuticas en órbita. Una empresa estadunidense ha
firmado un acuerdo con los organismos espaciales de la Unión
Soviética, para llevar a cabo experimentos farmacéuticos en la
estación espacial permanente Mir. Esta empresa privada solicitó los
servicios soviéticos debido a que los EUA carecen de una estación
orbital propia (probablemente tarden cerca de 10 años en
establecerla). Los experimentos consisten en provocar y observar el
crecimiento de proteínas cristalizadas, ya que sólo con proteínas en
estado sólido y cristalizado se pueden estudiar con precisión las
secuencias de aminoácidos que conforman las estructuras proteínicas,
por medio de la técnica de difracción de rayos X. Con este ejemplo se
pueden ratificar una vez más las ventajas de la cooperación espacial
internacional; de otra manera se dejaría de lado el avance de la
humanidad en rubros tan importantes como el mencionado, por lo que
se debe esperar que este tipo de acontecimientos se conviertan en
algo común a pesar de algunas corrientes irracionales que se oponen
persistentemente a esta realidad.
Es previsible que en un futuro muy cercano sean instalados en la
órbita ingenios importantes para la fabricación de fármacos muy
diversos. Además de la sustancia alfa-l-timosín, fabricada por los
soviéticos en órbita, cabe mencionar también los esfuerzos realizados
en el transbordador espacial estadunidense, que ha puesto en órbita,
en tres ocasiones diferentes, una fábrica experimental para producir
una proteína, la llamada eritropoyetina, que sirve para fomentar la
producción de glóbulos rojos. Esta fábrica estaba operada por Ch.
Walker, un ingeniero especialista que buscaba optimar el proceso de
electroforesis en órbita, y que por esta razón es de las pocas personas
que han subido hasta tres veces a la órbita terrestre, aunque
recientemente se ha cancelado tal esfuerzo debido a la incertidumbre
de los vuelos y a la competencia de técnicas como la ingeniería
genética. Sin duda, los materiales biológicos producidos en órbita
serán los que lleven la biomedicina a los resultados más
espectaculares en tierra, en vista de la alta pureza alcanzada en la
órbita terrestre; asimismo, se debe esperar un impulso adicional y
complementario de la mencionada ingeniería genética, que no dudo
aprovechará en el futuro las ventajas de las condiciones ambientales
en la órbita.
LOS SÓLIDOS EN EL ESPACIO
Todo material sólido utilizado en la práctica de la ingeniería posee
propiedades instauradas durante su proceso de producción, buena
parte durante su fase líquida (cuando está fundido); otras se logran
con el tratamiento térmico al que se somete la pieza acabada.
Comprender el origen de las propiedades de los materiales requiere
que se identifiquen las etapas críticas de su manufactura y que se
analicen apropiadamente en lo que se refiere a la evolución de su
microestructura. En el ejemplo de las aleaciones metálicas, veíamos
que su resistencia depende del tamaño y forma de sus granos o
cristales, los cuales se crean durante el enfriamiento y solidificación;
en gran medida dicha resistencia depende también de la uniformidad
con la que los diferentes componentes se distribuyen en la aleación.
En la microgravedad, esos cristales crecen menos, pero más
uniformemente, por lo que materiales solidificados en órbita adquieren
propiedades diferentes, la mayoría de las veces deseables. Algunos de
estos resultados se conocen desde hace tiempo, sin embargo queda
mucho por entender en cuanto al procesamiento de materiales en el
espacio y resta todavía evaluar cuáles serán las propiedades más
favorecidas y útiles. Se sabe, por ejemplo, que al comenzar el proceso
de solidificación se forman unas "islas" de átomos que se agregan
ordenadamente, en las que se inicia el crecimiento de los granos
cristalinos; esto ocurre simultáneamente en varios puntos del material
fundido; lo que se desconoce es el crecimiento, y en la Tierra la
gravedad influye y causa el desplazamiento de dichas islas en las
corrientes convectivas, lo que hace imposible el análisis atómico por
medios como la microdifracción de rayos X, técnica con la que se
produce una especie de proyección macroscópica, que hace visible la
posición de los átomos en alguno de los cristales. En órbita se podría
aprovechar un dispositivo que permitiera visualizar el crecimiento de
tales islas, ahí estáticas por la ausencia de convección. El dispositivo
de estudio consistiría, quizá, en un metal entre dos placas de vidrio
separadas unas micras, y un calentador capaz de fundir el metal, que
luego se enfriaría y se solidificaría. Mientras por uno de sus lados se
irradiaría el metal con rayos X, y por el otro se captarían los patrones
de difracción con un detector de rayos X. Es previsible que con este
tipo de arreglo se pueda seguir el proceso de coalescencia o formación
de islas, desde la fase casi líquida hasta la sólida, información de gran
valor explicativo sin duda para quienes trabajan en la investigación de
las propiedades microestructurales de los materiales sólidos. Un
esquema de esta idea se presenta en la figura 24.
Figura 24. Esquema de un experimento exploratorio para el estudio del
proceso
de
solidificación
y
coalescencia
de
granos
metálicos.
Hay diversos tipos de sensores y detectores de rayos X; quizá el más
conocido son las placas fotosensibles que se utilizan en las radiografías
médicas. Sin embargo, para captar imágenes en el espectro, la
tendencia moderna se aleja cada vez más de los materiales
fotosensibles, tipo fotográfico, para adentrarse en la optoelectrónica,
campo que combina la óptica y la electrónica, y que también se
denomina electroóptica. Los experimentos en microgravedad con
cristales, que tienen aplicaciones importantes en la técnica moderna,
han tenido hasta ahora resultados muy alentadores. Por ejemplo, en el
crecimiento de compuestos de silicio, galio y germanio, materiales en
los que se fundamenta la industria microelectrónica y la óptica, sí
contrastamos experimentos terrestres y espaciales, observamos que la
estructura cristalina del material espacial es considerablemente más
uniforme que su contraparte terrestre, aun cuando el crecimiento o
aumento de masa es menor en la órbita. En éste y en otros casos, el
material crecido en el espacio es claramente superior, debido a que los
fenómenos microgravitatorios enfatizan sus propiedades de más
utilidad práctica, al grado de que justifica plenamente el costo del
experimento exploratorio, a pesar de ser éstos los primeros intentos.
Otros sólidos susceptibles de aprovechar la microgravedad son los
materiales fibrosos y los cerámicos, así como sus posibles mezclas.
Entre los materiales más novedosos por sus propiedades
extraordinarias, mencionábamos los plásticos reforzados con fibras
microscópicas de carbono, vidrio, boro, cerámica o metales como
tungsteno y titanio, todos ellos abundantes en México, por cierto. La
propiedad que hace a estos materiales tan atractivos es su
combinación de alta resistencia y bajo peso. Sin embargo, una
limitante que frecuentemente encontramos en las propiedades de
estos materiales resulta de la concentración o relocalización de las
fibras dentro de la matriz de termoplástico o cerámica, efecto a su vez
de la diferencia de densidad y propiedades térmicas de las fibras con
respecto a la matriz que las sustenta. Estos factores, que podríamos
denominar microsegregación, son resultado principalmente del
transporte causado por fuerzas de flotación y del empuje que genera
un frente de solidificación o frente de enfriamiento, en las fibras, aun
sin llegar a tocarlas; por ello incluimos también estos materiales en la
lista de los que se verían favorecidos con su fabricación en
microgravedad.
FLUJO EN CONDICIONES DE TENSIÓN SUPERFICIAL DOMINANTE
Es también curioso y sorprendente el comportamiento de un flujo en
condiciones de microgravedad. Como en los casos anteriores, no se
trata de efectos nuevos, sino de efectos cuya presencia se oscurece
por el fenómeno de convección presente en los laboratorios terrestres:
el flujo es poco conocido sin los efectos de dicho fenómeno. Dado que
en condiciones de microgravedad las fuerzas de flotación y las
corrientes convectivas se reducen cientos de veces, el transporte de
materia dentro del flujo se debe exclusivamente a los siguientes
factores: 1) termoforesis, que es el transporte generado por una
diferencia térmica que actúa, por ejemplo en el caso de una burbuja,
por la variación de la tensión entre cada una de las partes de su
superficie; 2) electroforesis, donde el transporte obedece al efecto de
un campo eléctrico sobre moléculas cargadas y, por último, 3)
transporte por difusión química, en donde, debido a diferencias de
concentración (gradiente), el proceso de difusión tiende a ser el único
causante del transporte de moléculas y partículas de un punto a otro
dentro de un fluido. Varias investigaciones han sido enfocadas al
transporte de burbujas por efectos térmicos, debido a las
repercusiones prácticas que este tipo de problemas presenta, como en
el caso de un tanque parcialmente lleno de combustible en órbita, y
que recibe radiación solar en una sola de sus caras. Tema, por cierto,
que fue motivo de estudio de un destacado investigador de la Facultad
de Ingeniería de la UNAM. Las características especiales del flujo, en
ausencia de fuerzas de flotación, no siempre trabajan en favor de un
proceso de producción de materiales en órbita. Tomemos como
ejemplo el caso de vidrios ópticos: por un lado, es atractiva la
distribución heterogénea de los componentes de vidrios durante su
proceso de solidificación, es decir, la formación de una microestructura
y distribución de componentes de manera uniforme. También es
atractiva la ausencia de esfuerzos mecánicos causados en la Tierra por
el crisol de fundición. Sin embargo, lo que no es favorable en el caso
de los vidrios, es precisamente la falta de fuerzas de flotación, que en
tierra permiten que se puedan extraer las microburbujas de aire que
degradan las características ópticas de una lente, aunque aquí puede
participar el ultra alto vacío de la órbita.
Resulta también muy interesante el estudio de interfases líquidolíquido en las que la interacción, en ausencia de convección, se reduce
al intercambio de calor y a la interacción química entre ellos, lo que
hace posible procesos muy delicados de mezclas de diferentes
materiales conteniendo potencial teórico-práctico. Asimismo, se
pueden realizar mediciones de conducción térmica entre líquidos que
en tierra son difíciles, o imposibles, debido a los desplazamientos que
las corrientes de convección causan en las interfases inestables.
LAS SUPERESPUMAS
Un ejemplo interesante que combina la necesidad de microgravedad y
la de controlar precisamente la tensión superficial, lo tenemos en la
fabricación en órbita de inmensas estructuras, basadas en lo que
podríamos denominar "superespumas", y que se planea utilizar, en su
versión pacífica, en la construcción de espejos para iluminación
nocturna de ciudades y sembradíos.
Las superespumas se fabrican como cualquier material esponjoso, es
decir, por medio de burbujas de diferentes tamaños adheridas unas a
otras en el contacto de sus paredes, y formando geometrías tan
caprichosas como desea su diseñador. A diferencia de los materiales
terrestres, estas espumas tienen burbujas de varios metros de
diámetro, y paredes de décimas de milímetro o menos. En tierra, con
la gravedad, no puede lograrse que crezcan a tales tamaños, porque,
como ocurre con las burbujas de jabón, se adelgazan en la parte
superior hasta romperse: un efecto del campo gravitatorio. Para
algunos, esto sonará a pura ficción, pero para otros, que ya vimos el
intento de fabricar burbujas de epoxi hasta de un metro, nos es no
sólo creíble, sino hasta estimulante, ver que ya se dieron los primeros
pasos prácticos para crear millones de burbujas unidas para formar
materiales esponjosos. Los tamaños que se espera sean de utilidad
para estos espejos son impresionantes: de varios cientos de metros
hasta varios kilómetros por lado, con espesores en metros. En tierra
estas estructuras no pueden mantener ni siquiera su propio peso, pero
en órbita, pueden crecer y crecer hasta ser gigantescas, ya que no
pesan nada. Antes de dar por terminado el tema de la tensión
superficial, repasemos las repercusiones que el manejo consciente de
las fuerzas de tensión superficial tiene en la actividad cotidiana de la
sociedad, ya que casi todos las desconocemos. La tensión superficial, y
los fenómenos directamente dependientes de ella, son los principales
protagonistas en hechos tan comunes como el teñido de telas, el corte
de metales y su soldadura, la perforación de pozos, la
impermeabilización de textiles, el uso eficaz de insecticidas, la
resistencia de adhesivos, el lavado de ropa, la extracción y purificación
de minerales, la soldadura de circuitos electrónicos, y miles de cosas
más. Y vale la pena señalar un aspecto más: ¿qué pasaría si el
experimento japonés se ampliara para incluir la colisión de esferas de
diferentes líquidos, o con variaciones de temperatura, y por tanto con
diversas tensiones superficiales? ¿Qué nuevos e interesantes
fenómenos observaríamos? ¿Cómo afecta la ausencia de gravedad
todos estos procesos cotidianos?
Seguramente la microgravedad producirá en algunos casos, resultados
desconcertantes; en otros, estos experimentos serán favorables para
aumentar el acervo de explicaciones de fenómenos poco
comprendidos. Con los ejemplos anteriores podemos ver que la
experimentación espacial encierra un potencial verdaderamente
impredecible, en el que tenemos que participar, pues no hacerlo sería
sacrificar a la insensatez y a la dependencia algunos insospechados
medios útiles a nuestro desarrollo.
V I .
N U E S T R O L A B O R A T O R I O
Ó R B I T A T E R R E S T R E
E N
INTRODUCCIÓN
LAS condiciones que hacen de la órbita terrestre un laboratorio con
características útiles y únicas (imponderabilidad, visión amplia,
radiación directa y alto vacío) son favorables a la experimentación hoy
y a la industria del mañana. La combinación de estas condiciones
genera numerosas y nuevas alternativas, y los experimentos y
actividades en órbita que se pueden llevar a cabo no es posible
incluirlos en una mera lista, aunque tampoco se debe sucumbir al
temor de intentar hacerlo, aun de manera incompleta, porque todos en
general esperamos que quienes usan los recursos nacionales en
investigación aeroespacial, se esfuercen y asuman el riesgo de
equivocarse al tratar de señalar los caminos que actualmente se
identifican como los más prometedores.
En su conjunto, estas condiciones, repetimos, hacen posible la
conducción de experimentos imposibles de realizar en tierra, pero,
sobre todo, nos falta intentar estimar las probabilidades reales de que
científicos de México y de los demás países en desarrollo puedan
utilizar la órbita terrestre para sus propios fines de investigación. Es
necesario también que nuestros científicos e ingenieros, especialmente
los que no tengan contacto directo con este tema, se mantengan
cuando menos enterados de las numerosas técnicas espaciales, aun
cuando sea sólo por medio de la participación de un número muy
reducido de investigadores que sí estén al corriente de un
conocimiento directo de lo que ocurre en la frontera del avance
espacial.
Recordemos, además, que como en el pasado, las actividades que hoy
en día se realizan en el espacio, repercutirán finalmente en el avance
de muchos otros campos que afectan el bienestar de la población. Para
ilustrar este punto basta un ejemplo: los satélites meteorológicos
fueron en un principio resultado del interés de los meteorólogos, que
deseaban observar zonas más amplias del globo terrestre, para
entender cómo afectan las formaciones de nubes, las temperaturas y
la velocidad de los vientos, el clima de grandes sectores del globo, o
de una región o ciudad; actualmente se sabe que el clima es un efecto
global, que sólo puede comenzar a entenderse si utilizamos la
información amplia que proporcionan los satélites. Ahora, con base en
esta información se puede alertar a la población sobre desastres
naturales inminentes y su posible evolución, con varios días de
anticipación; con esta aplicación práctica se ha ahorrado miles de
veces el monto de la inversión para la construcción, puesta en órbita y
operación de dichos sistemas de alerta basados en satélites. Algo
equivalente puede decirse de los satélites de comunicaciones.
Por motivos ajenos al desarrollo tecnocientífico, el efecto socialmente
benéfico que puede tener la tecnología aeroespacial es de mucha
menor magnitud de lo que permitiría su avance en la actualidad. Esto
resulta, primero, de la política de proteccionismo de la tecnología que
detentan muchos de los llamados países desarrollados, que impiden el
flujo de tecnologías a países necesitados de ellas. Para esto basta
también un ejemplo: los centros de investigación de la NASA de los
Estados Unidos no permiten en sus instalaciones el trabajo temporal
de científicos de países que califican como amigos en temas
tecnológicos o de ciencia aplicada, solamente admiten candidatos que
realicen estudios en ciencias puras, esa parte de la investigación
generalmente más alejada de las aplicaciones prácticas. Segundo, es
necesario considerar que la investigación y la práctica de la ingeniería
aeroespacial generan con frecuencia productos colaterales, que a la
larga, se sabe por muchas experiencias anteriores, impulsan avances
técnicos de muy diversa naturaleza y alcance. Éstos son, por lo general
de mucha utilidad para el bienestar social, aunque su valor sea difícil
de estimar de momento, y con suficiente confiabilidad.
Entre las tendencias más notables de la actualidad se debe señalar que
las cifras de lanzamiento de vehículos espaciales van en continuo
aumento (780 toneladas de carga útil sólo en 1987) y, a la vista de los
esfuerzos por parte de un creciente número de países con programas
espaciales propios, éstas seguirán aumentando en el futuro. Aparte de
las grandes potencias, las cuales probablemente proseguirán
dominando el panorama espacial por varias décadas, toda una gama
de países se adentran en programas espaciales sólidos, entre ellos, los
que participan en la Agencia Espacial Europea, China, Japón, la India y
Brasil, por lo pronto; asimismo, es previsible que se organicen otras
agencias multinacionales (una latinoamericana, desde luego) en las
próximas décadas.
Los esfuerzos de Brasil y la India tienen para nosotros una significación
particular, pues simbolizan la conciencia de un grupo de países en
desarrollo interesados en que sus sociedades avancen a través de la
ciencia y la tecnología, manejadas con oportunidad y de manera
apropiada. En ambos casos, se aprecia la visión que los gobernantes
de estos países tuvieron para iniciarse en el camino de las actividades
espaciales, que otros han percibido como un lujo, lejano a sus
presupuestos y posibilidades. Incluso estos países ya han podido
cosechar los primeros frutos: la India posee hoy la capacidad de
fabricar y lanzar sus propios satélites de comunicaciones, meteorología
y percepción remota y en un futuro próximo esta capacidad será
rentable. Brasil, por sus propios medios, ha hecho posible un programa
para el lanzamiento de satélites de comunicaciones y de percepción
remota de diseño nacional. Pronto, ambos iniciarán actividades aún
más elaboradas que, en el momento propicio, se reflejarán en el
avance de múltiples campos de la ciencia y la tecnología en beneficio
de sus pueblos. Cabe mencionar aquí un notorio ejemplo de la
industria aeroespacial: Brasil ha colocado más aviones comerciales en
el mercado de los Estados Unidos, que éstos en el de Brasil, un país
que, por cierto, comparte con México muchos de sus problemas
económico-sociales, como el estar casi aplastado por la deuda. Esta
situación ilustra claramente cómo la tecnología aeroespacial llega a
volverse rentable, y a funcionar como un motor de desarrollo industrial
que favorece el avance de un país, aunque a veces sólo sirve para
mantenerlo a flote.
El ejemplo de Brasil da a su vez entrada a otro, de mucho mayor
importancia: entre los esfuerzos de científicos mexicanos por participar
directamente en el avance y utilización de la tecnología espacial, se
han tratado de establecer temas de colaboración de interés mutuo con
el Instituto de Pesquisas Espaciales (INPE) de Brasil (el organismo que
en el país hermano se encarga del programa espacial brasileño). Entre
los primeros pasos dados por los brasileños para colaborar con
nosotros, podemos citar gustosamente su ofrecimiento de entrenar a
uno de nuestros colegas en todos los aspectos técnicos y de
manufactura de materiales compuestos —aquellos basados en fibras
de carbono inmersas en termoplásticos—, uno de los materiales con
más futuro. Este es, estimado lector, un cabal ejemplo de
transferencia tecnológica: sin ataduras ni trampas y sin intereses
mezquinos detrás, que ejemplifica lo que a nuestro juicio es la
cooperación internacional, y más específicamente la cooperación
latinoamericana, presagio histórico y paso concreto en la inevitable
integración de la América Latina, sueño y proyecto de tantos de
nuestros próceres más destacados.
Los países sin programas espaciales nacionales, una vez percibidas las
amplias ventajas socioeconómicas del desarrollo aeroespacial,
habremos de realizar un esfuerzo especial para no quedar a la zaga en
cuanto al uso y aprovechamiento de los medios y herramientas que
prodiga tal actividad.
LABORATORIO ESPACIAL
Adentrándonos en el tema concreto de este capítulo, podemos
comenzar preguntándonos: ¿cuál será el mejor camino a seguir para
que usemos el espacio como extensión de nuestros laboratorios? La
cooperación internacional parece, en plena crisis, el único camino
viable en la actualidad. Los países más avanzados en materia espacial
han manifestado diversos grados de disposición para cooperar con los
países en vías de desarrollo. Con los Estados Unidos, que son los que
mejor conocemos por la amplia frontera que compartimos, se ha dado
cierta cooperación, sobre todo cuando requieren de algún servicio:
instalación de estaciones receptoras de datos de satélites
geográficamente favorecidas para su funcionamiento, recuperación de
equipo desviado de su trayectoria normal, vuelos de aeronaves con
funciones de seguimiento, estudio o calibración de equipo, colectas de
plantas como la candelilla, de donde extraen una cera de alta calidad
que utilizan en el proceso de elaboración de combustibles sólidos de
cohetes y explosivos; con este país, México ha sido invitado a
participar en los vuelos de viajeros espaciales, aunque, hay que
decirlo, con mucho más contenido propagandístico que tecnocientífico.
La URSS, por su lado, tiene también requisitos técnicos similares, pero
ha subido al espacio personal con dos años de intenso entrenamiento
de casi todos los países socialistas, así como de Francia, la India,
Afganistán y Siria (a juzgar por los informes de actividades de estos
vuelos, sí existe justificación más allá de la publicidad, pues aunque
entre sus invitados han tenido pocos científicos y sí muchos militares,
éstos han subido a cumplir trabajos que, aun con la poca información,
parecen eminentemente civiles). Sin embargo, para una comparación
justa se debe considerar que los sistemas de lanzamiento de la URSS
implican requerimientos médicos más estrictos, pues someten a sus
tripulaciones a niveles superiores de aceleración durante el despegue,
con lo que se reduce la elegibilidad de candidatos.
En el futuro, las actividades espaciales de tripulantes provenientes de
países en desarrollo pueden esperar una expansión gradual, y con las
experiencias previas ya asimiladas, seguramente se propugnará por
una mejora en la calidad de su participación; para esto es
indispensable que aumente la actividad de nuestros científicos e
ingenieros espaciales en el diseño autónomo o cooperativo de
experimentos y técnicas de observación en la órbita terrestre y los que
operan en la atmósfera; estos equipos serán instalados en las
plataformas y estaciones espaciales de las potencias dispuestas a
compartirlas, como una expresión concreta de su responsabilidad y
disposición de colaboración con los países en desarrollo.
También es imprescindible preguntarnos: ¿qué tipo de actividades nos
conviene realizar en órbita? Pero la respuesta sería muy vasta para
incluirla aquí, y conviene contestarla refiriéndonos más adelante a los
esfuerzos concretos que se realizan en la actualidad. Principalmente, y
quizá por prejuicio profesional, se nos presenta el reto de la ciencia de
los materiales, aunque también son muy importantes las actividades
medico-biológicas y de teledetección de recursos, ya mencionadas. Así
pues, describiremos a continuación algunas actividades científicas y
tecnológicas seguramente de mucho interés para diferentes disciplinas,
pero no sin antes advertir que, dadas las muchas aplicaciones de los
experimentos espaciales, que van desde la fisiología hasta la física de
fluidos, nadie en sus cinco sentidos puede pretender hacer justicia a
todos los temas en un escrito corto como éste. Advertidos de esta
necesaria limitación, procedamos a referir algunas de las experiencias
en camino.
LA EXPERIENCIA DE LA UNAM EN ÓRBITA
En 1985, en la Universidad Nacional se firmó un convenio con el
Consejo Nacional de Ciencia y Tecnología (CONACyT) y la Secretaría de
Comunicaciones y Transportes (SCT), cuyo objetivo es desarrollar las
primeras estaciones de experimentos automáticos para funcionar en la
órbita terrestre. Para dar cauce al proyecto, se propuso aprovechar las
relaciones de trabajo entre la SCT y la NASA, dirigidas a poner en órbita
el sistema de satélites Morelos. Así las cosas, un grupo de
universitarios se puso en contacto con la NASA para analizar la
factibilidad de realizar una serie de experimentos en microgravedad,
inicialmente relacionados con las ciencias de materiales y la percepción
remota.
Como antecedente cabe mencionar que, con el advenimiento del
transbordador, la NASA organizó un programa promocional llamado
"Pequeños Experimentos Autónomos" (PEA), que tiene una serie de
requerimientos relativamente sencillos: primero, la actividad no debe
interferir con las misiones del transbordador; segundo, debe ser
totalmente autónomo en cuanto a energía; y, claro está, no debe
generar ningún efecto indeseable para el transbordador y sus equipos,
ni para la tripulación desde luego; las cargas útiles que van a ponerse
en órbita tienen un límite de peso de 90 kg; deben sellarse 60 días
antes del despegue y no requerir de la NASA más que para la activación
de un interruptor durante el vuelo. Los costos son claramente
promocionales (10 000 dólares por contenedor), lo que los hace
accesibles a cualquier institución interesada en utilizarlos. Los usuarios
más comunes de los contenedores que asigna la NASApara este
propósito son las universidades y las agencias espaciales de otros
países. La distribución de contenedores reservados hasta el primer
semestre de 1988 era la siguiente: EUA, 400; RFA, 41; Japón y
Canadá, 19 cada uno; 12 de Inglaterra; 11 de Australia, y dos de
México, entre otros. En suma, el programa PEA hace posible el acceso
de equipos científicos a seis o siete días de microgravedad.
Para dar el mejor uso a los recursos invertidos en el convenio
mencionado, se consultaron, hasta donde el tiempo lo hizo posible,
docenas de especialistas de diferentes institutos de la Universidad
Nacional y otros centros de investigación del país, con lo que se
conformó una lista inicial de experimentos viables. A continuación se
hizo un proceso de selección que tomó en cuenta el tiempo necesario
para preparar cada experimento y sus costos probables; finalmente se
obtuvo una lista de diez experimentos, cuyo costo se estimó en 271
000 dólares, presupuesto que fue puesto a disposición de los
investigadores encargados. Además, se consideró necesario consultar
especialistas de la NASA para tratar de establecer si era posible
llevarlos a cabo en un periodo menor de 8 meses, para que
coincidieran con la puesta en órbita del segundo satélite Morelos.
La falta de especialistas en ingeniería aeroespacial en el país llevó a
localizar algún grupo universitario experimentado en la materia y
dispuesto a colaborar con los científicos de la UNAM. Durante los
primeros meses de 1985 se realizó una revisión sistemática sobre el
tipo de trabajo de investigación realizado en órbita durante la última
década, lo que nos permitió establecer cuáles son las universidades,
principalmente norteamericanas, con experiencia en el tema. En una
de las revistas que difunden el quehacer de la tecnología espacial,
incluida en la bibliografía, encontramos un artículo que describía los
trabajos espaciales de la Universidad Estatal de Utah (USU), que tenía
además la ventaja de que identificaba por su nombre a varios
profesores destacados de aquella institución.
Desde el primer contacto telefónico, los profesores de la USU se
mostraron interesados y abiertos a la cooperación, por lo que al día
siguiente se llevó a cabo una reunión entre los profesores de los
centros de Ingeniería Espacial y de Ciencias de la Atmósfera de la USU,
y un representante de la Universidad Nacional. La reunión contó con la
presencia de ocho profesores experimentados en el tema, incluidos los
directores de los mencionados centros, y dio inicio con una descripción
de los experimentos seleccionados por nosotros, así como con una
explicación de la oportunidad que nos brindaba la SCT junto con la
NASA. Fueron estos profesores los que sugirieron realizar dichos
experimentos dentro del programa PEA de la NASA. A continuación se
discutió detalladamente cada uno de los experimentos, sus objetivos,
alcances y metas. Es justo dar aquí reconocimiento al espíritu de
cooperación surgido espontáneamente entre científicos universitarios,
que a pesar de provenir de países con muy diferentes mentalidades,
no tuvieron reservas en cooperar.
El resultado de aquella reunión fue, en primer término, cerciorarnos de
que el proceso de selección de los experimentos automáticos había
producido una lista competente de actividades experimentales y
observacionales en órbita; segundo, nos permitió prepararnos para la
primera reunión que habríamos de tener al día siguiente en el Centro
Espacial de la NASA en Houston, para definir la solicitud que se iba a
someter a su consideración; y tercero, se nos ofreció, dada la premura
del suceso, la oportunidad de trasladarnos con un equipo de trabajo al
Centro de Ingeniería Espacial de la USU, donde se nos brindaría todo el
apoyo a su alcance, cosa que ocurriría durante los siguientes meses.
La primera reunión con la NASA fue un acontecimiento memorable, del
que se pudiera escribir un libro completo, dada la complejidad de los
temas discutidos, las actitudes de ambas partes, y la presencia de un
sutil ambiente de enfrentamiento, algo típico de pláticas entre
personas de países con grandes diferencias en desarrollo. Por un lado,
un representante del cliente (México, comprador de satélites) con un
firme propósito de aprovechar la oportunidad que se presentaba, y por
el otro, un equipo de ingenieros, inmersos en sus propios problemas, y
no muy dispuestos a aceptar complicaciones adicionales en su trabajo.
No obstante, en el curso de la reunión se fueron limando las asperezas
y los malentendidos, y se clarificó el panorama de lo posible y lo
alcanzable. En muchas discusiones fue necesario citar trabajos de la
misma NASA para que aceptaran la viabilidad de algunas de las
proposiciones. Después de una larga reunión, resultaron casi todos
convencidos de varias cosas: primero, que era posible desarrollar
incluso la lista completa de los experimentos seleccionados; segundo,
que se podría cumplir con la fecha tope, a pesar de que ésta era la
limitante principal; tercero, que se podía presuponer que ninguno de
los obstáculos y retos encontrados durante el desarrollo del equipo
resultarían insolubles; además, que era posible, sin tener la
experiencia de un ingeniero de la NASA, proponerles y demostrarles la
viabilidad de una serie de experimentos que a primera vista no les
parecían realizables. El tiempo nos dio la razón.
Un día después de esta última reunión, los funcionarios de la SCT y del
CONACyT tenían en sus manos un escrito informándoles sobre la
viabilidad del proyecto; sin embargo, habrían de pasar dos largos
meses, que devoraban el tiempo necesario para el desarrollo del
proyecto, antes de tener una respuesta favorable y un acuerdo
detallado sobre el financiamiento. Al mismo tiempo, debe reconocerse
públicamente que los integrantes del llamado "Grupo de Tarea", que es
el que realiza desde entonces el proyecto, hemos sido testigos de una
actitud digna de incluirse en una "antología antiburocrática", ya que las
dependencias participantes procedieron de manera sorprendentemente
rápida, en casi todos los complejos trámites.
Con el proyecto aprobado, se concertó una reunión directamente con
los especialistas del programa PEA del Centro Espacial Goddard de la
NASA, a la que asistieron cinco investigadores de la UNAM; la mayoría de
las sugerencias de la NASA fueron muy atinadas y constructivas; por
ejemplo, sugirieron dividir la serie de experimentos de la Universidad
en dos equipos diferentes; en el primero, dentro de un contenedor
sellado, fueron asignados aquellos experimentos que no requerían del
acceso a la amplia visión orbital ni a la radiación del medio ambiente.
Para la conducción de los experimentos dentro de esta primera
estación requeriríamos, como veremos, sólo de microgravedad y de
una conexión que permitiera hacer vacío dentro de una cámara. La
segunda estación automática requería de todas las condiciones
orbitales, incluyendo la visión amplia y la radiación directa, por lo que
fue necesario que para este segundo equipo se preparara un
contenedor que pudiera abrirse estando en órbita. En la figura 25 se
muestra un diagrama y una fotografía de los dos tipos de estaciones
automáticas.
Cuando todo parecía reducirse a un delicioso reto tecnocientífico,
surgieron inesperadamente nuevos problemas: fue necesario un viaje
del subsecretario de la SCT, acompañado del coordinador del proyecto,
con el objeto de estar en una reunión con el director general de
Operaciones Comerciales en la central de la NASA en Washington, para,
digamos, limar las últimas asperezas. Después de esta reunión, se
trasladó el grupo de diez universitarios a las instalaciones de la USU,
para iniciar el diseño y construcción de la primera estación; desde
aquel entonces se planteó integrar la segunda en las instalaciones de
la UNAM.
Quizá para algunos resulte didáctico conocer que, durante el trámite
para dar vida al proyecto, ocurrieron cuando menos unas cinco
"muertes y las correspondientes resurrecciones" del mismo, que si
bien repercutían en el ánimo de algunos en el grupo, hacían más
tenaces a los demás. No fue nada fácil, ni esperamos ni nos
ilusionamos que en el futuro lo sea.
EXPERIMENTOS DE LA PRIMERA ESTACIÓN AUTOMÁTICA
Dentro de la primera estación de experimentos automáticos se tenía
planeado incluir cuatro experimentos de la UNAM. Sin embargo,
acabamos instalando siete experimentos a bordo, porque hubo
necesidad de negociar con otras universidades una reservación que
nos diera el acceso a vuelo lo más pronto posible. De esta manera,
junto con el equipo de la UNAM se incluyeron experimentos de tres
universidades estadunidenses, uno de ellos provenía de la USU, para
retribuir en algo su colaboración. Sin embargo, la responsabilidad por
la seguridad de cada uno de los experimentos del contenedor siguió
recayendo en el equipo de la UNAM, por lo cual los experimentos de las
otras universidades fueron motivo de experiencia para nosotros.
Figura 25. Contendores autónomos para realizar experimentos en órbita. En
la fotografía pueden apreciarse dos contenedores fijos a la pared del
compartimento de carga. En el esquema se representan las dos alternativas
utilizadas
por
la
UNAM;
con
tapa
fija
y
móvil.
Solidificación de Zinalco
En julio de 1985 se comenzaron a construir tres de los principales
experimentos. El primero está relacionado con un estudio sobre la
microestructura del Zinalco —una aleación de zinc, aluminio y cobre.
Su objetivo principal es llevar a punto de fusión la muestra preparada
en tierra, para que en condiciones de microgravedad (sin corrientes
convectivas y sin el contacto con un crisol), se solidifique por
enfriamiento
dejando
que
su
microestructura
se
genere
espontáneamente sin tales efectos mientras todo el proceso se
controle y registre por una microcomputadora a bordo.
Para comprender las ventajas de realizar este proceso en órbita,
haremos una descripción un poco más detallada del razonamiento en
que se fundamenta este experimento: cuando se funde una mezcla de
metales en tierra, se da toda una serie de procesos internos que
determinan las propiedades mecánicas que va a presentar el producto.
Los factores que afectan dichas propiedades están relacionados con la
distribución y proporción de los aleantes —en este caso del zinc, del
aluminio y del cobre—, el material del cual está hecho el crisol (es
decir la vasija de fundición que se coloca dentro del horno), la
velocidad de enfriamiento desde el estado líquido hasta el sólido y, por
último, el tipo de impurezas que acompañan a los componentes
(ningún material es absolutamente puro, sino que generalmente está
acompañado de inclusiones que tienen una presencia casual y que son
llamadas impurezas). De estos cuatro factores, en un laboratorio en
tierra podemos controlar fácilmente la velocidad de enfriamiento y,
hasta cierto grado, el tipo y cantidad de impurezas presentes. No
obstante, nada podemos hacer respecto a las corrientes convectivas
térmicas y al contacto que tiene el metal con el crisol de fundición, el
cual influye de dos maneras diferentes: por un lado, las paredes del
crisol producen los llamados "centros de nucleación", sitios donde
comienzan a solidificarse, con el enfriamiento, los granos que formarán
la microestructura y cuya influencia no se puede caracterizar. Por otro
lado, con el enfriamiento del crisol, y su contracción térmica
resultante, se generan esfuerzos mecánicos en la muestra, efecto que
se manifiesta con variaciones desconocidas en su microestructura.
Es la órbita el único lugar donde podemos fundir un metal sin que se
presenten las corrientes convectivas, por lo que las aleaciones restan
notablemente más homogéneas en cuanto a la distribución de sus
aleantes. Adicionalmente, es también el único lugar donde podemos
prescindir del crisol, ya que la muestra puede flotar o levitar en una
zona seleccionada del horno. El objetivo central del experimento
preparado para esta primera estación es diagnosticar el papel y la
importancia que las impurezas tienen en el proceso de solidificación del
Zinalco.
Para conseguir este propósito, se controla la velocidad de enfriamiento
de la aleación por medio de un elaborado sistema de medición y
supervisión. La temperatura de la muestra es registrada por un
dispositivo que funciona sin entrar en contacto con la muestra.
Consiste en un sistema óptico que afoca la radiación infrarroja o
térmica que produce la muestra al ser calentada, sobre un detector de
selenuro de plomo, similar al que utilizan los equipos militares para ver
en la oscuridad y aquellos instalados en satélites que realizan
observaciones nocturnas desde el espacio. La radiación que emite la
muestra es convertida por el sistema mencionado en una señal
eléctrica que se capta en la microcomputadora dedicada al control y
registro de parámetros del experimento. Adicionalmente, se instaló un
sistema redundante, que funciona con base en termopares, y registra
también las temperaturas internas del horno. Este sistema puede, en
caso de falla, tomar las funciones del pirómetro óptico a fin de
asegurar un control adecuado, pero incluso si este sistema fallara no
se afectaría definitivamente el experimento, ya que éste puede seguir
sin los medidores de temperaturas, con base en un tercer sistema de
respaldo que hace uso de tiempos previamente estimados de duración
del experimento. La computadora recibe señales eléctricas de los
medidores de temperatura, compara sus valores con una tabla,
previamente almacenada en su memoria, y tiene la capacidad, con
base en una serie de programas, para tomar decisiones y evitar
acciones que afecten el experimento, por ejemplo, puede aumentar la
corriente en la resistencia que calienta al horno de grafito, donde se
encuentra la muestra de Zinalco, o la puede apagar intermitentemente
para fijar la velocidad de enfriamiento. Asimismo, la computadora
tiene un sector de memoria en el que almacena los datos adquiridos
durante la duración del experimento.
Por cierto que esta descripción ilustra uno de los criterios de diseño
clásico en equipo aeroespacial: el funcionamiento de un equipo debe
incluir la tolerancia de fallas, es decir, que el equipo deberá seguir
realizando su función, a pesar de que fallaran algunos de sus
componentes. Esto es además un ejemplo con muchas aplicaciones en
otras áreas, aunque se haya originado en la tecnología espacial, en las
que no se puede aceptar una falla total, como en el caso de los
sistemas de enfriamiento de un reactor nuclear. Claro que los eternos
escépticos de la técnica pensarán en Chernobil, pero ahí los culpables
no fueron los dispositivos ni los sistemas redundantes, sino las
personas que violaron los sistemas de protección automáticos y que
hoy día purgan condenas de cárcel. Por cierto que ahí, en Chernobil,
para salir del problema, actuó también la técnica espacial: se utilizaron
autómatas basados en exploradores móviles, que fueron los que
limpiaron los sectores peligrosamente radiactivos.
En el experimento del Zinalco, el horno fue fabricado con grafito en
vista de su excelente conductividad, facilidad de maquinado y
estabilidad térmica de este material. Dicho horno se calienta por medio
de una resistencia que lo rodea por afuera. Originalmente la muestra
tiene forma cilíndrica y se atornilla para el despegue a una de las
paredes internas del horno. Para evitar que la muestra fundida se
pegue a las paredes del horno, el interior de éste fue cubierto con una
capa de nitruro de boro, que es un material que además de resistir
temperaturas hasta de 800ºC, evita el mojado o la adhesión. A través
de un pequeño orificio en la pared del horno, el teledetector infrarrojo
registra continuamente la temperatura de la muestra. En la figura 26
se muestran un esquema y una fotografía del horno.
Figura 26. Horno para hacer estudios de solidificación de aleaciones en órbita;
se encuentra en la UNAM.
Aun cuando el trabajo desarrollado para la fabricación de la estación es
producto colectivo de fisicos e ingenieros, el responsable del diseño de
los dispositivos descritos es un investigador del Instituto de
Investigación en Materiales de la UNAM, uno de cuyos frutos es el
Zinalco.
Crecimiento de interfases
Otro de los experimentos a bordo, propuesto por el Instituto de Física
de la UNAM, está diseñado para estudiar el proceso de crecimiento de
un material evaporado sobre una superficie cristalina cuyas
propiedades se conocen por toda una serie de estudios realizados con
anterioridad, como microscopía electrónica y difracción de electrones,
lo que, decíamos, permite saber la posición de los átomos en una
superficie.
El crecimiento de una película de aluminio sobre la superficie cristalina
se realiza por una evaporación, aprovechando el vacío orbital. Para
estos fines, una pequeña canastilla de tungsteno, metal que soporta
temperaturas arriba de 3 000ºC, es cargada con aluminio de alta
pureza. Al pasar una corriente eléctrica por la canastilla, el aluminio se
funde y después comienza a evaporarse, como cualquier otro líquido
que alcanza su punto de ebullición. Los átomos de aluminio que se
desprenden de la canastilla viajan en todas direcciones; sin embargo,
en este caso nos interesan aquellos que recorren la distancia recta que
hay entre la canastilla y una serie de cristales en donde queremos que
el aluminio se vaya depositando.
El crecimiento de interfases entre dos sólidos plantea una serie de
preguntas básicas aún por contestar y, por su importancia práctica en
muchos problemas de la técnica, como la microelectrónica y la física de
superficies, requiere de estudios cada vez más detallados. Algunos
estudios realizados por medio de simulación en computadoras, basan
la adhesión de átomos a una superficie en dos factores principales, que
en conjunto determinan la posición final de los átomos sobre el cristal:
el más importante son las fuerzas que encuentra el átomo al acercarse
a la superficie y en segundo término el ángulo de llegada de cada
átomo. Las fuerzas atómicas, siempre presentes en la superficie de un
sólido, son el resultado de la disposición de los átomos más cercanos a
la superficie y su intensidad depende de muchos factores: el grado de
orden en los átomos, el tipo de átomos y la forma de la superficie. Por
otro lado, es fácil imaginar que un átomo con una trayectoria rasante,
casi paralela a la superficie, tendrá una posición diferente antes de
adherirse a ésta, que otro átomo igual, pero que llega en dirección
perpendicular. Asimismo, según se vayan depositando los primeros
átomos en la superficie se irán modificando estas mismas fuerzas
superficiales debido a la presencia de las llamadas "islas" atómicas (las
agrupaciones de los primeros átomos al irse adhiriendo a la nueva
superficie). Estas islas, de sólo algunos átomos de espesor, van
creciendo en tamaño hasta juntarse unas con otras, en el proceso
conocido como coalescencia, algo análogo a lo que ocurre con las
gotas de agua que se unen en una ventana durante la lluvia, éste es el
fenómeno que se estudiará al recuperar las muestras.
En el experimento espacial se espera que la mayoría de los átomos
llegue a la superficie de los cristales con trayectorias perpendiculares y
que los procesos de coalescencia sean estricta y únicamente
dominados por las fuerzas superficiales. Los tipos de cristales
seleccionados para este experimento fueron mono y policristalinos,
ambos de un centímetro de diámetro, lo que quiere decir, en el primer
caso, que el cristal está formado de un arreglo atómico uniforme,
mientras que los materiales policristalinos —los más comunes en la
naturaleza—, están formados de diversos granos, cada uno con su
propia orientación en el arreglo atómico, pero cuyas fronteras se tocan
entre sí, como en el caso de metales. Cabe anotar que la industria
mícroelectrónica utiliza principalmente monocristales de silicio,
arsenuro de galio y dióxido de silicio, por lo que los estudios de las
propiedades fundamentales de estos materiales son indispensables
para el mejoramiento del diseño y las características de
funcionamiento de los microcircuitos. Dentro de los materiales
policristalinos incluidos en este experimento se colocaron también
cristales de plata y cobre de alta pureza. Experimentos similares han
sido conducidos en naves de la NASA y próximamente por
investigadores de Japón.
En las figuras 27 a y b hay una representación del dispositivo para la
evaporación de aluminio; consta de tres lóbulos dentro de los cuales se
evaporan, sobre una serie idéntica de cristales, diferentes cantidades
de aluminio; además, en dos de los lóbulos se instaló un elemento
calentador, con el que se pueden someter las muestras a un
tratamiento térmico previo o posterior a la evaporación. La manera de
lograr vacío dentro de la cámara de evaporación es por medio de un
orificio conectado al vacío espacial exterior al contenedor, por lo que a
partir del despegue, la cámara comienza su evacuación hasta alcanzar
valores de vacío de equilibrio para una órbita determinada.
Figura 27. Dispositivo mexicano para estudiar, en órbita, el crecimiento de
cristales
a
partir
de
la
fase
gaseosa.
Vacío y temperatura
Se sabe que los valores de vacío dependen de la altura a la que vuela
la nave, pero también dependen de la interrelación entre la posición
del orificio de evacuación, la dirección de vuelo de la nave y su
atmósfera local, que es principalmente vapor de agua que se impregna
en las placas cerámicas protectoras de la nave, y que son de
naturaleza porosa e higroscópica. Cuando el orificio coincide con la
dirección de vuelo, el vacío se deteriora al punto de alcanzar valores
como los obtenidos con un sistema de vacío convencional (10-4 Torr; el
Torr es una unidad para medir vacío, viene del nombre del científico
Torricelli, 1 Torr equivale a la presión de 1 mm de mercurio); en
cambio, cuando el orificio apunta en la dirección contraria al vuelo,
dentro de la cauda o estela que sigue a la nave, se pueden alcanzar
vacíos extraordinarios, imposibles de obtener con equipo en tierra (1015
Torr).
Debido a que los valores de vacío dependen de toda la serie de
factores anotada, no era posible conocer con anterioridad qué niveles
se iban a alcanzar exactamente, por lo que uno de los dispositivos a
bordo de este contenedor es un medidor de vacío, conocido como
cátodo frío. Este medidor está instalado entre el orificio que da al
espacio exterior y la cámara de evaporación, además de que también
está conectado a la microcomputadora que maneja los parámetros
clave del experimento de evaporación de aluminio y guarda los
registros de las medidas de vacío, datos que permanecerán
almacenados para su análisis posterior, a la vez que alimentan durante
el experimento continuamente al controlador para poder utilizarlos en
la secuencia de decisiones de control programadas.
Por último, se realiza una serie de medidas de temperatura en
diferentes lugares de la estación automática. Esta actividad tiene
varios propósitos simultáneos: por un lado, las medidas de
temperatura se utilizan como medio para prevenir que la falla de algún
dispositivo eleve excesivamente la temperatura del contenedor; para
esto existe una malla de control capaz de interrumpir cualquiera de las
actividades experimentales en caso de que se registren temperaturas
por encima de un umbral prestablecido por la agencia lanzadora.
Además, los múltiples puntos para realizar las mediciones nos servirán
en el futuro para validar modelos térmicos utilizados para predecir las
temperaturas en diferentes localidades de un equipo espacial, actividad
fundamental para la operación en órbita de un equipo, en el que
efectuar el balance térmico es indispensable, como en los satélites de
vuelo libre.
SEGUNDA ESTACIÓN AUTOMÁTICA DE LA UNAM
Si bien hemos venido haciendo una descripción de diversas actividades
experimentales que es posible realizar en órbita terrestre, aquí nos
vamos a referir a un equipo espacial que está en preparación en la
Universidad Nacional y que probablemente subirá a órbita en los
próximos años. Como en el caso del equipo anterior, el dispositivo que
vamos a describir aquí es parte del proyecto de experimentos
espaciales a bordo de transbordadores, que se inició en 1985, y cuya
primera parte estaba programada para ponerse en órbita en marzo de
1986. El segundo contenedor con experimentos espaciales se
diferencia del primero en que, como decíamos, está equipado con una
tapa que puede abrirse en órbita; por lo tanto, los equipos interiores
quedan expuestos directamente a todas las condiciones espaciales de
la órbita terrestre.
Estrictamente, esta segunda estación no puede considerarse como un
avance sobre la anterior; en realidad significa un complemento al tipo
de actividades de la primera, y es igualmente una incursión en temas
de gran importancia dentro de las actividades que hoy se realizan
utilizando la órbita como extensión de nuestros laboratorios.
Quizá el experimento más importante de la segunda estación es el
relacionado con la adquisición de imágenes del territorio nacional por
medio de cámaras electroópticas, es decir, cámaras que no utilizan
películas fotosensibles, sino que captan la imagen por medios
electrónicos. El experimento o, más propiamente, la observación que
se realizará con estas cámaras, está basada en la operación de dos
cámaras, una electroóptica y otra una cámara convencional de alta
definición, capaz de discernir objetos de menos de diez metros desde
la órbita terrestre. Ambas cámaras se encuentran dirigidas hacia el
mismo
objeto,
y
sus
respectivos
registros
tienen
valor
complementario. La cámara optoelectrónica adquiere imágenes
multiespectrales, como las descritas en el capítulo III, y se utilizan,
como mencionábamos, después de realizar un procesamiento por
computadora de sus datos; las imágenes grabadas en la cámara de
película, al contrario, tienen un registro permanente, con alta
resolución, de los rasgos del terreno de donde fueron adquiridas las
imágenes multiespectrales. La importancia de esta experiencia radica
en que es el primer paso para el diseño y fabricación de un futuro
satélite de percepción remota, y que además se podrá instalar a bordo
de aviones de control remoto o ultraligeros, de bajo costo; los datos
obtenidos de estas actividades tendrán para todos nosotros una gran
importancia, ya que las imágenes de satélite, aunque existen, están
fuera del presupuesto de la mayoría de los estudiosos del tema.
También dentro de este contenedor se colocarán las primeras celdas
solares de fabricación totalmente nacional y, como es de suponerse,
también este experimento está relacionado con el desarrollo ulterior de
equipo espacial que requerirá sus propias fuentes de energía eléctrica.
Las celdas solares son, de hecho, convertidores de energía luminosa
en electricidad, están fabricadas con base en obleas (discos que
presentan similitudes con las hostias) de silicio monocristalino, que
sólo recientemente se ha podido obtener en nuestro país, como
resultado de los tenaces esfuerzos de investigadores de la Universidad
Autónoma de Puebla.
Partiendo de la oblea de silicio se procede a depositar una serie de
capas finas, fotoeléctricas y protectoras, sobre la superficie pulida del
silicio, cuyas propiedades posibilitan la conversión de luz a electricidad
mencionada. El objetivo de colocar estas celdas en órbita es evaluar su
comportamiento en las condiciones extremosas de la órbita terrestre.
Cuando sean recuperadas, se realizará en ellas una serie de análisis
para determinar el tipo de degradación causada por la radiación solar y
cósmica que literalmente "microapedrean" todo lo que orbita. Además,
durante el experimento, las celdas solares van conectadas a una serie
de baterías para evaluar su eficiencia durante los ciclos de carga y
descarga de las mismas. Parte de la energía captada con los arreglos
solares será utilizada en los demás experimentos a bordo.
También, teniendo en mente futuros satélites de diseño nacional, se
colocará a bordo de esta estación una serie de sensores para
determinar la orientación del contenedor durante el vuelo. Los
sensores funcionan detectando la radiación directa del Sol, y aquella
que refleja la Tierra. Estos sensores están colocados debajo de unas
rejillas que permiten el paso de la luz solamente en determinadas
direcciones y, utilizados en combinación unos con otros, hacen posible
que se conozca la dirección de la que proviene la iluminación. Con
estos datos se puede calcular a bordo la posición y orientación de un
satélite con relación al Sol y a la Tierra. Es algo conocido que la
posición de la estación automática, que tiene una montura fija en
relación con el transbordador, se conoce en todo momento debido a la
información típica de un vuelo de este tipo. Sin embargo, el objetivo
de este experimento es, una vez más, preparar y probar los
dispositivos que irían a bordo de cualquier satélite que preparemos en
el futuro.
Otro de los experimentos a bordo se relaciona con una aleación que
posee ciertas propiedades de "memoria" muy especiales. La
termomemoria es una propiedad muy estudiada en las últimas décadas
que se relaciona con la capacidad de un metal para adquirir diferentes
formas cuando es sometido a diferentes temperaturas. Conociendo y
manipulando los rasgos de la microestructura de este tipo de
aleaciones, se pueden fabricar piezas que respondan de la manera
deseada a los cambios de temperatura específicos. Si recordamos que
en órbita cualquier equipo está sometido a ciclos de oscuridad total e
iluminación solar directa cada 90 minutos aproximadamente, y
además, que un material en el espacio baja su temperatura más de
cien grados cuando está a la sombra y sube hasta ciento cincuenta
grados con el calentamiento solar, podemos imaginar que las
aleaciones con termomemoria pueden resultar muy útiles en varias
aplicaciones, entre las que destaca la orientación de colectores solares,
que aprovechando los ciclos de frío y calor pueden diseñarse para ser
orientados automáticamente y quizá durante millones de ciclos en la
dirección de máxima iluminación solar. De resultar exitoso este
experimento, desarrollado en conjunto con el mencionado especialista
del Instituto de Investigaciones en Materiales de la UNAM, se intentará
incluir este medio de control de posición, que no requiere de partes
mecánicas móviles que puedan fallar, como uno de los elementos a
utilizarse en nuestros próximos equipos.
También dentro del equipo se instalará nuestro primer dispositivo para
purificar material biomédico, por medio de la mencionada
electroforesis. De nuevo, buscamos experiencia en un campo que
promete resultados de gran valor en sus futuras aplicaciones. Su
diseño, hoy en pleno desarrollo, es un proceso bastante elaborado, en
el que dominan los criterios dirigidos a evitar la posible contaminación
del producto, los medios para iniciar su proceso y frenarlo a voluntad
según el control automático inteligente"; es decir que el experimento
requiere de un elaborado programa capaz de tomar la mejor decisión
ante condiciones variables y ante fallas de los componentes; y la
capacidad de almacenar el producto hasta que sea recuperada sin que
se deterioren sus propiedades activas. El producto final, si resulta
exitoso en el primer intento, sería utilizado en investigación
inmunológica en el Instituto Nacional de Nutrición de donde también
participan en el diseño y la selección de sustancias interesantes y
útiles. Se planea continuar el desarrollo de estos dispositivos hasta
lograr en la próxima década fármacos cada vez más útiles y ahora
difíciles de producir.
Como puede observarse con la revisión de los experimentos incluidos
en este segundo contenedor, con estas experiencias se intenta
incursionar en la serie de temas cuyo desarrollo parece ser el más
prometedor en el panorama actual. Resumiendo, podemos calificar los
trabajos en órbita de la Universidad Nacional como un intento por
encontrarnos dentro de algunas de las tendencias del avance
tecnocientífico desde los primeros momentos en que se está gestando
este nuevo campo; con ello, esperamos evitar que en diez o quince
años, leamos con cierto celo y perplejidad los avances alcanzados por
alguno de los países cuyos programas y políticas espaciales les
permiten desarrollar estas actividades con oportunidad. Quizá hoy día
muchos entre nosotros, incluyendo a científicos en otros campos,
todavía no alcancen a calificar estas actividades como útiles y
necesarias para un país que busca el desarrollo, pero aquellos que
trabajando en estos temas percibimos su importancia y potencial, nos
sentimos absolutamente confiados en que el nada despreciable, pero
aún insuficiente presupuesto dirigido hacia estos logros, está absoluta
y responsablemente justificado. Insistiremos: la investigación espacial
está lejos de ser un lujo; es un camino nuevo del avance
tecnocientífico que fructificará con creces los esfuerzos e inversiones
por convertirlo en otro campo de investigación en los que el país pone
sus esperanzas de que sirva, en su momento, para forjar un mejor
futuro para sus ciudadanos, claro está, en parte, en proporción al
apoyo.
Éstas son las actividades que se nos ocurren como las más
importantes para este momento: sin embargo, el panorama futuro
tiene elementos de incertidumbre aún mayores. No obstante, en el
próximo capítulo trataremos de presentar los aspectos más
importantes del panorama que estimamos como el futuro venidero.
V I I .
H A C I A
E L
F U T U R O
INTRODUCCIÓN
PARA hablar del futuro es necesario describir los acontecimientos
actuales, ya que acaso sólo así se puede proyectar un panorama con
bases. Si bien en las ciencias e ingeniería espaciales casi todo es
futuro, estamos viviendo ya las primeras décadas de actividad
práctica. Todo lo relacionado con el tema es de actualidad, se está
haciendo, o queda, todavía, por hacer; esto último es particularmente
cierto en los países en desarrollo, que en su mayoría se mantienen al
margen o dan apenas sus primeros pasos en el campo aeroespacial.
Para comenzar trataremos de establecer una comparación y evaluación
del estado actual de las actividades espaciales de los países más
avanzados y continuar después con un análisis de los diversos
aspectos de estas actividades, en el que se resuman y destaquen los
puntos de interés centrales en este libro, por ejemplo, el campo de los
materiales multicomponentes. También aprovecharemos para señalar
aquellos factores que particularmente en nuestro país frenan el avance
de estas actividades. Asimismo, hablaremos de las estrategias y las
herramientas a nuestro alcance que pueden servir para forjarnos un
futuro en el área espacial, sin dejar de tratar también los aspectos del
contexto socioeconómico en que se dará su aprovechamiento; para
finalizar, se puntualizarán algunas de las metas que podemos alcanzar
en el corto plazo.
Las apreciaciones que siguen a continuación, debe aclararse, carecen
de datos suficientemente comprobados que las ubiquen más allá de la
duda; son, pues, material que hay que tratar con cuidado, aun cuando
se trató de evitar conclusiones en casos de duda en cuanto a la
veracidad de las fuentes originales, además de que reflejan la visión de
quien está abordando un tema más general que aquel donde se siente
en casa. Sin embargo, me atrevo a hacer tales apreciaciones con el
ánimo de proyectar el panorama que veo en el ejercicio del trabajo, y
aún más, deseando suscitar una sana polémica con lectores que así lo
quisieran, para evolucionar en colaboración, hacia posiciones más
atinadas y practicar la tarea de afinar el juicio.
LOS SATÉLITES DE COMUNICACIONES
La industria aeroespacial, sólo en Estados Unidos, empleó 836 000
personas en 1988. Esta cantidad ha ido en aumento desde las
primeras décadas del siglo. Para un país como ése, la industria
aeroespacial representa el primer contribuyente de la balanza de
pagos; en 1987, por ejemplo, sus exportaciones —dirigidas
mayoritariamente (80%) a cuatro países: Inglaterra, Canadá, Francia
y la RFA—, alcanzaron 102 000 millones de dólares. Anteriormente en
la actividad espacial estadunidense el empleo de personas había
pasado de 140 000 en 1983, a 220 000 en 1988, mientras que la URSS
tiene 600 000 especialistas (claro está que se debe considerar que la
cifra estadunidense refleja, además, la baja actividad que causó la falla
de varios de sus sistemas de lanzamiento, como el transbordador y
dos tipos diferentes de cohetes). La NASA aumentó su presupuesto de
8 900 millones de dólares en 1988 a 11 500 para 1989, con lo que
espera retomar la iniciativa espacial cuando menos en algunos rubros;
ya no son épocas para destacar en todo. En cuanto a la distribución de
gastos dirigidos hacia las actividades espaciales, cabe señalar que 70%
van destinados a satélites de comunicación civiles y militares.
En general, los satélites de comunicaciones (satcoms) son estaciones
repetidoras colocadas sobre un punto fijo en la órbita ecuatorial, la
llamada órbita geoestacionaria (OGE), que se encuentra a una
distancia de cerca de 36 000 km "anclada" sobre algún punto fijo de la
superficie terrestre. A esas alturas los satélites giran en sincronía con
la rotación de la Tierra, de donde les viene la oportuna propiedad de
mantenerse fijos sobre un punto prestablecido de la superficie
terrestre. Para colocar un satélite en la OGE es común, primero,
colocarlo en una órbita terrestre baja; una vez ahí, los satélites
encienden sus propios motores para impulsarse y colocarse en el plano
ecuatorial, plano en el que se corta imaginariamente la Tierra en dos
por el ecuador, como una naranja. Aunque a primera vista los satcoms
parecen equipos muy complicados, resultan ser en realidad
relativamente sencillos: constan de captadores solares que convierten
la energía solar en energía eléctrica, que almacenan en baterías, para
poder seguir funcionando en los momentos que la sombra de la Tierra
los cubre; poseen, también, tanques de combustible y pequeños
motores de reacción capaces de corregir su posición orbital, que
continuamente es perturbada por la acción gravitatoria de la Luna, el
Sol y las variaciones gravitacionales propias de la Tierra; su equipo
central
consta
de
antenas
diseñadas
para
recibir
ondas
electromagnéticas que portan información, mandada desde una
estación central en tierra, para, después, enviarla hacia regiones
específicas del planeta, que por lo general son los países que pagan los
gastos del sistema, su puesta en órbita y operación. Para recibir una
señal, los satélites cuentan con una serie de dispositivos llamados
transpondedores (TPD), que operan en diferentes frecuencias como las
estaciones de radio. Para los primeros meses de 1988 había en órbita
524 transpondedores, muchos de los cuales están llegando al fin de su
vida útil. Se espera que para 1996 su número llegue a 710;
conociendo su costo unitario, podemos calcular que, hasta esa fecha,
el comercio acumulado con estos dispositivos llegará a ser de 5 200
millones de dólares.
La gran mayoría de los satélites operan sus transpondedores en la
banda "C", que abarca un intervalo de frecuencias que van de 3.7-6.4
Ghz (la G se refiere al prefijo Giga que es un uno seguido por nueve
ceros, el Hertz o hz es la unidad de frecuencia, un ciclo por segundo),
y que según se ha acordado internacionalmente serán utilizadas
exclusivamente
en
comunicaciones
satelitarias.
Las
nuevas
generaciones de satélites operan en frecuencias mayores: 11.7 a 14.5
Ghz, en la llamada banda Ku, lo que permite que se usen antenas
parabólicas receptoras más pequeñas. La tendencia de los nuevos
satélites es utilizar crecientemente la banda Ku; sin embargo, en los
últimos y próximos años se puede hablar de un periodo de transición
con los satélites de tipo híbrido, en los que los transpondedores
funcionan parte en la banda C y parte en la Ku. El sistema de satélites
Morelos por ejemplo, adquirido por México en 1985, es precisamente
de tipo híbrido, y tenía en ese momento un costo total de cerca de 200
millones de dólares. A raíz de los problemas del transbordador, la
incertidumbre de operación de sistemas espaciales, y en particular,
valga la frase, la inseguridad en la que han caído las compañías
aseguradoras, hizo que en 1988 el mismo sistema fuera cotizado en
422 millones de dólares. Si en 1985 el precio por transpondedor era de
5.3 millones de dólares, hoy en día ese costo ha aumentado un 20%;
en cualquier caso, el incremento del costo de los satélites se debe a la
duplicación no tanto del costo del satélite y sus subsistemas, como del
costo de lanzamiento y de los seguros de protección.
Debido a la limitación de la vida útil que tiene cualquier equipo, se
estima que para 1996 todos los transpondedores hoy en órbita estarán
fuera de operación, por lo que deberán ser remplazados
continuamente por otros. Además, debemos considerar las
expansiones de servicios esperados de los satcoms, entre las cuales
están: 1) redes privadas de comunicación, de voz y datos, para uso
exclusivo de grandes corporaciones o gobiernos, renglón en el que se
espera un incremento máximo de nuevos servicios; 2) programas de
televisión enviados por cable a los hogares con miras al
entretenimiento (y a la nada despreciable penetración cultural); 3)
difusión directa de los cada vez más frecuentes "eventos especiales"
de televisión; y, 4) a partir de 1993 se puede esperar un importante
aumento de los servicios de comunicaciones móviles, tanto para
vehículos en tierra, como en mar y aire. Sobre estos nuevos servicios,
las cifras de 1988 indican que las redes privadas ocuparon 94
traspondedores, mientras que en 1995 llegarán, según los
especialistas, a 315. La razón es que para muchas empresas
transnacionales, el servicio público de comunicaciones aun en los
países desarrollados, resulta más complicado, costoso e incierto. Otra
ventaja notable para el público, en cuanto a los cambios de frecuencias
de transmisión en los satélites, de la banda C a la Ku, en la banda Ku
tendrán de seis a siete veces más potencia, lo que significa para el
consumidor el poder utilizar antenas mucho más pequeñas que las que
ostentan múltiples residencias de la ciudad de México; el tamaño de
los platos receptores muy probablemente llegará a ser de la sexta a la
octava parte de los armatostes que hoy observamos. La ventaja de los
satélites con transpondedores híbridos, como el caso de los Morelos, se
basa en los costos unitarios, ya que generalmente los satélites emiten
en una banda, o en otra, y sin embargo, para un periodo de transición
como el referido, lo que conviene es contar con ambos tipos a bordo
para suavizar los problemas que implica cambiar el equipo de tierra,
que es diferente, no sólo por el tamaño de los platos receptores, sino
por la electrónica de recepción y procesamiento. A pesar de esta
ventaja, surge también un problema: si se tienen los transpondedores
de la banda Ku en órbita, es necesario, considerando su vida limitada,
darles uso lo más rápidamente posible, lo que implica gastos
considerablemente mayores que los requeridos para la recepción de la
banda C (pues su uso ya establecido ha permitido que los costos del
desarrollo de la electrónica bajen). En lo que se refiere al futuro,
podemos confiar en que la tendencia en el diseño de satcoms será la
de aumentar el número y la potencia de cada transpondedor, y
asimismo, se puede esperar que los satcoms seguirán dominando la
mayor parte del mercado espacial, cuando menos hasta el fin del siglo,
por lo que se mantendrá una fuerte demanda que progresivamente iría
inclinándose hacia los transpondedores de la banda Ku.
EQUIPOS PARA LANZAMIENTO
En lo tocante a las inversiones en las actividades espaciales, el
segundo renglón en importancia es el desarrollo y operación de
diversos sistemas de lanzamiento que, a manera de clasificación, se
catalogarían en propulsores recuperables y desechables. Los sistemas
recuperables están diseñados para utilizar repetidamente algunas de
las partes más costosas. Los ejemplos más conocidos son los
transbordadores estadunidenses y el Burán soviético, basados, en el
caso de Estados Unidos, en un sistema de propulsión doble; por un
lado, en el empenaje o cola del orbitador, los motores de combustible
líquido, que queman una combinación de oxígeno e hidrógeno,
almacenados en el tanque central de gran tamaño y administrados por
medio de bombas que inyectan el combustible y oxidante dosificados a
las cámaras de combustión; además, a cada lado del tanque central se
encuentran dos motores impulsores que utilizan combustible sólido,
previamente mezclado con su oxidante. La combinación de los motores
de combustible líquido y sólido funciona simultáneamente hasta que se
agotan los impulsores sólidos, que se separan a los dos minutos de
lanzamiento, y están provistos de equipos de paracaídas para ser
recuperados y reutilizados. Una vez separados los impulsores, el
transbordador continúa su ascenso, más ligero, bajo el impulso de los
motores de combustible líquido, que funcionan hasta agotarlo. En esa
etapa el orbitador, que tiene la forma de un avión con ala delta
(triangular), entra en órbita, y se separa del tanque principal, que es la
única parte desechable del sistema, pues se quema al entrar dando
tumbos a la atmósfera. Las ventajas que teóricamente presenta este
tipo de sistema se basan en la reutilización de las partes más caras de
un lanzador en otras misiones. No obstante, en la práctica, este nuevo
concepto se ha encontrado con problemas técnicos.
Para el caso de los lanzadores desechables, históricamente precursores
de la actividad espacial, pueden estar hechos también con motores de
combustible líquido o sólido; estos últimos se colocan alrededor de la
primera etapa en diferentes disposiciones radiales, según los
requerimientos de la misión. Sus ventajas principales se relacionan con
la ya larga experiencia en su utilización y el gran control de calidad de
sus partes (se producen en serie, lo que permite un estricto control de
sus características). Como en el caso de los datos en relación con los
satcoms, sólo citaremos una serie de datos e información que permitan
al lector deducir sus propias conclusiones sobre las actividades
espaciales en la actualidad, así como también tener una idea de las
tendencias más importantes en el futuro.
El estado actual de los equipos de lanzamiento es, en una palabra,
desconcertante, aunque para ser justos, debemos señalar que el
desconcierto proviene más del llamado mundo occidental, que de la,
hoy por hoy, primera potencia mundial espacial, la Unión Soviética. El
desconcierto al que nos referimos, como suele ser en estos casos, no
proviene solamente de problemas técnicos y científicos, se diría que
más bien proviene de una limitante filosófica.
Para fundamentar la aseveración anterior, estoy convencido de que
conviene presentar al lector algunas experiencias directas. Cuando a
finales de la década de 1960, en plena vida el proyecto Apolo, se
presentaban ante la prensa los impresionantes planes del futuro
programa espacial de los EUA, no faltaban nunca ni bombos ni platillos.
Como estudiantes de ingeniería aeroespacial en los últimos años de la
carrera, era algo común que recibiéramos la visita de los promotores
asociados a las grandes empresas, que entonces preparaban las
diversas alternativas de un transbordador, de donde debía surgir el
diseño más apropiado del equipo que sustituiría, según ellos de una
vez por todas, los cohetes tradicionales que, no obstante, les habían
servido bien en el proyecto Apolo y en buena parte de las
investigaciones planetarias. Con el transbordador se iniciaba la Era de
los Equipos Recuperables. En aquellas fechas, todos los estudios eran
favorables a la introducción de equipo recuperable, que por esta virtud
hiciera caer los costos de poner cada tonelada en órbita hasta niveles
que, en el papel, oscilaban entre la cuarta y la quinta parte de lo que
costaban entonces los programas en boga.
Seguramente muchos quedarán impresionados por los siguientes
datos: la estancia de un astronauta en la Luna costaba 30 000 dólares,
¡cada segundo! El costo de los varios kilogramos de material lunar
traído durante el proyecto Apolo fue de 1 000 millones de dólares, y
entre 1958 y 1972 los EUA gastaron 63 000 millones de dólares en
actividades espaciales (en cualquier caso, sirva de comparación que,
algo millones de veces más inútil y oprobioso, como la guerra a
Vietnam, costó a los estadunidenses 120 000 millones de dólares). En
contraste,
los
robots
de
exploración
automática
Lunajod
proporcionaron a la URSS una cantidad suficiente de rocas lunares, a un
costo cinco veces menor.
Sin embargo, las nuevas tecnologías, o como se reconoce hoy en día,
el mito de las nuevas tecnologías, habrían de costar muy caro a
aquellos que con la sola promesa de un supersístema de lanzamiento
anulaban la cohetería desechable, sin calcular que los cohetes
convencionales seguían siendo útiles.
Paradójicamente, el estado general de los últimos años del programa
espacial norteamericano presenta los siguientes signos diagnósticos:
1) falla catastrófica e identificación de múltiples problemas serios con
el transbordador espacial; 2) una serie de fracasos en el lanzamiento
de cohetes desechables, supuestamente confiables; y en consecuencia
una indecisión gubernamental sobre los caminos que ha de seguir el
esfuerzo espacial —quizá sea este el problema más serio— y, por si
fuera poco, un desacuerdo de la comunidad aeroespacial sobre las
mejores vías para la recuperación.
Sobre las repercusiones del trágico final del Challenger y su tripulación
en el programa norteamericano, es necesario explayarnos un poco
más, pues el accidente expuso las concepciones filosóficas erróneas en
las que incurrió la NASA y en las que puede caer cualquiera al
emprender programas en búsqueda de una supuesta modernización,
que no aproveche ampliamente las experiencias previas y la capacidad
instalada.
Entre los efectos que tiene el accidente del transbordador podemos
citar las siguientes repercusiones: 1) freno a la investigación espacial
en ciencias de la microgravedad, y en la colocación de equipos
autómatas avanzados ya preparados para el estudio del sistema solar;
2) reducción de operaciones, de 24 vuelos anuales programados (en la
década de 1970 se hablaba de hasta 100 vuelos anuales) a menos de
la mitad, hecho que por sí solo duplica el ya alto costo de operación del
sistema completo. Al respecto, el profesor emérito norteamericano
James A. Van Allen, que tiene en su haber no sólo el descubrimiento,
en 1958, de los famosos cinturones de radiación alrededor de la Tierra
que llevan su nombre, sino que además fue el investigador principal en
el desarrollo de 24 satélites y misiones planetarias, expuso las
siguientes opiniones sobre el transbordador: 1) "al ritmo, considerado
optimista, de ocho a diez lanzamientos al año, el transbordador se
convierte en el sistema más costoso y menos robusto [que en el
lenguaje espacial significa menos confiable], además de inadecuado
para las necesidades de Estados Unidos"; 2) "el fracaso de la política
nacional del uso exclusivo del transbordador tripulado para lanzar todo
tipo de satélites —muchos de los cuales no requerían de la
intervención de astronautas— que sólo fue aclarado ante el público con
el accidente del Challenger". Durante los primeros vuelos exitosos del
transbordador, se llegó a confirmar, ilusoriamente, que los equipos
desechables quedaban atrás. Y adelantándose en los hechos, el mismo
Van Allen añade: 3) "el desarrollo de una gran estación espacial es en
estos tiempos, groseramente inadecuado; deberíamos buscar avances
paulatinos mucho menos costosos, que sean, además, validados por
medio de consideraciones apoyadas en información correcta y en una
actitud crítica". Finalmente opina, basándose en su experiencia
anterior —que abarca desde el Explorador 1 hasta los Viajeros l0 y 11,
que nos dieron las impresionantes imágenes de los detalles de la
superficie de Júpiter y de los anillos de Saturno—, que: 4) "las ciencias
espaciales avanzan más con equipo automático, a excepción de los
estudios sobre fisiología y psicología humana en condiciones de
microgravedad".
Otras repercusiones que podemos citar son: 1) freno al avance y
alcance de la estación espacial hacia donde se afocan los principales
esfuerzos de la NASA; 2) incremento inusitado del costo de los seguros
de vuelo, que pasó a ser de entre 5 y 10%, a 20 o 30% del costo total
de un satcom, por ejemplo; 3) la competencia comercial de diversos
lanzadores, como el Ariane, de la Agencia Espacial Europea, que a raíz
del accidente comprometió sus próximos cuatro años de servicio en el
lanzamiento de cargas útiles, principalmente de aquellas que el
transbordador no va a poder cumplir (que implican de 65 a 90
satcoms, con costos de lanzamiento de 25 a 40 millones de dólares
cada uno y significan 50% del mercado occidental), esto no sólo por su
imposibilidad de volar con la frecuencia prevista, sino por la nueva
política que pone al transbordador fuera del campo de los lanzamientos
comerciales, para poder dedicarlo, en más de un tercio de los vuelos, a
misiones militares secretas; 4) el Protón, de la firma Glavcosmos
soviética, que por cierto presenta uno de los máximos márgenes de
confiabilidad en el mercado (92%), con una experiencia de 110
lanzamientos, con sólo dos fallas registradas desde 1978. También,
cabe anotar, que hoy día hay entre 60 y 100 satélites que esperan ser
lanzados, hecho que ha provocado que también otros países traten de
captar parte del mercado de lanzamiento, por ejemplo, el lanzador
chino "Larga Marcha", desarrollado a partir del Vostok, que también ha
asegurado a diversos clientes, con costos menores a los del Ariane, los
cohetes indios, los japoneses y próximamente los brasileños. En
Estados Unidos compiten también las únicas tres firmas que todavía
fabrican cohetes desechables; para el año 2000, a la vuelta de la
esquina, se espera que 15 países posean cohetes capaces de
lanzamiento a la órbita.
Desde luego que las opiniones sobre el estado actual del transbordador
no se limitan a las enunciadas; se podrían llenar ya varios volúmenes
de opiniones, en su mayoría exageradamente contrarias a este nuevo
sistema, que si bien presenta serios problemas, éstos pueden ser
resueltos, y por tanto sigue teniendo mucho sentido como equipo
portador de cargas útiles a órbita baja. Las expectativas iniciales
creadas alrededor del transbordador llegaron a generar tales ilusiones,
aun entre los expertos, al punto de que su presencia casi acabó con la
cohetería desechable, ya que desaparecieron las líneas de producción,
y los expertos en estos cohetes en Estados Unidos se han retirado en
su mayoría. Sin embargo, con la nueva política que limita el uso del
transbordador a actividades militares y científicas, la tendencia que
hoy se reestablece es la de comercializar los lanzamientos de cohetes
desechables, por lo que la iniciativa privada ha reinstalado, como
mencionábamos, tres fábricas de propulsores.
Técnicamente hablando, las fallas del transbordador se deben a los
siguientes factores: primero, en cuanto a los motores principales, que
queman combustibles líquidos, las expectativas iniciales estimaban que
sería posible utilizarlos hasta cien veces, con un ajuste general sólo
cada 50 vuelos; sin embargo, estos motores se revisan detalladamente
cada tres o cuatro vuelos, debido a que, entre otros aspectos, los
alabes o aspas de las turbinas inyectoras de combustible se agrietan,
así como también, las toberas de los impulsores sólidos, hechas con un
nuevo material compuesto, carbono-carbono, se erosionan durante
cada uso más allá de lo que se estimó en su diseño; segundo, el
conocido problema de las juntas de los impulsores de combustible
sólido, que fue el causante directo de la pérdida de la tripulación y del
transbordador Challenger; tercero, se han encontrado problemas con
los sistemas de direccionamiento de las toberas de estos mismos
motores, cuya falla también se traduciría en una catástrofe; cuarto, en
pruebas recientes se han registrado problemas con las válvulas que
alimentan los motores desde el tanque central; si estas válvulas, de 43
cm de diámetro, se cierran accidentalmente pueden causar una
explosión también desastrosa.
En fin, no faltan los diagnósticos de todo tipo; sólo de la oficina que
agrupa a los astronautas de la NASA surgió en 1986 una lista de 36
aspectos que los astronautas profesionales del transbordador
consideraban necesario revisar antes del siguiente lanzamiento: cosa
que se hizo sólo parcialmente. Pero los diagnósticos sobre el estado
actual del programa espacial estadunidense no se limitan a cuestiones
técnicas y científicas, como las que hemos enlistado; resulta
interesante por ejemplo citar la opinión de C. J. Brown, asistente del
secretario de Comercio de Estados Unidos, quien dijo "...el programa
espacial tiene como problema de raíz que se ha frustrado eficazmente
al capitalismo empresarial y se le ha reemplazado con un monopolio
gubernamental", opinión peculiar y sugestiva puesto que uno esperaría
una opinión más meditada en los labios de un funcionario de tan alto
rango; un somero vistazo al vigoroso programa espacial de la URSS —
prototipo de monopolio gubernamental—, demuestra que ni siquiera en
el diagnóstico del problema estadunidense se está logrando suficiente
claridad.
Entre los múltiples organismos que tienen bajo su responsabilidad el
desarrollo tecnocientífico en Estados Unidos, destacan la Academia
Nacional de Ciencias y el Consejo Nacional de Investigaciones. Por un
pedido de la Casa Blanca, estas dos organizaciones formaron un grupo
de estudio —otro más— para diagnosticar los problemas de la empresa
espacial y sugerir las estrategias de recuperación a seguir. Entre sus
sorprendentes descubrimientos se puede citar la opinión de que la NASA
no es una organización tecnológicamente fuerte, aseveración que sin
duda a muchos nos suena inesperada. En cuanto a los vuelos
tripulados, hizo las siguientes recomendaciones: 1) se requiere de un
trabajo extenso para evaluar los efectos de vuelo espacial prolongado;
2) es necesario conocer detalladamente los efectos de radiación
espacial en humanos; 3) se requiere de desarrollo y validación en los
sistemas de apoyo vital de malla cerrada, es decir, aquellos que hacen
una nave espacial habitable por largos periodos; 4) hacer hincapié en
el desarrollo de trajes, para actividad extravehicular, de alta presión;
5) aumentar el apoyo robótico en las operaciones humanas. En cuanto
a los aspectos de propulsión, recomendó, entre otras cosas: 1)
motores de diseño avanzado reutilizables, confiables y que tengan la
capacidad de tolerar fallas; 2) motor de combustible líquido para
vehículo reutilizable para transferencia orbital, por ejemplo, para viajar
entre la estación espacial y algún satélite que requiera de
reparaciones; 3) el desarrollo de un propulsor de alto impulso y
rendimiento (como el Energía), que se va a requerir para misiones
planetarias.
En la actualidad, se calcula que se requerirán de 300 a 350
lanzamientos hasta 1995; pero con la precaución de no ignorar que en
la bibliografía estadunidense y europea se ignora olímpicamente que la
mayor actividad espacial no se da en Occidente, sino en la URSS; este
país ha tenido un promedio de cerca de cien lanzamientos anuales en
los últimos cinco años, por lo que la cifra mundial de lanzamientos
sería más realista si la colocamos entre 1 000 y 1 050 lanzamientos
(no se puede suponer tampoco que subirán al espacio sólo 1 050
satélites, ya que hay lanzadores que colocan con un solo impulsor de 8
a 12 satélites pequeños en órbita, o 2 o 3 grandes).
La cohetería soviética, a diferencia de lo que muchos piensan en
nuestros países, fue desarrollada de manera totalmente independiente
de la cohetería occidental (incluyendo la cohetería de la Alemania de la
preguerra). Konstantin Tsiolkovski, maestro rural y aficionado a la
física, las matemáticas y la astronomía, a principios de siglo publicó un
trabajo en donde presenta por primera vez los cálculos básicos
necesarios para poner en órbita satélites y exploradores del Sistema
Solar. En ése y en trabajos posteriores demuestra la necesidad de
recurrir a combustibles líquidos para lograr el impulso necesario para
llegar a la órbita. Sin embargo, lo más sorprendente de la contribución
de este sabio, aunque él nunca llegó a ver materializadas sus
propuestas, es su predicción sobre el futuro de la cosmonáutica,
publicada en un folleto que han bautizado recientemente como "Plan
Tsiolkovski". Vale la pena reproducir los 16 puntos de este plan, que
nos permite entender el origen y dirección que ha tomado el programa
espacial de la URSS (se añade, después de la predicción de Tsiolkovski
el avance tecnológico que lo materializa): 1) "Se construye un avión
cohete con alas y con órganos de control habituales... Año 1942. Avión
cohete BI-1 2) "Hay que disminuir poco a poco las alas de los aviones,
aumentar la potencia del motor y la velocidad... " Años 1947-1948.
Aparatos reactores M1G-15, MIG-17y LA-l5. 3) "El casco de sucesivos
aeroplanos hay que hacerlo impenetrable a los gases, y llenarlo de
oxígeno, con aparatos que absorban el bióxido de carbono, el
amoniaco y otros productos expedidos por el ser humano..." Año 1955.
Avión TU-104. 4) "Se adoptan los timones que he descrito [se refiere a
los accionados por gases], que funcionan magníficamente en el vacío y
en el aire muy enrarecido, a donde llega el proyectil en vuelo. Se pone
en servicio un aeroplano sin alas, doble o triple, lleno de oxígeno,
herméticamente cerrado..." Año 1956. Cohetes balísticos actuales. 5)
"...la velocidad llega a 8 km/s, la fuerza centrífuga elimina por
completo el peso y el cohete por primera vez sale de los límites de la
atmósfera..." Año 1957. Lanzamiento del primer satélite artificial de la
Tierra. 6) "Después se puede utilizar un casco simple, no doble. Se
repiten los vuelos más allá de la atmósfera. Los aparatos reactores se
alejan más y más de la envoltura aérea de la Tierra y permanecen más
tiempo en el éter. No obstante, regresan porque tienen una reserva
limitada de alimentos y oxígeno." Comienzo de la década de 1960.
Naves espaciales de las series Vostok, Mercurio y Géminis. 7) "Se
hacen intentos de librarse del anhídrido carbónico y de otras
excreciones humanas mediante plantas enanas seleccionadas que, a la
vez, proporcionan sustancias nutritivas..." Año 1964. Experimentos
espaciales con la clorela. 8) "Se confeccionan escafandras etéreas
(ropas) para salir sin peligro del cohete al éter." Año 1965. Paseo
espacial de Alexéi Leónov.
Hasta este momento se han cumplido todos estos pronósticos, hechos
hace más de 80 años, y vale la pena aclarar que estas actividades
fueron desarrolladas en el orden previsto. Los restantes ocho puntos
proporcionan una lista de actividades que podemos esperar se den en
el futuro de la exploración espacial. 9) "Con el fin de obtener oxígeno,
alimentos y depurar el aire del cohete, se inventan compartimentos
especiales para plantas. Los cohetes llevan todo esto plegado al éter, y
allí se despliega y arma. El hombre consigue una gran independencia
de la Tierra, puesto que obtiene medios de subsistencia por sí mismo."
10) "Se instalan amplios poblados alrededor de la Tierra." 11) "Se
utiliza la energía solar no sólo para alimentación y comodidades de
vida, sino también para la traslación por todo el Sistema Solar." 12)
"Se fundan colonias en el cinturón de asteroides y en otros lugares del
Sistema Solar donde encuentren pequeños cuerpos celestes." 13) "Se
desarrolla la industria y aumenta el número de colonias." 14) "Se
consigue la perfección individual (de cada persona) y colectiva
(social)." 15) "La población del Sistema Solar se hace 100 000 millones
de veces mayor que la actual en la Tierra. Se llega a un límite más allá
del cual es inevitable el asentamiento por toda la Vía Láctea." 16)
"Comienza a apagarse el Sol. La población restante del Sistema Solar
se aleja de éste, partiendo hacia otros soles, a unirse con los
hermanos que volaron antes."
KONSTANTIN TSIOLKOVSKI, 1903
Aparte de Tsiolkovski podríamos mencionar a Vladimir Vetchinkin
(1888-1950) como uno de los pioneros de la cohetería, cuyas
soluciones a toda una serie de problemas teóricos tienen vigencia
hasta nuestros días. En cuanto a los aspectos prácticos de la cohetería,
es indispensable mencionar los trabajos de Serguei Koroliov, a quien
los soviéticos llaman "padre de la cosmonáutica práctica" y que fue
uno de los primeros constructores de portentosos cohetes de
combustible líquido. En 1933 despegaba un pequeño cohete de menos
de 20 kg de peso, que alcanzó una altura de 400 metros. Sin embargo,
este primer lanzamiento significó una victoria tras muchos años de
esfuerzos dedicados al desarrollo de la cohetería para alcanzar la
órbita. El nombre del constructor en jefe, Koroliov, está asociado
íntimamente al desarrollo de la cohetería soviética (aunque tal hecho
no lo salvó de las represiones de Stalin).
Poco después del sorpresivo lanzamiento del Sputnik en 1957, el
lanzamiento en 1961 del inolvidable Yuri Gagarin (1934-1968) vino a
sorprender al mundo todavía más. Pocos más autorizados para referir
este excepcional acontecimiento, que el pionero alemán de la
cohetería, el profesor Hermann Oberth de la RFA —a quien llaman "el
padre de la cohetería alemana": "...ya soy viejo y hubo un tiempo en
que perdí la esperanza de llegar a vivir hasta la era cósmica. Pero ahí
tenemos en órbita alrededor de la Tierra un Sputnik ruso y dentro de
unos cuantos años en el cosmos se hablará en ruso...
lamentablemente, no sé quién ha construido el potente cohete y la
primera nave para la travesía cósmica. Seguramente si viviera mi
colega el señor Tsiolkovski, con quien mantenía correspondencia,
cuando
nos
encontrásemos
con
el
magnífico
constructor
exclamaríamos: ¡Bravo! ¡Bravo! Usted ha hecho realidad el sueño que
alimentó nuestra inteligencia muchos años y a cuya realización hicimos
el aporte que pudimos". Precisamente después del vuelo de Gagarin en
abril de 1961, el periódico Pravda volvió a hacerle una entrevista al
profesor Oberth: —Me alegro mucho —dijo el sabio— de que hayan
hecho realidad mis predicciones concernientes a la posibilidad del
vuelo del hombre al espacio cósmico. Hice esa predicción en 1923. —
Pero entonces usted no suponía que el primer cosmonauta sería un
ruso. —No —respondió Oberth—. Creía que sería un alemán. —¿Y
cuándo llegó a la convicción de que sería un soviético? —El 4 de
octubre de 1957, cuando la Unión Soviética puso con todo éxito en
órbita el primer satélite artificial de la Tierra...
No es común en nuestro medio encontrar material detallado sobre la
cosmonáutica soviética, pero por suerte existe un libro publicado por
primera vez en 1981, y en 1986 en su traducción al español, titulado
El programa espacial soviético: páginas de la historia, de la editorial
Progreso de Moscú, de donde proviene el anterior material. Estoy
seguro que para aquellos interesados en el desarrollo de la
astronáutica, la lectura de este libro revelará toda una serie de datos e
informaciones que hasta nuestros días no se conocían suficientemente
en Occidente.
En cuanto al futuro de la tecnología coheteril no se puede decir que los
actuales cohetes de combustible líquido y sólido sean sustituidos en
nuestro siglo, o aun en las primeras décadas del próximo. De los varios
conceptos de nueva tecnología que aquí mencionaremos, cabe iniciar
la explicación con el más probable sustituto del cohete con base en
combustibles líquidos o aquellos híbridos que utilizan simultáneamente
propulsores de combustible sólido; nos referimos al llamado cohete
atómico. Según lo conciben los que lo han propuesto desde hace varias
décadas, el cohete atómico aprovecha una secuencia de minúsculas
explosiones atómicas —ojo, ecologistas— que se dan en el interior de
la cámara de combustión.
Los cohetes atómicos son capaces de generar suficiente energía para
impulsar cargas útiles hasta la órbita terrestre o más allá; sin embargo
tienen una serie de limitaciones que hasta el momento no se sabe
cómo evitar; entre ellas están: a) generan una contaminación
inaceptable para la atmósfera terrestre; b) existe un grave riesgo para
la tripulación debido a las emisiones radiactivas que se generan
durante su funcionamiento; c) se estima que estos cohetes pesarían
entre 5 y 10 veces más que los sistemas actuales para la misma
cantidad de impulso; d) otro problema de los cohetes atómicos es que
el proceso para su puesta en marcha, o para detener su
funcionamiento, es considerablemente más complejo que el de los
cohetes de combustible líquido. Pero quizá en el futuro no sea un
problema si consideramos que, por ejemplo, los cohetes de
combustible sólido no se podían apagar hasta que se acababa la
mezcla de combustible y comburente, y que en los últimos años se han
hecho pruebas con estos cohetes cuyo comburente, en este caso el
oxígeno, ahora se inyecta en la cámara de combustión para iniciar la
ignición y se puede suspender al detener el suministro de oxígeno, ya
que la combustión ocurre solamente en una capa delgada de contacto
entre el combustible y el oxígeno inyectado; e) las limitaciones de los
cohetes atómicos por sus problemas de contaminación —lo que los
hace útiles sólo en el espacio cósmico, lejos de los planetas—, hacen
que actualmente se oriente la investigación a tratar de combinarlos
con motores de combustible y comburente líquido que los pongan en
órbita; f) por otro lado, existe también el problema de que la
combustión se da a millones de grados centígrados, y todavía no se
conocen materiales que puedan soportar esas temperaturas. Ante esta
situación sólo podemos esperar que algún descubrimiento novedoso
nulifique en el futuro las desventajas mencionadas, y dé lugar a que el
cohete atómico pueda convertirse en realidad.
Se ha trabajado también con cohetes de bajo impulso, que basan su
funcionamiento en la expulsión de partículas no radiactivas aceleradas
por un campo electromagnético en dirección contraria al vuelo. Entre
éstos se hallan en primer término los motores iónicos, que aceleran
partículas cargadas eléctricamente utilizando campos eléctricos. La
ventaja de estos motores es su bajo peso y la larga duración de su
funcionamiento, lo que da como resultado, sin embargo, un impulso de
baja intensidad, pero que por su larga duración pueden imprimir gran
velocidad a la carga útil, hecho que resulta atractivo en misiones de
gran distancia dentro o fuera del Sistema Solar. Estos pequeños
motores se encuentran ya en el mercado, y probablemente serán
incluidos en las futuras generaciones de satélites y naves
exploradoras, así como en los satcoms, para lograr el ajuste continuo
de su órbita.
Entre los nuevos aparatos también podemos mencionar los cohetes
electrotérmicos y magnetohidrodinámicos, que también funcionan
acelerando partículas no radiactivas. Estos últimos tienen la ventaja de
proporcionar decenas de veces más impulso específico que los cohetes
líquidos, pero su empuje total es miles de veces menor, y sólo
funcionan en el vacío, por lo que desde luego quedan descartados para
los lanzamientos desde la superficie terrestre. Sin embargo, si se
operan estos motores desde la órbita terrestre, se aprovecha su bajo
consumo de combustible y que pueden impulsar las cargas útiles a
velocidades de más de 100 km/s. Las fuentes de energía para generar
los campos eléctricos necesarios para su funcionamiento tienen un
peso considerable, lo cual constituye una limitación; no obstante, es
posible utilizar fuentes alternas de energía como la helioeléctrica (la
extraída del Sol), por lo que algunos autores se refieren a estas naves
como "veleros cósmicos".
Por los datos mencionados arriba, se espera una sustitución de los
motores tradicionales por aquellos basados en estas nuevas técnicas;
sin embargo, esto tardará varias décadas, aunque incuestionablemente
estos motores serán los que en el futuro permitirán generar las
grandes velocidades requeridas para la exploración práctica del
Sistema Solar o más allá.
LA PERCEPCIÓN REMOTA
La tercera actividad espacial en importancia desde el punto de vista
económico es la percepción remota (PR), que se refiere, como ya se
mencionó, a la exploración ya sea de la Tierra o del espacio, utilizando
equipos que observan y miden a distancia. De aquí al año 2000 se
espera que en este renglón se incurra en gastos de 4 000 millones de
dólares más o menos. Sólo en 1986 se gastaron 150 millones de
dólares para la puesta en órbita, operación y venta de las imágenes
obtenidas por estos satélites; de hecho, los satélites meteorológicos
que desde la órbita geoestacionaria obtienen datos sobre nubosidad y
temperaturas atmosféricas y terrestres, también realizan actividad de
percepción a distancia, por lo que las cifras mencionadas llegan en
realidad a ser todavía mayores.
Para ilustrar el punto anterior diremos que constantemente aumenta la
demanda de datos para la previsión del clima, no sólo por parte de
agricultores, cuya producción depende mayoritariamente de los
aspectos climáticos, sino también de la industria de la construcción, y
la del transporte, que desean calcular con anterioridad aumentos en la
demanda de sus servicios. Si bien en el caso de los agricultores las
necesidades de prever el clima son bastante evidentes, quizá convenga
explicar un poco más cómo la predicción climática con datos espaciales
afecta a las industrias de la construcción y del transporte. En el primer
caso, en los países de clima extremoso es importante establecer las
fechas probables del inicio de las primeras heladas, ya que de esto
depende la toma de toda una serie de costosas medidas que permiten
a las compañías constructoras edificar en climas fríos. En el caso de la
industria del transporte es interesante anotar que la cantidad de
viajeros en un fin de semana puede variar hasta en un 50% debido a
la percepción que del clima se tenga.
Hoy en día, existen sólo dos satélites occidentales de percepción
remota civiles; sin embargo, la compañía encargada de los
lanzamientos europeos estima que, para finales del siglo, subirán al
espacio de 8 a 15 naves dedicadas a este propósito. En 1989 se espera
colocar en órbita el segundo satélite francés de teleobservación SPOT,
que sustituirá, y quizá por algún tiempo complemente al único satélite
europeo de percepción remota hoy en órbita. También en los próximos
años, los europeos, canadienses y japoneses tienen planeado colocar
en órbita los satélites homónimos ERSI y RADARSAT, que son capaces
de obtener imágenes de alta resolución, por medio de equipo de radar
de apertura sintética. Estos equipos tienen la capacidad de obtener
imágenes en la oscuridad y aun a través de la más espesa nubosidad,
por lo que resultan particularmente útiles para los países nórdicos y
ciertas zonas tropicales. En un principio se esperaba que las imágenes
basadas en ondas de radar, a diferencia de las que funcionan en la
banda visible del espectro electromagnético, produjeran resultados
particularmente útiles a los oceanógrafos; las primeras imágenes de
sectores terrestres obtenidas con radar (en particular aquellas
obtenidas por los norteamericanos SAR-A y SAR-B, a bordo del
transbordador), demostraron la gran utilidad que tienen también para
los científicos las imágenes de superficies continentales. Como ejemplo
podemos mencionar dos interesantes fenómenos: el primero se
relaciona con la obtención de imágenes de estructuras geológicas
enterradas hasta 6 m debajo de la superficie en una zona de Egipto;
sorpresivamente, las imágenes mostraban dichas estructuras
escondidas en las dunas del desierto. Asimismo, por la capacidad de
ciertas frecuencias de radar para penetrar la vegetación, fue posible
localizar por medio de esta técnica obras arqueológicas olvidadas; en
particular, largos caminos mayas bajo las selvas de México y
Centroamérica.
Además de las agencias occidentales, cabe mencionar las imágenes
obtenidas desde el espacio por los equipos soviéticos. Soyuzkarta, la
agencia soviética dedicada a la venta de imágenes espaciales, lanzó
recientemente al mercado un producto inesperado. Las imágenes
soviéticas son diferentes a las occidentales en varios aspectos:
primero, debido a que poseen 40% mayor resolución que las del
satélite francés SPOT 1, y 80% más que los satélites norteamericanos
de la serie LANDSAT-TM, ya que aquellos detectan objetos de sólo 6 m
de diámetro, hecho que por sí mismo aumenta la diversidad de usos
en los que pueden ser empleadas. Segundo, no son como las
"imágenes electrónicas" del equipo occidental, que requieren de
computadoras para ser interpretadas, sino que se adquieren ya
impresas en papel de color, y presentan directamente los rasgos que
interesan al usuario potencial, aunque recientemente se habla de una
firma soviética que pretende comercializar también imágenes
electrónicas, en cinta magnética como las de Occidente pero con
resolución de 4-5 m.
Los países que operan este tipo de satélites, o que utilizan estas
imágenes para dar servicio a terceros, han encontrado una actividad
claramente rentable; por ejemplo, la Agencia Espacial Sueca está
realizando mapas topográficos para Filipinas e Indonesia que, con su
enorme cantidad de islas, difícilmente podrían realizar este proyecto
sin la ayuda de imágenes de satélites. La próxima década Brasil, China
y la India colocarán sus propios satélites de teledetección, los dos
primeros en conjunto. Los satélites para el estudio de los recursos
naturales tienen en su haber una serie de operaciones que pueden ya
considerarse rutinarias, entre las cuales están la supervisión de
cosechas, el estudio forestal, la planeación urbana, la exploración de
petróleo y gas, la mineralogía, el uso de suelos y la investigación
oceanográfica, entre otros. Sólo en Estados Unidos hay 100 compañías
dedicadas a la interpretación de imágenes satelitarias, se calcula que
existen 100 más en otros países.
Cabe señalar aquí un hecho muy interesante. El Instituto de
Investigaciones Espaciales (INPE) de Brasil tiene una antena para
captar las imágenes de los satélites occidentales y cuenta con más de
1 400 usuarios de este tipo de imágenes, lo que hace que Brasil, junto
con la India, sea uno de los países en desarrollo que más utiliza las
nuevas tecnologías espaciales.
Un hecho reciente nos permite aseverar que en las próximas décadas
se dará un impulso muy importante a la utilización de imágenes de
percepción remota: diferentes grupos dedicados a la teledetección
están desarrollando los programas necesarios para la interpretación de
imágenes en computadoras personales, lo que multiplicará de manera
notable el número de usuarios en todo el orbe. En nuestro país hay un
número muy bajo de usuarios (20), aunque al principio esta técnica
despertó el entusiasmo de muchos grupos de trabajo, principalmente
en las universidades, esto se debe, al menos en parte, al alto costo de
las imágenes y de los equipos para su procesamiento, pero creo que
principalmente se debe a la ignorancia por parte de quienes toman las
decisiones sobre el potencial de estos productos: falta difusión amplia
del tema.
Un aspecto muy importante respecto al uso de imágenes se refiere al
archivo que de éstas guardan principalmente Estados Unidos y la URSS,
ya que muchas de las aplicaciones requieren de imágenes de la misma
zona obtenidas en diferentes fechas, para analizar los cambios
ocurridos. En nuestro país contamos con un excelente ejemplo para
ilustrar la importancia de poseer un archivo de imágenes: la ciudad de
México, una de las mayores concentraciones urbanas del planeta.
Nuestra ciudad crece y crece, sin embargo, nadie sabe a ciencia cierta
cuánto ni hacia dónde ni a qué velocidad. Cuando pensamos en la
imagen espacial de una ciudad de más de 18 millones de habitantes
(véase la figura 28), en la que se puede observar buena parte de sus
obras de infraestructura, salta a la vista que las técnicas tradicionales
para obtener la información necesaria serían un proyecto complicado,
costoso, enorme, además de inútil, debido a lo tardado del proceso de
catastro: una vez terminadas ciertas zonas los especialistas se
trasladarían a otras, y el rápido, continuo y desordenado crecimiento
pondría en duda constantemente la vigencia de sus datos (hace unos
años se mencionaba el increíble número de 3 600 personas que
diariamente se incorporaban a la ciudad, ya sea por nacimiento o por
influjo de las zonas rurales). La técnica de percepción remota permite
localizar,
con
relativa
facilidad,
los
nuevos
asentamientos
periódicamente (en lapsos semestrales o anuales).
Recordando que se pueden restar dos imágenes en una computadora,
por lo que con imágenes periódicas de la ciudad podríamos saber, con
una precisión de más o menos la quinta parte de una manzana o
cuadra, cuánto está creciendo la ciudad, en qué direcciones predomina
el crecimiento, y para saber la velocidad a la que ha crecido en los
últimos años, además de restar dos imágenes, se utilizarían las
imágenes de los archivos de la Soyuzkarta, la rusa, o de EOSAT, su
contraparte estadunidense.
Figura 28. Imagen digital de la ciudad de México obtenida por satélite francés
Spot 1. Nótese los detalles observables a 800 km de altura.
Otra novedad que puede difundir el uso de las imágenes satelitarias de
percepción remota, es la relacionada con los medios masivos de
comunicación. Los ejemplos más notables de esta nueva aplicación son
las imágenes publicadas en periódicos y revistas de la zona de
Chernóbil después del accidente de la planta nuclear, y las de los sitios
en que se ha instalado cohetería antibarcos en Irán (y desde luego en
muchos otros países) en el estrecho de Ormuz. Hoy se habla de un
proyecto de las agencias informativas para preparar el primer
MEDIASAT, un satélite capaz de distinguir objetos menores que un
automóvil, hecho hasta ahora exclusivo de los satélites militares.
Hay un hecho incuestionable en relación con estos satélites
(mencionado detalladamente por la doctora Ruth Gall y sus coautores
en el libro Las actividades espaciales en México: una revisión crítica,
número 20 de esta misma serie): por la política, aceptada
internacionalmente, que permite el vuelo libre de los satélites de un
país sobre cualquier otro, todos hemos perdido parte de nuestra
soberanía. Los satélites no dan una perspectiva sólo nacional, pues
desde la órbita muchas cosas se ven: automáticamente los satélites
ofrecen una perspectiva internacional y completa del globo terráqueo.
Las nuevas técnicas no presentan soluciones únicamente, sino que
también vienen cargadas de problemas, quizá principalmente
tecnocientíficos, pero también, como se ilustra en el último caso, de
política y derecho internacional.
Otro problema que podemos mencionar en relación con el sistema de
percepción remota estadunidense, es que como resultado de la
suspensión de vuelos del transbordador, y de una política de
comercialización confusa y aparentemente prematura de las
actividades espaciales, los satélites LANDSAT 4 y 5 ya excedieron su
vida útil en órbita y pueden dejar de funcionar en cualquier momento,
aun cuando faltan de dos a cuatro años para lanzar sus reemplazos;
por lo anterior la continuidad de las imágenes de archivo de Estados
Unidos peligran. Por otro lado, ninguno de los satélites en órbita
realiza sus observaciones en las mismas bandas del espectro ni cubre
las mismas áreas sobre la superficie terrestre, y tampoco funcionan
con la misma resolución, por lo que el uso de los datos de distinto
origen conlleva una dificultad adicional.
Aun así, por la creciente diversidad de fuentes de imágenes, el futuro
de las actividades de percepción remota puede considerarse
asegurado, y en las próximas dos décadas seremos testigos de la
puesta en órbita de satélites cada vez más complejos y costeables por
el tipo y utilidad de la información que mandarán a la Tierra. Para
ilustrar el creciente número de satélites de percepción remota que dan
ya servicio con una calidad de imagen cada vez mejor podemos citar al
Cosmos 1906 (lanzado a finales de 1987), que es un satélite de nueva
generación capaz de fotografiar, con un detalle antes exclusivo de los
militares, amplias zonas de la Tierra; por ejemplo, en 10 minutos
puede cubrir una superficie equivalente a la mitad de nuestro país y
alcanza una resolución tal que las carreteras, y las terracerías rurales
incluso, se pueden distinguir con claridad; según la Agencia Espacial
Soviética, con este tipo de satélite se reducen enormemente los costos
de los estudios de recursos naturales; posee también la capacidad de
fotografiar la misma zona desde distintos ángulos, con lo que es
posible reconstruir mapas de relieve del terreno. Estos satélites vuelan
a una altura máxima de 270 km y mínima de 190 km (en
comparación, LANDSAT y SPOT orbitan a 800 km), y por su tipo de
órbita cubren totalmente a los países de América Latina. Cuando estas
imágenes empiecen a entrar en el mercado, a través de Soyuzkarta,
sin duda resultarán de gran interés para los especialistas, quienes
además se verán beneficiados por el supuesto bajo costo.
Además, es previsible que en el futuro se sigan colocando otros
satélites de percepción remota en la órbita polar, una órbita que pasa
por los polos, y que en combinación con la rotación de la Tierra
permite una cobertura completa del globo, por lo que será posible
estudiar la Tierra en múltiples bandas del espectro electromagnético.
Más que satélites éstas son verdaderas plataformas, en las cuales se
instala toda una serie de instrumentos científicos que podrán irse
actualizando conforme a los avances y necesidades de información.
Si bien actualmente la exploración desde el espacio con radar ha
demostrado una utilidad incuestionable, quedan muchos aspectos por
estudiar de esta nueva técnica, que seguramente darán información
hoy difícil de imaginar. Por lo pronto, los equipos de radar que trabajan
en órbita han dado a la humanidad importantes descubrimientos, entre
los que destaca la sorpresiva topografía mina. Veamos: todos sabemos
que los mapas topográficos son de gran utilidad en la exploración y
localización de recursos naturales; la "topografía oceánica", quizá para
algunos sorprendente, también es importante y con radar, se ha
descubierto que la superficie del mar refleja la topografía del fondo
marino, esto es: si en alguna parte del océano hay abismos o macizos
montañosos, la forma de la superficie del océano cambiará según las
estructuras geológicas submarinas, lo que las hará evidentes al
observador; este descubrimiento es otro ejemplo más de información
inesperada surgida durante el proceso de investigación. Los primeros
satélites con radar tenían como propósito localizar y clasificar barcos y
submarinos desde el espacio, lo que en el caso de los submarinos
lograban porque sobre ellos se observa una especie de joroba, seguida
de una estela generalmente de varios kilómetros, y el estudio
sistemático de este hecho permitía identificar el tamaño, velocidad y
dirección de viaje del submarino. En estas investigaciones se descubrió
también que no sólo los objetos móviles causaban efectos en la
superficie que podían ser observados desde el espacio, sino que
también el subsuelo marino se manifiesta en la superficie, con lo que
proporciona datos de utilidad a los ingenieros dedicados al diseño de
puertos, plataformas y exploración de otras estructuras marinas.
ESTACIONES ESPACIALES
Las estaciones espaciales son, sin lugar a dudas, uno de los temas de
mayor actualidad, en particular porque implican la presencia constante
del hombre en órbita. Las grandes potencias presentan en este renglón
quizá una de sus mayores divergencias. Mientras el proyecto Apolo
canalizó considerables recursos a la exploración lunar y al
transbordador espacial, los soviéticos dirigieron sus esfuerzos a la
presencia permanente del hombre en órbita. Hoy somos testigos de la
presencia continua de dos y hasta cinco cosmonautas trabajando en la
estación espacial Mir por periodos que llegan a más de 12 meses.
No se puede concebir el progreso de la investigación espacial tripulada,
incluyendo los próximos viajes a Marte, sin tener la experiencia de
astronautas en órbita por periodos prolongados. Una estación espacial
es mucho más que un puerto para viajar más allá de la órbita
terrestre. La estación espacial Mir; y dentro de unos diez años la
estadunidense "internacional", son laboratorios multidisciplinarios
donde se realizan experimentos para desarrollar muchos campos de la
investigación espacial y terrestre: biología, astronomía, ciencias de
materiales, farmacología, percepción remota, aprovechamiento de la
energía solar y en fisiología y psicología humanas, entre otros.
El mundo está viviendo momentos brillantes de la automatización, y
muchas de las actividades exploratorias en el espacio se conducen de
manera automática con costos mucho menores a los de las naves
tripuladas; pero un aparato programado no puede realizar la
diversidad de actividades y no puede tomar las decisiones del ser
humano, del que depende realmente la exploración y futura
colonización del espacio que nos rodea. Por ejemplo, en unos cuantos
meses en órbita, la tripulación formada por los cosmonautas Titov y
Manarov realizó más de 130 observaciones con el equipo HEXE, un
proyecto conjunto soviético-europeo que consiste en cuatro
instrumentos diseñados para observar la radiación cósmica de alta
energía con un telescopio que detecta los rayos X provenientes de muy
diversos objetos astronómicos; asimismo, en la parte ultravioleta del
espectro han realizado más de 20 observaciones, desde el módulo
Quantum, que fue adicionado a la estación espacial en el primer
semestre de 1987. Con estos equipos, por ejemplo, fue posible por
primera vez en la historia registrar las emisiones provenientes de la
explosión de una estrella "supernova", la SN1987a, que no había sido
observada desde los antiguos astrónomos chinos, y presentar ante la
comunidad científica internacional, la secuencia de núcleos atómicos y
rayos X emitidos durante los primeros días del extraordinario suceso:
una demostración de las múltiples posibilidades del hombre
permanentemente en órbita terrestre. Asimismo, Romanenko con sus
dos acompañantes Laveikin (quien regresó a la Tierra tras serle
detectadas anomalías cardiacas) y Alexandrov (quien lo suplió a partir
de julio de ese mismo año) realizaron durante su estancia de 325 días
en el espacio más de mil experimentos que abarcan las disciplinas
mencionadas. Basta citar que a principios de 1988 se anunció que se
está preparando la estación espacial denominada Mir 2, que al igual
que su antecesora, constará de un módulo básico al que se podrán
acoplar grandes elementos que serán puestos en órbita por el cohete
Energía, capaz de colocar en órbita cargas de hasta 200 toneladas y
que ya fue probado en mayo de 1987, y en 1988 con el lanzamiento
del transbordador Burán. No obstante, también el programa de la
URSS, debido a problemas técnicos y de balanza de pagos, está
sufriendo retrasos. En últimas fechas, al retrasarse la manufactura de
dos grandes módulos adicionales de laboratorios, que requieren de una
instalación casi simultánea, los soviéticos se vieron obligados a
interrumpir su estancia en la Mir por 3 o 4 meses. En esta actividad
nadie está a salvo de sorpresas.
Referirse a la estación espacial norteamericana y sobre todo a sus
características de funcionamiento, o incluso a su forma, no es cosa
fácil, ya que en los últimos cinco años la NASA ha realizado una
secuencia continua de cambios no poco drásticos que han sumido al
proyecto
en
cierta
indefinición.
Un
hecho
particularmente
incomprensible para los que observamos el escenario desde fuera, por
ejemplo, fue el intento de los militares norteamericanos de ejercer un
control considerable de la estación espacial, lo que no sólo antagonizó
y desconcertó a los ingenieros y científicos de la NASA, sino que afectó
gravemente las negociaciones que el gobierno norteamericano tenía
con los países de Europa, Japón y Canadá para compartir los gastos
del proyecto, que según los analistas del gobierno de los Estados
Unidos alcanzarán los 15 000 millones de dólares; aunque si nos
atenemos a las experiencias anteriores, sobre todo en relación con las
promesas que rodearon el proyecto del transbordador, podemos prever
que esta cifra llegará a multiplicarse por un factor hasta hoy
desconocido (entre 2 y 10 veces).
Es lógico esperar que un proyecto de esta magnitud, realizado en años
cuando
inclusive
la
economía
norteamericana
enfrenta
la
incertidumbre, encuentre oposición; nunca ha faltado quien opine que
cualquier gasto invertido en los viajes de Colón, en la estación espacial
o en la exploración de Marte, es innecesario. Sin embargo, no deja de
llamar la atención el hecho de que el ex director de uno de los
principales centros de investigación de la NASA, el doctor Bruce
Murray, destacado científico planetario, opina que la estación espacial,
como sitio para desarrollar procesos que lleguen a ser
económicamente costeables y manufacturas de materiales con
propiedades extraordinarias, "no tiene fundamento ni el apoyo de las
compañías que se proponen utilizarla". Según Murray, las ciencias de
la microgravedad son importantes, pero no necesitan de una
instalación de ese costo para ser realizadas; dice que la estación sólo
tiene sentido lógico principalmente en términos de la misión a Marte, y
añade que, a diferencia de la década de 1960, "no hay un interés
nacional para realizar un gran malabarismo tripulado, que simplemente
se limite a mostrar la musculatura técnica del país", y concluye "...es
mejor utilizar tal esfuerzo como un símbolo de que las superpotencias
pueden cooperar en el espacio", con lo que toca un punto clave del
estado actual de la investigación espacial.
A este respecto, tampoco deja de sorprender, al revisar documentos
en los que se explican las diversas alternativas del futuro
norteamericano en el espacio, que en ellas se ignore, de manera casi
infantil, que su contraparte soviética se encuentra en una etapa
avanzada en el desarrollo de las estaciones espaciales, por lo que un
intercambio entre ambas potencias sería, cuando menos, mutuamente
benéfico, o principalmente benéfico para los mismos norteamericanos.
En el Foro Espacial Internacional realizado en octubre de 1987 en
Moscú, el máximo representante de la delegación estadunidense, y
director adjunto de la NASA, se refirió a la imposibilidad de saber, a
estas alturas, si un programa de cooperación espacial entre su país y
la URSS significa una transferencia de tecnología, y que de todas
formas, no podía decir la dirección en que dicha transferencia se daría.
Para complicar más el análisis de la estación espacial y sus medios de
apoyo, el creciente interés de los militares norteamencanos por utilizar
estos recursos ha creado una política verdaderamente sorprendente: a
finales de 1986 la administración de Reagan hizo pública su intención
de mezclar información técnica falsa con información veraz,
supuestamente para despistar al enemigo, pero los más despistados
en realidad son aquellos que tratan de entender el avance del proceso
tecnológico y las tendencias que realmente serán favorecidas en el
futuro; esta situación, pues, ha creado una desconfianza justificada de
lo que se lee sobre el campo aeroespacial. Cuando por fin se aclaró
que la estación espacial norteamericana no sería controlada por los
militares, los socios internacionales de la NASA llegaron, después de
más de un año de tensas negociaciones, a la conclusión de que iban a
cooperar. La cooperación europea se basa principalmente en el uso del
módulo tripulable, llamado Colón, y de una plataforma polar
autónoma, a la que se puede dar servicio con el transbordador
estadunidense, o con el futuro transbordador europeo conocido como
Hermes; y aunque poco se sabe al respecto, los japoneses también
han anunciado su interés en construir no sólo un módulo similar, sino
además un pequeño transbordador que comenzará a funcionar
aproximadamente en una década.
A pesar de todas las discusiones y cambios que han plagado el
proyecto de la estación espacial norteamericana, ésta será
desarrollada sin duda, aun cuando la motivación básica sea solamente
no permitir que los soviéticos sean los únicos que orbiten
permanentemente la Tierra. Las ventajas de una estación espacial son
múltiples, como ya hemos mencionado, pero hay que pensar también
en una de ellas: son un lugar de ensamble y prueba de equipos
automáticos de exploración espacial, pues toda misión automática, al
no contar con la asistencia de una estación de ensamble en órbita,
requiere que la carga útil sea totalmente armada y funcional antes de
su puesta en órbita y, en vista de los castigos del lanzamiento, las
estaciones espaciales ahorrarán la obligación de realizar múltiples
pruebas en el equipo antes de enviarlo a órbita. Otra ventaja que se
deriva de la estación es su mero carácter de almacén. En el futuro, el
flujo de vehículos pesados a órbita, como los cohetes Energía
soviéticos (que, por cierto, son reutilizables), y el futuro ALV
estadunidense, se incrementará constantemente, por lo que un
almacén espacial permitirá que el costo de las partes de diferentes
equipos sea distribuido entre muchos usuarios. El cohete ruso Energía
comparte con el transbordador espacial estadunidense, con el cual el
público está mucho más familiarizado, el hecho de que está equipado
con impulsores laterales provistos de sistemas de paracaídas para ser
recuperados; asimismo, partes del motor principal serán también
recuperables, por lo que los costos de cada lanzamiento se reducirán
de manera proporcional con el número de usos que tengan. Con el
nuevo impulsor Energía, se espera que la Unión Soviética duplique en
los próximos cinco años su capacidad de colocar cargas útiles en
órbita, y que ésta sea cuadruplicada en menos de 15 años.
Volviendo a las estaciones, otro de los rasgos característicos de éstas,
se está ejemplificando ya en la estación espacial Mir; se trata de la
solicitud por parte de una compañía privada de Occidente, para utilizar
la estación en el desarrollo de experimentos supervisados por los
cosmonautas soviéticos a bordo. El experimento, del que hablamos ya
un poco, trata sobre el crecimiento de cristales de proteínas, y como
parte del convenio la compañía no da a conocer ni al público ni a los
soviéticos de qué proteína se trata. Al igual que los cristales usados en
microelectrónica, los de proteínas crecidos en el espacio presentan una
mayor homogeneidad, y un menor número de defectos en sus arreglos
moleculares. El propósito principal de obtener un cristal de proteína
con estas características, es realizar estudios de la disposición de cada
parte de la cadena que forman estas grandes moléculas. Dichos
experimentos se realizan en la estación Mir; no sólo porque el
transbordador no esté funcionando normalmente, sino porque la
estación Mir con su prolongado estado de microgravedad, provee al
experimento de las condiciones que necesita, pues ya en cinco
ocasiones anteriores la compañía ha experimentado en el
transbordador, pero sus objetivos experimentales exigen una
permanencia en el espacio de semanas a meses, situación que no
podrá darse en Estados Unidos sino hasta dentro de 8 o 10 años
aproximadamente.
Retomando las comparaciones de los aspectos filosóficos de los
programas espaciales de Estados Unidos y la URSS, cabe mencionar
que el gobierno norteamericano permite que las compañías
norteamericanas contraten los servicios espaciales soviéticos, como en
el caso anterior, pero impone la condición de que los soviéticos no
inspeccionen directamente las cápsulas, sino que la inspección (que se
lleva a cabo por razones de seguridad) sea realizada por un tercero. En
contraposición, cuando el transbordador de la NASA pone en órbita una
carga útil de otro país, no sólo es inspeccionada detalladamente, sino
que la NASA se considera copropietario de los datos e información
técnica y aun científica obtenidos durante el vuelo; además de que
debe tener acceso a la información que dé el análisis de los datos,
llevado a cabo por científicos en tierra después del vuelo. Curiosa
asimetría...
PEQUEÑOS EXPERIMENTOS AUTOMÁTICOS
Los experimentos automáticos, cuyo propósito es explorar las
características de algún proceso que se beneficie con las condiciones
espaciales, tienen asegurada una creciente actividad futura. Ya hemos
hecho referencia de manera detallada a los experimentos que la UNAM
pretende realizar a bordo del transbordador. Los experimentos a los
que nos referiremos aquí, son esencialmente similares a éstos, es
decir, requieren de un pequeño espacio, de un tiempo limitado en
órbita, y de un costo bajo; la investigación exploratoria tiene como
objetivo el profundizar en conocimiento, y rara vez la producción
constante de algún material especial. Sin embargo, estas actividades
no requieren de un sistema tan costoso y complejo como el
transbordador. En muchas ocasiones es suficiente el lanzamiento de un
cohete con múltiples cargas útiles a bordo que realice vuelos orbitales
de varios días, o aun suborbitales, en donde los periodos de
microgravedad son menores de media hora, lo cual basta en ocasiones
para realizar algunos experimentos.
Algunas compañías privadas que pretenden participar en el mercado
de pequeñas cargas útiles, estiman que requerirán de 50 a 100
lanzamientos suborbitales por año, y que cada cohete será capaz de
portar de 5 a 15 experimentos independientes.
En Estados Unidos la primera compañía privada pionera en este nuevo
negocio espacial, intentó realizar su primer lanzamiento a mediados de
1988, pero no lo hizo; una segunda compañía pretende realizar algo
similar poco menos de un año después. Los objetivos principales de
estas compañías son lanzar pequeños satélites, realizar experimentos
automáticos, mediciones atmosféricas y, por desgracia, llevar a cabo
también experimentos de tipo militar. Otras compañías estiman que,
en vuelos orbitales, la demanda para los próximos 6 o 7 años oscilará
entre 300 y 350 cargas útiles anuales, lo que implica un promedio de
75 lanzamientos al año.
También existen programas como el Lightsat, satélites ligeros, a los
que las grandes compañías que controlan los mercados internacionales
celosamente se refieren como Cheapsats; dichas compañías proponen
cientos de lanzamientos al año de este tipo de satélites, cuyo peso es
menor a 2 toneladas, pero se sabe por experiencia que en muchas
ocasiones estos proyectos resultan ser algo ilusorios. Una de las
mayores ventajas que presentan estos sistemas es su rápido acceso a
órbita (contando el tiempo desde que se inicia la integración de la
carga útil hasta su puesta en órbita) que va de cuatro meses a dos
años, que, comparado con el tiempo requerido por una carga útil
mayor, puede llegar a ser 10 o 20 veces más breve. Con este tipo de
sistemas se estima que el acceso a la órbita costará cerca de 3 000
dólares por kilogramo, cerca de la mitad de lo que cuestan otros
vehículos.
A pesar de todo lo anterior, creo pertinente volver a advertir al lector
que estos datos, como se puede observar, se derivan de la información
que publican las empresas occidentales dedicadas a este nuevo
negocio, pero todos conocemos los abismos que existen entre la
publicidad y la realidad: nadie en sus cabales podría asegurar siquiera
que estas compañías existan dentro de cinco años, y para muestra
basta un botón: la empresa más comprometida en esta ocupación y
que incluso ya ha probado los motores de sus cohetes, casi desaparece
en el llamado "lunes negro" en octubre de 1987, cuando se vino abajo
la bolsa de valores de Nueva York.
Otra de las empresas mencionadas tiene como su segundo proyecto
más importante, el identificado con el glorioso nombre de "Celestis",
que se propone nada menos que colocar en una órbita permanente 10
000 urnas de cenizas humanas, y creo que, cuando menos, tenemos el
derecho de dudar de que existan 10 000 personas lo suficientemente
afectadas en su juicio para desear algo tan frívolo y absurdo.
Volviendo a los satélites ligeros, algo que despierta mucha más
preocupación e interés es que en 1988 la Agencia de Proyectos
Militares Avanzados de Estados Unidos (DARPA) invirtió 35 millones de
dólares en esa dirección, y más recientemente han hablado de colocar
en órbita este tipo de cargas útiles pequeñas, utilizando como
plataforma de lanzamiento un avión que vuela a una altura de 10 a 20
kilómetros.
De los programas en pleno funcionamiento para poner en órbita
experimentos automáticos de dimensiones reducidas, podemos citar el
Fotón, que la firma Glavcosmos de la URSS ofrece comercialmente:
coloca en órbita, y recupera, cápsulas que orbitan la Tierra entre 14 y
30 días; las cargas útiles pueden llegar a pesar 500 kg y medir hasta 2
m de diámetro, y pueden ocupar un volumen máximo de cerca de 5
m³. El ejemplo más reciente de la utilización de este medio es el
contrato con una compañía privada alemana en el que se ha negociado
la utilización de tres cápsulas soviéticas, que se estima volarán a partir
de 1989 una cada año. La compañía alemana pretende subcontratar a
diferentes instituciones de la RFA para que realicen experimentos en el
espacio en las cápsulas. En este sentido también podemos mencionar
el ofrecimiento de la Agencia Espacial China de colocar varias cápsulas
recuperables y realizar experimentos sobre crecimiento de cristales,
que están a cargo de una compañía europea.
Como el lector podrá concluir, estos últimos ejemplos, además del
programa de pequeños experimentos de la NASA, en el cual ha
participado la UNAM, dan una idea del futuro que presenta
oportunidades
automáticos.
crecientes
para
poner
en
órbita
experimentos
MISIONES PLANETARIAS
Todavía están frescas en la memoria las sorprendentes imágenes
obtenidas por los Voyager I y II que se acercaron primero a Júpiter,
luego a Saturno, a Urano y a Neptuno. Sin embargo, hay muchos
planes y misiones destinados a la exploración de los planetas de
nuestro Sistema Solar que seguramente profundizarán los
conocimientos de la humanidad sobre su entorno más inmediato en el
Universo.
En 1988 la URSS puso en marcha una misión a Marte que dio nuevos
datos sobre el planeta rojo y en particular sobre su satélite Fobos;
durante su trayectoria, la misión estudió además algunas
características del viento solar. Dicha misión tuvo una propiedad a
nuestro juicio muy importante: fue de carácter netamente
internacional; en ella participaron no sólo los países socialistas
miembros de Intercosmos, sino que se unieron varios países de Europa
occidental, la Agencia Espacial Europea, y Brasil; incluso los
estadunidenses participaron en el proyecto apoyando en la localización
precisa de la nave por medio de las antenas de rastreo lejano de la
NASA, que también captaron y analizaron la información proveniente
de la estación que se posaría sobre Fobos, la luna de Marte; en marzo
de 1989, se perdió contacto con la nave, sólo quedaron los datos
tomados durante el largo viaje, y algunas de las primeras fotografías
tomadas.
La siguiente misión a Marte, planeada por la URSS para 1994, plantea
enviar dos naves idénticas, programadas para realizar trabajo de
exploración por duplicado. Cada una de ellas tiene un aditamento que
se quedará en la órbita marciana estudiando el planeta al igual que lo
hacen los satélites de percepción remota con la Tierra;
simultáneamente, cada uno de ellos lanzará además hacia la superficie
de Marte dos equipos exploradores: a) el primero consta de un equipo
que, después de posarse sobre la superficie de Marte, realizará una
exploración similar a la que efectuaron sobre la Luna los equipos robot
Lunajod, es decir, recorrerá la superficie observando con una serie de
cámaras y enviando hacia la Tierra las imágenes y los datos físicos
obtenidos; b) el segundo equipo consta de un globo equipado con
cámaras de baja altitud; el globo, de producción francesa, se
mantendrá en la atmósfera durante el día y mediante efectos térmicos
bajará a la superficie durante la noche, durante esta etapa enviará
información a la Tierra, utilizando los transpondedores de las naves
que quedan en órbita.
Todavía se están estudiando algunos cambios para la misión, que
permitirán ampliar el rendimiento de los equipos enviados a Marte; se
planea sustituir, por ejemplo, la entrada directa a la órbita, que exige
la utilización de retrocohetes para frenado, para que la nave pueda ser
capturada por el campo gravitacional de Marte. La nueva maniobra de
aerofrenado tiene la ventaja de que no requiere de combustible para
funcionar, pues se da por medio de fuerzas aerodinámicas de la nave
cuando comienza a entrar en la atmósfera marciana. Este cambio por
sí solo permitirá aumentar en una tonelada y media la carga útil que
se enviará al planeta rojo. Además, con este cambio se podrá colocar
un segundo satélite de 50 kg en órbita para obtener datos
gravitatorios; se mandarán a la superficie diez estaciones
meteorológicas equipadas con transmisores, que enviarán durante
varios años datos sobre temperatura, presión y velocidad del viento;
asimismo, se hace posible el lanzamiento de dos penetrómetros, que
se hundirán por impacto hasta cinco metros bajo la superficie, estos
dispositivos, que dejarán fuera un equipo transmisor, enviarán datos
sobre la composición química, la temperatura del suelo y el contenido
de agua. Algunas teorías suponen que bajo la superficie de Marte hay
grandes depósitos de agua congelada, en capas como de 10 a 40 m de
espesor.
Por otro lado, los satélites en la órbita de Marte enviarán a la Tierra
imágenes de alta resolución, en las que se pueden distinguir objetos
hasta de 1 m de diámetro en la superficie. Estos mismos satélites
enviarán de retorno a la Tierra una cápsula con el material fotográfico
que probablemente se recupere desde la estación Mir. Actualmente
continúan las pláticas entre la URSS y los Estados Unidos para intentar
hacer de esta misión un ensayo de cooperación internacional. Aquí, el
sentido de cooperación es muy claro, la URSS argumenta, con bases,
que la colaboración estadunidense tendrá un papel destacado en el
diseño del control de avance del explorador autómata. Recordemos
que la distancia de Marte a la Tierra retarda la comunicación de ida y
vuelta decenas de minutos, por lo que una nave que avanza en el
terreno de Marte corre el peligro de caer o voltearse en los accidentes
naturales del mismo. Este problema obliga a usar programas de
control "inteligentes", es decir con capacidad de aprender sobre la
marcha y tomar decisiones atinadas. En estos programas de
inteligencia artificial es donde podrían participar los científicos
estadunidenses. Para oponerse a la cooperación, algunos esgrimen los
eternos argumentos y políticas que tratan de impedir la transferencia
de tecnología, pero de nuevo se tendría que decidir antes en qué
sentido se da la cooperación y quién es el que sale ganando. Creo que
está claro que todos salimos ganando.
Más adelante, en 1995, la URSS lanzará una nave científica que se
identifica con el nombre del proyecto, Corona, cuyo propósito es
estudiar precisamente la corona solar, o sea la radiación que se
observa alrededor del Sol, como cuando se tapa durante un eclipse
total o con un disco. Curiosamente esta misión se iniciará en dirección
a Júpiter, desde donde mandará datos e imágenes del planeta gigante.
Posteriormente, utilizando como propulsión el campo gravitacional de
Júpiter, será lanzada hacia el Sol para acercarse a una distancia sin
precedente de un millón y medio de kilómetros (la Tierra está a cerca
de 150 millones de kilómetros del Sol).
En 1998, serán enviados dos equipos simultáneamente hacia la
superficie marciana; constarán nuevamente de exploradores móviles,
que aparte de enviar imágenes, se espera regresarán a la Tierra por
primera vez con muestras de suelo y rocas. Un año después, se
enviará a Júpiter una nave que seguirá después hacia Saturno; cerca
de éste se desprenderá un explorador que tiene como objetivo
descender sobre la superficie de Titán, la única luna de Saturno con
atmósfera, de la que se sospecha que tiene océanos de hielo y
metano, un hidrocarburo que por la presión atmosférica y la
temperatura ambiente se encuentra también en estado gaseoso
mezclado con la atmósfera, que es de nitrógeno. Este ingenio llevará a
bordo 50 kg de instrumentos, que incluyen cámaras de televisión, y un
globo explorador con un equipo científico que viajará a 2 o 3 km sobre
la superficie de Titán. Posteriormente, descenderá a la superficie para
enviar datos sobre la presión, temperatura y composición química del
suelo durante 10 días.
En cuanto a una misión tripulada a Marte la limitante principal no es de
carácter técnico, sino médico sencillamente. Para llegar a Marte será
necesario conocer, o cuando menos poder estimar el funcionamiento
del organismo durante una experiencia de 30 meses seguidos en órbita
(dos y media veces más que la marca de permanencia actual). El
tiempo acumulado por los soviéticos en órbita equivale a 14
hombres/año, en comparación, los estadunidenses tienen sólo 5; la
información acumulada en este tiempo por ambos no basta sin
embargo para anticipar o calcular lo que ocurriría durante los 30
meses de un viaje a Marte; no obstante, después de observar la
notable recuperación de Romanenko, después de 326 días en órbita,
Oleg Gazenko, director del Instituto Soviético de Problemas MédicoBiológicos, dijo que con esto se tenía "más que suficiente información
biomédica para modelar la forma más económica posible de ir a Marte"
y añadió: "no es indispensable para una misión a Marte, probar
previamente durante tres años la resistencia de los cosmonautas". Si
nos limitáramos a juzgar las secuencias anteriores, ninguno de los dos
países está en posibilidades de realizar solo la misión en los próximos
10 años.
Por cierto que uno de los rasgos más característicos de la investigación
espacial de la URSS es que cada uno de sus avances son prueba de un
ejercicio extremo de cautela, hecho en el que muy probablemente se
base el que la Unión Soviética sea hoy, en muchos aspectos
importantes, la primera potencia espacial. La superioridad de la URSS
en el renglón de las investigaciones espaciales es un hecho reconocido
hoy en día por los expertos. Sin embargo, el público en general, en
países como el nuestro, desconoce esta situación, por lo que considero
necesario dedicarle unas líneas.
En primer término, es necesario señalar que la URSS nunca desecha
equipo probado; por ejemplo, las cápsulas de tipo Vostok utilizadas de
septiembre a octubre de 1987 para poner en órbita a dos primates y
otros animales, son esencialmente iguales a las utilizadas en el vuelo
de Gagarin al espacio hace más de 30 años. Otro ejemplo similar es la
utilización de las naves Venera, que en un lapso de dos años fueron
reconfiguradas para estudiar no sólo los aspectos de su misión
fundamental, la exploración de Venus, sino para que, después de dejar
una parte en la órbita venusina, los equipos de exploración siguieran
hacia el cometa Halley y mandaran a la Tierra las primeras imágenes
de este legendario cometa de 16 km de diámetro.
En contraste con este criterio, los estadunidenses llevan a cabo
diseños completos de sus equipos en la gran mayoría de las nuevas
aplicaciones, lo cual, aunque resulta un buen negocio para las
compañías que los fabrican, encarece considerablemente el
presupuesto dedicado a la exploración espacial. Otra actitud típica de
los investigadores espaciales de Estados Unidos es su desdén
generalizado, matizado por grandes lagunas de ignorancia, hacia las
actividades espaciales de la URSS, mientras sus contrapartes de la URSS
devoran" todo lo publicado en Occidente, filtrando las modas y los
aspectos más llamativos del verdadero avance. Además, en Estados
Unidos hay una obsesión por los resultados rápidos y espectaculares y
se olvidan los planes a largo plazo. Para la URSS al contrario, quizá por
su milenaria tradición, tiene menos valor el espectáculo y más la
participación en planes y programas a largo plazo, aunque tampoco
son inmunes a fallas y retrasos ni es justificada su exagerada modestia
y menos su reserva.
Las diferentes concepciones filosóficas de ambas potencias en este
terreno parecen recordarnos inevitablemente la fábula de la liebre y la
tortuga. Hoy en día la tortuga no sólo se encuentra a la cabeza por su
capacidad de lanzamiento a órbita, sus estaciones orbitales tripuladas
y los logros de sus satélites de percepción remota, sino que sus planes
de exploración del Sistema Solar harán que en la próxima década
encabece las actividades más avanzadas en el espacio en este rubro, si
es que no caen de nuevo en el inmovilismo.
En el campo de las ciencias de la microgravedad, Estados Unidos se
encuentra, según sus propios expertos, en tercer lugar después de la
URSS y la RFA, en el mejor de los casos; en cuarto o quinto lugar si
incluimos a franceses y japoneses; estos últimos países, han
desarrollado este campo basándose curiosamente en los equipos
norteamericanos, aunque los franceses han avanzado todavía más (en
1965 colocaron ya su primer satélite en órbita, llamado Diapason, en
un cohete, Diamante de diseño propio), ya que aprovechan también la
capacidad y ofrecimientos de la agencia espacial soviética.
También en cuanto a plataformas multiusos los soviéticos llevan la
delantera, y ni hablar en lo que se refiere a las operaciones tripuladas,
en las que sólo hasta el siglo XXI Estados Unidos logrará, quizá, igualar
la estancia prolongada de los cosmonautas en órbita. En opinión de los
propios expertos de Estados Unidos, el problema no es "...cómo lograr
más dólares para actividades en el espacio, sino más rendimiento de
sus actividades en el espacio por cada dólar".
En cuanto a la exploración de Marte, los estadunidenses basan sus
planes principalmente en los proyectos definidos en el informe llamado
"Liderazgo y el futuro espacial estadunidense" preparado para el
administrador de la NASA por la astronauta doctora Sally K. Ride, que
fue presentado en agosto de 1987. Este informe, basado en el análisis
de 18 estudios anteriores y en numerosas referencias, fue realizado
por medio de talleres en los que participaron cerca de 70 expertos
destacados en las actividades de investigación militares y comerciales
de ese país. El informe plantea cuatro misiones específicas con las que
se intenta dar un impulso a largo plazo a sus planes espaciales: 1) la
instalación de una colonia humana en la Luna; 2) la exploración
detallada de los planetas externos del Sistema Solar (de Júpiter a
Plutón); 3) la colocación de una plataforma en órbita polar equipada
con múltiples equipos para estudiar la Tierra, y 4) la exploración
humana de Marte. En este último caso el escenario de exploración que
visualizan se basa en la exploración robótica de Marte en la década de
1990, que comenzaría con un observador orbital en 1992, para
culminar con la colocación de dos exploradores automáticos que
bajarían a la superficie y regresarían a la Tierra con muestras de suelo
y rocas. Esta misión lograría una caracterización geoquímica del
planeta y un mapeo completo del mismo con imágenes ópticas, así
como la selección de los sitios más interesantes para la exploración.
Planean establecer también un programa de investigación biomédica
en su futura estación espacial, para validar la factibilidad del vuelo
espacial prolongado, lo cual les permitiría decidir si la nave a Marte
debe ir o no equipada con cámaras centrífugas que generen gravedad
artificial. Posteriormente, diseñarían y prepararían tres misiones
tripuladas para la exploración de la superficie marciana, durante
periodos de dos semanas antes del regreso, para que en el año 2010
se pueda instalar un puesto de exploración avanzada en la superficie.
Basándonos en los datos incluidos en este informe y en las tareas
calificadas de imprescindibles, así como en la situación del futuro
cercano en relación con equipos pesados de lanzamiento, podemos
llegar a las siguientes estimaciones aproximadas: la misión a Marte
requeriría, según ellos, de colocar en la órbita terrestre baja cerca de 1
140 toneladas de equipo, que necesitarían cerca de 38 vuelos del
transbordador, utilizado a su máxima capacidad, pero considerando
que la eficiencia alcanzada ha sido de 85%, la cifra real sería de
aproximadamente 44 vuelos dedicados exclusivamente a la misión a
Marte; ahora bien, si se toma la cifra "optimista" de 8 a 10 vuelos
anuales del transbordador y considerando que una tercera parte de los
vuelos son ocupados por el Departamento de Defensa y que otro
tercio, como mínimo, sería dedicado a la manutención de la estación
espacial, que es necesaria para organizar la misión, esto implica que
utilizando 2 o 3 transbordadores cada año se podría preparar esta
misión, cuando muy pronto, en 10 o 14 años; quizá la única manera
de llevarla a cabo sería el cambio radical de la política espacial
estadunidense, cosa muy difícil de lograr puesto que las
administraciones actuales enfrentan un déficit presupuestario que hoy
en día alcanza sus más altos niveles. Sin embargo, acaso la nueva
administración, más sobria y conocedora de la importancia de las
actividades espaciales, suspendería los programas de "Guerra de las
Galaxias", con lo cual la misión podría fundamentarse en hechos más
reales. Por su lado, la Unión Soviética posee los equipos necesarios
para hacer posibles muchos de los pasos intermedios que permitirían
alcanzar el objetivo, en particular el potente cohete Energía y la
estación espacial, y ha planteado en público, específicamente en el
Foro Espacial Internacional en octubre de 1987, que con base en una
cooperación internacional, la misión tripulada a Marte sería posible
mucho antes de lo planeado por cualquiera de los dos países
independientemente. ¿Triunfará la razón? Ya veremos.
ACTIVIDADES MILITARES
La mayoría de los equipos puestos en la órbita terrestre cumplen
misiones militares. Veamos algunos de los hechos más destacados. En
primer lugar están los satélites de comunicación de uso militar
exclusivo, seguidos por los llamados "Medios Técnicos Nacionales", es
decir, los satélites de radio escucha, los de obtención de imágenes de
alta resolución, nocturnas y de radar.
Sin embargo, en nuestros días se dan pasos muy peligrosos para
saturar el espacio con armas llamadas "defensivas", cuyas
repercusiones son verdaderamente graves y resultan inaceptables para
cualquier persona en su sano juicio. Al respecto, los militares
estadunidenses (de los soviéticos no tenemos información) han
publicado un plan para la conducción de once ejercicios con misiones
militares del transbordador, y según los resultados, se desarrollarían
actividades subsecuentes. Los ejercicios se refieren principalmente a
tres objetivos: reconocimiento estratégico, aviso de lanzamientos de
cohetes balísticos, coordinado con lanzamientos de prueba, y vigilancia
de las fuerzas navales soviéticas. Para esto, 8 de los primeros 14
vuelos que siguen a la reanudación de actividades del transbordador se
dedicarían a la operación de las cargas útiles militares, necesarias para
realizar los ejercicios. Desde luego, la justificación presentada ante el
público se basa en información "secreta" que posee el Departamento
de Defensa, relativa a actividades soviéticas similares. Sin embargo
cabe citar al cosmonauta Jean-Loup Cretiene, militar francés que
estuvo un mes en la Mir a finales de 1988, quien afirmó que "...en la
estación no hay equipo militar a bordo, sus actividades son claramente
civiles..."
Los once ejercicios son los siguientes:
1)
Intervención
humana
en
la
adquisición
de
imágenes
multiespectrales y seguimiento de objetivos en la superficie.
2) Utilización de sextantes espaciales para localizar la latitud y longitud
de objetos, con una precisión de más o menos 10 km.
3) Discriminación de barcos y submarinos propios y ajenos.
4) Observación de maniobras militares terrestres con sensores ópticos
para apoyar comandantes en batalla.
5) Identificación de objetos espaciales soviéticos que pongan en
peligro equipo espacial y terrestre de Estados Unidos.
6) Observaciones geológicas para optimizar los movimientos de equipo
pesado y tropas en tierra durante una guerra.
7) Uso de aparatos ópticos manuales para adquirir, observar e
identificar blancos móviles y estacionarios.
8) Observaciones con instrumentos ópticos manuales de lanzamientos
de misiles terrestres y submarinos.
9) Presencia de un meteorólogo militar para apoyo durante las
batallas.
10) Estudios ionosféricos y aurorales para apoyar la selección de
equipos y sistemas de armamento estratégico y comunicaciones para
uso en batalla.
11) Uso de designador láser de objetivos para adquirir, seguir y ayudar
a destruir blancos durante una guerra.
Como decíamos, los belicistas aseguran que todas estas actividades se
realizan ya a bordo de la estación Mir; pero si recordamos también que
con argumentos similares fundamentaron el desarrollo de diversos
sistemas militares como los bombarderos estratégicos, los portaviones
nucleares y los submarinos misilísticos nucleares, y otros más, cabe la
duda sobre su veracidad.
Desde el punto de vista de los países en desarrollo y subdesarrollados,
los grandes gastos incurridos por las superpotencias en el
armamentismo espacial resultan cuando menos insultantes; además,
este tipo de programas son financiados, principalmente, con la venta
de armamentos a estos países que son, paradójicamente, el mayor
mercado militar; por lo anterior, las actividades belicistas a juicio de
millones de personas son las que impiden un desarrollo más justo de la
sociedad. Algunas cifras adicionales de la actividad belicista en el
mundo son: a) en los arsenales de las potencias nucleares existen,
según el CIPRI (Instituto de Estudios Militares y Sobre la Paz, en
Suecia) cerca de 70 000 ojivas nucleares, es decir, 1 250 000 bombas
como las lanzadas sobre Hiroshima y Nagasaki; b) más de la mitad de
los físicos e ingenieros de la humanidad trabajan en tecnología bélica;
c) se gastan cerca de 35 000 millones de dólares al año en el
desarrollo de nuevo armamento. Estas cifras son tan asombrosas, que
el común de la gente aparta de su conciencia el significado real del
gasto en armamento. Aun más, hacen que los que trabajan en el
desarrollo del armamento mundial, generen un cinismo especial, para
no pensar en las repercusiones de lo que hacen. Para evitar
racionalizar sobre el producto de su trabajo, estos millones de
individuos preparados adoptan seudoargumentos de corte sencillo, que
si analizáramos con algo de detenimiento, demostraríamos fácilmente
su absurdo. De todo esto resalta la importancia de los planteamientos
de desarme que surgen; en particular, es necesario recalcar una
creciente propuesta en cuanto a que los gastos en armamento se
vayan redirigiendo hacia el desarrollo más justo de todos los países, y
aunque no faltará quien identifique como utópicos estos
planteamientos, creo que las mentes verdaderamente civilizadas de
este planeta nunca han hecho un planteamiento más lógico y
humanitario.
MATERIALES AEROESPACIALES
La industria aeroespacial ha generado una gran cantidad de materiales
nuevos, cuya utilización rebasa claramente los propósitos originales.
Recordemos, para situarnos de nuevo en este campo, que fueron las
actividades espaciales las que impulsaron la miniaturización de los
circuitos electrónicos (como los microprocesadores, diodos y
microcomputadoras) hoy presentes en cualquier lugar del planeta.
Tampoco es casual que sea en el ambiente de microgravedad donde se
vislumbre el laboratorio del futuro que producirá materiales aún hoy
inimaginables. Entre los materiales novedosos que podemos esperar
en el futuro próximo, debemos mencionar los metales porosos, los
materiales compuestos, las cerámicas reforzadas por fibras, las
estructuras laminares de aluminio, cobre y carbono epoxi, el teflón y
las fibras de vidrio; estas últimas, por ejemplo, tuvieron un
aprovechamiento rápido en la fabricación de lanchas y barcos de
pesca, y hoy día se comienzan a utilizar en los llamados materiales
"inteligentes", éstos constituidos principalmente por fibras de carbono,
kevlar o mylar, inmersos en termoplásticos, pero también una fibra de
cada 100 es una fibra de vidrio, o más propiamente dicho, una fibra
óptica, por la que se hacen viajar señales de luz. Estas señales nos
permiten diagnosticar el estado de fuerzas internas que ocurren en
estos materiales durante su fabricación, tratamiento térmico y
desempeño práctico; se les llama "materiales inteligentes", por la
propiedad que tienen de aprovechar los fenómenos de propagación de
la luz dentro de una fibra, en función de las tensiones y deformaciones
de las piezas terminadas. El descubrimiento de estas propiedades de
las fibras ópticas proviene de las experiencias ocurridas durante su
estudio en el laboratorio, e instalación como cables de transmisión de
teléfonos. Los cables de fibra óptica posibilitan el mayor flujo de
información conocido hasta la fecha en cualquier sistema de
comunicaciones, y esto se debe a las altas frecuencias a las que se
propaga la luz, en comparación con las ondas de radio o las
microondas. Esto ilustra de nuevo cómo de una actividad surgen
soluciones a problemas científicos o tecnológicos ajenos. A pesar de
que estos materiales apenas han comenzado a surgir, la tremenda
ventaja de conocer los esfuerzos internos de un material, durante las
diversas solicitaciones o demandas mecánicas a las que es sometido
cuando se utiliza, asegura que en el futuro escucharemos cada vez
más sobre estos nuevos materiales.
En cuanto a los metales porosos, su principal atributo es la posibilidad
de bajar su temperatura exterior, con base en procesos de
transpiración, tal como lo hace el cuerpo humano, que evapora varios
litros de agua al día durante un día caluroso, precisamente con el
objeto de bajar su temperatura. Pero volviendo al material
aeroespacial, patentado con el nombre de Lamilloy en una de sus
primeras versiones, que se espera utilizar por primera vez en la
sección de más alta temperatura dentro de un turborreactor, que es
donde se inyecta el combustible encendido, acompañado de aire a
presión. Para impulsar una aeronave, los gases se expanden y
expulsan, generando el efecto de empuje por reacción. Con este tipo
de materiales porosos se puede incrementar la temperatura a la que
se quema un combustible; la temperatura se podrá acercar hasta al
80% de la temperatura estequiométrica mencionada. Al transpirar
continuamente cada una de las aspas de los ventiladores de la turbina,
las aleaciones porosas podrán mantener sus características de rigidez y
resistencia a pesar de encontrarse en un ambiente en el que se
fundirían si faltara el enfriamiento. Con este desarrollo de la técnica
metalúrgica se esperan aumentos de rendimiento de entre 20 y 35%,
lo que se reflejará también en el ahorro de combustible en
proporciones similares.
Hemos descrito ya cómo las fibras de diferentes materiales pueden
combinarse con termoplásticos para formar piezas de alta resistencia y
bajo peso. Sin embargo, uno de los materiales más socorridos para
sustituir el uso de placas (por su peso), se elabora por medio de dos
delgadas láminas de material compuesto, entre las cuales se coloca
una ligera estructura de aluminio con celdas hexagonales, que
recuerdan inmediatamente un panal de abejas. En la figura 29
mostramos un esquema de este material. No es posible sólo con
números informar sobre las notables propiedades de este material en
capas, tres veces más rígido que aceros especiales; la mera
experiencia de sostenerlo entre las manos, intentando torcerlo o
doblarlo, aun con ayuda de una rodilla, es impresionante, cuando
menos para quienes aprecian las sorpresas. Las fibras de refuerzo de
este material pueden ser de carbono, Nomex, Kevlar, Cuarzo y Mylar,
y presentan ventajas adicionales, como la inmunidad a la corrosión, la
facilidad de repararlo con equipo portátil, y el ser impermeables a
cualquier líquido.
Figura 29. Esquema de material emparedado, en el cual una estructura ligera
separa
dos
capas
de
alta
rigidez.
Si bien hemos mencionado que estos materiales se utilizan desde hace
algunos años en los equipos aeroespaciales militares, una compañía
que fabrica pequeños aviones a reacción para ejecutivos, ha iniciado la
producción civil de aeronaves fabricadas en un 90% con estos
materiales. Su elaboración implica primero dar a las piezas su forma
final, y luego se calientan a 250ºC; simultáneamente se aumenta la
presión dentro del horno para evitar que se generen problemas de
delaminación, por burbujas de aire atrapadas en el material
multicapas; algunos hornos trabajan al vacío. Sorprende un poco el
hecho de que a pesar de que estas naves son las primeras fabricadas
con una casi total ausencia de metales, sus precios sean, aun los de
los primeros modelos, competitivos con sus equivalentes metálicos
tradicionales.
Para asegurar que las piezas fabricadas queden libres de burbujas, la
misma compañía inventó un proceso para visualizar el tamaño y la
forma de las burbujas. Dicho proceso consiste en lanzar un pequeño
chorro de agua, con ciertos aditivos que aumentan su capacidad de
mojar el material, en dirección perpendicular a la superficie; del otro
lado, en el mismo punto, se hace incidir otro chorro de agua; el
primero de los chorros (el vibratorio) transmite pulsos que hacen
variar la presión de agua a frecuencias ultrasónicas, más de 20 000
veces por segundo, mientras que el segundo está equipado con
sensores que detectan el paso de los pulsos ultrasónicos del primero a
través del material. Los chorros de agua barren la superficie del
material y los datos de velocidad de transmisión de las ondas
mecánicas, causadas por el chorro vibratorio se almacenan en una
memoria de computadora; después, con técnicas similares a las del
procesamiento de imágenes de satélite por computadora, se
reconstruye un mapa de la superficie usando diferentes colores para
representar las distintas velocidades de propagación; de esta manera
se identifica la gravedad de los defectos que puede tener el material.
Los materiales multicapas son sometidos además a pruebas
experimentales de fatiga (que en los aviones equivalen, por ejemplo,
al desgaste ocasionado por vibración de las alas y los ciclos de
presurización) doblándolos y desdoblándolos millones de veces,
proceso que se interrumpe para observar la evolución de los defectos
que causa la fatiga. Estas son pruebas de laboratorio necesarias para
anticipar la vida útil de estos materiales; además, con este mismo
objetivo, se someten también a ciclos de calor, frío y humedad,
precedidos por inmersión total en agua, lo que permite estimar en un
corto plazo las acciones de los drásticos cambios ambientales a los que
serán expuestos.
Aparte de los sensores basados en fibras ópticas inmersas en los
termoplásticos, también se han desarrollado sensores de presión,
vibración y deformación del tamaño de una tarjeta de crédito. Éstos se
adhieren a las paredes internas del fuselaje y las alas, y se usan para
realizar estudios aerodinámicos y estructurales en los prototipos
fabricados por esta compañía. Además, se ha colocado este tipo de
sensores bajo los mosaicos cerámicos que protegen al transbordador
espacial de las altas temperaturas que causa la fricción durante el
regreso a la Tierra. Estos sensores cubren los intervalos de presión
generalmente encontrados en aerodinámica, así como las vibraciones y
deformaciones comunes al vuelo de una aeronave, lo que hace de los
prototipos verdaderos laboratorios aerodinámicos en pleno vuelo.
En cuanto a la metalurgia y, en particular, a la utilización de nuevos
metales para la industria aeroespacial, creo que resultará ilustrativo
enterarse de los siguientes antecedentes: en 1880 el 96% de la
producción total de metales correspondía al hierro y a los aceros que
con él se fabrican; unos 50 años después, esta cifra había cambiado
sólo en 1.5%; ahora bien, la introducción de aviones fabricados
totalmente de metal, a finales de la década de 1930, aumentó también
la utilización de metales diferentes al acero, principalmente aleaciones
de aluminio y magnesio. De la producción de acero, 25% es consumido
por la corrosión, por lo que la vida útil de este metal es de cerca de 35
años, con lo que es evidente que lo deseable es sustituirlo o añadirle
nuevos elementos que aumenten su rendimiento y vida útil. Sin
embargo, como las cifras indican, no estamos ni siquiera cerca de
abandonar la utilización del hierro; las investigaciones recientes
encaminadas a mejorar las propiedades de los aceros, en particular los
tratamientos radiactivos del hierro con base en neutrones, imprimen a
este metal propiedades completamente nuevas, inesperadas,
sorprendentes y útiles, además de que la introducción de aceros
inoxidables y tenaces ha mejorado mucho su aplicabilidad.
Adicionalmente, es tal la inversión mundial en plantas de producción
de acero, que nadie se propondría derribarlas, por las promesas de los
nuevos materiales.
Aparte de los aluminios aeroespaciales el cambio más importante en la
metalurgia aeroespacial se está dando con la aplicación del titanio, y
en mucho menor proporción, del circonio. El primero es muy
abundante en la Tierra, llega a formar 0.6% de la corteza terrestre.
Sus propiedades en relación con los aceros lo hacen particularmente
notable: a) presenta una resistencia del doble de los aceros tenaces;
b) es relativamente más ligero, pero, sobre todo, tiene una resistencia
a la corrosión que resulta para todo fin práctico, eterna. Además, su
punto de fusión es de cerca de 1 725 º C: supera en esto al acero por
200ºC aproximadamente. Es también curioso enterarse de que,
aunque este metal fue descubierto como óxido hace poco menos de
200 años, la primera producción ya como metal se dio después de
finalizar la segunda Guerra Mundial. En 1948 se produjeron sólo 10
toneladas, mientras que apenas siete años después se producían ya 20
000 toneladas y la producción de 1986 alcanzó las 87 000 toneladas.
PROGRAMAS ESPACIALES DE OTROS PAÍSES DESARROLLADOS
Ya nos hemos referido a los programas y actividades espaciales de las
dos superpotencias. En esta sección quisiéramos incluir, aunque sea
brevemente, algunas de las actividades espaciales de otros países
desarrollados que tienen mucha importancia porque abarcan un gran
número de programas que veremos florecer en el futuro.
Hemos mencionado la importancia económica que para Europa tienen
las actividades de los países de la Agencia Espacial Europea, y aunque
no sea posible cubrirlas en detalle, sí es importante dar a conocer
algunos de sus principales logros. Hoy en Europa se están
multiplicando las actividades espaciales. En 1965 los franceses
colocaron su primer satélite en órbita, pero el verdadero impulso de la
actividad europea se dio en el momento en el que tuvieron una serie
de lanzadores propios.
Además de los antecedentes teóricos de Oberth y las posteriores
experiencias bélicas de W. von Braun, debemos mencionar el
destacado trabajo del ingeniero francés Robert Esnault Pelterie,
miembro de la Academia de Ciencias desde 1936, quien inventó el
motor radial de aviación y el control de vuelo con base en el bastón de
mando. Éste se llegó a interesar tanto en la cohetería y la
astronáutica, que en 1930 publicó un libro llamado La astronáutica,
donde trata algunos de los aspectos ya conocidos por nosotros a lo
largo de este trabajo. Casi desde principio del siglo, se dio cuenta del
futuro de la propulsión nuclear, y una anécdota nos muestra su
dedicación directa al tema coheteril: perdió cuatro dedos
experimentando con tetranitro metano como combustible. Este notable
ingeniero, al igual que Oberth para Alemania, puede ser considerado el
padre de la astronáutica francesa.
Además de la ya mencionada repercusión de la cohetería europea,
basada en los modelos Ariane I a V, en el mercado comercial de
lanzamiento de satélites, es importante señalar que este propulsor fue
desarrollado por la Sociedad Europea de Propulsión (SEP), en la que
colaboran cercanamente Francia, Alemania y otros, como antes,
Inglaterra.
Hoy las actividades espaciales europeas se adentran en múltiples
campos: nuevos servicios de comunicaciones, preparación de la
estación espacial Colón, satélites autónomos y recuperables,
investigación de materiales en microgravedad, efectos de la
microgravedad en humanos —en particular estudios sobre el SV
desarrollados a bordo del laboratorio espacial europeo SPACELAB,
puesto en órbita por el transbordador—, protección de los seres
humanos a la radiación cósmica, resistencia de microorganismos a las
condiciones espaciales, previsión climática, cartografía antártica,
exploración geológica y geofísica, desarrollo de infraestructura nacional
basada en observaciones espaciales, mediciones de los movimientos
de la corteza terrestre con una precisión de centímetros, fuentes
extraterrestres de rayos X (proyecto ROSAT y HEXE), estudio de fuentes
infrarrojas astronómicas, exploración de los planetas gaseosos y otras
más.
En cuanto a las políticas espaciales, haremos referencia en particular a
la de la RFA, confiando en que los elementos clave que mencionamos;
son parecidos a los demás miembros de la Comunidad Europea: 1)
fomento a la investigación básica y aplicada; 2) búsqueda de
aplicaciones de tecnología espacial para aprovecharla en el desarrollo
general de sus países; 3) apoyo a la capacidad de competitividad
internacional de su industria espacial; 4) mejoramiento de la
colaboración internacional y, de particular interés para nosotros, 5)
ayuda a los países en desarrollo en sus propias tareas de desarrollo.
Los puntos capitales de dicha política espacial pueden dividirse en dos:
la investigación extraterrestre (ciencias biomédicas y astronómicas) y
la investigación espacial hacia la Tierra (el estudio de las zonas
polares, mapas de zonas inexploradas, la oceanografía, la exploración
y descubrimiento de recursos, estudios atmosféricos que incluyen la
supervisión ambiental, y satélites para apoyar la navegación). Entre
sus programas exploratorios sobre el aprovechamiento del espacio
destacan los usos de la microgravedad para obtener sustancias activas
(como fármacos totalmente nuevos) y desarrollar la tecnología para
producirlos; el programa para desarrollo de nuevos materiales y
tecnología de procesos, así como el de biotécnica.
Queda claro que este tipo de programas busca una mayor
independencia espacial respecto a las superpotencias y, a juzgar por
las relaciones que tienen los organismos espaciales de cada país con
los diversos ministerios de sus gobiernos, no sólo coordinan las
investigaciones técnicas y científicas del espacio, sino que además
sirven como punto de contacto con la política industrial del gobierno.
ESTADO COMPARATIVO
México carece de un programa que impulse su desarrollo aeroespacial
y, lo que es más grave, de una política que defina el estado deseable
de nuestra competencia en este campo. Por consiguiente, al igual que
otros países, avanzados o no, su participación en actividades
espaciales y aeronáuticas se limita a dar respuesta a situaciones que
se presentan sin invitación: no se controlan ni dirigen los esfuerzos de
manera congruente con un plan para forjar conscientemente el futuro.
La ausencia de un programa y de una política aeroespacial se debe, a
mi juicio, a un desconocimiento de la capacidad que la ciencia y
tecnología espacial tienen para fomentar el progreso general de las
naciones, y en particular, a la errónea percepción de que las
actividades espaciales son un lujo exclusivo de países tecnificados. Sin
duda, el argumento más frecuente en contra es el de la falta de
recursos, pero no creo que eso refleje la realidad, pues sí se han hecho
inversiones nada despreciables en temas aeroespaciales, con pocos o
nulos resultados, pero sin la coherencia, seriedad y continuidad que
requiere cualquier programa estratégico de este calibre. Sabemos que
países similares al nuestro han avanzado notablemente en esta
dirección, como la India y Brasil, que comparten con México una cierta
desorganización económica y social y la presencia de una comunidad
científica bastante capaz, en comparación con la de otros países en
desarrollo.
Los casos citados quizá pueden explicarse porque su actividad espacial
es fruto de sus políticas militares que nulificaron las consideraciones
socioeconómicas. Ambos países iniciaron su actividad espacial
incursionando en el desarrollo de cohetes lanzadores de uso militar, y
gobiernos subsecuentes, más sobrios y acordes con una política de
desarrollo social, redirigieron estas actividades a objetivos civiles,
como los de comunicaciones, teledetección de recursos y metereología,
por ejemplo. En nuestro caso la cercanía de una gran potencia espacial
nos inclinó quizá a pensar que tal desarrollo acabaría por trasponer las
fronteras y nos haría partícipes automáticamente. Pero la realidad,
siempre tan implacable, es que la tecnología se atrinchera y no pasa
las fronteras tan fácilmente como lo hacen las ideas frívolas de un
cantante, o una moda de ropa o peinado.
Es evidente pues que cualquier desarrollo científico o tecnológico
tendrá que venir principalmente de nuestros propios esfuerzos y
programas, y pasaríamos del campo de los inocentes al de los tontos si
esperáramos lo contrario. Sin embargo, la colaboración seria y, sobre
todo, desinteresada debe ser siempre bienvenida y fomentada. Con
algunos ejemplos hemos ilustrado ya la importancia de la cooperación
internacional.
Analicemos qué requerimos para un desarrollo en aspectos espaciales:
lo primero, y más evidente, son los sistemas coheteriles para llegar
con nuestra carga útil a la órbita terrestre. Que cada país desarrolle
sus propios lanzadores es caro y poco práctico. Actualmente son
muchos los países. que tienen ya capacidad de lanzamiento a la órbita;
a pesar de los recientes accidentes con el transbordador espacial de
Estados Unidos, y con el Ariane europeo durante 1986 y 1987, los
esfuerzos, por ejemplo, de la URSS, demuestran la importancia que
este país pionero atribuye a la potenciación del cosmos y al instaurar,
entre todos los países con capacidad espacial, una organización
espacial mundial, similar a la que se ocupa de la salud desde la ONU.
Nuestros medios para llegar con una carga a órbita, no son pues un
esfuerzo tardío y aislado, es el de la cooperación internacional con
diversos países dispuestos a ello, hay que evitar una sola relación, ya
que esto aumenta nuestra dependencia.
El segundo argumento a favor del desarrollo de un programa espacial
mexicano es que esto nos daría la posibilidad de alcanzar tecnologías
avanzadas y conocimientos prácticos para una producción
especializada: a lo largo de esta obra se han dado numerosos ejemplos
de cómo la actividad espacial ha fomentado el avance de campos
afines a muchas otras actividades de importancia económica; si
retomamos el ejemplo de los materiales nuevos, es evidente que en el
futuro se requerirá de una utilización más racional de los materiales
para construir equipos científicos, tecnológicos y de producción; en esa
dirección, en los estudios espaciales mexicanos se deberá incluir el
fomento a la metalurgia, particularmente la no ferrosa, pues, como lo
demuestra la práctica de las actividades espaciales en países
avanzados y en desarrollo, los equipos modernos requerirán de
materiales que presenten ventajas en sus relaciones de resistenciapeso y rigidez-resistencia, como ejemplifican las aleaciones de
aluminio-litio, las de titanio y también para ciertos casos, las de
circonio; todos ellos materiales abundantes en la amplia gama de
recursos naturales de nuestro país.
El prestigio internacional derivado de la conducción de programas
espaciales adecuados a las condiciones de cada país es un aspecto que
no debe descuidarse. México, como otros países similares, busca
entrar al siglo XXI con la imagen, respaldada ampliamente por los
hechos, de un país con autodeterminación, lo que implica
necesariamente que el país respalde su pleno desarrollo integral con
una actividad seria en campos considerados estratégicos dentro de la
ciencia y la tecnología, en vista de su considerable potencial
económico. Asimismo, un programa espacial nacional sería una de las
semillas de la integración tecnocientífica latinoamericana, que no
puede dejar de ser considerada, sin pagar por ello el costo implícito de
permanecer en el subdesarrollo.
Otro argumento de importancia se refiere al ejercicio de nuestra
soberanía, que depende, en los aspectos técnicos, del conocimiento de
nuestros propios recursos, que hoy en día se pueden estudiar de
manera más rápida, precisa y racional desde el espacio o por medio de
técnicas de origen espacial.
El impulso que imprimen las actividades aeroespaciales a una amplia
gama de proyectos, ajenos en principio a este tema, es en sí uno de
los argumentos con más significado. En la última década se han
identificado varios campos prioritarios para el desarrollo de un país;
entre ellos hay una serie de actividades cuyo origen puede el lector
asociar fácilmente con muchos de los diversos proyectos de
investigación espacial de otros países, concretamente con el desarrollo
de nuevos materiales, la microelectrónica y computación, la
biotecnología, la exploración de recursos, las comunicaciones por
satélite, las fibras ópticas, y con la aeronáutica, entre otros. Desde
luego el desarrollo de estos campos no puede basarse exclusivamente
en un programa espacial; cada uno de ellos debe impulsarse de
manera consiente según la necesidad; sin embargo, la práctica
demuestra que los avances tienen su origen en los grandes proyectos
multidisciplinarios, como lo fue el Apolo para la exploración lunar, y
que hoy se simbolizan con la serie de esfuerzos encaminados a la
exploración del planeta más parecido al nuestro: Marte.
HERRAMIENTAS DE RECUPERACIÓN
A estas alturas de la revolución tecnocientífica, sería un error de
impredecibles consecuencias quedar al margen del desarrollo espacial.
En las llamadas "ciencias de la microgravedad" sólo hay que ver los
primeros resultados de estas investigaciones, para identificar una
ciencia que aun estando en formación, proporciona, y con toda
seguridad lo hará en el futuro, resultados útiles para el progreso de
ése y muchos otros temas de interés práctico y científico. La
investigación espacial no es un tema de moda (eso ya pasó); se perfila
hoy como una herramienta con potencial comprobado en la producción
de materiales muy especiales, como en el ya mencionado caso de los
fármacos y aleaciones de características extraordinarias, que dependen
directamente de una o de varias de las condiciones presentes en la
fabricación espacial.
Por el lado de los recursos humanos calificados, el país cuenta ya con
suficientes investigadores e ingenieros, principalmente en sus
universidades y centros de investigación, para abordar un modesto y
útil programa espacial, con objetivos centrados en, por ejemplo, la
búsqueda de nuevos conocimientos, la captación y aplicación de
tecnologías aeroespaciales a problemas de índole muy variada, que
incluya además una valiosa formación de equipos de profesionistas,
acostumbrados al hábito de buscar el mejor diseño y a innovar,
cumpliendo con las más estrictas normas de calidad internacional.
Algo menos tangible, en el campo de las ideas, afecta concretamente
también los planes para utilizar la ciencia y la tecnología en todo su
caudal en nuestros países: su identificación como una actividad
improductiva, aunque seria, pero vista como un oficio privilegiado y
reservado a las mentes superdotadas, que excluyen al resto de la
sociedad de saber para qué sirve su trabajo, y del aprovechamiento de
los resultados. Estos conceptos incorrectos, pero firmemente
arraigados, no sólo limitan el acceso al conocimiento de mentes
jóvenes y más prácticas, sino que provocan el aislamiento de una
actividad tan importante como la ciencia de otras actividades sociales
básicas como la industria, con lo que se desperdicia una condición
necesaria para su progreso mutuo. Estas concepciones, que mantienen
alejadas a la ciencia y a la tecnología avanzada de la industria, tienen
un efecto negativo adicional: la acumulación de industrias atrasadas y
de baja productividad, hecho que aletarga al sistema económico
general del país y sus posibilidades reales de desarrollarse, y hasta de
sobrevivir en el mundo moderno, caracterizado por una dura
competencia.
Asimismo, limitando las actividades que pudiera desarrollar nuestro
país, está el hecho de que la información aeroespacial presentada al
público no se orienta a la comprensión del potencial benéfico que esta
actividad conlleva. Antes por el contrario, el manejo frívolo y
personalista de esta información parece corroborar y fortalecer la
visión de que éstas no son actividades necesarias ni propias de nuestro
país. Es muy frecuente en nuestro medio encontrar que un alto
porcentaje de ciudadanos no tienen ni idea de la necesidad de realizar
investigaciones y estudios espaciales (resultado del tipo y la forma en
que esta información se presenta al público). Existen otras dificultades
que impiden que la población juzgue correctamente las ventajas de
proyectos tecnocientíficos, aun cuando sean sensiblemente cercanas a
cada ciudadano, como el caso de la investigación biomédica.
Acentuando la situación, actúa otro tipo de factores que provienen de
la baja escolaridad de la mayoría de la población. Estos factores se
manifiestan con las siguientes carencias generalizadas: un muy bajo
porcentaje de la población conoce las ventajas de utilizar y fomentar
una mentalidad cuantitativa, es decir, la gente incurre en
comparaciones demasiado vagas para ir formando una opinión objetiva
sobre muchos campos. Esto se puede explicar de manera mas clara
por medio de una serie de ejemplos: la mentalidad cuantitativa se
manifiesta en la apreciación comparativa de diferentes medidas, por
medio de cantidades, como "tantos por ciento"; la gente sabe que hay
muchos mexicanos sin hogar, pero no se preocupa por saber o difundir
qué porcentaje de mexicanos no tiene hogar. Estas cantidades son las
que permiten actuar, ya que neutralizan las contraopiniones
irresponsables, como la de "es que no trabajan". Tampoco se han
aprovechado los múltiples medios de comunicación, en particular la
televisión, para familiarizar a nuestros ciudadanos con el manejo de
gráficas, que muchas veces pueden sustituir una discusión complicada;
aquello de que una imagen vale más que mil palabras se manifiesta
claramente con el ejemplo de las gráficas. Se utiliza poco también el
expresar la distribución de sucesos en el tiempo, que si bien se emplea
mucho en las ciencias e ingenierías por medio de distribuciones
estadísticas, ni los científicos ni los ingenieros nos hemos preocupado
por aprovechar las oportunidades de difusión para acostumbrar a la
población paulatina, pero continuamente, a la comprensión y uso de
este tipo de representación abstracta. En muchos casos, se podría
utilizar también la analogía y la comparación de costos de diferentes
actividades para que la gente capte con claridad el significado de las
cifras, sobre todo cuando éstas van acompañadas de más de seis
ceros. Decir en televisión que se invirtieron 63 000 millones de dólares
en el programa espacial estadunidense entre 1958 y 1972, para la
gran mayoría explica muy poco. Sin embargo, si se expresara esta
misma cantidad en el número de viviendas, escuelas, hospitales y
centros culturales que se podrían construir con esa suma, a nadie le
quedaría duda de lo que significan verdaderamente esas cantidades.
Lo más sorprendente de todo esto es que no existe ningún argumento
en contra de impulsar la mentalidad cuantitativa en la población, pues
se tienen los medios, particularmente los canales televisivos culturales
que existen —y los que se podrían iniciar con el uso de los
transpondedores latentes del Sistema Morelos de Satélites— para
fomentar este importante aspecto de la percepción de la realidad.
Desde luego existen algunos hechos que demuestran la presencia de
personas conscientes de la capacidad de la televisión para educar; sin
embargo, es necesario hacer de esta actividad una política fomentada
por todos los sectores sociales.
Refiriéndonos de nuevo a los aspectos aeroespaciales, brilla por su
ausencia la expresión, ya no de una política nacional sobre la
investigación espacial, sino siquiera la de una expresión ponderada de
los beneficios que este tipo de actividades tendrían para el país.
México, repetimos, no es ajeno a las actividades espaciales. Una parte
importante de la actividad económica del país está basada en los
diversos equipos en órbita. A lo largo del libro se ha hablado de la
utilización de los satélites de comunicaciones que vinculan por primera
vez a todo el país, de los satélites meteorológicos que, en combinación
con el sistema climatológico mundial (que incluye de 15 000 a 20 000
estaciones terrestres), nos permite aprovechar esta información en
actividades tan importantes como la agricultura, la pesca y, hasta
donde cabe, en prevención de desastres. Asimismo, los satélites de
percepción remota, y las imágenes que éstos proporcionan, están
siendo utilizados a un mínimo de la capacidad que nos corresponde; en
la gran mayoría de los casos, los costos asociados con las imágenes y
aun la fabricación de satélites de este tipo, quedan plenamente
justificados por los efectos económicos favorables que esta información
tiene (que superan de decenas a cientos de veces los costos del
estudio).
Por último, cabe recordar otro de los aspectos centrales de este libro,
que se refiere a la conducción de experimentos en microgravedad. Este
es un campo que apenas comienza a dar frutos, y éstos son todavía de
naturaleza especializada, por lo que es más difícil evaluarlos en
comparación con las tres actividades mencionadas arriba. No obstante,
estamos a muy buen tiempo para entrar en este nuevo campo, cosa
que ya hemos hecho y continuaremos, pero enfrentando un futuro algo
incierto la próxima década.
EL INVESTIGADOR ESPACIAL EN MÉXICO
La mayoría de los investigadores en nuestro país trabaja en un tema
en el que no se cuestiona la necesidad de la propia disciplina, ésta es
aceptada como útil. En el caso de los investigadores espaciales, sólo
una parte se acepta como justificada: la que se refiere a sus aspectos
geofísicos, planetarios y astronómicos, que además ya han alcanzado
tradición seria y robusta.
Para dedicarse a los aspectos más aplicados de la ciencia y la
tecnología espacial, como los satélites de investigación, los
experimentos en microgravedad y la fabricación de materiales en el
espacio, el marco de referencia y de evaluación cambia
sustancialmente. Se carece de una tradición, que en nuestro medio
puede tomar muchos años forjar.
Así pues, el establecimiento y homologación de esta actividad al nivel
de otros temas asociados, como la geofísica y la astronomía,
dependerá de su desempeño inicial y de la seriedad de sus esfuerzos
en los próximos años. Evidentemente, también dependerá del apoyo
financiero que reciba esta área, pero este aspecto no es el más
importante, ya que, en general, es posible definir proyectos que
encuentren suficiente financiamiento, cuando éstos justifican su
existencia por su relevancia y potencial, aunque se consuma mucho
tiempo en lograrlo.
Un punto que adquiere particular importancia en tiempos de crisis
económica, es la imagen que de los investigadores espaciales tienen
los comités de evaluación de los investigadores, ya que de la
percepción que tengan de la relevancia y seriedad del trabajo espacial,
resultan las remuneraciones adicionales, y los apoyos que para
intentar sostener el salario se han instituido dentro y fuera de las
dependencias de investigación en México. Si, como buena parte de la
población, perciben el tema espacial como un lujo, propagandístico y
ajeno a las necesidades nacionales, su evaluación resultará
consecuentemente limitada. Esta situación afecta, por factores
meramente económicos, el interés de nuevos investigadores para
dedicarse a éste y otros nuevos campos. Aquí también afecta la
carencia de una política espacial nacional, enrareciendo aún más la
atmósfera donde se intentan actividades de vanguardia como éstas.
Por lo pronto y en el futuro cercano, los que ahora dedicamos
esfuerzos para introducir la investigación y desarrollo de la ingeniería
aeroespacial, nos encontramos ante autoridades y comités que
desconocen la importancia de adentrarnos en el campo aeroespacial y
pagamos, como también se paga en los casos de otros campos
relativamente nuevos, con remuneraciones inferiores a la que tienen
acceso aquellos que laboran en campos con mayor tradición y mejor
comprendidos, más "científicos", digamos, menos "tecnológicos".
Aparte de no existir en el país personas capacitadas para evaluar con
conocimiento de causa a los investigadores y proyectos aeroespaciales,
tampoco existe todavía un gremio o escuela con presencia académica
suficiente, por lo que los contactos con investigadores del tema se
reducen a esporádicas pláticas con académicos de otros países,
quienes, habría que anotar, no siempre sitúan sus consejos y
sugerencias en el contexto de la realidad de un país en desarrollo. Este
proceso de adaptación reduce aún más, para los investigadores de
países en desarrollo, el principal recurso contra el que se mide el
avance de un tema: el tiempo.
LA ORGANIZACIÓN DEL TRABAJO ESPACIAL
Se ha señalado en diversas secciones del libro la necesidad de
enmarcar el trabajo de investigación espacial dentro de un programa
nacional; sin embargo, al no existir todavía siquiera una política
espacial, los investigadores interesados en nuestros temas nos hemos
visto obligados a organizarnos bajo los auspicios de alguna institución
sólida. Como es natural, en un país que vive una centralización de las
funciones de investigación, se tomó como sede la Universidad Nacional
(UNAM) pero sin excluir interesados de otras instituciones, como el
Politécnico (IPN), el Instituto de Investigaciones Eléctricas, etcétera.
En junio de 1985 se formalizó con la rectoría de la UNAM el Grupo
Interdisciplinario de Actividades Espaciales (GIAE), que venía
funcionando esporádicamente desde más de un año antes. El GIAE
quedó adscrito a la Coordinación de la Investigación Científica de la
Universidad, y sin contar con instalaciones ni personal propio, funciona
con investigadores prestados de varios institutos de investigación y
facultades, dentro y fuera de la UNAM.
Entre los objetivos más importantes del GIAE, está el de fomentar la
autodeterminación y crear una autosuficiencia creciente en la materia.
Como es lógico, sus vínculos no sólo rebasan a la Universidad, sino
que incluso se ha realizado una labor fuera del país. Así, el GIAE ha
concertado convenios de colaboración con países como Brasil y la India
para desarrollar proyectos conjuntos, y hemos continuado los
esfuerzos para incluir a Argentina, la URSS y la Agencia Espacial
Europea (ESA), además de que planeamos proseguir el trabajo iniciado
en 1985 con la NASA de Estados Unidos. La diversidad de nuestras
relaciones responde a la necesidad de mantener la autodeterminación
que consideramos indispensable en un trabajo de carácter estratégico,
aparte de que ello aumenta nuestros márgenes de operación y reduce
la vulnerabilidad de nuestros proyectos: a pesar de la corta vida el
GIAE, ya vivió una primera experiencia al quedarse en tierra, cuando
menos tres años, su equipo listo para vuelo con la suspensión de
vuelos del transbordador estadunidense. Se estima que los equipos de
investigación futuros, a la luz de los convenios ya concertados o en
trámite, contarán con varias alternativas para subir instrumentos al
espacio y en muchos casos para recuperarlos de la órbita.
CONTEXTO SOCIOECONÓMICO DE LA INVESTIGACIÓN ESPACIAL EN
LATINOAMÉRICA
Ningún programa de investigación y desarrollo puede darse al margen
de la situación social y económica de un país; más aún cuando los
países están inmersos en una crisis económica para la cual no parece
haber programas de recuperación claros y contundentes. En América
Latina, cualquier actividad nueva o que implique gastos considerables
debe ser analizada en cuanto a su potencial en el contexto de la deuda
externa, y en el de los programas políticos, que si bien varían de país a
país, comparten en el caso de Latinoamérica el mismo interés: sacar a
sus países del subdesarrollo y encaminarlos en la vía del crecimiento
económico estable.
Para finales de 1987, la deuda de Latinoamérica alcanzaba cerca de
500 000 millones de dólares (casi 8 programas espaciales de Estados
Unidos), de los cuales 114 000 millones correspondían a Brasil, 105
000 millones a México, y casi 50 000 millones a la Argentina. Según
estimaciones de diversas fuentes, para el año 2000 el total de la deuda
de Latinoamérica alcanzará de 650 a 700 000 millones de dólares, lo
que hoy día representa la deuda total de los países en desarrollo.
Como todos sabemos, los pagos de la deuda se vuelven cada vez más
difíciles de saldar, al punto de que buena parte de los economistas,
independientemente de su orientación ideológica, se acercan
progresivamente a la conclusión de que la deuda es impagable. Para
ilustrar este punto, podemos mencionar que de 30 a 40% del Producto
Interno Bruto (PIB) de México se dedica al mero pago de los servicios
que esta deuda devenga, por lo que con el porcentaje restante se
vuelve cada vez más difícil invertir en programas que posibiliten el
crecimiento económico del país. Esta situación ha generado
condiciones de inflación que corroen rápidamente las economías de los
países en desarrollo.
Si bien en 1973 los intereses ascendían de 3 a 4% anual, para 1983
esta cifra había subido de 22 a 23% anual; esta situación se debe
directamente a la desvalorización del dólar, que a su vez responde al
intento por aumentar la competitividad de sus exportaciones, a su
inflación y al aumento de cerca de 50% de los gastos militares que se
acentuó desde que Reagan llegara al poder. El drástico salto de
intereses anuales obliga a que los países de Latinoamérica inviertan
crecientes cantidades del producto de sus exportaciones para pagos
relacionados con la deuda externa, sacrificando su propio crecimiento y
pauperizando de manera creciente a sus sociedades. No es necesario
ser economista para comprender que esta tendencia es insostenible.
Tampoco se requiere ser un político muy hábil para comprender que la
población, en continua pérdida de su poder adquisitivo, pondrá, tarde
o temprano, un alto a esta inaceptable situación.
Entre las soluciones que se manejan como posibles para dicha
situación podemos destacar dos: primero, elevar la eficiencia de la
economía y ampliar la capacidad de exportación; y el segundo se basa
en una recomendación esgrimida por el Fondo Monetario Internacional,
que sugiere abatir drásticamente el consumo y elevar los impuestos y
precios, con lo cual se viviría en un ambiente permanente de inflación
incontrolada a hiperinflación. Por otro lado, la primera solución
requiere de una inyección de recursos a las industrias nacionales, lo
cual implica poder dedicar parte de las ganancias de su exportación a
la modernización, pero como decíamos, una vez que se cubren los
intereses, queda demasiado poco para realizar tan magna tarea.
Como ejemplo de una medida económica concreta, podemos
mencionar los casos de Brasil, que suspendió temporalmente el pago
de servicios de la deuda. Una medida más radical y lógica fue tomada
por el gobierno del Perú, que limitó sus pagos de intereses a 10% de
los ingresos procedentes de la exportación, con lo que en 1986 el PIB
creció a 8.5%, mientras que al año siguiente se mantuvo el
crecimiento en 7%, muy por encima de cualquier otro país de
Latinoamérica. Claro está, estos dos países, al proceder sin el apoyo
concertado de los demás deudores, sufrieron solos las contramedidas
de los acreedores hasta doblegarlos. Esta medida sólo funciona cuando
se actúa en concierto; entonces sí, la deuda se vuelve no sólo
impagable, sino también incobrable.
Adicionalmente al drástico salto de intereses, se ha dado un fenómeno
relativamente nuevo en la economía mundial, caracterizado por la
exportación de capital privado, de los países endeudados a los bancos
de los países industrializados. Como ejemplo cabe mencionar el caso
de México, que desde 1976 hasta la fecha transfirió a las cuentas
privadas de los bancos de los países industrializados, principalmente
Estados Unidos, 53 000 millones de dólares, es decir que con esa
cantidad de capital que se fuga de la economía nacional se hubiera
podido pagar la mitad de la deuda nacional. Como si esto fuera poco,
en nuestros países se dan de manera más acentuada que en los
industrializados, niveles de corrupción que encarecen aún más el
capital utilizable para el desarrollo, y claro está, el dinero proveniente
de la corrupción fluye directamente hacia bancos que, como los suizos
y estadunidenses, reciben capitales sin importar la legalidad de su
procedencia; por algo en las recientes manifestaciones en Europa en
contra del Fondo Monetario Internacional, se mostraban mantas
diciendo no más blood money, dinero sangriento. Para asociar cifras al
aspecto de la corrupción, podemos mencionar que, sólo en Argentina,
los fraudes incurridos por banqueros, y directamente por las empresas
(hoy día enjuiciados) costaron a la Argentina el 10% de su deuda
externa.
Tanto en México como en Brasil, las soluciones se refieren a una
combinación de las enunciadas al principio de esta sección. Por un
lado, se dan programas de "modernización" y de incremento de las
exportaciones, y simultáneamente, se trata de complacer los dictados
del Fondo Monetario Internacional, recortando el gasto público y
permitiendo el aumento incontrolado de los precios, a lo que algunos
todavía llaman "poner en libertad las leyes de la oferta y la demanda".
Sin embargo, las cifras dejan muy claro que ninguna de estas dos
soluciones por sí solas, o combinadas, podrá permitir a los países salir
de tan grande encrucijada; por lo que economistas de todo el espectro
político están llegando a la conclusión de que se requiere, antes de
cualquier otra medida, un arreglo político entre deudores y acreedores:
es decir, regresan a las tesis básicas del "nuevo orden económico
internacional". Sobre el arreglo político las opiniones son también
divergentes; abarcan desde la mencionada proposición de que la
deuda externa de los países en desarrollo es no sólo impagable, sino
también incobrable, hasta las sugerencias de que la solución radica en
abrir nuestras fronteras a la libre competencia de las transnacionales.
Solución que encierra, por un lado, la pérdida de la industria nacional
debido a su incapacidad de modernizarse en plena crisis y, por otro, la
consiguiente pérdida del control gubernamental de la economía. Por
supuesto que ésta es la solución que proponen los acreedores. Otro
ejemplo, en cuanto a los arreglos políticos para la salida de la crisis, es
el novedoso plan de vender la deuda a cambio de bonos, respaldados
principalmente por el gobierno estadunidense, que supuestamente
aligerarían la carga impuesta por los pagos, pero que además implica
compromisos que deben estudiarse detalladamente para evitar que
afecten la soberanía económica de un país.
Otras sugerencias sobre posibles arreglos políticos flotan en el
ambiente; no obstante, si bien políticamente atractivas para los países
deudores, para los acreedores implican un cambio de política nacional,
que hasta estos momentos perciben como condición inaceptable. Nos
referimos aquí a la utilización de los gastos militares ahorrados, como
resultado de los acuerdos de desarme. Sobre esto tenemos ya
ejemplos palpables, con la firma del tratado sobre la destrucción de los
cohetes nucleares de alcance intermedio y táctico y las armas
químicas. Si bien el ahorro que resulta del primero implica solamente
el 4% del total de armas nucleares, estamos viviendo la elaboración de
un tratado mucho más amplio que pretende reducir los armamentos
nucleares basados en cohetes balísticos intercontinentales al 50% de
las cifras actuales. A este respecto, diversos grupos de la comunidad
internacional sugieren
que
los
montos
ahorrados
con
el
desmantelamiento de este armamento pueden concentrarse en un
fondo común a cargo de la ONU, y que pudiera utilizarse, precisamente,
para el financiamiento de la modernización de las economías de los
países en vías de desarrollo. Quizá para algunos esta solución carezca
de realismo; sin embargo, por primera vez en la historia
testimoniamos la destrucción de todo un tipo de armamentos, y hoy en
día se discute la reducción de armas que generarían un ahorro mucho
mayor que el manejado actualmente. Esta última reducción desataría
recursos que van de 7 000 a 10 000 millones de dólares al año, y
contiene otras propiedades menos evidentes, que también requieren
considerar esta opción seriamente. Nos referimos al hecho ya
mencionado de que más de la mitad de los físicos e ingenieros de los
países industrializados trabajan en el desarrollo de la técnica militar, lo
que hace evidente que con esas sumas de dinero, acompañadas de
tales recursos humanos, ¡que oscilan entre 2 y 3 millones de
especialistas!, pudiera darse un impulso histórico al desarrollo de una
sociedad más justa. Cabe señalar aquí, por su repercusión favorable al
tema de investigación espacial, que la firma de un tratado de
reducción de 50% de los armamentos estratégicos significa la
liberación de cuantiosos cohetes impulsores de alta fiabilidad, que hoy
descansan inútilmente en los silos con cargas mortíferas listas para el
despegue, pero que pudieran modificarse para lanzar a órbita equipos
de importancia económica y científica en beneficio de toda la
humanidad. Para los escépticos y cínicos que piensan que esta solución
es ilusoria y hasta alucinante, es necesario recordar que,
acompañando a los acuerdos de destrucción de los armamentos
mencionados, se dan una serie de requerimientos en cuanto a la
verificación del cumplimiento por ambas partes —este aspecto es quizá
el factor más importante que tiene el acuerdo en sí. Si el avance de la
ciencia y la técnica han hecho posible que los ingenieros de la industria
militar desarrollen tan portentoso armamento, a su vez los acuerdos
han considerado los medios técnicos necesarios, descritos más
adelante, para comprobar el cumplimiento mutuo y preciso. En el
contexto de consideraciones sociopolíticas, debemos dar su lugar a tan
importante hecho sin precedentes: el tratado de eliminación de misiles
de mediano alcance incluye, por primera vez, la verificación por cada
uno de los firmantes de los sitios de emplazamiento, producción y
almacenamiento de este tipo de armamento. La combinación de los
medios técnicos y visitas súbitas a los sitios mencionados es
considerada por los expertos de ambas superpotencias como suficiente
para saber, más allá de la duda, si se respeta el cumplimiento de los
acuerdos. Con este paso se rompe una tradición impuesta por los
belicistas, que impedía la verificación directa, dejando siempre lugar a
dudas y a desconfianza mutua. Por ello, ¡éste es un acontecimiento
histórico! Si a este tratado se añaden los que hoy ocupan las mesas de
negociación en Ginebra, como las discusiones sobre armas
bioquímicas, espaciales y, pronto, el armamento convencional que
devora enormes sumas de capital, aun los escépticos, aunque no es
necesario incluirlos a todos, aceptarán que se está abriendo una nueva
vía en cuanto a las relaciones internacionales. Entre los argumentos
más socorridos por los militaristas que se oponen al proceso de
desarme, destaca el alegato de que una vez puesto en marcha un
programa mundial para destruir los armamentos, las economías
perderían una parte importante de su quehacer industrial, afectando
drásticamente el bienestar de sus pobladores. Al respecto nos
referiremos a un trabajo desarrollado hace unos años por el profesor
S. Melman de la Universidad de Columbia de los EUA, que estudia las
barreras que supuestamente impiden la conversión de la industria y
economía militar en civil. Entre sus conclusiones principales podemos
leer: "Donde hay una industria militar enraizada, la acompaña una
ideología que la considera fenómeno positivo e imprescindible para la
seguridad, para consolidar los sectores civiles, crear empleos, y para
desarrollar tecnologías avanzadas". Pero añade que, en realidad, "...la
aplicación de la economía militar se lleva una parte considerable de la
riqueza nacional. Es más, reduce las posibilidades de crecimiento de la
productividad del trabajo, sobre todo en la industria", ya que la
industria militar es menos eficiente que la civil. En principio, las
necesidades de defensa justifican los gastos militares, pero en el caso
de las potencias nucleares, la defensa no existe. Y señala que el
desarme no sólo debe incluir las armas nucleares, ya que son
grandísimos los presupuestos dedicados a las fuerzas y medios
técnicos no nucleares.
Para dar pie a un proceso de desarme realista, Melman hace una serie
de sugerencias interesantes que coinciden con algunas elaboradas por
sus contrapartes soviéticos. En particular, se refiere a constituir
comisiones encargadas de planificar el uso alterno de las fábricas y
laboratorios militares; para cumplir esa tarea sugiere además una
serie de medidas de apoyo: a) el reciclaje de técnicos entre la industria
militar y la civil, ya que los primeros no reparan en los gastos de
producción, mientras que en la civil tendrán que atender lo relativo al
costo y al ahorro; b) reciclaje del cuerpo administrativo para que
practique el ejercicio de vender sus productos sin tener asegurada la
venta previamente, como ocurre con los equipos militares, ya que el
comercio requiere de satisfacer demandas reales; por último, c)
sugiere una migración de administradores e ingenieros hacia la
industria civil, pues las cantidades de las industrias militares son
excesivas y hace falta que se preparen en puestos en que puedan
trabajar en proyectos civiles con una eficacia mucho mayor. Al
respecto conviene señalar, en primer lugar, el destacado caso de
Japón, que desde la posguerra ha demostrado que los ingenieros de
las ramas civiles desarrollan y aplican tecnologías nuevas con mayor
eficacia que sus colegas en los sectores militares, ya que por cada 30
000 millones de dólares invertidos en la industria militar, se refleja una
baja de más de 12 000 millones de dólares en productos y servicios
para la población en general. Adicionalmente, en diversos estudios
como el citado se sugiere la utilización tanto de las industrias y de los
mismos efectivos militares en tareas que beneficien directamente a sus
países; por ejemplo, para enfrentar calamidades, catástrofes naturales
y ecológicas, como se viene haciendo en México desde hace varias
décadas. Se sugiere, también, que se utilicen los medios de registro
sísmico para aumentar la vigilancia sísmica, como en el caso de
erupciones volcánicas, donde se han podido tomar medidas
preventivas, reduciendo considerablemente sus repercusiones en la
ciudadanía. En esa misma línea, se citan actividades como el combate
de grandes incendios, o la asistencia durante inundaciones; casos en
los que se requiere del manejo de grandes cantidades de personas y
equipos, en forma coordinada, muy parecida a las operaciones
militares. Asimismo se pueden dedicar las organizaciones militares a la
regulación de crecidas de ríos, en la prevención y control de
contaminaciones accidentales (como en el caso del accidente de
Chernobil, y más recientemente, con la contaminación accidental del
Rin en Europa, cuando se volcaron al río inmensas cantidades de
desechos químicos peligrosos).
También es evidente que buena parte de los ingenieros y físicos
asociados a la industria militar pudieran ocuparse en elevar la
fiabilidad de las instalaciones potencialmente peligrosas, como las
plantas nucleares; los militares pueden ocuparse también en la lucha
antinarcóticos, y utilizar su propio equipo, capaz de transitar en
cualquier condición de terreno y contaminación, para la asistencia en
los desastres industriales y naturales, y para la reconstrucción de
viviendas e instalaciones sociales después de terremotos y del paso de
trombas y ciclones.
En fin, las dificultades para dar cauce a un programa de esta magnitud
son inevitables, y quienes están mejor equipados para sugerir la
conversión de una industria militar a una actividad civil son
precisamente las comisiones formadas dentro de cada industria para
planificar el uso alternativo de sus instalaciones. A pesar de las
dificultades, no es tan arduo vencerlas, sobre todo en comparación con
los peligros que entraña la militarización de la economía y de la
sociedad, que en el mejor de los casos incrementa sin cesar los riesgos
de la guerra.
A este respecto podemos citar otro acuerdo importante firmado entre
las potencias sobre la puesta en marcha de los llamados Centros de
Reducción del Peligro Nuclear. Estos centros, que se han comenzado
ya a instalar, iniciarán sus labores con la modesta función de notificar
a sus contrapartes sobre el lanzamiento de misiles balísticos de
ensayo, con tres a cinco días de anticipación; en particular cuando las
acciones impliquen un riesgo para la navegación en altamar o para el
vuelo en corredores comerciales. El acuerdo no descarta que se utilicen
tales centros para avisar con urgencia sobre incidentes casuales
relacionados con armas nucleares, por avería de una carga nuclear o
de su portador. Más adelante, estos centros suponen la ampliación de
sus actividades, según los acuerdos que vayan surgiendo entre las
potencias. Los centros utilizan instalaciones con la tecnología más
avanzada, basada en satélites y comunicaciones ópticas, y además
desarrollan procedimientos idénticos para el uso, mantenimiento y
formación del personal; además de que sostienen reuniones periódicas
con los representantes de cada centro para discutir el
perfeccionamiento de sus procedimientos y equipos.
Por considerarlo interesante y oportuno, recordaremos brevemente
algunos de los sistemas que forman la espina dorsal de los llamados
"medios técnicos nacionales" de verificación mutua, porque aun
cuando este trabajo no es un estudio sobre desarme, la gran mayoría
de estas técnicas se basan precisamente en el equipo aeroespacial,
con el que el lector se ha familiarizado ya. En primer término, tenemos
las plataformas de teleobservación de aplicación militar. Ya hemos
descrito algunas de las características de los satélites de percepción
remota, y también hemos hecho referencia a libros dedicados a este
tema; sin embargo, los satélites militares se distinguen de los civiles
en cuanto a sus alcances e infraestructuras de apoyo:
1) Al hablar sobre los sensores remotos, nos referimos
tanto a las cámaras ópticas equipadas con películas de alta
resolución, como a las nuevas cámaras optoelectrónicas
elaboradas con base en sensores semiconductores
(cámaras de CCD); hoy en día estas cámaras pueden captar
imágenes de zonas selectas del planeta y detectar, desde
800 km de distancia, objetos del tamaño de un libro;
además, ya que los equipos vuelan repetidamente sobre
todas las zonas de interés militar, por medio de
computadoras pueden realizar comparaciones diarias que
detectan cualquier cambio ocurrido en una instalación
militar.
2) Con otro tipo de sensores, aquellos que funcionan en la
banda térmica o infrarroja del espectro, se puede detectar
incluso equipo mimetizado (con camuflaje) dentro del más
espeso bosque, pues siempre las creaciones del hombre
tienen una temperatura diferente, aunque sea ligeramente,
del medio que las rodea.
5) En cuanto al desarrollo del armamento nuclear, que
requiere de incesantes pruebas para establecer su
fiabilidad y estado de funcionamiento, la ingeniería sísmica
ha desarrollado medios similares a los sismógrafos
convencionales, que son capaces de detectar y registrar
hasta la más pequeña explosión nuclear.
6) Por último, existen medios para comprobar el tipo de
carga, en particular del armamento nuclear, que transporta
un barco y hasta un submarino. Para esto se utilizan
helicópteros y aviones equipados con aceleradores
portátiles de partículas nucleares, que generan un haz
concentrado de neutrones de alta energía que irradia el
blanco bajo estudio; los neutrones provocan reacciones de
fisión dentro de las ojivas nucleares de los misiles, lo que
en consecuencia genera nuevos neutrones y rayos gamma
que pueden ser detectados por el equipo de observación.
Con estos medios se pueden detectar no sólo la presencia,
sino también la capacidad de estas ojivas nucleares. Cabe
aclarar que también es posible realizar, aun con mayor
facilidad, este tipo de detecciones en cuanto a armamento
en el espacio, pero con la ventaja de que por estar al vacío
se logran resultados a distancias mucho mayores. Sólo
para propósitos de detección remota, los Estados Unidos
gastan cerca de 15 000 millones de dólares al año en
equipo de verificación de alta tecnología; y como
decíamos, los expertos de Estados Unidos y de la URSS
están de acuerdo en que la combinación de los Medios
Técnicos Nacionales y las visitas súbitas a las instalaciones
de la contraparte, son suficientes hoy en día para verificar
el cumplimiento de los tratados.
Estoy convencido de que los acuerdos firmados recientemente
incluyen, por medio de la verificación in situ de las instalaciones de su
contraparte, una situación cualitativamente nueva, que da lugar a los
primeros procesos serios sobre desarme, y que a la vez hace posible
que los habitantes de la Tierra finquen en un hecho concreto su
primera esperanza sobre el control de armamentos. Resta desde luego
incluir dentro de las negociaciones sobre desarme el compromiso de
desviar los gastos que se asignaban al desarrollo y mantenimiento de
la estructura militar hacia la preparación de programas que, de manera
eficaz, hagan posible la modernización de las industrias de los países
en desarrollo, para lo que habrán de diseñarse nuevas estructuras de
intercambio comercial, que a su vez permitirán hacer de este proceso
inicial una política permanente que supere los intereses particulares y
exclusivos de cada nación en aras del beneficio de la humanidad.
Tenemos que detener la autoestrangulación económica por gastos
militares.
Desde el momento mismo en que se creó el primer explosivo atómico,
el hecho imponía una responsabilidad, que si bien ha tardado casi 40
años en percibirse diariamente, debido a su contundencia lógica se
está convirtiendo en una idea aceptada por una cada vez mayor
proporción de los políticos, científicos, ingenieros y aun militares. La
responsabilidad a la que nos referimos se manifiesta si percibimos a
nuestro planeta como una nave cósmica en donde las acciones de unos
afectan directamente los derechos de los demás. Por cuestiones de
enfrentamiento ideológico, es posible que se requiere esperar una o
más décadas para que comience a materializarse una institución de
autoridad respetada por todos los países. Es indispensable que el
mundo abandone la concepción de que es necesario el enfrentamiento
armado para la solución de los problemas entre los países, y que
alcance un concepto muy superior que establezca la negociación, el
arreglo y la puesta en práctica de compromisos para la solución de los
problemas, antes resueltos con la intervención bélica.
Quizá como base para implantar esta política mundial se requiera en
un principio de directrices de carácter general, como aquellas de
considerar a la guerra, comenzando por la guerra nuclear, como un
medio inaceptable para extender la influencia política y económica de
un país. Por eso en la actualidad el reto más importante que
enfrentamos todos y cada uno de los pobladores de la Tierra es
impulsar el desarme, pero en particular la tarea corresponde a los
científicos e ingenieros que pueden conducir, sin ninguna duda, que es
imposible que en una guerra nuclear alguien resulte vencedor.
Los cálculos que han hecho los especialistas en relación con las
repercusiones de una guerra nuclear, aun limitada, arrojan datos de un
escenario totalmente desconsolador: el "invierno nuclear". Este estado
climático alcanzaría, según los científicos, temperaturas de -15ºC en el
ecuador, y por lo tanto, temperaturas aún más bajas en las partes
frías del planeta. El invierno nuclear sería resultado directo de la
inyección de inmensas cantidades de polvos y partículas provenientes
de la combustión de ciudades, bosques, industrias y territorios
enteros: cosa de la que son capaces de sobra las ojivas nucleares de la
actualidad. Las partículas en suspensión atmosférica interferirían con la
insolación de la superficie terrestre, impidiendo el calentamiento diario
que mantiene las temperaturas de la superficie tal y como las
conocemos.
Cuando una sociedad, y específicamente, cuando la sociedad entera
del planeta perciba la gravedad de las repercusiones de una guerra
nuclear (que desde luego implica el fin de la vida por muchos miles de
años sobre el planeta), despertará una conciencia que nada tiene que
ver con las naciones, sino con el futuro mismo de la humanidad y de la
gran mayoría de los seres vivos. A pesar de las grandes
contradicciones ideológicas, económicas y políticas de los bloques esteoeste, el instinto de sobrevivencia, arraigado profundamente en la
estructura del pensamiento humano, debe dominar sobre cualquier
otro instinto y generar una conciencia clara de las situaciones sin
precedente que enfrentamos.
Hay quienes a pesar de la contundencia de los datos sobre el invierno
nuclear sueñan con la posibilidad de conducir una guerra nuclear
limitada; sin embargo, en la historia del armamento militar no se
conoce ningún caso de autocontrol en donde alguna de las partes del
conflicto haya decidido no utilizar el armamento más poderoso a su
alcance. Múltiples discusiones entre militares de la posguerra llegaban
al acuerdo de que no eran necesarios los ataques atómicos sobre las
ciudades japonesas, puesto que el curso de la guerra llevaba una
dirección indudable hacia la derrota de la última potencia del Eje,
Japón. Sin embargo, la historia demostró que en manos de militares y
políticos irresponsables, como los que hoy día se observan por
decenas, la mentalidad destructora se impuso ante la lógica más
elemental. El futuro no tiene por qué ser diferente.
Entre los múltiples sectores de la sociedad actual, los científicos e
ingenieros tienen una responsabilidad adicional por el conocimiento
que poseen de las repercusiones de una guerra como ésta, por lo que
a la vez sobre ellos recae la responsabilidad de utilizar sus
conocimientos para informar al género humano sobre las
responsabilidades que enfrentamos. No es suficiente que la ciencia
busque el conocimiento y la verdad, sino que es necesario que
aceptemos como parte de nuestras tareas diarias el difundir todo tipo
de información y no sólo de las ciencias naturales, sino también de las
sociales. Adicionalmente, debemos procurar que esta información
alcance a todo habitante del planeta para generar con ello una
conciencia general sobre los imperativos ecológicos, es decir, sobre el
conocimiento y manejo responsable de nuestro medio, así como sobre
los aspectos de moralidad y política que la información científica puede
brindar. En pocas palabras, decimos que la responsabilidad de los
científicos e ingenieros que desarrollan todo tipo de armamentos debe
convertirse progresivamente en una conciencia generalizada que tenga
como propósito fundamental acabar con el armamentismo.
Sin embargo, este cambio radical de política internacional demanda un
esfuerzo tal, que es fácil dudar de que pudiera alcanzarse. Pero, por
otro lado, existe un antecedente histórico que demuestra que la
humanidad, aun de manera aislada, ha tomado medidas radicales en
aras de la sobrevivencia. Nos referimos en particular a cuando, hace
miles de años, por alguna razón muchos de los grandes mamíferos de
la época, como los mamuts, perecieron en un periodo relativamente
corto de tiempo. En aquel entonces, sólo un sector de la humanidad
respondió adecuadamente al reto, cambiando sus medios de
subsistencia, y de la caza pasó a la agricultura y la ganadería. Aunque
el hombre sobrevivió a esa importante crisis, la humanidad perdió,
según estiman especialistas, cerca del 90% de su población, aquellos
que no supieron adaptarse.
El futuro, pues, nos presenta una puerta en cuyo rótulo se lee
ADAPTACIÓN. Primero, para sobrevivir, usando la organización social, la
ciencia y la tecnología para resolver racionalmente los problemas que
enfrentamos: la destrucción ecológica, el cambio climático
generalizado, la pérdida de zonas agrícolas, bosques y selvas.
Segundo, para una utilización más justa de los recursos mundiales: los
mares, sus recursos alimenticios, minerales —sobre todo en aguas
internacionales—, la exclusiva órbita geoestacionaria, las grandes
superficies boscosas —el Amazonas—, la atmósfera, sus propiedades
vitales, y los depósitos minerales escondidos en la geología. Todo esto
y más es patrimonio de la humanidad, y como tal debemos
administrarlo. Y como ejemplos prácticos del intento por la aplicación
de este raciocinio, quizá para algunos utópico, están la Antártida, los
corredores aéreos, los sitios declarados patrimonio de la humanidad,
como: Teotihuacán, Monte Albán, la gran Muralla China y las reservas
animales del África. Tercero, la adaptación nos debe impulsar en el
camino de la negociación y el acuerdo, para disminuir a los valores
más bajos posibles la pérdida de recursos en actividades morbosas,
como el armamentismo como política alterna, el crimen y la represión
de las ideas justas y humanitarias. Por lo pronto, cada país tiene el
futuro en sus manos; las herramientas que use y desarrolle, y los
conceptos que orienten sus objetivos, decidirán si sobrevive. Parece
que una vez más nos enfrentamos a una amenaza mundial. Los
cambios que hemos provocado en nuestro ambiente requieren de
acciones contundentes y atinadas. Como ejemplo basta un botón: la
notable caída en la proporción de ozono en la Antártida, demostrada
ya claramente, puede inducir cambios en cuanto a la radiación que
llega a la superficie, y cuyos efectos serían nefastos para la vida en la
Tierra. Pienso que son las herramientas tecnocientíficas actuales, y
muchas otras que se desarrollarán sin parar, las que, como en el caso
del cazador que abandona la lanza para tomar el azadón, o que utiliza
el metal o mineral que usaba en la caza, para confeccionar el
implemento agrícola, lo harán sobrevivir al cambio ambiental: una
reorientación de recursos, que difícilmente pueden salir de otro
concepto que no sea el desmesurado y costoso armamento.
¿Acaso no podemos, con tanta civilización y cultura, cambiar las
herramientas bélicas —las que hoy se siguen usando para continuar la
política por otros medios— por las herramientas que detengan el
deterioro de nuestro único hogar? Creo firmemente que sí, pero
primero hay que acostumbrarse al concepto de adaptación, y luego,
pronto en términos históricos, pasar a la acción. Invertir lo ahorrado
en armamento en acciones para el desarrollo integral, solución al
hambre y la salud, a la educación y a la vivienda. ¿De qué nos sirve
tanta tecnología si no damos salida al desarrollo general? Finalmente,
al buscar soluciones y seleccionar las herramientas idóneas, nos
percatamos de una situación real: la naturaleza de todos los cambios
inducidos en el ambiente es de carácter global, a todos nos afectan, de
modo que la solución tiene que ser, por definición, global. Entre las
herramientas más poderosas y globales, una de las más generales es
aquella que surge como resultado de la investigación espacial. Con
ella, entre muchas otras cosas descritas a lo largo de este trabajo,
podemos: comunicarnos al instante con todo el planeta, supervisar los
cambios climáticos y los de la delicada química atmosférica, y poco a
poco aprender a disminuir los estragos que generamos.
En esto estriba, paciente lector, la necesidad de conocer y saber
utilizar la ciencia y la técnica espacial. Son, como la microelectrónica,
la biotecnología y los nuevos materiales, herramientas de nuestro
tiempo, y no un lujo.
G L O S A R I O
absorber. Fenómeno que consiste en la adhesión de capas de
moléculas a la superficie de un cuerpo o partícula debido a las fuerzas
electrostáticas.
calibrar. En instrumentos electrónicos es el ajuste de las señales
eléctricas respecto a parámetros externos como luz, temperatura,
sonido, etc., cuyo valor se conoce de antemano, para evaluar su
rendimiento o tener una referencia.
capa dura. Capa de arcilla limosa de resistencia alta que se encuentra
entre 35 y 40 m de profundidad en el subsuelo del centro de la ciudad
de México.
carga útil. Aparatos, materiales, personas, etc., transportadas por
una nave aérea o espacial y que no son parte de ésta.
coalescencia. Acción de unirse o soldarse dos partes separadas.
coloide. Dispersión de partículas sólidas muy pequeñas en un medio
acuoso en el que no se disuelven. Por ejemplo, la gelatina antes de
endurecerse, o el lodo.
digitación. Conversión de una imagen de tonos continuos a puntos
discretos representados por dígitos en una computadora.
electrólisis. Migración de partículas cargadas eléctricamente
sometidas a la acción de un campo eléctrico. Es un método muy
importante para el análisis y la purificación de proteínas en mezclas
complejas, que es como generalmente se encuentran en preparaciones
de material biológico.
energía. Vehículo soviético de lanzamiento capaz de elevar hasta 200
toneladas a órbita baja, mediante combustible líquido.
espectrofotometría infrarroja. Técnica analítica para discriminar e
identificar por comparación espectros de un material excitado
molecularmente con radiación infrarroja.
fotocátodo. Película delgada donde con la llegada de fotón a su
superficie externa se genera un electrón en su cara interna.
fotocolorímetro. Aparato para medir la transmitancia y absorbencia
de luz de alguna sustancia, a diferentes longitudes de onda.
geofísica. Ciencia que estudia la física terrestre y su entorno
inmediato.
geoide. Forma teórica de la Tierra deducida por métodos geodésicos,
esto es, de mediciones y observaciones directas de la Tierra.
guerra de las Galaxias. Sobrenombre popularmente impuesto a la
"Iniciativa de Defensa Estratégica" de EUA, consistente en la
militarización del espacio.
higroscopía. Capacidad de un material de absorber agua.
imágenes multiespectrales. Imágenes de un objeto obtenidas por
separado en diferentes bandas del espectro electromagnético.
imponderabilidad. Ausencia de peso, imposibilidad de pesar un
objeto.
ingenio
espacial.
Conjunto
de
aparatos
dedicado
a
la
experimentación, exploración y a la producción de materiales y
equipos en el espacio.
intemperización. Alteración de los materiales por la acción de los
fenómenos climáticos.
longitud de onda. Distancia entre dos puntos análogos de dos ondas
consecutivas.
macroiones. Moléculas de gran tamaño que tienen una carga eléctrica
neta, producto de las cargas individuales que se localizan en distintos
puntos de su superficie.
microestructura.
cuerpos sólidos.
Estructura
microscópica
que
forma
todos
los
microgravedad. Fuerza de un millonésimo de la gravedad en la
superficie terrestre.
mir. En ruso significa paz. Nombre de la más reciente de las
estaciones espaciales soviéticas.
morfología matemática. Derivación matemática de formas y
volúmenes tridimensionales a partir de cortes secuenciales de un
objeto.
muestras inalteradas. Muestras de material del subsuelo en que la
posición de las partículas, el contenido de agua y el volumen no han
sido modificados por el proceso de extracción.
nistagmo. Movimiento en pequeños saltos de los ojos inducido por el
sistema vestibular en la misma dirección que el giro de la cabeza, y
que permite fijar la vista en un objeto en movimiento.
nistagmo calórico. Movimiento a saltos producidos por introducción
de un fluido caliente al oído externo.
ojivas nucleares. Cabeza explosiva o carga nuclear de un cohete
balístico o de vuelo rasante.
ostrácodos. Crustáceos marinos y de agua dulce que secretan dos
conchas en ambos lados del cuerpo, articuladas en la parte dorsal. Se
alimentan de partículas de materia en descomposición y de
organismos.
pirómetro. Instrumento para medir temperaturas.
pixel. Cada punto cuadrado de los que forman una imagen digital (del
inglés picture element, pix-el).
plano ecuatorial. Plano imaginario que corta a la Tierra por el
ecuador.
quantum. Módulo para investigaciones astrofísicas que forma parte de
la estación espacial Mir.
radar de apertura sintética. Equipo de radar para hacer imágenes
de objetos o territorios sobrevolados.
selección natural. Proceso mediante el cual individuos o grupos
taxonómicos son seleccionados, permaneciendo los que mejor se
adaptan para responder a las presiones del medio y desapareciendo
aquellos no aptos. Es uno de los mecanismos fundamentales de la
teoría de la evolución de las especies formulada por Darwin.
sistema operativo. Conjunto básico
funcionamiento de una computadora.
de
programas
para
el
sistema vestibular. Parte del oído interno formada por los conductos
semicirculares y los sacos llamados sáculo y máculo que sirve para la
percepción de posición, aceleración y equilibrio.
sondeo inalterado. Extracción de muestras inalteradas del subsuelo
mediante el empleo de tubos que se hincan en él.
temperatura estequiométrica. En cohetería, es la temperatura
máxima alcanzada en la cámara de combustión con la proporción de
combustible y oxidante.
termopar. Sensor de temperatura que funciona mediante la variación
del voltaje producido en la unión de dos metales.
tomografía. Formación de imágenes de un plano que intersecta a un
objeto.
ultra alto vacío. Se llama así al vacío cuya presión es menor a 10
Torr.
visión sinóptica. Visión amplia que abarca a todo un objeto o a un
conjunto de éstos.
zinalco. Aleación de zinc, aluminio y cobre.
B I B L I O G R A F Í A
Aguilar Sahagún, G., 1988, El hombre y los materiales. SEP/FCE/
CONACYT, Serie: La Ciencia desde México, núm. 69, México.
Alonso Concheiro, A., 1987, Capacidad tecnológica y porvenir de
México, Comercio Exterior, BNCE, Vol. 37, núm. 12, México.
Aviation Week and Space Technology, McGraw-Hill Pub, semanario
aeroespacial, EUA.
Bonfil Batalla, G., 1987, México profundo. Una civilización negada, SEPCIESAS, México.
Braun, E., 1987, Arquitectura de sólidos y líquidos, SEP/FCE/CONACYT,
Serie: La Ciencia desde México, núm. 26, México.
Cetto, A. M., 1987, La luz, SEP/FCE/CONACYT, Serie: La Ciencia desde
México, núm. 32, México.
Díaz del Castillo, B., Historia verdadera de la conquista de la Nueva
España, Ed. Porrúa, México.
El programa espacial soviético: páginas de la historia, 1986. Editorial
Progreso, Moscú, URSS.
Gall, R., et al,1986, Las actividades espaciales en México: Una revisión
crítica, SEP/FCE/CONACYT, Serie: La ciencia desde México, núm. 20,
México.
Gómez Looh, B., 1987, "Análisis pro difracción de rayos X de las
arcillas del subsuelo de la ciudad de México", Tesis de licenciatura,
Facultad de Química, UNAM, México.
Lira, J., 1987, La percepción remota: nuestros ojos desde el espacio,
SEP/FCE/CONACYT, Serie: La Ciencia desde México, núm. 33, México.
Marsal, R. J. y M. Mazari, 1959, El subsuelo de la ciudad de México, I
Congreso Panamericano de Mecánica de suelos y Cimentaciones, UNAM,
México.
Melman, S., Barreras a la conversión de la economía militar en civil,
University of Columbia Press, EUA.
Microgravity Science and Applications Program Tasks, 1987, NASA
Memorándum Técnico 89607, Washington, EUA.
Peralta, R., 1984, Micromecánica de suelos, informe final a la
Fundación R. J. Zevada, UNAM, México.
Ride, S. K, 1987, Leadership in space, NASA, Informe al Administrador,
EUA.
Shapland, D. y M. Rycroft, 1984, Spacelab. Research in Earth Orbit,
Cambridge University Press, Inglaterra.
Schukin, E. D., A. V. Perstov y E. A. Amélina, 1988, Química coloidal,
Ed. Mir, URSS.
Valdés, J. F., 1988, Nuestro hogar en el espacio, SEP/FCE/CONACYT,
Serie: La Ciencia desde México, núm. 66, México.
C O N T R A P O R T A D A
La ciencia actual ha entrado en una etapa de superespecialización y
quizá por eso sorprenda este libro de Ricardo Peralta que pasa de la
aeronáutica a la astronáutica —con un estudio sobre la historia y la
tecnología de las naves espaciales— para enlazarlas con un análisis de
la atmósfera terrestre, del suelo que pisamos y de la estructura del
subsuelo, en particular el de la ciudad de México. No se crea de lo
anterior que se trata de un texto improvisado. Los temas incluidos son
resultado de un trabajo de diez años en que Peralta, durante sus
estudios de licenciatura y maestría, se dedicó por entero a la ingeniería
aeroespacial y que, al iniciar su doctorado, decidió trabajar sobre las
propiedades ingenieriles de materiales complejos, campo en el que
encontró "un material fascinante: los suelos arcillosos del valle de
México".
Poseedor de amplios conocimientos y también de llaneza y claridad en
la exposición, puede escribir que, "para confundir al público sobre los
valores de la ciencia y la tecnología, la tendencia actual en los medios
de comunicación es presentar los avances de la tecnología y de la
exploración espacial como casos extraordinarios del talento, situados
más allá de la comprensión y la realidad cotidianas; pareciera que
estos avances sirven más para hacernos sentir pequeños e
insignificantes que para fincar sobre ellos la confianza en que son las
herramientas principales para el desarrollo más justo de la sociedad
futura".
Este libro estudia el llamado "reto espacial", los microorganismos y los
minerales, el efecto que la microgravedad ejerce sobre las propiedades
de los materiales en un laboratorio colocado en órbita terrestre y lo
que la ciencia puede hacer por el hombre en el futuro inmediato,
considerando que aquélla es una herramienta de nuestro tiempo y no
un lujo.
Ricardo Peralta y Fabi se graduó de ingeniero aeroespacial en Chicago
y posteriormente, en Montreal, obtuvo su maestría y el doctorado en
mecánica de materiales. Desde 1979 trabaja en el Instituto de
Ingeniería de la UNAM, donde estableció el Laboratorio de
Micromecánica. En la actualidad coordina el Sub-programa de
Ingeniería Espacial de esa institución. Ha publicado artículos científicos
en revistas nacionales y extranjeras.
Diseño: Carlos Haces / Fotografía: Carlos franco / Fotografía de fondo:
Mayte Soberanes.
Descargar