2003 - Facultad de Ciencias

Anuncio
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.189, 20 de enero de 2003
No. acumulado de la serie: 448
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
80
Años
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
AUTONOMIA
UNIVERSITARIA
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
1923-2003
UASLP
En 1970 un grupo de estudiantes concibió, en los prados de la antigua Escuela de Física-UASLP, lo que fue El Cronopio, un periódico
que pretendía sacudir las adormecidas y conservadoras conciencias de los estudiantes potosinos. Nombre de corte cortazariano que en
1952 Julio Cortazar acuñara dando nombre a una parte poco explorada del universo cotidiano. El Hijo de El Cronopio, continúa la
tradición generada en 1970 y proseguida con la publicación de la revista El Cronopio que edita la Facultad desde 1993.
El Hijo de El Cronopio No. 189/448
Recomiendan cuatro tazas diarias de café
Estudios recientes sobre el café enfatizan sus cualidades en la prevención de enfermedades como el cáncer
colo-rectal, el riesgo de Alzheimer e incluso en Brasil se usa para combatir adicciones
Por LUISA CANTÚ /
Grupo Reforma
Aunque el café ha sido cuestionado por la presencia de la cafeína, actualmente estudios
científicos avalan su consumo moderado para la prevención de adicciones y algunos
tipos de cáncer, entre otros padecimientos.
Los efectos nocivos de la cafeína están asociados con el abuso.
Sin embargo, sus virtudes aparecen en innumerables analgésicos y se ha comprobado que
funciona contra la migraña.
El café es un producto natural resultante de la infusión de alcaloides y otras sustancias.
Es un poderoso estimulante y diurético.
Un estudio de Japón del Aichi Cancer Research Institute, resalta el efecto protector
contra el cáncer colo-rectal. Otras investigaciones realizadas durante 30 años en Estados
Unidos por el Instituto de la Calidad del Café indican que se redujo en un 25 por ciento
el riesgo de adquirirlo, en pacientes que tomaban cuatro tazas al día. Además, revela que
genera más antioxidantes que el té verde.
En la Universidad de Lisboa se ha concluido que puede disminuir el riesgo de
Alzheimer. El estudio comparó a 54 pacientes con esta enfermedad, con 54 sanas,
quienes aceptaron haber ingerido dos tazas de café filtrado o cuatro de máquina exprés
diariamente durante 20 años. También se ha comprobado que mejora la condición física
en el deporte.
Atletas en competencia han logrado acortar el tiempo e incrementar la velocidad,
ingiriéndolo antes. Se ha encontrado que la absorción es rápida y completa, y el tiempo
para eliminarlo es menor (la mitad) a la de cualquier otro líquido -esto varía dependiendo
de la edad, sexo y si sé es fumador. El café es bueno para el corazón porque altera los
ritmos cardíacos y estimula el fortalecimiento del músculo. Otros señalan que además es
benéfico para disminuir el colesterol malo.
Los más recientes estudios, dados a conocer hace unas semanas por la Universidad Vrije
de Amsterdam, revelaron que tomar cuatro tazas al día reduce un 80 por ciento el riesgo
de cirrosis en consumidores de alcohol.
La experiencia brasileña
Darcy Roberto Lima, el investigador más destacado en la materia del Instituto de
Neurología de la Universidad de Río de Janeiro y con más de 20 libros publicados en el
extranjero, resalta también sus beneficios.
En su texto Cuidado. El Café y la Mujer hacen bien a la Salud, editado por Manual
Moderno y el Consejo Mexicano del Café, enfatiza que sus componentes podrían evitar
sentimientos de frustración, depresión, consumo de alcohol y otras drogas.
En Cerebro, Café y Drogas, el experto, quien actualmente colabora con el Instituto de
Estudios del Café en la Universidad de Vanderbilt de Estados Unidos, menciona que el
consumo diario de cuatro tazas puede aumentar, en adultos y menores, la capacidad de
concentración y memoria.
Destaca que es aún mejor para calmar a los problemáticos, adictos o agresivos. Es por
eso que el programa escolar brasileño incluye consumo de café con leche, ya que se ha
2234
El Hijo de El Cronopio No. 189/448
comprobado que moderadamente es una de las más baratas y eficaces armas contra las
drogas.
¿Cuánto café es mucho café? Lima dice que dependerá de la tolerancia de cada persona.
Sugiere cuatro tazas al día. Recomienda que el primer café sea con leche, para que sea
nutritivo.
Noticias de la Ciencia y la Tecnología
Alimentando a un dragón galáctico
Un equipo de radioastrónomos ha conseguido visualizar con una claridad jamás alcanzada el combustible
con el que se alimenta un monstruoso agujero negro, situado en el centro de una remota galaxia cuásar. La
materia que cae sobre él forma un anillo de gas frío.
La galaxia cuásar se llama QSO I Zw 1. Las gigantescas nubes moleculares que proporcionan alimento al
agujero negro también ocasionan una formación masiva de estrellas, las cuales se sitúan en las
inmediaciones del monstruo. La materia que consigue llegar hasta este último es la que mantiene la
actividad en él y el propio cuásar, haciéndolos visibles desde enormes distancias.
El anillo de gas es el escenario de una intensa formación estelar porque las nubes colapsan bajo su propia
gravedad. El descubrimiento es un primer paso hacia la determinación de si existe una conexión entre la
formación de estrellas y la actividad de los cuásares.
Las galaxias cuásar son muy remotas. Los estudios recién anunciados se han hecho en el límite de nuestra
capacidad actual, explica Johannes Staguhn. A pesar de todo, son visibles porque su brillo supera al de
billones de soles combinados. Los astrónomos creen que los cuásares son los núcleos brillantísimos de
galaxias que albergan un enorme agujero negro en su centro, con una masa de millones a miles de millones
de soles como el nuestro.
Hay muchas galaxias que poseen un gran agujero negro en su núcleo (como nuestra propia Vía Láctea),
pero en los cuásares su actividad es extrema, ya que se ven alimentados por enormes cantidades de gas
interestelar. El gas cae sobre ellos en forma de remolino, como el agua que se va por un desagüe, y esto
provoca una intensa fricción que calienta el gas y hace que brille intensamente.
QSO I Zw 1 es un cuásar lejano, pero a pesar de todo es uno de los más próximos conocidos. Se encuentra
a unos 800 millones de años luz de nosotros, mientras que la mayoría de ellos está a miles de millones de
años luz. Los científicos utilizaron las radioemisiones de las moléculas de monóxido de carbono frío (a 108
GHz) presentes en las nubes de gas, para levantar un mapa de la zona y medir la densidad y la velocidad de
las nubes. Los cuásares son muy brillantes en luz visible, pero no lo son tanto en las frecuencias de radio,
por lo que es más fácil estudiarlos con radiotelescopios (las observaciones no resultan enmascaradas por el
excesivo resplandor).
Para los trabajos se utilizó la red de radiotelescopios BIMA (Berkeley Illinois Maryland Association),
situada en Hat Creek, California. El sistema enlaza electrónicamente diversos radiotelescopios,
aumentando la resolución hasta hacerla equivalente a la de un aparato de 2 km de diámetro. Se pudieron
así observar áreas de QSO I Zw 1 de menos de 1 kiloparsec (3.260 años luz) de diámetro.
El anillo de nubes de gas se encuentra a unos 4.000 años luz del centro galáctico, girando a su alrededor a
unos 200 km/s. Contiene tanta masa como mil millones de soles. QSO I Zw 1 parece además estar
interactuando con una galaxia vecina. Las interacciones galácticas pueden causar estallidos de formación
estelar, y quizá algo así puede también provocar el inicio de la actividad de un cuásar.
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0109quasar_galaxy.html
El genoma de la abeja
El Baylor College of Medicine Human Genome Sequencing Center ha iniciado la secuenciación del
genoma de la abeja. Este insecto productor de miel es una de las cinco especies seleccionadas
recientemente por el National Institutes of Health para que los científicos secuencien su genoma.
El departamento de entomología de la Texas A&M University ha colaborado en la fase inicial de la
iniciativa, que ya está en marcha. Tanto esta universidad como la industria apicultora tejana han aportado
2235
El Hijo de El Cronopio No. 189/448
esfuerzo y dinero para comprar el material necesario, de manera que Baylor pueda empezar a recoger
información lo antes posible.
Una célula posee en su núcleo largos filamentos de ADN, el código genético que contiene toda la
información para crear y controlar cada célula del organismo. El ADN tiene el aspecto de una larga
escalera en espiral: los "escalones" de la escalera están hechos de unidades químicas llamadas bases. Los
grupos de bases forman los genes, que determinan los rasgos físicos heredados y buena parte del
comportamiento. La secuenciación de toda esta información genética (el genoma), requiere identificar y
determinar el orden de los miles de millones de bases que forman el ADN y los genes individuales.
La abeja es la primera especie agrícola que se secuencia, por eso es tan importante. Científicamente
hablando, la abeja muestra un comportamiento social increíblemente complejo, tiene una habilidad
cognitiva muy sofisticada, a pesar de que su cerebro es sólo la mitad del de la mosca de la fruta. Tiene una
habilidad extraordinaria para comunicarse. Sus "bailes" la clasifican como los únicos animales conocidos,
aparte de los humanos, que tienen un lenguaje simbólico. Además, vive en un ambiente muy húmedo y
cálido, ideal para el cultivo de bacterias y otros patógenos, siendo sin embargo muy resistente a las
enfermedades. Estas y otras consideraciones han hecho especialmente atractivo el proyecto de la
secuenciación de su genoma.
Las abejas, de hecho, están siendo estudiadas por el Departamento de Defensa estadounidense como una
especie centinela, que podría localizar agentes peligrosos, como sustancias químicas y biológicas tóxicas
para nosotros. Sus habilidades olfativas parecen ser tan buenas como las del perro, sino más.
Adicionalmente, cada cromosoma de la abeja es un "cromosoma-X", con una copia en el macho y dos en la
hembra. Las mutaciones en el cromosoma-X de los humanos son responsables de muchas enfermedades,
como el síndrome de Turner, la Trisomía-X, el síndrome de Kleinfelter, la hemofilia, etc. Secuenciar el
genoma de la abeja nos permitirá hacer análisis comparativos para estudiar cuestiones como la expresión
genética, el desarrollo sexual o las enfermedades relacionadas con este tipo de cromosoma. Tampoco
olvidamo s el papel esencial de las abejas en la polinización de los cultivos agrícolas.
Baylor realizará la secuenciación siete u ocho veces, el equivalente a 270 millones de bases. La recolección
de datos tardará unas seis semanas. Después, habrá que colocar junta de nuevo toda esa información y se
dará forma al genoma definitivo. El próximo paso será identificar dónde están los genes, qué hacen, qué
elementos reguladores los controlan, como se activan y desactivan, etc.
Información adicional en: http://agnews.tamu.edu/dailynews/stories/ENTO/Jan0303b.htm
Amenaza a la biodiversidad
El crecimiento constante del número de hogares independientes que se establecen en áreas naturales,
incluso en aquellas zonas donde la población humana ha declinado, está teniendo un gran impacto sobre el
medio ambiente y la biodiversidad. En China, el hábitat de los pandas se ve amenazado.
Así lo advierte un informe realizado por varios científicos de la Michigan State University y de la Stanford
University, especializados en el estudio de la dinámica de la población mundial.
El tamaño de los hogares se está reduciendo, pero su número está creciendo rápidamente, incluso a nivel
global. Los núcleos de población se expanden, ocupando un territorio cada vez mayor y provocando un
consumo per cápita de recursos naturales menos eficiente. Según el trabajo realizado por Jianguo Liu
(MSU) y sus colegas Gretchen C. Daily, Paul R. Ehrlich y Gary W. Luck (Stanford), el actual modelo
requiere más materiales de construcción y un gasto superior de energía y bienes por persona.
La situación está conectada al número creciente de divorcios y a la salida de los hijos del hogar paterno.
Aunque esto pueda parecer normal en occidente, aún hay muchas regiones del mundo donde los hogares
son multigeneracionales. Sin embargo, esto último ya está cambiando. Liu y sus compañeros han estado
analizando la pérdida del hábitat del panda gigante en China, y han descubierto que el fenómeno se debe a
esta expansión comunitaria sin freno. En este país, como en otros muchos, la independencia social y
personal tendrá un gran impacto en la biodiversidad.
El mismo equipo ha extendido después el área de estudio al resto del globo, en particular a varias zonas
"calientes", como Australia, Brasil, Italia, Kenia y Estados Unidos, puntos en los que existen áreas muy
densas de especies animales y vegetales, amenazadas por la actividad humana.
En estos puntos donde la biodiversidad es elevada, el equipo de investigadores descubrió que entre 1985 y
2000 el número de hogares creció anualmente en un 3,1 por ciento, mientras que la población sólo lo hizo
en un 1,8 por ciento. Si el número de personas de un hogar familiar se hubiera mantenido constante
durante este periodo, se habrían construido 155 millones menos de casas en todo el mundo, reduciendo
2236
El Hijo de El Cronopio No. 189/448
sustancialmente la presión sobre la diversidad. En China, la reducción del tamaño de los hogares también
está suponiendo un aumento de su número, y por tanto, un crecimiento del consumo de madera como
combustible para cocinar y calefacción, lo que está contribuyendo a la deforestación y
pérdida/fragmentación del hábitat de los pandas gigantes. En el pasado, la industria y los servicios eran en
gran medida responsables de los problemas ambientales. Hoy en día, será necesario tener también en
cuenta la influencia de los hogares. Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0306.htm
Nuevas lunas de Neptuno
Un equipo de astrónomos del Harvard-Smithsonian Center for Astrophysics y del National Research
Council of Canada ha descubierto tres satélites de Neptuno que permanecían hasta ahora desconocidos.
Con ellos, el número de lunas catalogadas para este gigante gaseoso se eleva a once.
El hallazgo es notable, ya que las últimas lunas descubiertas en Neptuno datan de 1989, gracias al
sobrevuelo de la sonda Voyager-2. Además, no se encontraban nuevos satélites de este planeta utilizando
un telescopio instalado en tierra desde 1949.
Los autores principales del trabajo de investigación, Matthew Holman y JJ Kavelaars, creen que los
cuerpos detectados son el resultado de antiguas colisiones, por ejemplo entre un satélite natural de Neptuno
y un cometa o asteroide. De hecho, son tan diminutos (entre 30 y 40 km), que su detección desde la Tierra
es extremadamente difícil. Su tamaño y su lejanía con respecto al Sol provocan que reflejen muy poca luz
(su magnitud no es superior a 25, 100 millones de veces más débil de lo que es posible apreciar a ojo
desnudo).
Para conseguir localizarlos, Holman y Kavelaars utilizaron una técnica innovadora. Emplearon el
telescopio Blanco de Cerro Tololo, en Chile, de 4 metros de diámetro, y el Canada-France-Hawaii
Telescope, de Hawai, de 3,6 metros, para tomar múltiples exposiciones del cielo que rodea a Neptuno.
Después de seguir digitalmente el movimiento del planeta a medida que se movía por la bóveda celeste,
sumaron entre sí muchas imágenes para aumentar la señal de los objetos más débiles presentes en ellas.
Gracias al seguimiento preciso de los movimientos del planeta, las estrellas aparecieron en la imagen final
como líneas continuas de luz, mientras que las lunas del planeta, acompañándolo, lo hicieron como puntos
luminosos fijos.
Hasta hoy se conocían seis satélites regulares de Neptuno y dos irregulares. Estos últimos son también los
mayores, Tritón y Nereida, y fueron descubiertos en 1949 por Gerard Kuiper. Los otros seis satélites
fueron hallados por la sonda Voyager-2 durante su encuentro en 1989. Los tres nuevos que han aparecido
ahora en las imágenes no fueron observados por este vehículo porque son muy débiles y por su
considerable distancia con respecto a Neptuno.
Los astrónomos están ahora realizando un seguimiento exhaustivo de los tres objetos (bautizados
provisionalmente como S/2002 N1, N2 y N3), para definir con mayor precisión sus órbitas. Para ellos se
están usando telescopios incluso más grandes, como el 5 metros del Monte Palomar o uno de los cuatro
telescopios de 8,2 metros de diámetro del observatorio de Paranal, en Chile.
Información adicional en: http://cfa-www.harvard.edu/press/pr0303.html
Rayos peligrosos
Un estudio efectuado por científicos de la University of Arizona señala que los rayos pueden golpear contra
el suelo en dos o más sitios a la vez. Además, la probabilidad de que uno de ellos nos caiga encima es un
45 por ciento superior a lo que creíamos hasta ahora.
C. Valine y E. Philip Krider, del Institute of Atmospheric Physics (UA), utilizaron grabaciones de video y
otras tecnologías para analizar el comportamiento de la actividad eléctrica en una zona de Arizona,
concretamente en Tucson, durante el verano de 1997.
Registraron visualmente 386 rayos (actividad eléctrica de nube a suelo), de los cuales 136 (un 35 por
ciento) golpearon en dos o más puntos separados entre sí por varias decenas de metros. En total, se
contabilizaron 558 puntos de impacto diferentes, lo que proporciona una media de 1,45 puntos por rayo.
La gente suele pensar que un rayo golpea contra el suelo en un único lugar. Sin embargo, a la luz de los
resultados, esto no es obviamente así. En un tercio de las ocasiones son dos o más los puntos afectados.
Teniendo en cuenta el promedio antes referido, la probabilidad de que seamos alcanzados será por tanto un
45 por ciento superior a la esperada.
2237
El Hijo de El Cronopio No. 189/448
Los relámpagos se producen cuando hay una descarga de electricidad entre grandes volúmenes de cargas
positivas y negativas, las cuales se acumulan en las nubes de tormenta. Normalmente, la actividad eléctrica
ocurre durante el desarrollo de tormentas de lluvia líquida, pero puede suceder también durante tormentas
de nieve, de arena y entre el material expulsado sobre los volcanes. Casi todos los relámpagos aparecen
dentro o entre las nubes, pero un tercio de las descargas puede llegar a golpear el suelo (rayo). La corriente
eléctrica atraviesa la atmósfera creando un canal donde las temperaturas son 5 veces superiores a las de la
superficie del Sol.
Sólo en los Estados Unidos, los rayos matan a 93 personas y producen 300 heridos al año. Según el
National Severe Storms Laboratory, si queremos sentirnos seguros deberemos mantenernos a una distancia
de entre 10 y 13 km respecto al punto donde cayó el último rayo (frente a los 3 a 5 km que los expertos
proponían hasta ahora). Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0107lightning.html
Deshielo en directo
Gracias al satélite Quick Scatterometer y su instrumento SeaWinds, un grupo de científicos ha descubierto
el episodio de deshielo en la placa Larsen de la Antártida cuya aparición se ha producido más temprano.
Esta placa de 200 metros de grosor, flotando en el océano, se está desintegrando desde 1995, habiendo
perdido ya el 10 por ciento de su superficie.
La cantidad de hielo que se estima ha desaparecido en este periodo se acerca a los 2 billones de toneladas.
El proceso de deshielo, constante, pone de manifiesto los efectos del cambio climático que se producen a
nivel mundial.
Mark Drinkwater, de la ESA, David Long, de la Brigham Young University, y Steve Harangozo, del
British Antarctic Survey, utilizaron el satélite QuikScat para documentar el rápido deshielo que se está
produciendo en la placa Larsen C Ice Shelf, situada en el mar de Weddell. Las imágenes cubren el estado
de la placa entre los días 27 y 29 de octubre de 2002, y muestran una clara pérdida de hielo. Durante este
período, la zona estaba sufriendo los efectos de un lejano ciclón que enviaba aire caliente a la región.
El aumento de las temperaturas (la Península Antártica se ha calentado 2 grados Celsius durante los
últimos 50 años) provoca episodios tempranos de deshielo que anteceden al deshielo natural de los meses
de verano. El agua líquida producida por estos episodios de prematuro deshielo penetra en las grietas y
fisuras, congelándose a cierta profundidad, donde las temperaturas son más bajas. La situación acelerará el
proceso de fractura natural, ya que el hielo se expande.
El instrumento SeaWinds actúa transmitiendo pulsos de microondas de alta frecuencia hacia la superficie
terrestre. El aparato mide los pulsos que rebotan y vuelven al espacio, permitiendo obtener imágenes de
radar muy precisas. El interés de su uso radica en que este tipo de instrumentos puede detectar rápidamente
la diferencia entre superficies secas o en proceso de deshielo. Esto ayuda a vigilar el impacto de los
cambios climáticos en zonas como la antártica, muy sensibles a las variaciones de temperatura.
Información adicional en: http://www.jpl.nasa.gov/releases/2003/4.cfm
El secreto de la bacteria
Científicos israelíes del Weizmann Institute han conseguido explicar por qué la bacteria Deinococcus
radiodurans es el organismo más resistente a la radiación. Su secreto es un anillo, el que forma su ADN.
Se desvela así un misterio que había mantenido expectante desde hace tiempo a la comunidad
investigadora.
Esta bacteria roja puede soportar 1,5 millones de rads, unas mil veces más que cualquier otra forma de vida
en la Tierra, y tres mil veces más que un ser humano. Su particular resistencia la ha hecho muy útil en las
plantas de residuos nucleares, donde su enorme apetito permite convertirlos en derivados mucho menos
peligrosos.
La Deinococcus radiodurans también ha sido encontrada en ambientes extremos, como el Polo Norte, ya
que tiene una gran resistencia a la deshidratación y a las bajas temperaturas. Tales maravillas han
despertado un gran interés científico, y no han faltado propuestas, sobre todo en Rusia, que sugieren que su
origen está en Marte, donde la radiación ambiental natural es más alta que la de la Tierra.
Dado que el ADN, el código genético, es la parte de la célula que se daña antes debido a la radiación, los
investigadores han buscado los mecanismos de reparación que expliquen la fortaleza de este organismo.
Las células humanas o las de los microbios normales, por ejemplo, sólo son capaces de reparar muy pocos
2238
El Hijo de El Cronopio No. 189/448
de los daños que la radiación puede producir sobre su ADN, habitualmente no más de tres a cinco. En
cambio, la D. Radiodurans puede reparar hasta 200.
Los experimentos, sin embargo, indican que la extraña bacteria no tiene más enzimas reparadoras que las
que poseen las bacterias ordinarias. ¿Cuál es pues su secreto? Avi Minsky, del Organic Chemistry
Department del Weizmann Institute of Science, ha utilizado diversos métodos ópticos y de microscopía
electrónica para analizar la estructura del ADN de la D. Radiodurans, y ha descubierto que éste está
organizado de una forma única. En efecto, tiene el aspecto de un anillo muy empaquetado, de tal modo que
las piezas de código genético que se rompen por la acción de la radiación no escapan hacia los líquidos
celulares, sino que se mantienen unas cerca de otras. Con el tiempo, acabarán volviendo a su orden
original, reconstruyendo los filamentos de ADN. El hallazgo es muy interesante, pero no nos servirá para
hacer que el Hombre sea más resistente a la radiación. Nuestra estructura genética es muy distinta.
Información adicional en: http://wis -wander.weizmann.ac.il/site/EN/weizman.asp?pi=372&doc_id=3123
Primero los agujeros negros, después las Galaxias
Un estudio realizado en la Ohio State University por la astrónoma Marianne Vestergaard confirma que los
agujeros negros se formaron antes que las galaxias que los contienen. El descubrimiento podría ayudar a
resolver el prolongado debate sobre el origen de los cuerpos galácticos.
Vestergaard llegó a esta conclusión mientras analizaba una colección de galaxias muy activas llamadas
cuásares, tal y como eran hace 12.000 millones de años, cuando el Universo era apenas 1.000 millones de
años más viejo. Los cuásares parecían entonces jóvenes, conteniendo una gran cantidad de nidos de
estrellas en formación, pero ya poseían en su núcleo un agujero negro muy masivo y totalmente formado.
Los astrónomos no cesan de encontrar más y más agujeros negros en el centro de las galaxias que se
observan con el moderno instrumental del que disponemos. Incluso nuestra Vía Láctea posee uno. Tan
estrecha relación nos planteaba la pregunta: ¿quién vino antes, la galaxia o el agujero negro?
Para Vestergaard, los agujeros negros empezaron a formarse antes que las galaxias, o quizá lo hacen a un
ritmo mucho más rápido que estas últimas. Ambas explicaciones podrían ser también simultáneamente
válidas.
Uno de los modelos teóricos vigentes sugiere que la masa se acumularía en el centro de las galaxias, lo que
provocaría un colapso gravitatorio y la formación de un gran agujero negro. Otro modelo propone que los
agujeros negros se formarían primero, y que su inmensa gravedad se ocuparía de arrastrar gas, polvo y
estrellas, manteniéndolos a su alrededor y creando la galaxia. Vestergaard cree que las evidencias más
recientes apoyan con más fuerza esta segunda opción.
Hace un año, Vestergaard anunció que había desarrollado un nuevo método para estimar la masa de
agujeros negros muy distantes (y que por tanto, existieron hace mucho tiempo). El método implica
comparar el espectro de luz emitido por los cuásares que albergan a dichos agujeros negros con el espectro
de cuásares mucho más modernos.
Los astrónomos consideran que una galaxia es activa cuando emite mucha más energía desde su núcleo
que la que puede contabilizarse teniendo en cuenta sólo sus estrellas. La radiación se detecta casi en todo el
espectro, desde las ondas de radio a los rayos-X.
Los cuásares son las galaxias activas que despliegan más energía, la mayor parte de la cual procede de una
pequeña región en su centro (una millonésima del diámetro de la galaxia). Es en estas regiones donde
residen los agujeros negros galácticos.
Vestergaard utilizó su método para examinar un grupo especial de cuásares distantes. Después, comparó
sus espectros con los de los cuásares más próximos a la Tierra. Repitió el proceso con cientos de cuásares,
y encontró un patrón claro. Incluso las galaxias activas más pequeñas y tranquilas contienen un agujero
negro masivo, cuya masa es al menos 100 millones de veces superior a la de nuestro Sol.
Teóricamente, para hacerse tan grandes habrán necesitado el paso de mucho tiempo. Debieron empezar su
vida como pequeños agujeros negros y después fueron acumulando materia con el transcurrir de millones
de años. A pesar de todo, las galaxias en las que se encuentran muestran signos de juventud (formación
estelar intensa, gran cantidad de gas molecular, producción de polvo significativa...), lo que sugiere que los
agujeros negros son más antiguos que las galaxias.
La información de la que disponemos mejorará en el futuro, cuando dispongamos de un satélite llamado
KRONOS. Este ingenio debería poder observar el material que cae sobre los agujeros negros con una
resolución 10.000 veces mejor que la que nos ofrece el actual telescopio espacial Hubble.
Información adicional en: http://www.osu.edu/researchnews/archive/bhfirst.htm
2239
El Hijo de El Cronopio No. 189/448
Donde un láser no ha llegado jamás
Combinando conceptos de investigación sobre radiación electromagnética y fibra óptica, un grupo de
científicos ha creado un rayo de luz, parecido a un láser, que trabaja en el ultravioleta extremo, una zona
del espectro electromagnético que no era accesible con anterioridad para ciertas aplicaciones.
Las ondas de luz en el ultravioleta extremo (EUV) son entre 10 y 100 veces más cortas que las ondas de
luz visible. Gracias a ello, permitirán "ver" estructuras diminutas, o grabar patrones en miniatura, en
aplicaciones como la microscopía, la litografía o la nanotecnología.
El logro se basa en un dispositivo que se llama "guía de ondas", un tubo de cristal hueco con una serie de
"bultos" internos que obligan a las ondas de luz a viajar a través de él a la misma velocidad, ayudándolas a
reforzarse entre ellas.
El resultado es un rayo de luz cuya potencia máxima se acerca al megavatio. Las ondas de luz tienen un
tamaño nanométrico, a pesar de que el aparato puede descansar sin problemas sobre una mesa de
dimensiones no demasiado grandes.
Los trabajos han sido realizados por un equipo de expertos liderado por Henry Kapteyn y Margaret
Murnane, de la University of Colorado. Para crear rayos EUV, los científicos disparan un láser cuyo pulso
dura un femtosegundo (una milésima de billonésima de segundo), a través de la guía de ondas llena de gas.
El láser es tan intenso que "rompe" los átomos del gas, obteniéndose iones cargados y electrones. El rayo
láser acelera entonces los electrones a muy altas energías, y los hace chocar contra los iones. Esto libera
radiación electromagnética (en este caso, fotones en la longitud de onda EUV).
Algunas de las ondas EUV pueden estar "fuera de fase" con respecto al láser, cancelándose unas con otras
y debilitando la intensidad y coherencia del rayo de salida. Por eso, se han practicado una especie de bultos
en el diámetro de la guía de ondas, que hacen que las ondas de luz del láser y el rayo EUV viajen a la
misma velocidad. El sistema lanza finalmente un chorro bien sincronizado de fotones, en la longitud de
onda esperada.
El grupo de Colorado espera extender pronto el alcance del rayo hasta la región que se encuentra por
debajo de los 4 nanómetros. Este tipo de luz es perfecto para observar estructuras biológicas: se podrá
construir un microscopio que nos mostrará los tejidos vivos con gran detalle. En unos 10 años, esperan
llegar también hasta los rayos-X, otra de las regiones del espectro. Con ellos obtendremos microscopios de
altísima precisión, que serán capaces de ofrecernos "películas" en tiempo real de procesos como la danza
de los átomos en las reacciones químicas.
Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0301.htm
El planeta más lejano
Los astrónomos del Harvard-Smithsonian Center for Astrophysics han detectado el planeta extrasolar más
alejado de nosotros, situado en la constelación de Sagitario. Lo más interesante, sin embargo, es que el
método utilizado para el descubrimiento podría permitir hallar planetas de tamaño terrestre alrededor de
estrellas mucho más próximas a la Tierra.
La técnica empleada es la del tránsito, que consiste en observar una estrella a la espera de que un planeta
pase por delante de ella. La gran precisión de nuestros instrumentos fotométricos puede ahora detectar la
pequeñísima disminución de brillo que se produciría.
Como explica Dimitar Sasselov, responsable del equipo de astrónomos, es muy difícil detectar un planeta
extrasolar. No producen luz por sí mismos, y la que reflejan, procedente de sus estrellas, es demasiado
escasa. Por eso, de momento, hay que recurrir a métodos indirectos. Normalmente, se utilizan mediciones
de la velocidad radial de las estrellas para deducir la existencia de planetas gigantes. Su presencia hace que
las estrellas no avancen en línea recta, sino que lo hagan sujetas a un centro de gravedad común. Vista
desde la Tierra, la velocidad de la estrella cambia (efecto Doppler), y ello permite suponer la existencia de
acompañantes y determinar su masa. Las mediciones astrométricas de posición también pueden delatar su
presencia.
Con el nuevo método, el tránsito, el planeta pasa por delante de la estrella en su órbita, bloqueando una
diminuta fracción de la luz que de otro mo do llegaría hasta nosotros. El efecto es pequeño, pero detectable.
De hecho, las mediciones pueden proporcionar información más precisa en cuanto al tamaño del planeta y
sus características orbitales. También amplía nuestra capacidad de detección, pasando de las actuales
40.000 hasta 100 millones de estrellas o más.
2240
El Hijo de El Cronopio No. 189/448
Ya se conocía un planeta extrasolar que pasa por delante de su sol (HD 209458b) de forma periódica, pero
su detección se produjo con la técnica de la velocidad radial. La primera búsqueda específica mediante el
método del tránsito (OGLE, Optical Gravitational Lensing Experiment) se inició hace varios años. Se
obtuvieron 59 candidatos, de los cuales la mayoría eran sistemas binarios, es decir, estrellas dobles en
cuyas parejas uno de los componentes era muy débil. Ahora se ha confirmado la existencia de un planeta
alrededor de otra de las estrellas candidatas.
El planeta extrasolar descubierto tiene el tamaño de Júpiter y gira alrededor de la estrella OGLE-TR-56. Es
interesante porque se encuentra 20 veces más lejos de nosotros que cualquier otro planeta extrasolar
catalogado hasta ahora. Además, orbita muy cerca de su estrella, a sólo cuatro radios estelares, o unas 50
veces más cerca que la Tierra respecto al Sol. Tarda apenas 29 horas en dar una vuelta a su alrededor y
soporta temperaturas de 2.000 grados Kelvin. Tal proximidad es una gran sorpresa. En el pasado, debió
perder la mitad de su masa, que cayó sobre la estrella. Ahora se encuentra en una órbita estable.
Las mediciones indican que la masa actual del planeta es 0,9 veces la de Júpiter, y su diámetro, 1,3 veces el
del gigante del Sistema Solar. Se trata de un planeta gaseoso, parecido, en cuanto a densidad, a Saturno. La
temperatura que experimenta es adecuada para la formación de nubes, pero no de vapor de agua, sino de
átomos de hierro.
El método del tránsito ha demostrado pues ser un éxito. Abre las puertas al estudio de cientos de miles de
estrellas como OGLE-TR-56, situada ésta a 5.000 años-luz. En zonas más próximas, podría permitirnos
detectar planetas mucho más pequeños y cercanos a las dimensiones de la Tierra. En el futuro, la técnica
será empleada a bordo de observatorios espaciales, como la misión Kepler (2006) o la Terrestrial Planet
Finder (2013-2015). Información adicional en: http://cfa-www.harvard.edu/press/pr0301.html
Medida la velocidad de la gravedad
Una de las constantes fundamentales de la teoría general de la Relatividad, anunciada por Einstein en 1916,
ha sido por fin medida. Un equipo de físicos ha aprovechado un alineamiento cósmico poco habitual para
probar la suposición de Einstein de que la gravedad se mueve a la velocidad de la luz.
Sergei Kopeikin, de la University of Missouri-Columbia, nos explica que Newton creía que la gravedad era
una fuerza instantánea. Einstein, en cambio, dijo que se movía a la velocidad de la luz, pero hasta ahora
nadie lo había constatado.
Kopeikin y Ed Fomalont, del National Radio Astronomy Observatory, decidieron ponerse manos a la obra
y el 8 de septiembre de 2002 usaron los varios radiotelescopios para medir el desplazamiento en el cielo de
un cuásar, un objeto celeste muy distante de aspecto parecido a una estrella pero de gran tamaño (al
parecer, el núcleo activo de una galaxia primitiva). La fuerza gravitatoria de Júpiter, durante la
aproximación aparente de este planeta, provocaría este desplazamiento.
El resultado obtenido permite afirmar que la velocidad de propagación de la gravedad es igual a la
velocidad de la luz, algo que se ha determinado con una precisión de un 20 por ciento.
La medición es muy importante ya que servirá a los físicos que están trabajando en teorías unificadoras, las
cuales pretenden combinar la física de partículas con la teoría de la Relatividad y la teoría
electromagnética.
Los instrumentos utilizados durante el experimento fueron el VLBA (Very Long Baseline Array), en
Estados Unidos, y el radiotelescopio de 100 metros de diámetro de Effelsberg, en Alemania. Ambos
unieron sus observaciones mediante interferometría, durante el tránsito de Júpiter frente al cuásar. Los
detectores midieron las radio-ondas procedentes de este último, mientras se curvaban por el efecto
gravitatorio del planeta. Ello se tradujo en un pequeño desplazamiento de la posición aparente del cuásar
en el cielo.
Dado que Júpiter gira alrededor del Sol, las ondas se curvan en función de la velocidad a la que la
gravedad se propaga desde el planeta. El efecto es muy pequeño, la razón por la que Einstein lo eliminó de
sus cálculos.
Hasta ahora nadie había intentado medir la velocidad de la gravedad porque los científicos creían que
primero habría que detectar las ondas gravitatorias. Pero Kopeikin, en 1999, extendió la teoría de Einstein
para la propagación de la luz de manera que incluyera los efectos gravitatorios de un cuerpo en
movimiento sobre la luz y las radio-ondas. El reciente tránsito de Júpiter frente al cuásar J0842+1835
permitió poner en práctica su teoría.
Información adicional en: http://www.aoc.nrao.edu/epo/pr/2003/gravity/
2241
El Hijo de El Cronopio No. 189/448
Breves del Mundo de la Ciencia
LA ENANA MARRÓN MAS CERCANA: Encontrar un objeto astronómico extraño y poco
común no es algo que pase cada día. Pero aún es menos frecuente que tan formidable hallazgo se
produzca en nuestro propio "patio trasero". Un grupo de astrónomos ha descubierto una estrella
enana marrón que además se ha convertido en uno de los astros más próximos a nuestro Sol.
KAFLOAT, EL GLOBO QUE SALVARÁ VIDAS EN ALTA MAR: Un ingenioso y a la par
sencillo mecanismo inventado en Galicia evitará que los barcos se hundan.
SISTEMA SECUNDARIO DE DETECCIÓN DE LUZ: Investigadores del Imperial College
London, de la Johns Hopkins University y de la Brown University, han descubierto que la
melanopsina, una proteína recientemente identificada, juega un papel clave en el nuevo sistema
de detección de luz hallado en el ojo.
LOS EXPERTOS RETAN A CLONAID: Clonaid, el grupo que anunció recientemente haber
conseguido clonar con éxito al primer ser humano, debería aportar pruebas más contundentes,
dicen tres expertos internacionales en clonación.
EL UNIVERSO DISTANTE: Los esfuerzos combinados de tres equipos europeos de
astrónomos, observando la misma zona del cielo, en la constelación de Fornax, han permitido
construir una imagen en color real, excepcionalmente clara, de los objetos a gran distancia que se
hallan en ella.
DOS CONTAMINANTES SE ANULAN ENTRE SI: El dióxido de carbono, y los hidrocarburos
emitidos por los árboles que se emplean en agricultura, interaccionan paliando, irónicamente, el
problema de la polución atmosférica.
PLOMO Y DELINCUENCIA JUVENIL: Los niños que han sido expuestos a concentraciones
elevadas de plomo tienen mayores probabilidades de desarrollar un comportamiento agresivo y
de delinquir, según un estudio realizado por un investigador de la University of Pittsburgh.
LA PRÓXIMA GENERACIÓN DE CÉLULAS SOLARES: Científicos del Rochester Institute
of Technology van a colaborar con la NASA para desarrollar nanomateriales que algún día se
utilizarán en estaciones colectoras de energía situadas en órbita.
LOS OSOS POLARES, EN PELIGRO: Si el calentamie nto global no se detiene, los osos polares
podrían extinguirse antes de que pasen 100 años, dice un experto en ecosistemas del Ártico de la
University of Alberta.
LA MORDEDURA DEL MURCIELAGO VAMPIRO: Una sustancia hallada en la saliva de una
especie de murciélago podría triplicar la duración de la ventana de tratamiento de un paciente
después de que éste haya sufrido un infarto cerebral.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
DARWIN Y EL PROYECTO DEL GENOMA HUMANO
El hombre, el homo faber contemporáneo, se pierde a sí mismo en los artefactos que
construye. La técnica es el olvido del ser, nos advierte Martin Heidegger. En esta
confusión "posmoderna" que sufrimos, ciencia y técnica se funden en una sola colección
amorfa de fórmulas y operaciones que posibilitan la transformación de la naturaleza y del
hombre mismo, en una escala nunca antes vista en la historia. Se confunde la operación
tecnológica con el conocer, con el auténtico saber. En esta absurda y desaforada
2242
El Hijo de El Cronopio No. 189/448
manipulación de la naturaleza creemos dominar al mundo y con ello llegar a reinar en el
cosmos.
La terca realidad nos devuelve como en un espejo la terrible imagen de nuestra propia
capacidad destructiva. El calentamiento global de las aguas oceánicas y la atmósfera se
debe, sobre todo, al uso atropellado de los motores de combustión interna alimentados
por derivados del petróleo; otros grandes cambios climáticos obedecen a la exacerbada
deforestación y a la irracional explotación del suelo; la extinción de especies vegetales y
animales a todo lo ancho del planeta amenazan con socavar el delicado equilibrio
ecológico alcanzado a lo largo de millones de años.
El estudio de las bases moleculares de la vida a partir de distintas disciplinas -biología
molecular, ingeniería genética, bioinformática, genética evolutiva, etcétera- tiene como
objetivo último, de acuerdo al paradigma adoptado por los tecnócratas, diseñar y por
tanto controlar la vida de seres vegetales, animales y humanos.
Así, los patrocinadores del proyecto Genoma Humano anuncian que en poco tiempo,
a partir de la manipulación genética, podrán erradicarse la mayoría de las enfermedades
que asuelan al hombre, se prolongará la vida humana y se crearán nuevas especies
vegetales y animales. En fin, este costoso y publicitado proyecto, cuyo objetivo último es
descifrar el código genético humano, tiene como horizonte probable la creación de una
nueva especie de homínidos.
Pero estos virtuosos de la técnica, ajenos al saber humanista y a la historia, han
olvidado las ideas y los descubrimientos del gran pionero de la biología moderna:
Charles Darwin. En su obra fundadora, "El origen de las especies", Darwin afirma que
hay ciertos fenómenos biológicos derivados de la constitución genética de los
organismos que no encuentran, y que difícilmente encontrarán, una explicación
satisfactoria.
En particular, el eminente científico menciona en las primeras páginas de la obra
referida el fenómeno de la variación correlativa: "Cambios importantes en el embrión o
larva ocasionarán probablemente cambios en el animal adulto. En las monstruosidades,
las correlaciones entre partes completamente distintas son muy curiosas...Los criadores
creen que las patas largas van casi siempre acompañadas de cabeza alargada. Algunos
ejemplos de correlación son muy caprichosos: así, los gatos que son completamente
blancos y tienen los ojos azules, son sordos generalmente...Por tanto, si el hombre
continúa seleccionando, y por consiguiente aumentando, cualquier peculiaridad, casi sin
duda se modificará involuntariamente otras partes de la estructura, diviso a las
misteriosas leyes de la correlación...Los resultados de las diversas leyes de la variación,
ignoradas u oscuramente conocidas, son infinitamente complejos y variados."
Esta gran variabilidad correlativa que se observa entre distintos caracteres de un
organismo es imposible de controlar. Digamos que tal vez sea posible que, vía la
ingeniería genética, una pareja pueda decidir que su próximo hijo tenga los ojos verdes,
lo que no se sabe es si los ojos parecerán en la nuca del bebé o en el lugar apropiado. El
efecto de un gen en los caracteres de un individuo está correlacionado con los efectos de
quien sabe cuantos otros genes, de tal manera que modificar uno de ellos puede tener
efectos impredecibles en el individuo.
En física se sabe desde hace décadas que no es posible predecir con exactitud ni
siquiera la evolución de un sistema compuesto por tres cuerpos sólidos interactuando
2243
El Hijo de El Cronopio No. 189/448
mecánicamente. ¿Cómo es entonces posible la arrogancia de pretender controlar la
resultante de la interacción de los cien mil genes que componen el genoma humano?
El otro aspecto olvidado por los genios de la manipulación genética es que todo
organismo interactúa con su medio. Una especie modificada genéticamente tendrá
indudablemente efectos impredecibles, de naturaleza caótica, sobre el ambiente en que se
introduce.
De ahí pues, que la ignorante soberbia de los tecnólogos -olvidados de la obra de
Darwin, fundadora de la biología moderna- esté conduciendo a la especie humana a un
laberinto que tal vez no tiene salida.
SEMINARIO DE DIVULGACIÓN MATEMÁTICA
La Facultad de Ciencias a través del Departamento de Matemáticas presenta el seminario
de divulgación matemática: De Maestro a Estudiante.
Las Matemáticas se han expandido en todas direcciones a una velocidad fabulosa durante
la última mitad del siglo pasado. Nuevos campos han surgido, la difusión dentro de otras
disciplinas ha procedido sin ritmo fijo, y nuestro conocimiento de las áreas clásicas ha
crecido cada vez más profundo. Al mismo tiempo una de las más fuertes direcciones en
las matemáticas modernas es el constante crecimiento interrelacionado entre sus diversas
ramas.
Esto se refleja además, en el sentido de que son la herramienta básica para las ciencias
existentes; la Física ha sido en general la ciencia que había utilizado matemáticas, pero
cada vez más se utilizan en otras áreas como la Ingeniería, la Metalurgia, la Medicina,
etc.
Es por eso que los que formamos parte del equipo de trabajo del seminario de
divulgación matemática de la Facultad de Ciencias, queremos mostrar la elegancia, el
poder y la belleza de las matemáticas, a través de las conferencias y pláticas que se
realizarán a partir del 7 de febrero del presente año. Estas se estarán efectuando, a lo
largo del semestre, así como se han venido realizando en los últimos 2 años, haciendo de
este seminario un evento establecido.
Hemos presentado pláticas como: "No hay tantos quebrados como para quebrarse la
cabeza", "¿Pero existen más de tres dimensiones?", "Como evitar que Fantomas se robe
la Monalisa", "Desafíos de la Teoría Económica al Análisis Funcional", "EI Hipercubo",
entre otras cosas.
Les estaremos informando del programa de conferencias a la brevedad posible.
2244
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.190, 10 de febrero de 2003
No. acumulado de la serie: 449
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Descanse en Paz
El Hondureño-Guatemalteco-Mexicano
Augusto Monterroso
Esperando no encuentre al
dinosaurio por su nuevo camino
El Hijo de El Cronopio No. 190/449
Generan océanos campo magnético
Confían en que el hallazgo contribuya al análisis del cambio climático global
Por ARTURO BARBA NAVARRETE /
Grupo Reforma
El descubrimiento de que los océanos producen un ligero campo magnético, realizado por un
grupo de científicos estadounidenses, podría ayudar a analizar el cambio climático global y a
entender las migraciones de algunas especies marinas.
Tras mediciones efectuadas durante dos años, Robert Tyler y sus colegas de la Universidad de
Washington descubrieron que el flujo del agua de mar está cargado con iones y genera corrientes
eléctricas asociadas a campos magnéticos.
"Los océanos son fluidos conductores de electricidad que generan un campo magnético
secundario que parece surgir del campo magnético de la Tierra y de la dinámica de los mares",
señaló Tyler. "Creemos que en su formación intervienen las mareas y el flujo de los océanos".
El científico estadounidense consideró que estos resultados abren una línea de estudio sobre los
efectos del cambio climático global en la temperatura y la dinámica de los mares, además de
proporcionar información sobre el comportamiento de especies marinas.
Desde hace siglos, se ignora la forma en que los tiburones y las ballenas se guían en el mar a
través de miles y miles de kilómetros, un interrogante que podrían ayudar a develar los datos
obtenidos por Tyler.
"Hasta ahora no se ha encontrado que estos campos electromagnéticos tengan algún efecto",
subraya el investigador en un artículo publicado hoy en la revista Science. "Pero pensamos crear
modelos y mapas geomagnéticos de todo el planeta".
De acuerdo con Tyler, el campo magnético es formado por la sal disuelta en el agua de mar, que
produce iones cargados eléctricamente.
Estos iones son llevados por el flujo marino a través de los principales campos magnéticos de la
Tierra --como los polos y el ecuador--, lo que ocasiona que se carguen magnéticamente.
"Se constituye un complejo proceso magnetohidrodinámico entre el movimiento del mar y los
campos electromagnéticos", explicó Tyler. "Así, los iones se acumulan hasta formar pequeños
campos magnéticos en el fondo del mar".
Envejece en México planta de científicos
El 35 por ciento de los investigadores tiene más de 50 años y sólo el 22 por ciento es menor a los 40
años de edad
Por ARTURO BARBA /
Grupo Reforma
La ciencia mexicana se encuentra en un proceso de envejecimiento, incrementado
paulatinamente debido a la carencia de programas que incorporen a los jóvenes a las actividades
de investigación y desarrollo tecnológico.
Tan solo en el subsistema de investigación científica de la UNAM, que produce más del 40 por
ciento de la ciencia nacional, los investigadores tienen en promedio 49 años de edad. Además, de
los 8 mil 18 miembros del Sistema Nacional de Investigadores (SNI), el 35 por ciento es mayor a
los 50 años, y sólo el 22 por ciento tiene menos de 40 años de edad. "Estamos perdiendo a los
jóvenes que tanto esfuerzo ha costado formar", afirmó Ana María Cetto, secretaria general del
Consejo Internacional de Uniones Científicas. "Tenemos una nueva generación de científicos
muy bien preparados, pero no se les está incorporando a la investigación. Los estamos dejando ir
en vez de retenerlos y ofrecerles empleos".
Aseguró que este problema se reflejará en los próximos años en una gran pérdida de continuidad
en las actividades científicas.
80
AÑOS
2246
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
"Hace años, el país invirtió dinero para formarnos a nosotros los investigadores consolidados que
ahora tenemos plaza y estamos activos, pero si no se incorpora a la siguiente generación,
entonces no tendremos a quién pasarles la estafeta y la ciencia mexicana se quedará despoblada",
señaló Cetto.
Tan solo en el subsistema de investigación científica de la UNAM, que produce más del 40 por
ciento de la ciencia nacional, los investigadores tienen en promedio 49 años de edad. Además, de
los 8 mil 18 miembros del Sistema Nacional de Investigadores (SNI), el 35 por ciento es mayor a
los 50 años, y sólo el 22 por ciento tiene menos de 40 años de edad.
"Estamos perdiendo a los jóvenes que tanto esfuerzo ha costado formar", afirmó Ana María
Cetto, secretaria general del Consejo Internacional de Uniones Científicas. "Tenemos una nueva
generación de científicos muy bien preparados, pero no se les está incorporando a la
investigación. Los estamos dejando ir en vez de retenerlos y ofrecerles empleos". Aseguró que
este problema se reflejará en los próximos años en una gran pérdida de continuidad en las
actividades científicas.
"Hace años, el país invirtió dinero para formarnos a nosotros los investigadores consolidados que
ahora tenemos plaza y estamos activos, pero si no se incorpora a la siguiente generación,
entonces no tendremos a quién pasarles la estafeta y la ciencia mexicana se quedará despoblada",
señaló Cetto.
Causas y Efectos
Este problema se ha reflejado en el lento crecimiento de la planta de investigadores en México,
uno de los más reducidos de América Latina. Le tomó más de 10 años para pasar de 4 mil 500
investigadores a los 8 mil actuales; además, se gradúan solo mil doctores al año, mientras que en
Brasil surgen 6 mil cada año.
En el Programa Especial de Ciencia y Tecnología 2001-2006, el Gobierno estableció como meta
llegar a 30 mil científicos en el SNI y 50 mil doctorados más, cifra que, de acuerdo con René
Drucker, coordinador de Investigación Científica de la UNAM, será inalcanzable.
"Las causas de este problema son múltiples y profundas", dijo Drucker. "Una de ellas es que las
personas obtienen su doctorado muy tarde, de tal forma que cuando llegan al nivel 2 del SNI ya
tienen 50 años que, en comparación con otros países, es muy alto".
El ex presidente de la Academia Mexicana de Ciencias (AMC) agregó que además hacen falta
plazas e infraestructura para que los investigadores lleven a cabo su trabajo, por ello las
contrataciones en las universidades tardan mucho.
"Poco a poco está tendiendo a envejecer cada vez más hasta llegar a un promedio de 60 años",
mencionó Drucker. "Es un problema que tiene muchos años, agravado con la falta de creación de
nuevas instituciones de investigación en el país". De acuerdo con la AMC, durante 2002 no hubo
una sola plaza para investigadores en todo el país en las universidades públicas, por lo que no se
ha contratado a nuevos investigadores.
"Por un lado, está el problema de la salida de los científicos viejos y, por otro, la entrada de
jóvenes", subrayó Pablo Rudomín, coordinador del Consejo Consultivo de Ciencias de la
Presidencia. "La distribución de edades del SNI hay una tendencia hacia las edades más
avanzadas y muchos jóvenes que obtienen su doctorado se van del país".
Rudomín mencionó que por un lado no existen programas de jubilación adecuados y por otro
lado no hay una política adecuada para reclutar a los jóvenes y darles apoyos razonables, aunque
reconoció que la investigación científica no es tan atractiva para los jóvenes.
"Debemos aprovechar a los investigadores de amplia experiencia pues a veces es tan importante
la sabiduría que la productividad", subrayó Rudomín. "El progreso de la ciencia requiere la
incorporación de nuevos jóvenes de forma constante ya que el conocimiento cambia
continuamente".
Mencionó que el sistema científico mexicana debe contar con un equilibrio razonable en la edad
de los científicos. "Cualquier sistema que no se renueva envejece".
Fuga de Cerebros
80
AÑOS
2247
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
Juan Alberto Osorio en un joven de 31 años quien en unos días estará apunto de obtener su
doctorado en biotecnología de plantas, pero no encuentra trabajo.
Hasta ahora tienen dos opciones estudiar un postdoctorado o trabajar en alguna universidad del
extranjero. "He buscado en diversas universidades mexicanas, pero no hay trabajo", señaló
Osorio, quien estudió en el Cinvestav Irapuato. "Tampoco en las empresas hay lugares para los
investigadores".
"La etapa más productiva en la ciencia es de los 25 a los 45 años", dijo Mauricio Terrones,
investigador de 34 años de edad del Instituto Potosino de Investigación Científica y Tecnológica.
"Se debe motivar y demostrar a los jóvenes que se pueden hacer las cosas en México aunque
cuesta mucho trabajo".
Terrones, quien recibió en el 2001 el premio de la UNESCO a jóvenes investigadores, señaló la
importancia de crear programas de retiro de científicos. "Es una necesidad nacional que
beneficiará al país para generar nuevas fuentes de trabajo y nuevas tecnologías".
"Hace falta más planeación; a veces el mismo sistema nacional corre a los jóvenes
investigadores", dijo Terrones. "Yo estuve a punto de irme de México pero tengo la certeza de
que se pueden hacer cosas aunque hay momentos en los que he dicho: ¡ya basta!".
"Uno no puede trabajar de la misma forma que los investigadores consolidados porque no
tenemos equipo, personal, ni nada", afirmó Luis Álvarez, investigador de 38 años del
departamento de genética y biología molecular del Cinvestav. "La planta de investigadores no
crece y sigue envejeciendo, y aunque contrataran a jóvenes no habría lugar donde ponerlos".
Álvarez mencionó que en el departamento donde labora no ha habido una sola contratación desde
hace 4 años y por ello, los jóvenes que se doctoran tienen que trabajar con los "viejitos". "Los
veteranos han alc anzado los más altos niveles en el SNI y en el Cinvestav, y no los dejarán hasta
que se mueran", agregó. "No necesitan ser productivos; tienen investigadores jóvenes y la
infraestructura para hacer investigación, lo que origina una relación parasitaria entre ambos".
"Luego de algunos años, la línea de investigación del joven pasará a ser la del veterano, y ahí
empiezan los problemas, si uno acepta ese tipo de condiciones quizá progrese rápido, pero si no,
se enfrentará a muchos obstáculos porque estos veteranos son los mismos que evalúan los
proyectos en el Conacyt, y en el SNI; han hecho una pequeña oligarquía que impide que la gente
sea justa con los jóvenes investigadores", dijo.
"Es un círculo vicioso muy difícil de romper y así pasa con muchos jóvenes que dentro de algún
tiempo, quizá, vuelvan a salir del país", concluyó Álvarez.
Noticias de la Ciencia y la Tecnología
Microchip para observar moléculas individuales
Utilizando una técnica innovadora, científicos de la Cornell University han conseguido por primera vez
aislar ópticamente moléculas biológicas individuales, y observar su comportamiento complejo al
interaccionar con una proteína.
Se espera que este método sirva para desarrollar una nueva manera de secuenciar el ADN, en la que el
código genético podrá ser "leído" directamente de una molécula individual de ADN. También servirá para
ayudar en el descubrimiento de nuevos fármacos, ya que permitirá ver las fluctuaciones y variabilidad del
comportamiento de las enzimas.
El equipo de investigación, liderado por Watt Webb, ha trabajado duramente para realizar este avance.
Hasta ahora, los investigadores veían restringida su habilidad de observar moléculas individuales de
enzima (una proteína compleja), interactuando con otras moléculas bajo un microscopio en
concentraciones fisiológicas relativamente altas, por la longitud de onda de la luz empleada, la cual
delimita el volumen más pequeño de una muestra que puede ser contemplado. Esto, a su vez, limitaba el
número más bajo de moléculas que podía ser observado en el punto focal del microscopio hasta no más de
un millar. Algunos tipos de microscopios avanzados han conseguido reducir esta cifra hasta un centenar,
80
AÑOS
2248
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
pero sigue siendo demasiado alta, por lo que las muestras deben diluirse significativamente si queremos
detectar moléculas individuales.
Para superar estas limitaciones, los investigadores de Cornell han creado un microchip especial que
permite reducir 10.000 veces el tamaño de la muestra, hasta unos 2.500 nanómetros cúbicos (1 nanómetro
es el ancho ocupado por 10 átomos de hidrógeno). Lo que hace el microchip es evitar que la luz pase a
través de él e ilumine la mayor parte de la muestra. Para conseguirlo, dispone de 2 millones de agujeros
(llamados guía de ondas) de tan sólo 40 nanómetros de diámetro, o una décima parte de la longitud de
onda de la luz.
El sistema funciona depositando pequeñas gotitas conteniendo las enzimas y moléculas especialmente
preparadas sobre los orificios del microchip, el cual es colocado después en un microscopio óptico. Cada
agujero es tan pequeño que la luz del rayo láser utilizado no puede pasar a través de él. En vez de eso, la
luz es reflejada por la superficie de aluminio del microchip, lo que hace que algunos fotones se escapen
hacia el interior del agujero, en cuyo fondo se encuentra la molécula de enzima a observar. Estos pocos
fotones serán suficientes para iluminar las moléculas fluorescentes, unidas como "etiquetas" a los
nucleótidos (las moléculas que forman las largas cadenas de ADN) de la muestra. De esta forma, los
investigadores pueden contemplar la interacción entre el nucleótido etiquetado y la enzima en la región de
la mezcla que está a su alcance (el volumen de observación). El microchip mide sólo 25 milímetros de
ancho y contiene 25 orificios, cada uno con 90.000 pequeños agujeros.
Información adicional en: http://www.news.cornell.edu/releases/Jan03/microchip.molecules.deb.html
Ozono protector
Inspirándose en los sistemas de purificación del aire de algunos quirófanos, investigadores de la Purdue
University han descubierto que el ozono puede utilizarse para eliminar insectos en las instalaciones de
almacenamiento de grano, sin perjudicar la calidad del alimento ni el medio ambiente.
Hasta ahora se han venido empleando productos químicos para fumigar que dañan la capa del ozono, lo
que ha provocado su prohibición. Es pues irónico comprobar que la alternativa a este sistema sea el propio
ozono. Cuando se usa este gas para matar los insectos que se alimentan del grano, permanece en la
atmósfera durante muy poco tiempo, lo que evita daños tanto a éste como al ambiente.
En efecto, según la entomóloga Linda Mason, el ozono tiene una vida media muy corta. Además, se están
empleando dosis relativamente bajas, aunque suficientes para matar a un insecto. En cambio, las sustancias
utilizadas hasta ahora pueden matar cualquier cosa que se encuentre dentro y alrededor del grano,
incluyendo a las personas. Una de estas sustancias es el bromuro de metilo, un pesticida que ya no estará
disponible a partir de 2005. Encontrar algo que lo reemplace es imperativo, o de lo contrario los insectos
no sólo se comerán el grano, sino que además defecarán sobre él, provocando el desarrollo de hongos
(sobre todo el Fusarium y el Aspergillus). Estos hongos liberan micotoxinas que pueden causar
enfermedades en el ganado y que han sido relacionadas con algunas formas de cáncer humano.
Los expertos estiman que entre el 5 y el 10 por ciento de la producción de alimentos en el mundo se pierde
cada año debido a los insectos, aunque algunos países sufren incluso el 50 por ciento.
Durante los experimentos en Purdue, se utilizó ozono para tratar arroz, maíz, soja, trigo y otros cultivos.
Se estudió cómo fluía el gas entre el grano almacenado, y qué tipo de reacciones producía. Se analizaron
también los productos finales para ver si mantenían la misma calidad que el grano no tratado. Por ejemplo,
se comprobó si se obtenía el mismo tipo de harina, si el pan tenía un sabor diferente, etc., y si el ozono
afectaba a los aminoácidos y ácidos grasos esenciales que no produce el cuerpo y que están presentes en
estos alimentos. No se encontraron valores nutritivos y metabólicos distintos.
Las investigaciones empezaron cuando los científicos se dieron cuenta de que los sistemas de purificación
de aire en los hospitales no contenían cucarachas, algo inusual en un gran edificio. Se probaron varias
dosis de ozono sobre diversos insectos y se comprobó que el gas era fatal para ellos.
Información adicional en: http://news.uns.purdue.edu/UNS/html4ever/030130.Mason.ozone.html
Productos de interés industrial a partir de cenizas
El Instituto de Ciencias de la Construcción Eduardo Torroja de Madrid ha desarrollado un nuevo
procedimiento para el tratamiento de las cenizas resultantes de la incineración de residuos sólidos urbanos
(RSU). Permite obtener, a partir de las cenizas, nuevos productos de interés industrial: hidrógeno y
80
AÑOS
2249
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
zeolitas. Actualmente buscan socios industriales interesados en la explotación de esta patente. La
producción mundial de residuos sólidos urbanos (basuras domésticas) es un grave problema social y
ambiental. Aunque la incineración reduce los residuos en un 70 por ciento, las cenizas que se generan y
qué hacer con ellas sigue siendo un problema. Una gran parte de las cenizas va a parar a los vertederos, lo
que es una solución parcial: si bien es un volumen menor de residuos, lo cierto es que se genera basura
muy rápidamente, y los vertederos crecen desmesuradamente.
Una alternativa es encontrar otro destino a las cenizas. En EE.UU., el uso de "bottom ashes" o cenizas que
se depositan en el fondo de las calderas, como material de relleno de terraplenes y como base y sub-base de
carreteras está muy extendido; no así en Europa, donde justo ahora se está empezando a optar por esta vía.
En España, por ejemplo, el gobierno obligará a dar una salida alternativa al 10 por ciento de los residuos
calificados como inertes. Es por ello que urge la necesidad de buscar nuevos tratamientos y aplicaciones
alternativas a las que se están utilizando en la actualidad.
Un grupo de investigación perteneciente al Departamento de Físico Química de Materiales del Instituto de
Ciencias de la Construcción Eduardo Torroja ha desarrollado un nuevo procedimiento para el tratamiento
de las cenizas no volantes resultantes de la incineración de residuos sólidos urbanos.
La principal diferencia entre los términos "ceniza" y "ceniza volante", explica Sara Goñi, investigadora que
ha dirigido el proyecto, es que "la ceniza volante, debido a su pequeño tamaño de partícula, es arrastrada
por los gases que se generan durante la combustión y queda retenida en los sistemas de depuración de
gases" mientras que las denominadas "cenizas" son las que por su mayor tamaño de partícula "no son
arrastradas por los gases y quedan en el fondo del horno, de ahí que en inglés se las denomine bottom ash
(cenizas del fondo)". Además del diferente tamaño de partícula, la composición de ambos tipos de cenizas
es también diferente y determina las posibles aplicaciones y tratamientos que se les pueden dar.
Así, el proceso que ha desarrollado este equipo de investigación se aplica exclusivamente a la ceniza que
queda en el fondo del horno. Consta de dos etapas. En una primera, considerada como un pretratamiento,
las cenizas son tratadas con una disolución acuosa alcalina y a temperatura ambiente durante 24 horas. En
este pretratamiento la disolución genera hidrógeno, que puede ser empleado como combustible alternativo.
Este hidrógeno se forma por la disolución del aluminio metálico presente en la ceniza de partida. En la
segunda etapa del método, la disolución se somete a tratamiento térmico en un reactor, lo que da lugar a la
formación de zeolitas sintéticas cristalinas mayoritariamente, con propiedades adsorbentes y de
intercambio iónico, con un amplio abanico de aplicaciones.
El procedimiento, para el cual ya se ha solicitado la patente, consigue transformar las cenizas en nuevos
productos de interés comercial y no añade a la ceniza de partida ningún otro componente, como es el caso
del polvo de vidrio, escoria de aluminio, hidróxido de aluminio, ceniza volante de la combustión del
carbón o sílice amorfo, utilizados en otras tecnologías. Actualmente el Instituto busca socios industriales
interesados en la explotación de esta patente.
En la Unión Europea se generan unos 200 millones de toneladas anuales de residuos, cantidad que,
teniendo en cuenta el aumento de población del 40 por ciento estimado para el año 2015, sobrepasará
sustancialmente las medidas de control y almacenamiento vigentes en la UE para estos residuos.
Los problemas asociados a los vertederos de residuos sólidos urbanos (RSU) no son sólo de espacio, sino
de seguridad y de contaminación. Los vertederos, explica Sara Goñi, generan gases como metano y CO2
con los problemas asociados al efecto invernadero o de explosión en el caso del metano si no es evacuado
adecuadamente. A ello se le añaden los problemas de lixiviados contaminantes que pueden fluir de los
residuos de los vertederos al subsuelo y aguas subterráneas. (R+D CSIC)
Información adicional en: http://www.dicat.csic.es/rdcsic/rdma14esp.htm
Sal y El Niño
Científicos de la NASA han descubierto que conociendo el contenido de sal de la superficie oceánica es
posible mejorar nuestra habilidad de predecir los eventos llamados El Niño. Los cambios regionales en la
salinidad corresponden a cambios en el contenido de calor en el nivel superior del océano Pacífico, típicos
en los meses previos a la aparición de este fenómeno climático. La salinidad y la temperatura se combinan
para dictar la densidad del agua en el mar. Una mayor salinidad, como también temperaturas más frías,
resulta en un incremento de la densidad oceánica, lo que se corresponde con una depresión de la altura de
la superficie marina. En aguas más calientes y dulces, la densidad es más baja y la superficie del mar se
eleva. Estas diferencias de altura están relacionadas con la circulación del océano.
80
AÑOS
2250
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
La salinidad superficial en dos regiones contribuye a la aparición del fenómeno que conocemos por El
Niño: un área de temperaturas más calientes y baja salinidad en el Pacífico occidental, y otra de mayor
salinidad y temperaturas más frías en el Pacífico oriental. Las diferencias en la salinidad superficial están
relacionadas con los cambios de temperatura y contenido calórico en el nivel superior del océano, lo cual
forma parte del fenómeno. Tienen el potencial de influir en el clima de la Tierra a través de la interacción
atmósfera-mar.
El estudio que ha examinado estos aspectos ha sido realizado para la NASA por los investigadores
Joaquim Ballabrera, Tony Busalacchi y Ragu Murtugudde, de la University of Maryland. Ha supuesto el
análisis de datos obtenidos entre 1980 y 1995, relacionados con temperaturas en superficie, vientos,
precipitaciones, evaporación, altura del nivel del mar, y calor latente, la energía liberada cuando el vapor
de agua se condensa en gotitas.
Utilizando modelos por ordenador, realizaron una serie de predicciones estadísticas de eventos El Niño
para tal período. Los resultados indican que las predicciones a corto plazo sólo requieren la vigilancia de
las temperaturas de la superficie marina, mientras que las predicciones a más largo plazo requieren la
observación de la altura del agua. Concluyeron asimismo que el control de la salinidad mejora
significativamente las predicciones. Cuando se produce un cambio de salinidad, ello afectará al evento El
Niño para los próximos 6 a 12 meses.
La NASA prepara la misión Aquarius, cuyo lanzamiento está previsto para el período 2006-2007.
Proporcionará los primeros mapas globales de concentraciones de sal sobre la superficie oceánica, algo que
nos ayudará a predecir mejor los episodios El Niño.
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0114salt.html
El mejor candidato a supernova
Los astrónomos que utilizan el William Herschel Telescope continúan estudiando la estrella gigante Ro
Cassiopeiae, que ha experimentado estallidos recientes, y han concluido que se trata del mejor candidato
conocido a convertirse en supernova.
Su análisis de la luz de la estrella mediante el espectrógrafo UES (Utrecht Echelle Spectrograph), aplicado
al telescopio William Herschel, en las islas Canarias, permite suponer que explotará pronto como una
supernova, dejando en su centro un masivo agujero negro o una estrella de neutrones. De hecho, teniendo
en cuenta que la luz de la estrella tarda 10.000 años en llegar a nosotros (se encuentra a 10.000 años-luz de
distancia), dicha explosión podría haber ocurrido ya.
Ro Cassiopeiae es una de las hipergigantes amarillas más brillantes de nuestra galaxia. Es visible a simple
vista, ya que es medio millón de veces más luminosa que el Sol. Forma parte de una familia de objetos
poco frecuentes: sólo se conocen 7 de ellos en toda la Vía Láctea. Además de su gran luminosidad, tienen
temperaturas superficiales situadas entre los 3.500 y los 7.000 grados. Han avanzado ya mucho en su vida
estelar y por tanto estallarán pronto. El Utrecht Echelle Spectrograph ha permitido hacer un seguimiento
de Ro Cassiopeiae desde 1993 hasta 2002, con el objetivo de investigar los procesos bajo los cuales se
comporta. En el año 2000, los astrónomos observaron sorprendidos cómo su temperatura superficial se
reducía súbitamente de 7.000 a 4.000 grados. Fue el preludio de una erupción que lanzó al espacio el 10
por ciento de su masa. Como consecuencia de ello, Ro Cassiopeiae podría convertirse en supernova en
cualquier momento, puesto que además ha consumido casi por completo el combustible nuclear de su
núcleo. La estrella sufre este tipo de erupciones cada medio siglo, aproximadamente. Pero desde el año
2000, su atmósfera pulsa de manera extraña. Es probable que estemos ante la llegada inminente de otra
erupción. Información adicional en: http://www.ast.cam.ac.uk/ING/PR/press/ing12003.html
Efectos de la conducción con teléfono móvil
Un análisis estadístico llevado a cabo por expertos de la University of Utah demuestra que los conductores
que emplean el teléfono móvil son más propensos a sufrir accidentes y a reaccionar con lentitud cuando
hablan a través de los aparatos celulares. Se produce una disminución de su capacidad de procesamiento de
la información visual.
Aunque los conductores dirijan la mirada hacia los objetos que se encuentran en la calzada, pueden no
llegar a "verlos" debido a que su atención está centrada en otras cosas, explican David Strayer, Frank
Drews y William A. Johnston, psicólogos de la UU. En efecto, las conversaciones telefónicas ocasionan
80
AÑOS
2251
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
una reducción de nuestra habilidad en la conducción, porque desvían nuestra atención de la escena visual,
causando una especie de "ceguera" temporal. Esta ceguera explica por qué no hay demasiadas diferencias
en cuanto al número de accidentes entre aquellos que son usuarios de teléfonos de "manos libres" y los que
emplean aparatos celulares normales. Ambos verán menos señales de tráfico y reaccionarán más lento ante
las que sí vean, comparado con los conductores que no usan teléfono. En cambio, el hablar con un
acompañante o escuchar la radio no produce una distracción tan acusada y peligrosa.
Se realizaron pruebas experimentales durante las cuales un sujeto voluntario debía controlar un cursor en
una pantalla mediante una palanca de mando, mientras hablaba por teléfono. Después se efectuaron
ensayos más sofisticados en las que los voluntarios se sentaban en un simulador de conducción (PatrolSim
II+ Driver Training Simulator). Dicho simulador, utilizado normalmente por la policía, reproduce la
cabina de un coche patrulla Ford Crown Victoria, incluyendo volante, pedales, llave de contacto, etc. Está
rodeado de pantallas que muestran un ambiente de conducción realista. Los voluntarios conducían
mientras se comunicaban mediante un teléfono móvil con otra persona que se encargaba de hacerlos hablar
y escuchar. La simulación presentó tráfico rodado más o menos denso. En tráfico escaso, no se produjeron
"accidentes", mientras que en tráfico denso, éstos sí ocurrían frecuentemente: los usuarios chocaban con el
automóvil de delante. En otros ocasiones, su comportamiento era como mínimo errático, lo que
compensaban dejando más espacio entre los vehículos. Los investigadores comprobaron que tardaban más
en frenar, frenaban durante más tiempo y tardaban también más en volver a acelerar.
Se ha comprobado que el uso del teléfono no sólo hace más lento nuestro tiempo de reacción. También
inhibe nuestra atención respecto a lo que nos rodea, y disminuye la efectividad de nuestra memoria de
reconocimiento de objetos, así como nuestra memoria subconsciente.
Información adicional en: http://www.utah.edu/unews/releases/03/jan/cellphone.html
Polución en Asia y Australia
Las imágenes enviadas por el satélite Terra muestran el alto grado de contaminación que, procedente de
China y el Sudeste Asiático, avanza hacia el océano Pacífico. También nos enseñan la polución ocasionada
por los incendios forestales que han afectado recientemente a Australia.
Las fotografías han sido tomadas desde el instrumento MOPITT (Measurements of Pollution in the
Troposphere), instalado a bordo del Terra, y han sido procesadas por un equipo de científicos del National
Center for Atmospheric Research (NCAR).
En ellas se aprecian básicamente las concentraciones de monóxido de carbono, un buen indicador del
grado de polución existente sobre una región. La zona asiática observada es conocida por el incremento de
dichas concentraciones a partir del mes de enero, un proceso que se prolonga durante la primavera. Señala
las emisiones procedentes de vehículos motorizados y de actividades industriales, la quema de madera y
otro tipo de vegetación para producir calor, y la limpieza mediante el fuego de terrenos para explotación
agrícola.
Las imágenes de los incendios australianos, por su parte, muestran claramente su posición y su avance.
Dado que los niveles de monóxido de carbono (CO) persisten en la atmósfera durante varias semanas,
pueden utilizarse para marcar el movimiento de las emisiones contaminantes, que a menudo alcanzan el
cristalino aire del Pacífico sur.
Lo más interesante del trabajo realizado por los investigadores del NCAR es la rapidez con la que han
proporcionado los resultados (casi en tiempo real). Ello posibilita hacer seguimientos de las situaciones
contaminantes a medida que se desarrollan.
El CO es un gas contaminante por sí mismo, pero también sirve para señalar la presencia de otros, como el
ozono a un nivel próximo al suelo (smog). Puede asimismo ayudarnos a calcular la presencia de sustancias
que sirven para limpiar contaminantes de forma natural. Por ejemplo, cuando los niveles de CO son altos,
los del radical hidroxilo son más bajos de lo normal, con lo que se eliminan menos contaminantes de la
atmósfera.
Información adicional en: http://earthobservatory.nasa.gov/NaturalHazards/natural_hazards_v2.php3?img_id=5378
Un telescopio de neutrinos
Instalado en el polo sur, investigadores de varios centros utilizan el telescopio AMANDA, una gigantesca
estructura enterrada en el hielo que permite hacen un seguimiento de los neutrinos de alta energía que nos
llegan desde el espacio, identificando su punto de origen. Nos ayudará a entender mejor fenómenos tales
80
AÑOS
2252
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
como los agujeros negros, o las supernovas. Los neutrinos son partículas subatómicas que apenas
interactúan con la materia. La atraviesan fácilmente, por lo que su medición es muy difícil. El telescopio
AMANDA ha sido diseñado para facilitar esta tarea.
Esto es importante, porque de todas las partículas de alta energía que son emitidas en los grandes
fenómenos energéticos del universo, sólo los neutrinos pueden proporcionarnos directamente información
sobre ellos. Invisibles, sin carga y casi sin masa, los neutrinos avanzan a través de la galaxia sin detenerse,
atravesando planetas, estrellas, o campos magnéticos. Ya disponemos de algunos métodos para detectarlos,
pero con el sistema AMANDA podemos además determinar cuál es el fenómeno que los originó.
El detector AMANDA (Antarctic Muon and Neutrino Detector Array) posee una estructura de 400 metros
de alto equipada con 308 sensores ópticos. Operativo desde 1997, fue diseñado para estudiar los neutrinos
de alta energía, los cuales poseen 10.000 veces más energí a que los neutrinos de baja energía. El sistema
está enterrado a 1,5 km bajo el hielo del Polo Sur. Pero no apunta hacia el cielo, sino hacia el interior de la
Tierra, de manera que nuestro planeta actúa como un filtro para otros tipos de radiación. Así pues, desde el
Polo Sur, AMANDA dirige siempre su atención hacia el cielo del hemisferio norte.
Recientes observaciones indican que el detector es capaz de medir la dirección de los neutrinos con una
precisión de 3,5 grados, suficiente como para revelar la fuente que los produjo. Una versión mejorada del
detector, llamada AMANDA-II, operativa desde enero de 2000, podrá aportar diez veces más información
sobre las fuentes de tales neutrinos. Información adicional en: http://today.uci.edu/news/release_detail.asp?key=970
Consecuencias de un terremoto
Gracias a la información proporcionada por un sensor espacial, los investigadores han conseguido estudiar
los efectos de un movimiento sísmico ocurrido en 2001 en la provincia de Gujarat, en el norte de la India,
muy cerca de la frontera con Pakistán.
El instrumento utilizado para las observaciones se llama MISR (Multi-angle Imaging SpectroRadiometer)
y está instalado en el satélite de teledetección Terra. El estudio, en el que han participado científicos
estadounidenses, franceses y alemanes, ha estado dirigido por Bernard Pinty, del Institute for Environment
and Sustainability, del Joint Research Centre de la Comisión Europea, situado en Ispra, Italia.
El terremoto analizado fue uno de los dos más dañinos registrados en la historia de la India. El movimiento
sísmico de Gujarat alcanzó una magnitud de 7,7 en la escala de Richter, el 26 de enero de 2001. Murieron
20.000 personas y 16 millones quedaron afectadas por sus consecuencias.
Tras el terremoto, la población residente informó sobre auténticas fuentes de agua y sedimentos surgiendo
de la tierra. Debido a las fuerzas a las que había sido sometido el suelo, los sedimentos saturados de agua
se licuaron, comportándose más como un líquido que como un sólido. Este material salió a la superficie e
inundó grandes áreas, incluyendo antiguos lechos de ríos. Gracias al sensor MISR, se ha obtenido
información sobre lo ocurrido en zonas inaccesibles. Los científicos han confeccionado un mapa que
muestra lo que pasó y cómo resultó afectada la región. Este tipo de datos podrá utilizarse en el futuro para
detectar lugares donde los equipos de rescate deberían concentrar sus esfuerzos de búsqueda de
supervivientes. Los expertos los utilizan también para validar sus modelos, de manera que puedan aclarar
la relación entre la magnitud de los terremotos y el radio de su influencia. En el caso de Gujarat, los
científicos pudieron investigar en zonas próximas al epicentro (a unos 80 km al este de la ciudad de Bhuj),
pero no en otras más lejanas, ya dentro del territorio pakistaní, por motivos políticos. La información
aportada por el sensor espacial, que no conoce fronteras, ha ayudado a los expertos en su caracterización
del fenómeno. El MISR encontró signos de liberación de agua y sedimentos debido a la compresión y la
licuefacción incluso a 200 km del epicentro.
A pesar de que han transcurrido varios meses desde que ocurriera el terremoto, el agua liberada en la
superficie, con un alto contenido en sal, dejó a ésta en el suelo al evaporarse, por lo que sus efectos aún son
visibles. Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0115gujarat.html
La actividad de M83
El telescopio espacial Chandra X-ray Observatory nos ha enviado una imagen de la galaxia espiral M83
que muestra numerosas fuentes de rayos-X distribuidas a lo largo de su disco. Se trata de estrellas de
neutrones y agujeros negros, restos de estrellas que murieron en el pasado. La imagen también muestra una
región central brillante, la consecuencia visible de un estallido de formación estelar que se cree comenzó
80
AÑOS
2253
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
hace unos 20 millones de años, en el marco temporal de la galaxia. La observación revela que la región
central del cuerpo galáctico contiene una mucho mayor concentración de estrellas de neutrones y agujeros
negros que el resto de la galaxia. Dicha región, además, está rodeada por una nube de gas con una
temperatura de unos 7 millones de grados Celsius.
Todo indica que el núcleo está experimentando un período de intensa formación estelar, sobre todo de
estrellas masivas que provocarán en el futuro más explosiones supernova y la creación de más estrellas de
neutrones y agujeros negros. La misma actividad podría ser la responsable de la nube de gas caliente. Los
astrofísicos han localizado en ella un exceso de átomos de carbono, neón, magnesio, silicio y azufre. Estos
elementos proceden de la masa evaporada procedente de estrellas masivas, y del material expulsado por las
explosiones supernovas. También se ha localizado gas a una temperatura ligeramente inferior, unos 4
millones de grados Celsius, a lo largo de los brazos de la galaxia espiral. Es posible pues que en ellos la
formación de estrellas se esté llevando a cabo de una forma más contenida. Efectivamente, la imagen del
Chandra muestra en esta región un menor número de fuentes brillantes de rayos-X, en comparación con el
núcleo. Inf. adicional en: http://www1.msfc.nasa.gov/NEWSROOM/news/photos/2003/photos03-010.html
Breves del Mundo de la Ciencia
LLUVIA ÁCIDA EN LOS BOSQUES: Una nueva hipótesis presentada por científicos del Woods Hole
Research Center, la University of Arizona y la University of Maine podría ayudar a explicar cómo
reacciona químicamente la lluvia ácida en los suelos forestales.
SOCIEDAD MIXTA: Para un futuro no muy lejano es fácil pensar en una sociedad mixta en la que se
combinarán personas con programas informáticos.
MICROFONOS PARA SALVAR VÍCTIMAS: Ingenieros de la Penn State University, después de trabajar
como voluntarios en la tragedia del World Trade Center, han concluido que el uso de micrófonos lanzados
entre los escombros de un edificio que ha colapsado podría ayudar a localizar víctimas a pesar del nivel de
ruido ambiental.
SENSORES MAGNÉTICOS A ESCALAS NANOMÉTRICAS: Se ha perfeccionado un método de
fabricación más simple y fiable que permitirá producir sensores magnéticos diminutos, abriendo las
puertas a la posibilidad de incrementar la capacidad de almacenamiento de los discos duros en un factor de
1.000.
ACELERANDO LA LIMPIEZA DEL CHAPAPOTE: Un equipo de investigadores de la Universitat
Autònoma de Barcelona ha limpiado en el laboratorio superficies manchadas con el fuel procedente del
Prestige, el chapapote, mediante una disolución de agua oxigenada y una sal metálica.
EL SECRETO DE MATUSALEN: Investigadores de la University of Southern California y de la Harvard
Medical School han estudiado los genes que incrementan la esperanza de vida en la mosca de la fruta,
esperando comprender mejor el proceso del envejecimiento.
NUEVOS SENSORES PARA LA DETECCIÓN DE GLUTEN: La Unidad de Análisis de Gluten del
Centro Nacional de Biotecnología ha desarrollado varios métodos para la detección de gluten y, desde hace
unos 4 años, ofrece a las empresas el servicio de detección de gluten en los alimentos.
COMO CAUSA EL SOL CÁNCER DE PIEL: Un nuevo estudio realizado en el Dana-Farber Cancer
Institute ha hecho un descubrimiento que podría ayudar a resolver uno de los misterios de la biología del
cáncer: cómo una quemadura solar producida en la niñez durante un día en la playa puede desarrollarse
décadas después formando un tumor maligno.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
CONSTRUCTORES DE MÁQUINAS
El hecho técnico más patente de los últimos mil años ha sido, incuestionablemente, el
desarrollo de las máquinas. Aunque una definición precisa de lo que es una máquina se
nos escapa, creo que podemos aceptar la siguiente aproximación:
80
AÑOS
2254
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
Las máquinas se han desarrollado partiendo de un complejo de
agentes no orgánicos para convertir la energía, para realizar un
trabajo, para incrementar las capacidades mecánicas o sensoriales
del cuerpo del hombre o para reducir a un orden y a una regularidad
mensurable los procesos de vida. (Lewis Mumford, Técnica y
civilización, Alianza Universidad, 1971.)
Desde la rueda y la polea que incrementan la capacidad de locomoción y la fuerza
muscular, hasta los modernos autómatas que, en un sentido nada metafórico, multiplican
el potencial de la razón humana, puede decirse que las máquinas son “organismos
artificiales” proyectados para realizar ciertos tipos de funciones.
La cúspide de la evolución de las máquinas la constituyen los autómatas. Entre los más
conocidos se cuentan las computadoras comunes y corrientes que, en sus múltiples usos,
han pasado a formar parte de nuestra vida cotidiana. Ya están entre nosotros las
computadoras de la quinta generación a la que pertenecen las computadoras “de bolsillo”
(pues literalmente puede uno cargarlas en la bolsa), capaces de hacer lo mismo que una
de la primera generación que ocupaba un espacio aproximado de 80 metros cúbicos.
Además de esta maravilla, se han creado robots para ser empleados en la industria, así
como otros tipos de autómatas con funciones especializadas; aquí cabe una
puntualización importante, una máquina se define más por lo que hace que por su
constitución material, un programa de computadora escrito en una hoja de papel tiene
tanto derecho a llamarse “máquina” como el robot que ensambla automóviles en una
fábrica.
Dos precursores que han contribuido grandemente al desarrollo de los autómatas
modernos son Charles Babbage y Alan Turing.
Charles Babbage (1792-1871) fue un matemático e inventor inglés que ideó en l835 la
“máquina analítica”, concebida para combinar cálculos aritméticos con procesos de
decisión basados en las propias operaciones internas de la máquina. El diseño
consideraba dos partes principales: una “memoria”, que podía almacenar mil números de
cincuenta cifras cada uno, y una “unidad de operación”, a través de la cual se dirigía la
operación de la máquina. Para alimentar información a la máquina Babbage planeó usar
las tarjetas perforadas que se empleaban para dirigir y controlar la operación de telares.
El inventor también consideraba necesario que la máquina imprimiera resultados
intermedios y finales.
Aunque otros anteriormente, Pascal en 1642 y Leibniz en 1671, habían construido
calculadoras mecánicas, se considera que la máquina analítica fue la primera en
incorporar los principios que rigen la operación de las computadoras modernas. Babbage
incorporó procesos de decisión y ramificación de instrucciones que se adelantaron por
mucho a su tiempo. Sin embargo, la máquina analítica nunca fue concluida. Por una
parte, la tecnología no era adecuada, la máquina era totalmente mecánica, formada por
palancas u engranes, de tal manera que los problemas de su construcción dada su
complejidad, eran prácticamente irremontables; por otra parte, su costo era elevadísimo y
el constructor nunca pudo conseguir fondos suficientes para ver realizado su proyecto,
pero en su diseño se encontraban los principios que, en la era electrónica, harían posible
la construcción de computadoras.
Un siglo más tarde, en el inicio de la era electrónica, el matemático Alan M. Turing
(l912-1954) propuso el diseño de una máquina que se conoce como la máquina de
Turing. A diferencia de la máquina de Babbage la de Turing no estaba construida por
80
AÑOS
2255
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 190/449
palancas y engranes, o circuitos electrónicos, sino que era una máquina abstracta, es
decir, un modelo universal de máquina. Esta máquina podía representar lo que cualquier
otra máquina pudiera hacer. Y, ¿en qué consistía esta poderosa máquina?. Era un
pequeño instrumento que operaba sobre una cinta de papel dividida en cuadritos; el
instrumento se movía sobre la cinta de cuadrito en cuadrito; en cada ocasión podía leer lo
que estaba en el cuadro, escribía algo en él, o se cambiaba en el siguiente cuadro. Lo
asombroso de este autómata es que con esos principios tan sencillos podían derivarse
demostraciones matemáticas sobre lo que un autómata puede hacer o no.
La máquina de Turing, en síntesis, era una de las herramientas teóricas más poderosas
para entender el principio del funcionamiento de los autómatas; quizás no directamente
en cuanto a su construcción física, sino respecto a las operaciones que era capaz de
ejecutar. A Turing no sólo le interesó el aspecto abstracto de las máquinas; en l945
participó en el diseño, construcción y empleo de una de las primeras computadoras.
Tanto Babbage como Turing se significaron por sus avanzadas concepciones; el primero,
por haber previsto los principios que harían posible la construcción de computadoras un
siglo más tarde, y el segundo, por haberse planteado la cuestión de hasta dónde llegaría
el desarrollo de los autómatas. En un artículo publicado en l950, Turing se hizo la
pregunta “¿Puede pensar una máquina?”. Como respuesta adelantó definiciones,
conjeturas...Su temprana muerte a los 42 años le impidió ver realizadas muchas de sus
predicciones.
En la siguiente década, otro grande las matemáticas, Johhan Von Neumann, se
preguntaba no sólo si los autómatas podían pensar, sino también si podrían
autoorganizarse y reproducirse. La respuesta es sí, y como legado, Von Neumann, dejó
plasmadas algunas ideas sobre los principios que harían posible que un autómata se auto,
organice y se reproduzca. ¿Cuánto tiempo habrá que esperar para que estos principios se
concreticen?
El Cabuche (crónicas de la Facultad de Ciencias)/ En la esquina
En una de mis visitas de trabajo al Departamento de Físico Matemáticas, platicando con el maestro Ponce
González alumno de la vieja guardia de la escuela de física, aquella que estudió todavía en el Edificio
Central, justo en donde actualmente se encuentra las oficinas de la rectoría, me platicaba parte de sus
innumerables anécdotas referentes a la escuela; en particular la relacionada con el antes Secretario de
Hacienda y hoy convertido en Secretario de Relaciones Exteriores, al típico estilo priísta, Ernesto Derbez,
quien a finales de los sesenta terminaba sus estudios de economía en la universidad potosina, misma que a
principios de este año cumpliera sus pioneros ochenta años de autonomía universitaria. En aquellos años, si
la escuela contaba con un escaso número de alumnos, no se diga de mujeres, la primera mujer graduada a
mediados de los setenta fue Carmen Estela Macias, también profesora del Departamento, ahora jubilada.
Sin embargo, no obstó para que Derbez iniciará sus planes de arrebatarle a la escuela a una de sus alumnas
y a la ciencia a una física en ciernes. Según el maestro Ponce, Derbez llegaba a las inmediaciones del
Edificio Central, la escuela de economía, creo, ya se encontraba en el Parque de Morales, a esperar a una de
las estudiantes de la escuela de física, que respondía al nombre de Rosa, muy guapa ella según la
descripción de Ponce. Delgaducho y con sus patas de pato, a decir de Ponce González, y en una de las
esquinas del Edificio Central acechaba a Rosa tratando de hacerle la corte, al parecer con éxito pues poco
tiempo después, resultaron novios y a la postre, esposos; razón que propició que la entonces estudiante
Rosa María Aranda Gómez, abandonara las filas de la física. Al parecer Derbez se mudó ya titulado a la
capital chilanga llevándose a Rosa como esposa.
Siempre que te pregunto/que cómo, cuándo y dónde,/tú siempre me respondes/quizás, quizás,
quizás/Y así pasan los días/y yo desesperando/y tú,tú contestando/quizás, quizás, quizás
80
AÑOS
2256
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.191, 10 de febrero de 2003
No. acumulado de la serie: 450
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
El 17 de febrero, de hace 403
años, Giordano Bruno se
convirtió en uno de los primeros
mártires de la ciencia renacentista al ser quemado vivo en
una plaza de Roma. La orden vino directa de Clemente
VIII, pontífice de la Iglesia romana, precisamente en el
año del jubileo de 1600. El motivo fueron sus puntos de
vista filosóficos sobre Dios, Cristo y el Espíritu Santo.
Filippo Bruno nació cerca de Nápoles, en 1558, y al entrar
a estudiar con los dominicos se cambió el nombre a
Giordano. Estudió filosofía griega y empezó una vida de
rebeldía. Era característico de la época aprender sin
razonar (cosa que aún se estila); sin embargo, Bruno
siempre puso por delante el análisis, lo que le provocó
innumerables problemas. Al ordenarse como sacerdote
dominico tuvo que huir de Italia, en 1576, para evitar un
juicio en su contra. Sus viajes lo llevaron a Francia e
Inglaterra, donde empezó su carrera de escritor, filósofo
y científico.
Se dio cuenta de que las formulaciones religiosas no
cabían en el seno del método científico o del
descubrimiento empírico. Al no tener un techo que limite
el número de estrellas, le pareció incongruente tener un
sistema dogmático de pensamiento que aprisionara el
libre albedrío, tan necesario para el progreso y la
realización humana.
Obviamente, ese regreso a filosofías precristianas, ahora
soportadas con algunas observaciones científicas, lo
pusieron en contra de los dogmáticos oficialistas e
inquisidores. S u regreso a Italia fue planeado por los
religiosos. Y bajo invitación del noble veneciano Giovanni
Moncenio, Bruno retornó para ser apresado en 1592 y
juzgado por herejía. Fue encarcelado por siete años tiempo durante el cual se le mantuvo sin lápiz ni papel- y
sacado de la mazmorra sólo para ser quemado en la
hoguera, amordazado y con un clavo en la lengua.
Años más tarde, un juicio similar le fue practicado a
Galileo por asegurar que la Tierra se movía. Ya con la
experiencia de Bruno, éste no ratificó su observación por
temor a la Inquisición. Y aunque casi cuatro siglos
después la Iglesia admitió su error en el caso de Galileo,
no fue así en el de Bruno. Sin embargo, en 1889 se logró
erigir una estatua precisamente en el Campo dei Fiori,
donde fue quemado. En ese lugar, cada 17 de febrero excepto por los años del fascismo- se ha recordado la vida
de Giordano Bruno.
El Hijo de El Cronopio No. 191/450
El estudio de su obra, más emocional que científico
Giordano Bruno, autor despreciado: expertos
Un libro editado por la Facultad de Filosofía y Letras de la UNAM recupera las ideas del
pensador italiano
MONICA MATEOS-VEGA. Periódico La Jornada
Acerca de la filosofía de Giordano Bruno (1548-1600) existen diversos puntos de vista.
Hay quienes reclaman la falta generalizada de reconocimiento al pensador italiano que
inquietó a sus contemporáneos con sus ideas, y quienes consideran que el estudio de su
obra está impregnado más por un tono emocional que científico.
Todas las opiniones en torno al autor de Los heroicos furores que convergieron en el
simposio Giordano Bruno 1600-2000, organizado hace dos años por el Instituto de
Investigaciones Filosóficas de la UNAM con motivo del cuarto centenario de la
ejecución del filósofo italiano, conforman ahora un libro que incluye trabajos que acuden
a fuentes renacentistas.
El volumen fue coordinado por Laura Benítez y José Antonio Robles, quienes señalan en
el prólogo que el texto de Bruno más citado por los investigadores compilados es el De
la causa, principio y uno, "y el menos familiar, tal vez por encontrarse en su obra latina,
es el De triplici minimo. Esta situación es indicativa de que hace falta una importante
labor de rescate e indagación que nos permita entender mejor las propuestas brunianas y
la índole del rechazo de sus detractores".
En las páginas de Giordano Bruno. 1600-2000 (editado este año por la Facultad de
Filosofía y Letras de la UNAM) se presenta un ensayo de Ramón G. Mendoza que
buscan desentrañar el concepto de intellectus universalis de Bruno, además, se contrasta
el pensamiento del filósofo nacido en Nola con el de Spinoza, Leibniz, los atomistas de
inicios del siglo XVII y Descartes.
Junto a los temas de filosofía natural, añaden Benítez y Robles, no puede faltar el de la
magia en Bruno, "aspecto tan característico como debatido del pensamiento
renacentista".
En el texto Fantasía, imaginación y vínculos mágicos en Giordano Bruno, el académico
Ernesto Priani Saisó anota que Bruno consideraba: "todos los poderes mágicos, activos y
pasivos, y sus especies, dependen de los vínculos mágicos".
En esta afirmación, añade Priani, "el énfasis no está puesto en el control de los poderes
de la magia, los instrumentos que los magos utilizan para hacer sus encantamientos, sino
en los vínculos.
"Los vínculos se presentan como momentos específicos dentro del flujo del tiempo, que
hacen de la magia no un dominio sobre las fuerzas físicas, espirituales o divinas, sino la
capacidad de percibir y reconocer la naturaleza de esas conjunciones".
Al respecto, Bruno escribe en De vinculiis in genere: "Incluso un estúpido y romo de
pensamiento puede ver la belleza de las cosas naturales y artificiales, aunque no pueda, al
mismo tiempo, asir y admirar el talento que ha generado todas las cosas. Para él, 'las
estrellas no hablan de la gloria de dos'".
Giordano Bruno nació en plena etapa de madurez del Renacimiento. Diversos filósofos
afirman que ningún otro pensador de la época expresó realidades contrapuestas como
80
AÑOS
2258
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
Bruno. "En algunos aspectos (sus ideas) conservan todavía rasgos medievales, mientras
que en otros es plenamente moderno, más aún, revolucionario".
En Bruno, agregan, "estamos ya ante un nuevo sistema filosófico con fuertes bases
argumentativas y empíricas, capaces de sustituir, como en efecto ocurrirá, las
concepciones aristotélicas y aristotélico-tomista como sustento filosófico general, como
estructura de soporte de la filosofía y la ciencia modernas".
Pero la libertad de pensamiento que Bruno expresó tuvo un precio. Su independencia de
criterio y su franqueza de palabra, aunadas a su fama de mago, "se convirtieron en una
fórmula explosiva que no pudo controlar la disciplina concentual".
Después de haberse doctorado (1572) y de dos procesos dentro del convento, bruno huyó
a Roma (1576) y luego al norte de Italia, comenzando así un largo peregrinaje que no
paró hasta su encarcelamiento (1592) en Venecia y luego de nuevo en Roma.
Giordano Bruno fue ejecutado el 17 de febrero de 1600 en la plaza romana de Campo di
Fiori.
Mauricio Schoijet concluye: "Bruno fue un personaje de gran audacia intelectual y
política, que mostró un gran valor al desafiar a los poderes dominantes en su época, y
una gran entereza frente a la persecución.
"La recuperación de las dimensiones de su figura debemos hacerla fundamentalmente
dentro del contexto de los discursos, las preocupaciones y las luchas de su tiempo y no
como parte de una visión teleológica centrada en el presente.''
Noticias de la Ciencia y la Tecnología
Sobre la teoría del todo
El brillante físico Stephen Hawking participó recientemente en una videoconferencia con alumnos del
Massachusetts Institute of Technology, durante la cual advirtió que la búsqueda de una teoría completa que
describa el universo podría llegar a ser infructuosa.
"Quizá dicha teoría no es posible", concluyó. Algo que probablemente decepcionaría a mucha gente,
incluido a Hawking, pero el científico, pensándolo mejor, dijo que ello podría llegar a ser beneficioso,
puesto que así siempre permanecerá el reto del descubrimiento, impidiendo que la ciencia se fosilice y
desaparezca.
Durante la videoconferencia realizada entre Gran Bretaña y Estados Unidos, algo accidentada debido a
problemas con la imagen y el audio, Hawking dio una visión general de la historia de la física de
partículas, fijándose especialmente en los científicos y las teorías claves, desde Aristóteles a Stephen
Weinberg.
Según el investigador británico, las ecuaciones de Maxwell y Dirac ya gobiernan la mayor parte de la
física, y toda la química y la biología. Así pues, nada debería impedirnos, utilizándolas, aprender a predecir
el comportamiento humano. Sin embargo, el cerebro del Hombre contiene demasiadas partículas, lo que
imposibilita, al menos de momento, aplicar dichas ecuaciones y obtener resultados. Un primer paso en esa
dirección podría ser, en el futuro, predecir el comportamiento de un gusano nematodo, cuyo número de
neuronas es infinitamente inferior al nuestro. Si lo lográramos, sería "muy reconfortante".
Hawking opina que todas las teorías desarrolladas hasta ahora para explicar el universo son inconsistentes
e incompletas. Un matemático checo llamado Kurt Gödel ha mostrado que dentro de cualquier rama de las
matemáticas, algunas proposiciones no pueden ser demostradas como verdaderas o falsas. Es posible pues
que sea inviable obtener una teoría "del todo".
El científico británico es muy conocido por sus trabajos sobre agujeros negros, y por ser el autor del libro
"A Brief History of Time". Actualmente es profesor de matemáticas en la University of Cambridge.
Información adicional en: http://web.mit.edu/newsoffice/nr/2003/hawking2.html
80
AÑOS
2259
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
Cuidado con los viejos ordenadores
Si va a tirar su ordenador a la basura, su disco duro, aunque haya sido borrado, aún podría contener
información confidencial, como números de tarjetas de crédito o historiales médicos. Dos estudiantes del
Massachusetts Institute of Technology han descubierto que esta información puede extraerse fácilmente.
Los dos estudiantes revisaron 158 discos duros desechados, en el Laboratory for Computer Science del
MIT, y hallaron en ellos un total de 5.000 números de tarjetas de crédito, registros financieros personales y
corporativos detallados, numerosos historiales médicos, gigabytes de correo personal e incluso imágenes
de dudoso gusto.
Los discos fueron comprados por menos de 1.000 dólares en el sitio de subastas eBay y en
establecimientos de venta de material informático usado. De los 158 discos duros examinados, sólo 12
habían sido adecuadamente borrados.
No es la primera vez que oímos que alguien ha comprado un ordenador viejo y ha encontrado en él
información de su anterior propietario. Pero la escala del problema es mayor de lo que parece, explica
Simson Garfinkel. Por eso, tanto Garfinkel como Abhi Shelat decidieron estudiar la cuestión.
Sus conclusiones no podrían ser más demoledoras. El mercado de segunda mano está inundado de
informaciones confidenciales. Más de 150 millones de discos duros fueron retirados del servicio original
en 2002, sólo en Estados Unidos.
De los discos que compraron Garfinkel y Shelat, 129 funcionaron a la primera al ser montados en un
ordenador. De éstos, en 28 no se había hecho ningún intento por borrar la información que contenían. Uno
de ellos, por ejemplo, procedía de algún cajero automático de Illinois, y contenía el registro de un año de
transacciones financieras.
Muchos de los discos a los que se les había intentado borrar la información, por otro lado, aún la
contenían. Los comandos simples de borrado no la eliminan sino que sólo modifican la tabla de contenidos
del disco, de manera que es posible recuperar los archivos con el comando contrario de restauración.
Un 60 por cierto de los discos fueron formateados antes de ser vendidos, pero incluso esta operación,
efectuada desde el sistema operativo Windows, no rescribe cada bloque de memoria. El comando de
formateo sólo lee cada bloque y se asegura que aún funciona. Por eso, uno de los discos formateados
tenían todavía 5.000 números de tarjetas de crédito.
Aproximadamente el 40 por ciento de los discos examinados no contenían archivos. Pero aún fue posible
extraer datos de ellos, leyendo cada bloque del disco mediante herramientas especiales.
Información adicional en: http://web.mit.edu/newsoffice/nr/2003/diskdrives.html
Una tormenta por dentro
Un médico obtiene mucha información si observa el interior de su paciente a través de tecnologías
modernas como CAT o MRI. De la misma manera, los meteorólogos han estudiado cómo evoluciona una
tormenta tropical utilizando equipos de radar que proporcionan una interesante imagen de su anatomía.
Estas observaciones ayudarán a mejorar los modelos físicos sobre estos fenómenos, a calcular con mayor
precisión las precipitaciones y a hacer más seguro el cielo para los aviones.
El proyecto se inició en febrero de 1999, cuando David Atlas y sus colegas del Goddard Space Flight
Center recogieron información de una tormenta poco usual sobre la selva del Amazonas. Los científicos
han estado todo este tiempo analizando los resultados y elaborando una imagen de cómo funciona el
interior de una tormenta de este tipo.
Las tormentas forman precipitación de dos maneras posibles: creando gotas de agua a baja altitud, o
partículas heladas mucho más alto en la atmósfera. La tormenta estudiada era especial porque mostraba
ambos procesos operando al mismo tiempo, a medida que evolucionaba.
En los trópicos, el aire está caliente incluso a una altitud considerable, de manera que la lluvia puede
producirse en nubes altas, sin que las gotas se congelen antes. Durante la etapa de lluvia cálida, sólo las
gotas más grandes caen lo bastante rápido como para superar la presión de las corrientes ascendentes. Las
más pequeñas son transportadas muy arriba en las nubes, donde se congelarán para formar nieve y granizo.
Así, esta tormenta tenía corrientes ascendentes muy poderosas, y formó precipitación helada en sus niveles
más altos incluso mientras dejaba escapar lluvia líquida mucho más cerca del suelo.
Para observar la estructura de la tormenta, se utilizó un avión equipado con un radar. Éste era lo bastante
sensible como para detectar los diferentes tipos de partículas que se encuentran desde la base de la
80
AÑOS
2260
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
tormenta hasta su parte alta, a unos 14 km sobre el suelo de la jungla. En realidad, se usaron diferentes
tipos de radar para observar distintos aspectos de la tormenta. Unos se ocuparon de medir los tamaños de
las partículas y la cadencia de precipitación, otros el movimiento de las partículas, etc.
El estudio ayudará a validar la información que nos suministra la TRMM (Tropical Rainfall Measuring
Mission), una misión espacial que mide las precipitaciones en las zonas tropicales.
Información adicional en: http://www.gsfc.nasa.gov/topstory/20021215convective.html
Relación entre los impactos extraterrestres y la actividad volcánica
Estudios geológicos indican que diez episodios de impactos de cuerpos ext raterrestres, como meteoritos o
cometas, coincidieron con nueve grandes episodios de vulcanismo terrestre. Los científicos creen que los
primeros pueden influir significativamente en los segundos.
Los trabajos los han realizado Dallas Abbott, del Lamont-Doherty Earth Institute, y Ann Isley, de SUNY
Oswego. Ambos reunieron una base de datos de los impactos terrestres acaecidos durante los últimos 4.000
millones de años. Para datarlos utilizaron material encontrado en cráteres conocidos, que se formó durante
el propio impacto, capaz de fundir la roca y de lanzar los restos a altas temperaturas y presiones. Después,
analizaron la actividad del vulcanismo normal e intenso durante el mismo período, y comprobaron que
había una correlación entre los dos fenómenos en nueve de diez casos. Es decir, nueve de los diez picos de
impacto se corresponden a picos de vulcanismo en la Tierra. De la misma manera, hay dos importantes
períodos de baja actividad volcánica que coinciden con épocas de casi nulos impactos extraterrestres.
Comprobada la relación, aún es necesario conocer qué mecanismos intervienen de manera que los grandes
impactos de objetos exteriores sean capaces de intensificar el vulcanismo. Abbott e Isley proponen tres
posibilidades: que los impactos agrieten la corteza, permitiendo que la roca fundida atrapada debido a la
tensión tectónica pueda ascender fácilmente; que los impactos produzcan grandes fisuras en la superficie
terrestre, permitiendo que se formen nuevos bordes de placas; o que los impactos provoquen la mezcla del
núcleo fundido con el material del manto, incrementando la cantidad de calor disponible para que este
último se funda también, intensificando el vulcanismo.
Si todo lo relatado es cierto, y conociendo las teorías de que los impactos extraterrestres contribuyeron a
las grandes extinciones de especies vivas, es lícito preguntarse si sobre estas últimas influyeron sólo los
impactos o también el vulcanismo.
Información adicional en: http://www.earthinstitute.columbia.edu/news/2003/story01-17-03.html
El clima del pasado nos habla del futuro
Un científico de la Purdue University ha combinado el estudio de los sedimentos de antiguos lagos y las
simulaciones por ordenador para concluir que el fenómeno bautizado como El Niño podría reaccionar ante
el calentamiento global de una manera diferente a como las actuales teorías predicen.
Matt Huber ha simulado el clima del pasado mediante un modelo informático, con el objetivo de estudiar
la reacción del océano Pacífico tropical. Esta región juega un papel fundamental en la extracción de calor
de la atmósfera. Según el análisis realizado, aunque esta zona no puede absorber una cantidad ilimitada de
calor atmosférico, incluso cuando el clima se torna más cálido el océano Pacífico tropical mantiene su
habilidad de retirar periódicamente dicho calor. Para comprobar esta teoría, se han estudiado sedimentos
procedentes de lagos primitivos, de unos 45 millones de años de antigüedad. El resultado sugiere que
debería volverse a examinar la relación entre el calentamiento global y El Niño.
A pesar de todo, Huber insiste en que, aunque el Pacífico tropical sea menos susceptible a los efectos del
cambio climático de lo que creíamos, aún debemos mostrarnos preocupados por este último.
La oscilación El Niño consiste en un calentamiento de las capas superficiales del océano Pacífico oriental,
algo que ocurre cuando los vientos predominantes del oeste en el Pacífico sur se calman, permitiendo que
las aguas cálidas del Pacífico occidental se muevan hacia el este. De la misma manera, en un año en el que
domine la oscilación llamada La Niña, los vientos acumularán agua caliente en el Pacífico occidental y
arrastrarán agua más fría desde las profundidades en el este. Durante los últimos milenios, el Pacífico ha
alternado entre estos dos estados, oscilando de una forma irregular pero básicamente estable.
Algunos científicos habían propuesto que el actual calentamiento global podría llegar a detener esta
oscilación. Si ello ocurriera, la Tierra podría verse arrastrada hacia un efecto invernadero imparable. Pero
Huber ha revisado evidencias históricas para llegar a una conclusión distinta. Ha analizado el clima de la
80
AÑOS
2261
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
Tierra cuando éste era mucho más cálido (la época llamada Eoceno, hace casi unos 50 millones de años) y
ha utilizado el modelo de ordenador para simular el comportamiento del océano Pacífico en dicha época.
Según los resultados, cuando el clima global era mucho más cálido que el actual, el Pacífico tropical
oriental se encontraba aún relativamente frío. Las teorías actuales decían lo contrario. No es que dichas
teorías fueran incorrectas, sino que simplificaron demasiado el problema. No hay que considerar un océano
de dos capas (la superior absorbe calor y la inferior se lo lleva), sino un océano con una tercera entre las
anteriores. Esta capa es la clave de todo, y Huber cree que se mantiene fría incluso aunque aumenten las
temperaturas por encima y por debajo de ella.
Información adicional en: http://news.uns.purdue.edu/UNS/html4ever/030210.Huber.elnino.html
Afrontando el problema de los NEOs
El informe de un reciente taller de trabajo realizado por expertos en NEOs (objetos extraterrestres cercanos
a la Tierra), recomienda llevar a cabo una investigación que ayude a determinar la población y la densidad
física de estos cuerpos que podrían colisionar contra nuestro planeta, al menos de todos aquellos que
poseen un diámetro de más de 200 metros.
En estos momentos se conocen unos 2.225 NEOs, la mayoría detectados mediante sistemáticas
observaciones con medios ópticos. Sus diámetros oscilan entre los 10 metros y los 30 kilómetros. Sin
embargo, los científicos creen que la población de NEOs podría estar compuesta por un millón de cuerpos,
y también es conveniente advertir que apenas conocemos datos físicos de tamaño y composición de unos
300 objetos. Es obvio que estamos aún muy lejos de conocer cuál es el verdadero peligro que suponen para
nosotros.
A pesar de todo, no todos los NEOs son letales. Sólo aquellos que sobrepasan el kilómetro de diámetro
producirían una catástrofe global tras un impacto contra la Tierra. Podrían existir entre 900 y 1.230
cuerpos de este tipo en órbitas próximas. Teniendo en cuenta que el actual programa de exploración y
detección, el Spaceguard Survey, tiene como objetivo detectar el 90 por ciento de tales objetos de más de 1
km de diámetro antes de 2008, se puede decir que estamos en el buen camino.
Ahora bien, hay muchos asteroides que siendo más pequeños aún podrían causar un daño importante, por
lo que los expertos recomiendan catalogar todos los NEOs hasta un diámetro de 200 metros. Este objetivo
estaría dentro de las capacidades de los nuevos telescopios propuestos, como el Large Synoptic Survey
Telescope y el sistema telescópico PanStarrs. Los radares también contribuirán en la identificación de sus
características físicas.
Pero el trabajo no termina en la simple tarea de catalogación. En realidad, se recomiendan cinco estrategias
de trabajo: una más completa y precisa revisión de las órbitas de los objetos potencialmente peligrosos; la
caracterización de las propiedades físicas de una amplia gama de asteroides y cometas; una mejor
educación pública sobre los riesgos que el fenómeno supone; una investigación de laboratorio más intensa
y completa; y los primeros experimentos físicos alrededor de un plan realista que permita interceptar y
desviar un futuro cuerpo en ruta de colisión.
Si queremos hacer todo esto con un gasto anual semejante al de una misión espacial (unos 300 millones de
dólares), se necesitarán unos 25 años para completar todas estas propuestas.
Información adicional en: http://www.noao.edu/outreach/press/pr03/pr0303.html
Retrato de un Universo joven
Después del COBE, llegó el MAP. El ahora llamado Wilkinson Microwave Anisotropy Probe, un satélite
diseñado para medir el fondo cósmico de microondas, nos ha proporcionado la imagen más clara del
aspecto del Universo cuando éste era extraordinariamente joven.
Después de 12 meses de observaciones, los expertos que controlan el WMAP han confeccionado un mapa
de todo el cielo que muestra el "resplandor" de la gran explosión que llamamos Big Bang y que creemos
dio origen al Universo. Este resplandor no resulta apreciable en la banda óptica, en los infrarrojos,
ultravioleta o en otros segmentos del espectro electromagnético, pero sí en las microondas. Por eso el
WMAP es un vehículo con sensores capaces de medir el fondo cósmico de microondas.
El satélite COBE nos proporcionó una imagen interesante de este fondo de microondas hace años, pero sus
instrumentos no eran tan precisos como los del WMAP. Por eso, la imagen que ha producido este último
parece más "enfocada" que la del anterior. Para los cosmólogos, estamos ante una mina de oro que nos
80
AÑOS
2262
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
aportará mucha información. Por ejemplo, ya hemos descubierto en estos datos (con sorpresa) que la
primera generación de estrellas empezó a brillar en el Universo sólo unos 200 millones de años después del
Big Bang, mucho antes de lo que creíamos. Al mismo tiempo, el nuevo retrato aporta nuevas pruebas sobre
la edad actual del Universo (unos 13.700 millones de años), reduciendo nuestro margen de error.
Los astrofísicos, a la luz de los resultados, confirman que las teorías del Big Bang y de la inflación siguen
siendo correctas. Los contenidos del Universo incluyen un 4 por ciento de átomos (materia ordinaria), un
23 por ciento de un tipo desconocido de materia oscura, y un 73 por ciento de una misteriosa energía
oscura. Esta última actúa como una especie de fuerza antigravitatoria que posibilita que el Universo no
sólo se expanda, sino que además esta expansión se esté acelerando.
La luz de microondas que vemos reflejada en la imagen ha viajado unos 13.000 millones de años hasta
llegar a nosotros. En ella se aprecian patrones infinitesimales que marcan las semillas de lo que más tarde
se convertirá en cúmulos de galaxias y en la vasta estructura que vemos a nuestro alrededor. Estos
patrones, tal y como eran unos 380.000 años después del Big Bang, son diferencias de temperatura en la
luz de microondas que bañaba todo el Universo. En la actualidad, la temperatura del fondo de microondas
se ha reducido mucho, hasta un promedio de 2,73 grados por encima del cero absoluto. El WMAP ha
conseguido resolver ligerísimas fluctuaciones de temperatura, que varían sólo unas millonésimas de grado,
una precisión muy superior a la del COBE.
A pesar del éxito obtenido, el WMAP continuará observando el fondo cósmico de microondas durante tres
años más, aportando datos adicionales sobre la teoría de la inflación y la naturaleza de la energía oscura. El
satélite, lanzado el 20 de junio de 2001, se halla girando alrededor del punto estable de libración Lagrange
2, a 1,5 millones de kilómetros de la Tierra.
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0206mapresults.html
El caso de las nubes desaparecidas
Vapor de agua y nubes difíciles de detectar, hasta ahora ocultos para la mayoría de sensores atmosféricos,
podrían estar jugando un importante papel en el clima global. Un paquete de instrumentos desarrollado por
el National Center for Atmospheric Research ha conseguido poner de manifiesto estas estructuras y
analizarlas.
Junhong Wang y su equipo de científicos prepararon los sensores con el objetivo de caracterizar la región
situada entre los 8 y los 14 km de altitud. En esta zona, se detectaron capas de humedad (lo que sugiere la
presencia de nubes cirrus de alto nivel) no observadas por los globos meteorológicos normales y otros
instrumentos.
Estas nubes probablemente tienen poca influencia en las predicciones meteorológicas diarias, pero su
omisión podría estar perjudicando nuestra visión a largo plazo del clima. En general, las nubes cirrus
tienden a calentar el planeta, ya que permiten que la luz solar llegue a la superficie, pero atrapan la
radiación emitida desde ella.
A tales altitudes, incluso pequeñas cantidades de vapor de agua y nubes cirrus son extremadamente
importantes para el clima, ya que influyen en el equilibrio energético de la Tierra. Durante décadas se han
estado utilizando los datos de las radiosondas para alimentar los modelos de climas pasados y futuros. Es
posible que durante todo este tiempo se haya estado subestimando la cantidad de nubes cirrus en la
atmósfera global, con lo que los resultados no pueden ser exactos.
Wang y sus colegas han analizado los datos de humedad proporcionados por las radiosondas en los
primeros kilómetros dentro de la atmósfera. Unas 1.500 radiosondas se lanzan cada día en todo el mundo,
formando la columna vertebral del sistema de observación meteorológica mundial. Wang comparó sus
lecturas con las del sensor Snow White, un detector de humedad de alta calidad diseñado por la firma suiza
Meteolabor AG para el programa IHOP2002. En el aire frío de 26.000 a 42.000 pies de altitud, los sensores
normales siempre mostraban humedades relativas que iban del 10 al 30 por ciento. En cambio, en la misma
región, la mitad de los sensores Snow White mostraron humedades relativas del 90 al 100 por ciento, un
signo poderoso de la existencia de nubes.
Serían nubes cirrus "subvisibles", es decir, indetectables al ojo humano. Tanto los observadores terrestres
como los satélites no pueden detectarlas fácilmente. Ahora que sabemos que existen y que podrían influir
en el clima, deberemos esperar la mejora de la calidad de las radiosondas, cuyos datos nos ayudarán a
corregir los recogidos en el pasado.
Información adicional en: http://www.ucar.edu/communications/newsreleases/2003/radiosonde.html
80
AÑOS
2263
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
Ropa a medida
En un futuro no muy lejano, la ropa que nos compremos se ajustará a nuestro cuerpo a la perfección. Se
acabaron las tallas generales y los arreglos de sastre. Un grupo de estudiantes de la Cornell University ha
ideado un sistema que permite escanear en tres dimensiones el cuerpo de una persona, y encargar la pieza
de ropa que encaje perfectamente con él.
Una vez escaneados, podremos seleccionar el estilo, la tela y las características de fabricación
proporcionadas por un determinado fabricante en su página web, y enviar a este último una copia por email
de nuestro escáner personal. En poco tiempo, recibiremos nuestra prenda, la cual se ajustará perfectamente
sobre nuestra piel.
El proceso de escaneado produce 300.000 puntos tridimensionales que alimentan a un ordenador. Gracias a
este sistema, se obtiene una imagen exacta de nuestro cuerpo, procesada por un programa diseñado por la
empresa francesa Lectra.
La población es tan diversa, físicamente hablando, que no siempre es posible encontrar ropa que se adapte
a nuestras necesidades. Las tallas son soluciones alcanzadas por la industria textil para hacer rentable la
producción masiva de piezas, pero en ningún modo son la solución ideal. Hacer ropa a medida es caro, por
cuanto precisa de la participación de personal especializado y una gran dedicación. Si queremos
popularizar la fabricación de ropa a medida, son necesarios métodos alternativos, como el ya mencionado.
Se prevé una progresiva expansión, en diversos establecimientos, de la tecnología necesaria para este
proceso. Bastará con escanear nuestro cuerpo una vez cada cierto tiempo, cuando tengamos constancia de
que hemos cambiado físicamente. Después, sólo tendremos que enviar esta imagen tridimensional al
fabricante para que interprete fielmente nuestras instrucciones y ajuste su trabajo a los parámetros físicos
proporcionados, sin que en ningún momento sea necesaria nuestra presencia. La fabricación de la prenda
también estará automatizada, gracias a la obtención de patrones exactos adaptados a nuestras
características. Información adicional en: http://www.news.cornell.edu/releases/Feb03/lectra.gift.ssl.html
Como pudo fluir el agua sobre Marte
Utilizando información tridimensional de la superficie marciana proporcionada por la sonda Mars Global
Surveyor y un programa que es capaz de "modelar" el flujo de agua sobre ella, un grupo de científicos ha
conseguido visualizar cómo pudo ésta moverse sobre el Planeta Rojo, hace millones de años.
Los datos de superficie fueron obtenidos mediante un altímetro láser instalado a bordo de la nave, que es
capaz de levantar mapas topográficos muy precisos.
Los investigadores como Marc G. Kramer, del National Research Council, saben que Marte posee muchas
estructuras que se asemejan a lechos de lagos y a cursos de antiguos ríos. En varios casos, estas estructuras
se adentran en depresiones, y finalizan de forma abrupta.
El estudio ha analizado porciones de la región ecuatorial de las altiplanicies marcianas, que se extienden
entre las latitudes medias del norte y del sur. Kramer, Christopher Potter, David Des Marais y David
Peterson, estos últimos del Ames Research Center, han intentado averiguar por qué los aparentes cauces de
ríos del planeta no parecen interconectarse entre ellos, careciendo frecuentemente de pequeños "afluentes".
Según las fotografías, muchas estructuras "río" empiezan y acaban de forma abrupta, lo que ha permitido
sugerir que se formaron por afloramientos violentos de agua subterránea que desaparecían después de
nuevo bajo la superficie. Otros científicos creen que las estructuras se formaron debido a la lluvia que pudo
caer en una época cuando Marte tenía una atmósfera más densa que la actual.
Lo que Kramer y sus colegas han averiguado es que muchas de estas estructuras aparentemente
fragmentadas sí podrían haber estado conectadas o haber fluido hasta depresiones que parecen antiguos
lechos de lagos. De hecho, algunas de las mayores depresiones visibles tienen un tamaño parecido a los
Grandes Lagos de Norteamérica, y lo que vemos en estos últimos es semejante a lo que podría haber
ocurrido en el Planeta Rojo. El sistema acuático marciano debió ser complejo. Algunas de las depresiones
menos profundas contienen múltiples cráteres erosionados, que debieron verse afectados por el flujo del
agua. Dichas depresiones son cada vez menos profundas en las zonas más bajas, lo que sugiere que se
acumularon en ellas sedimentos traídos por la propia agua o por el hielo.
No sabemos aún durante cuánto tiempo persistió este sistema acuático, ni bajo qué condiciones climáticas.
Para ello deberíamos examinar los sedimentos que se han acumulado a lo largo de las depresiones. Nuevos
instrumentos, como el THEMIS de la sonda Mars Odyssey, ya operando en órbita, podrían ayudarnos a
80
AÑOS
2264
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
contestar estas preguntas. Sus imágenes infrarrojas y en el espectro visible revelan una gran diversidad de
tipos de superficie y estructuras. Las temperaturas nocturnas también delatan un complejo patrón de capas
de roca, arena y polvo producido por los impactos de meteoritos, la erosión del viento, el vulcanismo y la
deposición. Información adicional en: http://amesnews.arc.nasa.gov/releases/2003/03_12AR.html
Breves del Mundo de la Ciencia
EL PLOMO MATA LAS CÉLULAS OCULARES: Un nuevo estudio diseñado para averiguar por qué las
células del ojo mueren al ser expuestas al plomo podría proporcionar terapias novedosas para el
tratamiento de daños en la retina, debidos a accidentes o enfermedades como la diabetes o la retinitis
pigmentosa.
LAS CÉLULAS RECEPTORAS GUSTATIVAS COMPARTEN VÍA COMÚN: Aunque los sabores
dulce, amargo y umami (glutamato monosódico) son diferentes, unos investigadores están descubriendo
que la información sobre cada uno de ellos se transmite desde varios receptores gustativos mediante una
vía de señalización intracelular común.
LA FERTILIDAD MASCULINA DECLINA CON LA EDAD: Si piensa ser padre, no lo posponga
demasiado. Un nuevo estudio confirma las sospechas de que los hombres ven disminuida su fertilidad a
medida que envejecen.
ANTIBIOTICOS PRODUCIDOS POR INSECTOS: Los científicos han averiguado cómo funciona un
antibiótico natural llamado Cecropina A, producido por insectos, el cual es capaz de matar bacterias desde
su interior.
EL GENOMA EN UN CHIP: El Servicio de Secuenciación de ADN de la Universitat Autònoma de
Barcelona, en colaboración con laboratorios de las universidades de Valencia, Complutense de Madrid y
de Salamanca, ha construido microchips con la práctica totalidad de los genes de la levadura
Saccharomyces cerevisiae, un organismo de gran importancia en biotecnología y muy valioso como
modelo de investigación biológica. Se trata de los primeros microchips de ADN construidos en España con
el genoma completo de un organismo.
BLANQUEADORES DENTALES: Aunque parezca un método moderno, la aplicación de blanqueadores
dentales data de la Edad Media.
MEDICIÓN DE LOS NIVELES DE AGUA SUBTERRÁNEA: Los científicos han descubierto una forma
poco usual de medir la rapidez con la que el agua desciende desde la superficie hasta la capa freática. Para
conseguirlo, miden la temperatura del suelo.
HALLADO EL GEN QUE NOS HACE VULNERABLES A LA LEPRA: Un equipo internacional
liderado por Erwin Schurr y Thomas Hudson, de la McGill University, ha identificado un gen en el
cromosoma 6 que hace que las personas puedan contraer la enfermedad de la lepra.
MUTACIÓN GÉNICA QUE IMITA LA NEURODEGENERACIÓN POR ENFERMEDADES
PRIONICAS: Investigadores del Instituto Médico Howard Hughes han descubierto que una mutación
génica que produce pelaje de color negro en ratones también origina una degeneración de neuronas similar
a la observada en enfermedades causadas por priones, tales como las de Creutzfeldt-Jakob y de "la vaca
loca".
VENDAJES NATURALES: Científicos de la Virginia Commonwealth University han creado una nanofibra con el mismo compuesto que el cuerpo utiliza para coagular la sangre que podría actuar como
"vendaje natural".
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
LAS REVOLUCIONES CIENTÍFICAS
En Roma, el 8 de febrero de l600, el tribunal de la inquisición condenaba por hereje e
impenitente al matemático, astrónomo y filósofo Giordano Bruno; después de escuchar
su sentencia de muerte, Bruno temerariamente replicó al Santo Tribunal: “Tienen ustedes
80
AÑOS
2265
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
más miedo en sentenciarme, que yo de cumplir la sentencia”: Días más tarde, el 17 de
febrero, Giordano Bruno era quemado vivo en la hoguera. El célebre filósofo, nacido en
l548 en Nola, Italia, murió sin retractarse de sus ideas.
Uno de los pecados mayores de Bruno fue declarar, convencidamente, que el universo es
infinito y que existen, de igual forma, un sinfín de cuerpos como los que forman nuestro
sistema solar.
El mundo es infinito y por lo tanto, no hay en él ningún cuerpo al
que le corresponda estar en el centro o sobre el centro o en la
periferia o entre ambos extremos del mundo; sino tan sólo le
corresponde estar entre otros cuerpos...
Escribe Bruno en su obra Sobre el infinito universo y los mundos.
En nuestros días, hasta la mente más simple acepta el hecho de que habitamos un
pequeño planeta perdido en la inmensidad de un universo sin límites, en tiempos de
Bruno lo contrario era la norma. Se creía que la tierra era el centro de una esfera cerrada,
en cuya superficie estaban fijas las estrellas; se admitía pues, la imagen de un universo
finito. El cambio de esa concepción a la concepción actual tuvo que darse a través de una
verdadera revolución del pensamiento. Alexander Koyré, destacado historiador de las
ciencias, nos dice al respecto:
Es posible describir aproximadamente esta revolución científica y
filosófica diciendo que conlleva la destrucción del Cosmos; es decir,
la desaparición en el campo de los conceptos filosófica y
científicamente válidos, de la concepción del mundo como un todo
infinito, cerrado y jerárquicamente ordenado; un todo en el que la
jerarquía axiológica determinaba la jerarquía y estructura del ser,
elevándose desde la tierra oscura, pesada e imperfecta hasta la
mayor y mayor perfección de los astros y esferas celestes. (Del
mundo cerrado al universo infinito, Siglo XXI, 1979).
Este episodio de la historia de las ciencias ilustra con precisión lo que se ha dado en
llamar revoluciones científicas. Se ha creído, y en algunos círculos se cree todavía, que el
desarrollo de las ciencias es un proceso gradual y progresivo mediante el cual se han ido
añadiendo conocimientos al caudal ya existente. Desde esta perspectiva, la historia de las
ciencias es contemplada como una disciplina que relata y registra esos incrementos
sucesivos, y los obstáculos que han inhibido su acumulación. Sin embargo, en vista de un
sinnúmero de dificultades encontradas por los historiadores, se ha fincado ya una nueva
corriente historiográfica que ha roto con esa tradición.
La nueva escuela de historiadores de la ciencia propone, y lo ha demostrado en muchos
casos, que el desarrollo del conocimiento científico se da gradualmente y evoluciona sólo
en tiempos “normales”, pero hay momentos históricos en los cuales se dan verdaderos
saltos cualitativos, verdaderas revoluciones. Tal es el caso de la transición de la
concepción de un universo cerrado a la de un universo infinito. Entre los mejores
exponentes de esta escuela destaca Thomas Kuhn, físico de profesión. Kuhn ha escrito
una de las mejores obras en este campo: La estructura de las revoluciones científicas
(FCE, 1973). En ella nos dice que
Las primeras etapas de desarrollo de la mayoría de las ciencias se
han caracterizado por una competencia continua entre una serie de
80
AÑOS
2266
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
concepciones distintas de la naturaleza, cada una de las cuales se
derivaba parcialmente de la observación y del método científico y,
hasta cierto punto, todas eran compatibles con ellos. Lo que
diferenciaba a esas escuelas no era uno y otro error de método –
todos eran “científicos”- sino lo que llegaremos a denominar sus
modos inconmensurables de ver el mundo y de practicar en él las
ciencias.
A estos modos particulares de ver el mundo y practicar en él las ciencias, Kuhn los
denomina paradigmas científicos. Para ponerlo en sus palabras:
Considero a éstos (los paradigmas) como realizaciones científicas
universalmente reconocidas que, durante cierto tiempo,
proporcionan modelos de problemas y soluciones a una comunidad
científica.
Pues bien, una revolución científica se da en el momento en que un paradigma es
sustituido por otro. Es el caso del paso del paradigma de la astronomía geocéntrica al de
la astronomía heliocéntrica, propuesta por Copérnico; otro ejemplo sería el salto de la
física de Newton a la física relativista; también es el caso de la biología predarwiniana
que deja el paso a la biología evolutiva. Estos cambios son drásticos, pues se sustituye un
paradigma por otro ¡totalmente inconmensurable con él!, lo que significa que uno no
puede reducirse o transformarse en el otro, ya que parten de concepciones y postulados
sobre la realidad radicalmente diferentes.
En ocasiones, son de tal fuerza los esquemas propuestos por los nuevos paradigmas que
cimbran no sólo el pensamiento científico de una época, sino que llegan a afectar la
ideología y el orden establecido de toda un formación social. Recordemos el caso de
Giordano Bruno.
¿Cuál es el proceso de desarrollo normal de una ciencia? ¿Qué tipo de problemas o
anomalías dan lugar a la sustitución de un paradigma por otro? ¿Cómo se resuelve la
competencia entre varios paradigmas? Cuestiones como éstas son las que hoy se plantean
los historiadores de las ciencias.
El estudio cabal de la historia de las ciencias constituye, sin duda, un sano ejercicio para
esclarecer y apreciar de manera justa el valor y los alcances de los paradigmas que la
ciencia normal de nuestro tiempo propone, pues
la investigación efectiva apenas comienza antes de que una
comunidad científica crea haber encontrado respuestas firmes a
preguntas tales como las siguientes: ¿Cuáles son las entidades
fundamentales de que se compone el universo? ¿Cómo interactúan
esas entidades unas con otras y con nuestros sentidos? ¿Qué
preguntas pueden plantearse legítimamente sobre esas entidades y
qué técnicas pueden emplearse para buscar soluciones?
Al menos, en las ciencias maduras, las respuestas a preguntas como esas se encuentran
enclavadas, firmemente, en la iniciación educativa que da licencia a los estudiantes para
la práctica profesional. Debido a que esta educación es tanto rigurosa como rígida, esas
respuestas llegan a ejercer una influencia profunda sobre la mentalidad científica (Kuhn).
El caso de Giordano Bruno no debería repetirse; sin embargo, hoy vemos que hay teorías
que se juzgan con la misma severidad que lo fueron las tesis de Bruno en su tiempo; tal
80
AÑOS
2267
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 191/450
es el caso de las teorías marxistas de la historia y el conocimiento. ¿Será porque nos
proponen un paradigma que no sólo afecta la esfera del conocimiento sino que,
fundamentalmente, cuestiona la existencia de un sistema social fincado en el predominio
de una clase social sobre las demás? La historia lo dirá.
El Cabuche (crónicas de la Facultad de Ciencias)/ Lamento habanero
Llegué la víspera de la marcha de las antorchas que efectúa el pueblo cubano para
conmemorar el natalicio de su héroe José Martí. En La Habana, al filo de la medianoche
la marcha de las antorchas parte de la escalinata de la universidad y culmina en el
presidio, frente al malecón, donde estuvo preso Martí en sus gestas libertarias.
Paradójicamente el héroe cubano y gran poeta nació en la ciudad de Nueva York hace
150 años. Atrás de las escalinatas de la universidad se encuentra la Facultad de Física que
iniciara sus actividades en 1962 después del triunfo de la revolución cubana; disciplina
joven pero sólida, que como en la mayoría de las escuelas de física cuenta con no muchos
estudiantes, en la actualidad cuenta con alrededor de cien estudiantes. A principio de los
noventa se estrecharon relaciones académicas entre nuestra universidad a través del
Instituto de Física con parte de la planta de profesores de la Facultad de Física de la
Universidad de La Habana y los cubanos comenzaron a realizar estancias en el
Laboratorio de Materiales Magnéticos del Instituto de Física con Manuel Mirabal y
posteriormente en el Laboratorio de Felipe Rábago, de esta forma conocimos y
convivimos con los profesores cubanos, los chicos, como fueron bautizados por la raza,
por su pertinaz alusión y referencia a toda persona como “¡oye chico!”. Como en toda
buena relación académica, no faltaron las cheves y las reuniones sociales necesarias.
Algunos de ellos llegaron a formar parte del equipo de softbol de física (Los Halcones),
creyendo que como el juego de pelota es religión en Cuba podrían ser buenos jugadores,
pero resultó no ser el caso. Tuve oportunidad de visitar la isla por primera vez en 1997
cuando Calzadilla uno de los cubanos que visitó San Luis en una estancia en el
laboratorio de Rábago, organizó el I Taller Iberoamericano de Enseñanza de la Física
Universitaria, que a la fecha lleva tres ediciones. En esa visita estuve en la casa de Jorge
Portelles, amigo de varios físicos potosinos. En esa ocasión conocí a su familia y en
particular a su pequeño hijo Jorgito. El pasado jueves 30 de enero, en uno de los
descansos del taller, mientras tomábamos café en la planta baja de la Facultad apareció
Portelles acompañado de varios estudiantes que bajaban las escaleras después de clase.
Nos saludamos efusivamente y mientras intercambiábamos novedades acerca de la raza
potosina y cubana me dio la trágica noticia: el fallecimiento de su hijo en un accidente en
bicicleta. A pesar de ser un tema que ya no quiere tratar tuvo la deferencia de
compartirlo, en una muestra de amistad. Huelga decir la fase de tristeza y pesar que
ocasionó. Estas ílneas no pretenden sean leídas por Portelles, quien a la fecha carga con
tan duro golpe, comparten el dolor que también nosotros sentimos y la solidaridad de sus
amigos mexicanos, y en particular del Instituto de Física y Facultad de Ciencias, en tan
duro trance.
Yo soy un hombre sincero/de donde crece la palma/Y antes de morir me
quiero/echar mis versos del alma/He visto al águila herida/volar al azul
sereno/Y morir en su guarida/la víbora del veneno.
80
AÑOS
2268
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.192, 24 de febrero de 2003
No. acumulado de la serie: 451
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
La NASA History Office ha añadido a su
página
web
dos
libros
más
pertenecientes a su catálogo de obras
relacionadas con la historia de la
agencia. Se trata de "Biomedical Results
of Apollo" (SP-368, 1975), y "What
Made Apollo a Success?" (NASA SP287,
1971).
Disponibles
en:
http://history.nasa.gov/SP368/sp368.htm;
http://history.nasa.gov/SP287/sp287.htm
China
sigue
apostando
por
el
lanzamiento de su primera misión
tripulada durante el próximo otoño,
probablemente en octubre. No se espera
que viajen a bordo más de uno o dos
astronautas, de los 14 que actualmente se
encuentran entrenándose para este vuelo.
La misión Shenzhou-5 representará la
entrada de China al reducidísimo grupo
de países con capacidad para vuelos
tripulados, después de Rusia y Estados
Unidos.
El Hijo de El Cronopio No. 192/451
"Honestamente, esperábamos más", dice el presidente de la Academia
Mexicana de Ciencias
La comunidad científica reprocha a Fox
incumplimiento de promesas
La inversión en el sector es la misma que la de hace 20 años, le recrimina De
la Peña Mena
Las partidas tuvieron "importantes incrementos", replica el mandatario; llama a
la colaboración
JUAN MANUEL VENEGAS; Periódico La Jornada
La comunidad científica nacional reprochó al presidente Vicente Fox Quesada que los
compromisos del "llamado gobierno del cambio" no se hayan cumplido y que las
expectativas creadas durante su campaña hoy contrasten con los presupuestos otorgados
a áreas estratégicas para el futuro del país, como son educación, ciencia y tecnología.
"Honestamente, esperábamos más", subrayó el presidente de la Academia Mexicana de
Ciencias, José Antonio de la Peña Mena.
Como respuesta, el jefe del Ejecutivo federal, indicó que a pesar del presupuesto austero
que se aprobó para este año, los recursos destinados a investigación, ciencia y tecnología,
así como a las comunidades indígenas, "tuvieron importantes incrementos". Sobre los
reclamos de De la Peña, pidió a los científicos e investigadores del país su colaboración
"para quitarle el freno al cambio que propusimos desde el primer día de gobierno al
Congreso de la Unión".
Por la noche, en la ceremonia inaugural del 14 Año Académico de la Academia Nacional
de Medicina, el mandatario reiteró su convocatoria a "quitarle el freno al cambio" -que
así reza la campaña proselitista del Partido Acción Nacional-, con el agregado de que ahí
se verá quienes tienen "voluntad política" para hacer "crecer el pastel" presupuestal, y
que alcance más para todos.
Destacan importancia del laicismo
Al mediodía, en Los Pinos, el mandatario entregó los Premios de Investigación 2001 y
2002. En este acto, José Antonio de la Peña presentó un mensaje en el que, con cifras,
evidenció los atrasos del país y las limitaciones presupuestales que enfrentan "áreas que
son estratégicas para el futuro" de la nación.
"Entre los países del mundo, México ocupa uno de los diez primeros lugares por el
volumen de su producción económica. Sin embargo, no llega ni al lugar 40 en lo que se
refiere a su competitividad industrial, y está todavía más abajo en lo que se refiere a
inversión en ciencia y tecnología", lamentó.
Sólo una economía moderna y competitiva, que pueda obtener beneficios reales de la
globalización y el libre mercado, permitirá lograr el crecimiento que esperan los
mexicanos; "la construcción de esa industria moderna sólo podrá darse poco a poco, y
sólo si contamos con un sistema educativo de mayor calidad, con un cuerpo de
científicos y tecnólogos mucho más numeroso que el actual; universidades públicas con
un sistema de investigación científica mucho más desarrollado, y centros de
investigación básica en áreas estratégicas", precisó.
80
AÑOS
2270
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
Afirmó que el país sigue invirtiendo en ciencia y tecnología "lo mismo que hace 20
años", es decir, "menos de 0.4 por ciento del producto interno bruto, lo que significa un
gasto de 20 dólares anuales por habitante en ciencia, mientras en Estados Unidos nuestro principal socio comercial- se gastan más de 800 dólares al año por persona y en
Brasil 60".
Otro problema que distinguió es el de "la falta de interés de las empresas en la
investigación, que se refleja en un patético número de menos de 200 patentes concedidas
a mexicanos cada año, que representa menos de 5 por ciento de las otorgadas a empresas
extranjeras en México".
Con estos informes dijo que la Academia Mexicana de la Ciencia está en total
disposición de colaborar con las cámaras de Senadores y de Diputados para cumplir con
la sociedad mexicana "y buscar crear las condiciones para un mejor desarrollo del país".
De igual manera, señaló que se acaba de informar un convenio a nivel nacional con la
SEP para desarrollar el programa La ciencia en tu escuela, que tiene el objetivo de
acercar a los científicos del país con los maestros de educación básica, para su mejor
capacitación en las formas de enseñanza.
"México tiene que construir su futuro sobre la base de una educación de mayor calidad,
una educación laica, incluyente, que fomente el debate libre de ideas, el pensamiento
crítico, la búsqueda de la verdad y el entendimiento, que son valores que resultan
fundamentales en la práctica cotidiana de la ciencia. Un pueblo educado será siempre un
pueblo más feliz, trabajará mejor y obtendrá mejores frutos de su trabajo", puntualizó De
la Peña al tiempo de advertir que la comunidad científica del país aún está a la espera de
que se cumplan "la expectativas del llamado gobierno del cambio".
Las cifras de Reyes Tamez
A las cifras de De la Peña salió al paso el secretario de Educación Pública, Reyes Tamez,
quien luego de aceptar que "hacen falta muchos esfuerzos económicos" para cumplir con
los requerimientos en la materia, precisó que el presupuesto destinado al Consejo
Nacional de Ciencia y Tecnología creció 5 por ciento en términos reales, entre 2001 y
2002, mientras para este año se tienen previstas inversiones por 26 mil millones de pesos
en investigación y desarrollo tecnológico.
Por otra parte, dijo que en 2003 se destinará 1 por ciento del producto interno bruto a
inversión en educación superior, que significa una cantidad superior a 62 mil millones de
pesos.
En cuanto a los galardonados, en el área de ciencias exactas recibieron su reconocimiento
el doctor Gerardo Herrera Corral, del Departamento de Física del Cinvestav del IPN, y el
doctor Gabriel Eduardo Cuevas, del Instituto de Química de la UNAM; en ciencias
naturales, José Luis Puente García, del Instituto de Biotecnología de la UNAM, y
Gerardo Pérez Ponce, del Instituto de Biología.
En ciencias sociales y humanidades fueron premiadas las doctoras Esthelia Ruiz
Medrano y María Alicia Meyer, del Instituto Nacional de Antropología e Historia y del
Instituto de Investigaciones Históricas de la UNAM, respectivamente, mientras en el área
de investigación tecnológica, correspondió el reconocimiento al doctor Sergio Manuel
Alcocer, del Instituto de Ingeniería de la UNAM. Finalmente, el premio de ingeniería y
tecnología fue para el doctor Francisco Javier Espinoza Beltrán, del Departamento de
Física del Cinvestav.
80
AÑOS
2271
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
Noticias de la Ciencia y la Tecnología
El metal mágico
Científicos australianos han conseguido dominar la tecnología necesaria para emplear magnesio de forma
económica en motores de explosión y en múltiples productos de consumo, un objetivo perseguido por
numerosos centros de investigación en una carrera iniciada hace más de una década.
El magnesio es un metal atractivo por su resistencia, ligereza y capacidad de reciclaje. Pero la tecnología
de bajo coste que permitiese usarlo de manera amistosa y efectiva en la industria se mostraba un tanto
esquiva. Gracias a los trabajos del grupo Elaborately Transformed Metals, del CSIRO, liderado por los
doctores Colleen Bettles y Daniel Liang, dicha tecnología es ahora una realidad. Por un lado, han
desarrollado una nueva aleación que podrá aplicarse a la próxima generación de motores para vehículos, y
por otro, han obtenido una delgada lámina de magnesio lista para ser utilizada en las líneas de producción
de todo el mundo (en impresoras, teléfonos móviles, trenes, baterías, bicicletas, DVDs y en muchos otros
productos).
AMC-SC1 es el nombre de la nueva aleación, que ya ha sido ensayada en un bloque motor por la empresa
europea AVL List. El prototipo ha sido instalado en un vehículo Volkswagen Lupo, que está rodando en
fase de pruebas por las carreteras de Austria. El nuevo motor pesa 14 kg, es diesel, y tiene tres cilindros. Es
un 33 por ciento más ligero que los motores de aluminio actuales, y un 75 por ciento más que los
fabricados en hierro forjado. Su funcionamiento reducirá las emisiones de CO2 en unos 200 kg a lo largo
de la vida útil del automóvil, lo cual no parece demasiado hasta que multiplicamos la cifra por los 8
millones de coches nuevos que salen sólo de las fábricas americanas cada año.
Daniel Liang está al frente del equipo que está produciendo la primera lámina de magnesio de bajo coste
(de hasta 60 mm de ancho). Con ella disponible, se podrán fabricar muchas otras piezas para automóviles y
para todo tipo de productos de consumo. El grupo de trabajo ha resuelto los problemas de la aparición de
defectos en la superficie, así como las grietas que se producían mediante otros métodos de producción.
Información adicional en: http://www.csiro.au/index.asp?type=mediaRelease&id=Prmagnesium
Mucha agua en los casquetes polares marcianos
La teoría precedente de que los casquetes polares de Marte están constituidos principalmente por dióxido
de carbono (hielo seco), es errónea, según las nuevas investigaciones de un grupo de científicos planetarios
del California Institute of Technology. Dichos casquetes, al contrario, están formados sobre todo por hielo
de agua, lo que abre nuevas perspectivas a la colonización de Marte.
Se ha llegado a esta conclusión a través del análisis exhaustivo de las imágenes enviadas por las sondas
espaciales que giran alrededor del planeta. Andy Ingersoll y Shane Byrne, los científicos implicados en la
investigación, han descubierto en ellas que la vieja teoría de los casquetes de CO2, ideada en 1966, ya no
se sostiene. La citada teoría decía no sólo que los casquetes marcianos estaban formados por hielo seco
sino que además se encargaban de regular la presión atmosférica mediante su evaporación y condensación.
Observaciones posteriores presentaron evidencias de que el casquete polar norte poseía hielo de agua bajo
la cubierta de hielo seco, pero los expertos continuaban creyendo que el casquete polar sur estaba hecho
sólo de este último.
Sin embargo, las recientes imágenes de alta resolución, ópticas e infrarrojas, enviadas por las sondas Mars
Global Surveyor y Mars Odyssey, sugieren que este viejo modelo ya no es exacto. El comportamiento de
ciertas estructuras circulares presentes en las regiones estudiadas responde más a la presencia de hielo de
agua que a la existencia de hielo seco abundante. Además, la temperatura detectada indica que el casquete
polar sur está demasiado caliente para estar hecho de CO2 . Byrne e Ingersoll creen que la capa superior es
hielo seco, pero que la inmediatamente inferior, la que da forma a casi todo el casquete polar, es hielo de
agua. Los casquetes sur y norte serían por tanto bastante similares. En este último se aprecia anualmente la
pérdida de la capa de CO2 (de un metro de espesor), en verano, lo que expone el hielo de agua que hay
debajo. En el sur, la capa de CO2 es algo más gruesa, unos 8 metros, y no desaparece del todo durante la
estación veraniega.
Para los futuros colonizadores marcianos, todo ello implica que no será necesario transportar agua desde la
Tierra para su consumo. Pero por otro lado, se hará más difícil "terraformar" algún día el planeta vecino.
80
AÑOS
2272
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
La presencia de menos cantidad de CO2 dificultará el mantenimiento de Marte como un lugar caliente y
húmedo. Información adicional en: http://pr.caltech.edu/media/Press_Releases/PR12342.html
Autonomía variable para UAVs
Utilizando tecnología desarrollada con apoyo de la Office of Naval Research, la empresa Geneva
Aerospace ha demostrado que un único operador humano puede controlar hasta tres UAVs (vehículos
aéreos no tripulados) a un tiempo. Las pruebas se efectuaron entre el 7 y el 17 de enero de 2003, en el
Desert Center de California.
La investigación forma parte de un programa financiado por la ONR llamado "Autonomous Operations
Future Naval Capability", y en la que también ha participado el Air Force Research Laboratory. Su
objetivo es demostrar tecnologías que permitan a una persona sin conocimientos de pilotaje real coordinar
varios UAVs durante una misión. Las tecnologías incluyen control de vuelo, comunicaciones y conexión
entre sistemas y personas. Gracias a ello, se espera que los UAVs puedan funcionar con varios grados de
autonomía. El objetivo último es desarrollar una arquitectura integrada que reduzca la carga logística
actual que los UAVs imponen sobre los pilotos de combate estadounidenses.
Geneva Aerospace llama a su tecnología Variable Autonomy Control System (VACS), o también "Robogung-ho" ("Gung ho" quiere decir "trabajar juntos"). Los UAVs, básicamente robots aéreos, utilizan un
sistema que emplea tecnologías de control de vuelo avanzadas, suficientes para proporcionar varios niveles
de autonomía (desde un control manual simplificado hasta la ejecución de una misión de forma totalmente
autónoma). Las pruebas para demostrar su viabilidad han supuesto la instalación del sistema en el modelo
UAV Dakota, de unos 5 metros de envergadura y unos 170 kg de peso.
Las demostraciones consistieron en controlar dinámicamente a tres UAVs mientras efectuaban salidas
militarmente útiles, como el reconocimiento coordinado o el ataque en combate. Tras el lanzamiento de los
tres UAV, un único operador tomó el control positivo de los vehículos, enviando las órdenes de guiado
oportunas para posibilitar la misión. El operador no había sido entrenado para ello.
Información adicional en: http://www.onr.navy.mil/media/tipoff_display.asp?ID=37#1
La ventaja de las especies invasoras
La segunda causa principal de destrucción de hábitat que amenaza a la biodiversidad, la llegada de
especies de otras regiones, representa un duro golpe para las especies nativas. Las recién llegadas poseen
menos parásitos y tienen menos enfermedades contra las que combatir que sus competidores locales, lo
que facilita su expansión en el nuevo territorio.
Este tipo de plagas, como es el caso del cangrejo verde europeo, tienen una notable e injusta ventaja que
pone en peligro la supervivencia de las demás especies locales.
Un estudio realizado por el ecólogo marino Kevin Lafferty, del US Geological Survey en el Western
Ecological Research Center, y varios colegas, muestra claramente que las especies invasoras poseen al
menos la mitad de los parásitos o enfermedades que tenían cuando estaban en su primitivo hogar.
Como promedio, un animal tiene 16 parásitos en su región de origen. Sin embargo, se llevará tres de ellos
o menos hasta la nueva zona de invasión. Si a eso añadimos que los parásitos locales no estarán bien
adaptados para afectar a los anfitriones recién llegados (sólo 4 conseguirán atacarles con éxito), su
expansión será rápida y usualmente dañina.
El parasitismo es el estilo de vida más común en la Tierra. Algunos parásitos no sólo enferman a los
animales, sino que pueden afectar a su fertilidad, cambiar su comportamiento o incluso matarlos. Emigrar
se convierte pues en una solución para estos animales, ya que la mayoría de sus parásitos quedan atrás y
los que encuentren en el nuevo territorio probablemente no estarán listos para atacarles.
Como explica Lafferty, los parásitos son para las especies invasoras lo que la Kriptonita supone para
Superman. En el planeta Kriptón, la Kriptonita es un regulador, manteniendo a Superman como un ser
ordinario. Libre de ella en la Tierra, Superman adopta poderes extraordinarios. Pero a diferencia de este
famoso personaje, que utiliza su fuerza para realizar buenas obras, las especies invasoras, al sentirse
liberadas, pueden convertirse en seres devastadores.
Los científicos analizaron los estudios sobre parásitos de 25 especies animales invasoras, desde caracoles a
ratas, comparando su actuación en hábitats naturales y hábitats invadidos. El cangrejo verde europeo fue la
80
AÑOS
2273
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
especie más estudiada. En el Viejo Continente, su tierra natal, los percebes parasitarios se encargan de
castrarlos. Allí donde los percebes son abundantes, se ven pocos cangrejos de este tipo, y viceversa.
Los cangrejos verdes han sido introducidos en el resto del mundo, pero los percebes nunca ha sido
transferidos con ellos. Así, en las nuevas áreas, los primeros se han convertido en plagas capaces de
diezmar a los crustáceos nativos.
Lo mismo ocurre con otros animales y ciertas plantas invasoras. Para controlarlos, se podría introducir en
las zonas afectadas los parásitos originales que les mantenían en cintura, pero éste es un proceso que hay
que realizar con mucho cuidado, o se corre el peligro de crear una superplaga.
Información adicional en: http://www.usgs.gov/public/press/public_affairs/press_releases/pr1721m.html
Una vieja red de carreteras
Arqueólogos del Oriental Institute, de la University of Chicago, han utilizado fotografías recientemente
desclasificadas, tomadas desde satélites espía americanos, que muestran la existencia de una antiquísima
red de carreteras en el Oriente Próximo, cuyos restos habían pasado hasta ahora desapercibidos.
En las imágenes, captadas por vehículos del antaño programa secreto Corona, se aprecian sutiles
depresiones en el suelo, que señalan la ruta por la que discurrían los caminos. Esta red formaba parte del
tejido de comunicaciones que dio esplendor a las civilizaciones de hace 5.000 años en esta zona del
mundo. Permitieron fomentar el intercambio agrícola y el comercio en un área que actualmente se
encuentra en Siria e Irak. Es en esta zona donde los asentamientos locales empezaron a expandirse,
entrando en contacto con las culturas del sur de Mesopotamia a medida que la civilización urbana iniciaba
su despegue, en el tercer milenio antes de Cristo.
Tony Wilkinson y Jason Ur, investigadores del instituto, explican que estas rutas quedaron fuera de
servicio cuando fueron sustituidas por otras mejores a finales del primer milenio antes de Cristo. Dado que
los viejos caminos se encontraban en ligeras depresiones, se convirtieron en puntos donde los lugareños
podían encontrar barro para fabricar ladrillos. Con el paso de los años, estas carreteras fueron olvidadas,
escapando a la atención de los arqueólogos.
Se trata de calzadas de 70 a 140 metros de ancho y unos pocos centímetros de profundidad. Fueron hechas
por la gente que debía transportar a sus rebaños hacia los campos de pasto y hacia otras aldeas, para
comerciar con el ganado. El tráfico continuo endureció la superficie, haciendo que la calzada se hundiera
ligeramente en el paisaje.
Estas rutas son algo más que simples conexiones entre pueblos y asentamientos cercanos. Consideradas a
un nivel regional, emergen como segmentos de "autopistas" que van de un punto a otro, generalmente a
través de un eje este-oeste.
Anteriormente, los arqueólogos dibujaban en sus mapas líneas rectas entre los asentamientos principales,
suponiendo que había existido un sistema de carreteras uniéndolos entre sí. Pero se desconocía su posición
exacta. Ahora, en cambio, los caminos son bien visibles en las imágenes de los viejos satélites espía
americanos.
La información aportada por las fotografías es muy interesante. Por ejemplo, los pueblos más importantes
son los que poseen más rutas dirigidas hacia ellos. Los arqueólogos han investigado especialmente dos
puntos llamados Tell Brak y Tell Hamoukar, que emergieron como comunidades con cierto esplendor en el
tercer milenio antes de Cristo. Las imágenes muestran que Tell Hamoukar era aún más importante de lo
que se creía. Probablemente estaba conectado al sistema de carreteras que venía de Nineveh y se dirigía a
Aleppo. Información adicional en: http://www-news.uchicago.edu/releases/03/030128.ancientroads.shtml
Otras dimensiones, revolución científica
El concepto de la existencia de otras dimensiones físicas, más allá de las actualmente conocidas, fue
rechazado como algo sin sentido incluso por uno de sus promotores, hace casi 90 años. Ahora, sin
embargo, podrían ser la solución para explicar algunos problemas de la física de partículas, la cosmología
y la física gravitatoria.
Según un grupo de expertos sobre la cuestión, reunido el pasado 15 de febrero, en Denver, podríamos estar
a sólo unos años de una auténtica revolución científica. Joseph Lykken, de la University of Chicago y del
Fermi National Accelerator Laboratory, cree que no es frecuente que se produzca una confluencia de ideas
y de experimentos como la presente, que podría llevarnos al descubrimiento de la existencia de estas
80
AÑOS
2274
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
dimensiones "extra". Por el momento, carecemos de pruebas sobre ellas, pero existe un cierto número de
"pistas" procedentes de experimentos e ideas teóricas que nos hacen pensar que probablemente están ahí.
Por ejemplo, la teoría de cuerdas, desarrollada durante las dos últimas décadas, requiere que el espaciotiempo contenga hasta siete dimensiones adicionales si se desea que incluya a la gravedad.
Los experimentos, mientras tanto, han producido el modelo físico estándar para describir la mayor parte de
las partículas elementales y las fuerzas que las mantienen juntas. Pero los expertos sospechan que hay algo
que falta en este modelo. Parece haber más partículas y fuerzas de las que necesitamos, y operan de formas
más complicadas de lo que deberían. La existencia de otras dimensiones podría ayudar a explicar estas
complejidades.
Nuevos experimentos realizados en el Fermi National Accelerator Laboratory están produciendo
resultados que no encajan en el modelo estándar. La actualidad de la física de partículas, la física
gravitatoria y la cosmología nos recuerda a cuando la mecánica cuántica empezó a adoptar una forma
coherente, en los años 20 del siglo pasado.
Para Sean Carroll, también de la University of Chicago, la existencia de otras dimensiones podría
ayudarnos a resolver dos misterios cosmológicos: cuáles fueron las condiciones iniciales del universo, y
qué es la misteriosa energía oscura que está acelerando su expansión.
La idea del universo inflacionario, uno que se expandió rápidamente apenas unos momentos después del
Big Bang, ha ganado aceptación entre los cosmólogos. Nos da pistas sobre por qué las condiciones en el
universo temprano fueron distintas a las que tendría después, pero no nos explica cuáles fueron esas
condiciones iniciales. Aquí es donde las dimensiones adicionales, aunque fueran microscópicamente
pequeñas, tendrían un papel. Como sugiere Carroll, si el universo tuvo dimensiones extra cuando era aún
muy pequeño, éstas no lo habrían sido tanto en comparación con el resto. Habrían pues jugado un papel
muy importante, aunque desconocemos cuál. Quizá tenga algo que ver con cómo percibimos esas
condiciones iniciales.
Los físicos también proponen que la energía oscura estaría gobernada en parte por lo que sucede en las
cuatro dimensiones conocidas, y en parte por lo que pasa en las otras dimensiones. Reconocer la existencia
de estas últimas podría ser la luz que nos permitiera entender todo el proceso. Un cambio de perspectiva
como éste quizá bastará para resolver todos nuestros problemas a un tiempo.
Información adicional en: http://hep.uchicago.edu/cdf/smaria/ms/aaas03.html
El ictiosaurio viajero
Dos geólogos de la Stanford University han descubierto huesos fósiles de un ictiosaurio, un reptil marino,
cerca del extremo sur de la Patagonia chilena. La importancia de este hallazgo reside en que debido a él los
científicos deberán reelaborar sus teorías sobre antiguas rutas migratorias y la fractura de un
supercontinente.
Quizá lo más curioso del caso es que el descubrimiento se produjo gracias a la buena suerte. Andrea
Fildani y Michael Shultz, del Department of Geological and Environmental Sciences, vieron por primera
vez el fósil de ictiosaurio hace tres años, mientras investigaban afloramientos de rocas que habían sido
sedimentos en el fondo oceánico hace millones de años, en el Parque Nacional de Torres del Paine. Unos
turistas les llamaron la atención sobre algo extraño que habían encontrado, una gran piedra con algo
incrustado sobre ella. Una vez examinada, Fildani y Shultz vieron de inmediato que se trataba de un fósil,
probablemente de un reptil.
Posteriores investigaciones constataron que eran los restos de un ictiosaurio, un tipo de reptil marino que
vivió hace entre 250 y 90 millones de años. Estos animales se parecían a los actuales delfines, con morros
delgados y prolongados, y ojos desproporcionadamente grandes. Podían medir más de 12 metros y se
alimentaban de calamares, pescado y otros animales marinos. El fósil chileno contenía 17 vértebras y
algunas costillas, suficiente para facilitar su identificación.
Se tomaron fotografías y se hicieron dibujos, que llevaron al Servicio Nacional de Geología y Minería de
Chile, en Santiago. Allí, los paleontólogos determinaron que podía tratarse de un ictiosaurio de unos 3
metros de largo, que vivió hace 140 millones de años.
El descubrimiento es sorprendente por cuanto el ictiosaurio conocido más cercano a esta zona se halló a
unos 1.500 km al norte. Se extiende pues dramáticamente el campo de acción de esta especie y se aporta
veracidad a informes del hallazgo de unos supuestos dientes de ictiosaurio en la Antártida.
Hace unos 250 millones de años, todos los continentes de la Tierra formaban parte de un único
supercontinente llamado Pangea. Hace 200 millones de años, Pangea empezó a desmembrarse. Con el
80
AÑOS
2275
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
tiempo, los continentes del sur, incluyendo Sudamérica, África, India, la Antártida y Australia, se
separaron como una única masa llamada Gondwana.
En esta época, los ictiosaurios vivían en el mar de Tetis, en el lado oriental de Gondwana. Pero pronto,
estos grandes reptiles marinos, así como otras criaturas, migraron hacia la costa del Pacífico de
Sudamérica, en el lado occidental de Gondwana. Como los fósiles de ictiosaurio son habituales en la zona
norte de Sudamérica, los científicos creían que los reptiles habían llegado hasta allí viajando alrededor del
borde norte de Gondwana, a través de la región caribeña.
Pero este nuevo descubrimiento revela que los ictiosaurios vivían también más al sur. Es posible que
llegaran a esta zona por una ruta entre África y el resto de Gondwana, alimentada por el agua caliente
procedente del mar de Tetis (no podrían haber pasado por las frías aguas al sur de Gondwana). De
confirmarse, ello indicaría que existió mucho antes de lo que pensábamos un paso marino que separaba
África y Sudamérica de la Antártida y el resto de Gondwana.
Los científicos chilenos han confirmado la autenticidad del fósil de ictiosaurio y ya han organizado las
tareas adecuadas para extraerlo y conservarlo para su estudio.
Información adicional en: http://www.stanford.edu/dept/news/pr/03/ichthyosaur25.html
Gasolineras para el hidrógeno
Investigadores de la University of Warwick lideran un programa llamado "Hydrofueler", que permitirá
conectar las actuales gasolineras a la red de gas natural. De este modo, las estaciones de servicio podrán
suministrar combustible a los vehículos impulsados por hidrógeno.
Uno de los problemas que implica utilizar automóviles alimentados con hidrógeno reside en cómo
suministrar este gas a sus células de combustible de una forma sencilla y barata. Para los científicos de
Warwick, el criterio que hay que seguir es adaptar las actuales gasolineras, que representan una formidable
infraestructura ya disponible, con nueva tecnología que las convierta en suministradoras de hidrógeno.
Dicha tecnología producirá este elemento a partir del servicio de distribución de gas natural, al cual
deberán estar conectadas las estaciones de servicio. Pero para que ello sea posible es necesario resolver
varias dificultades. En particular, cómo producir hidrógeno a partir del gas natural en un espacio
confinado, utilizando un proceso automatizado controlado de forma remota.
Es obvio que ya existen procesos industriales a muy gran escala que producen hidrógeno a partir del gas
natural. Sin embargo, esta tecnología no puede reducirse a un tamaño compacto, para que sea práctica su
utilización en una gasolinera a un precio razonable.
Las investigaciones en la University of Warwick han avanzado para resolver estos problemas, y lo han
hecho mediante una combinación de tecnología innovadora de intercambio de calor, formas novedosas de
manipulación y utilización del calor y la presión dentro de un reactor, tecnología de reactores compactos, y
uso de nuevos catalizadores que incrementan mucho la eficiencia de las reacciones. Estas técnicas
permitirán desarrollar un reactor con el tamaño de unas tres mesas de despacho, que podrá ser instalado en
las gasolineras para producir hidrógeno de forma rentable y sin problemas de emisiones.
Otra ventaja de la tecnología propuesta es que el proceso emplea una serie de etapas en las cuales el
hidrógeno alcanza diferentes grados de pureza. Esto es ideal, puesto que distintos tipos de combustible
requerirán diferentes mezclas de hidrógeno. Si la tecnología pudiera hacerse aún más compacta, quizá en el
futuro será instalada directamente en los motores, a bordo de los automóviles.
Información adicional en: http://www.communicate.warwick.ac.uk/index.cfm?page=pressrelease&id=887
Espectacular NEAT
El cometa C/2002 V1 (NEAT) ha suscitado el interés de la comunidad científica. Su trayectoria lo ha
llevado muy cerca del Sol, donde su actividad ha aumentado de forma sustancial. Se ha convertido así en
el cometa más brillante observado por el instrumento LASCO, instalado en el Solar and Heliospheric
Observatory (SOHO). Sólo el SOHO puede enviarnos imágenes tan claras del cometa en su actual
posición. Los aficionados, por ejemplo, no pueden dirigir sus telescopios hacia él porque el brillo de la luz
solar cegaría sus cámaras. En cambio, el instrumento LASCO está equipado con un coronógrafo que
enmascara artificialmente este brillo y permite fotografiar la corona solar (incluidas las protuberancias) y
todo lo que se aproxima hasta ella, como este cometa. El espectáculo aumentó de magnitud el 18 de
febrero, cuando el Sol nos obsequió con una gran emisión de masa desde su corona, lanzándola hacia la
80
AÑOS
2276
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
región donde se encontraba el cometa. Los astrónomos están analizando si se produjo una colisión entre
ambos y si esto ocasionó algún efecto. Las protuberancias y estallidos solares suponen el lanzamiento de
gases súper-calientes al espacio. Estos fenómenos pueden afectar al ambiente terrestre, en particular a las
comunicaciones y las redes de distribución eléctrica. También pueden estropear los satélites en órbita y
perjudicar la salud de los astronautas. Los interesados en la evolución del cometa C/2002 V1 (NEAT)
cerca del Sol pueden acudir a la página web donde se almacenan las imágenes que el SOHO nos envía
constantemente a la Tierra. Estas fotografías son muy importantes porque son las que pueden advertirnos si
el cometa se fragmenta o no al pasar por su perihelio (distancia mínima respecto al Sol).
Información adicional en: http://soho.estec.esa.nl/hotshots/2003_02_12/
Doble uso
Las toxinas producidas por la bacteria Bt (Bacillus thuringiensis), utilizadas como insecticida natural en la
agricultura orgánica durante cinco décadas, podrían tener también un uso brillante en la lucha contra los
nematodos (gusanos redondos parásitos).
Los biólogos esperan obtener así un sistema barato y seguro para el medio ambiente que permita controlar
un tipo de plaga que destruye miles de millones de dólares al año en cosechas, que produce enfermedades
en animales de granja y mascotas, y que hoy en día infecta a una cuarta parte de la población humana.
Las enfermedades que producen en las personas son diversas, desde la ascariasis hasta el anquilostoma,
pasando por la elefantiasis. Los científicos están cada vez más preocupados por el grado de resistencia que
han desarrollado los nematodos parásitos hacia los fármacos disponibles. Pero un problema aún peor es el
coste de estos fármacos, como bien sabe cualquier propietario de mascotas.
Las toxinas de Bt, sin embargo, son baratas. Han tenido un papel esencial durante décadas en el control de
los insectos, como los mosquitos que transmiten enfermedades, sobre todo en los países del tercer mundo.
Ahora son utilizadas en algunos cultivos modificados genéticamente, como el algodón o los cereales, para
combatir las orugas y los escarabajos.
Además de ser fáciles de fabricar, las toxinas de Bt son muy seguras para los humanos y los animales
vertebrados, explica Raffi V. Aroian, de la University of California en San Diego. Todos los estudios
indican que estas toxinas, pequeños cristales de proteínas, son inofensivos para los animales con columna
vertebral.
Los biólogos de la UCSD habían descubierto que las toxinas de Bt llamadas Cry6A y Cry14A eran capaces
de reducir la habilidad del gusano C. elegans de producir numerosa descendencia. Además, otra proteína
denominada Cry5B era capaz de destruir los intestinos del mismo nematodo. Para determinar su estos
efectos podían aplicarse a otras especies de nematodos, se hicieron experimentos con ejemplares de
Pristionchus pacificus, Panagrellus redivivus, Acrobeloides sp., Distolabrellus beechi y Nippostrongylus
brasiliensis. Todos ellos mostraron diversos grados de susceptibilidad frente a los cristales de proteína de
Bt: algunos murieron, otros vieron reducida su descendencia y los demás vieron dañados sus intestinos.
Al menos uno de los nematodos que pueden morir (Nippostrongylus brasiliensis) es un parásito de
mamíferos, de modo que las toxinas de Bt podrán utilizarse para combatirlos en humanos. Sin embargo,
antes de ser aplicadas en la agricultura, deberán hacerse estudios para comprobar que las mismas toxinas
no afectan a otros gusanos que sí son beneficiosos, como los que viven en el suelo y que ayudan a
controlar las plagas de insectos. Información adicional en: http://ucsdnews.ucsd.edu/newsrel/science/mcbttoxin.htm
Breves del Mundo de la Ciencia
LOS RELÁMPAGOS EMITEN RAYOS-X: Cualquiera ha escuchado ruidos en su receptor de radio
durante una tormenta eléctrica. Los rayos, en efecto, emiten señales de radio, pero hasta ahora nadie había
detectado que emitieran ondas de energía de frecuencia mucho más alta, como los rayos-X, los rayos
gamma o los electrones relativistas.
INCENDIOS DE CARBÓN: Aunque suelen pasar desapercibidos en las noticias diarias, hay en el mundo
varios incendios subterráneos que amenazan al medio ambiente y a la salud humana.
EL ORIGÉN DE LA AGRICULTURA EN EL NUEVO MUNDO: Nuevas evidencias arqueológicas
señalan hacia un origen independiente de la agricultura en la costa ecuatoriana hace entre 10.000 y 12.000
años.
80
AÑOS
2277
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
IMÁGENES DE UNA FEROMONA: Investigadores del Instituto Médico Howard Hughes han
comenzado a desentrañar la forma en la que un misterioso sexto sentido guía la atracción animal. Los
científicos han realizado los primeros registros de patrones de actividad cerebral que tienen lugar cuando
un ratón investiga el sexo y la identidad de un animal con el que se acaba de encontrar.
EL RELOJ MAS PRECISO: El reloj atómico más reciente es tan preciso que sus creadores creen que no
perderá ni ganará un segundo en los próximos 4.500 millones de años.
FALSAS ALARMAS: La red de escucha de pruebas nucleares clandestinas se ve afectada, a menudo, por
la llegada de meteoritos que atraviesan la atmósfera, provocando una alarma no real. Un investigador del
Los Alamos National Laboratory ha cuantificado este fenómeno para hacer más fiables los resultados de la
red.
LA GENÉTICA PODRÍA RESOLVER LOS MISTERIOS DE LA EVOLUCIÓN HUMANA: Hace unos
100.000 años, el Homo sapiens ya se había desarrollado en el continente africano. Durante 50.000 años,
permaneció confinado allí, comportándose como el H. neanderthalensis europeo y el H. erectus asiático.
Pero entonces, su comportamiento cambió drásticamente.
POLÍMERO GENERADO A PARTIR DEL MAÍZ: Scott Nichols, investigador de DuPont a cargo de este
proyecto, expuso ante la comunidad científica las claves del nuevo polímero DuPont Sorona. Se trata de un
novísimo proceso que desplazará al petróleo en la obtención de polímeros.
BANCOS DE GENES: La idea de congelar y almacenar en algún lugar el material genético de plantas y
animales en peligro de extinción, suena más como una secuela de Parque Jurásico que como una realidad,
pero es algo que ya está en marcha.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
LA INSTITUCIONALIZACIÓN DE LA CIENCIA
La ciencia tal y como la conocemos, es decir, como institución patrocinada socialmente y
como profesión legítima reconocida por la sociedad, es un producto histórico
relativamente reciente.
No estamos muy lejos de los siglos XVI y XVII donde al quehacer científico, si se le
pudiera llamar de esa forma, se dedicaban unos cuantos hombres inquietos sin más
presupuesto que el que de sus propios bolsillos pudieran obtener, o el de algunos nobles
o mercaderes ricos que estuvieran dispuestos a patrocinarlos a cambio del
entretenimiento que con sus ocurrencias “filosóficas” e ingeniosos aparatos pudieran
brindarles los virtuosi.
El reconocimiento definitivo de la ciencia como institución social de primera
importancia, tanto en la cultura como en la producción, se dio en el momento en que se
crearon las primeras sociedades científicas. Entre las primeras se cuentan la Academia
dei Lincei, fundada en Roma alrededor de 1600, la de Cimento en Florencia (1651) y las
dos que a la larga tuvieron mayor trascendencia histórica: La Académie Royale des
Sciences en Francia (l666) y la prestigiada Royal Society of London (1662).
Todas estas sociedades fueron formándose a partir de reuniones informales que grupos
de amigos realizaban para discutir las nuevas ciencias de su época. Inicialmente, dichas
sociedades no contaban con patronazgo o subvención alguna y la única fuerza cohesiva
del grupo la constituía el propio interés de sus miembros.
Hay que decir, a favor de estas sociedades, que no sólo mantuvieron un foro de discusión
para asuntos científicos, sino que otra de sus actividades importantes fue la divulgación
de sus ideas y puntos de vista, a través de publicaciones regulares. Éstas jugaron un papel
fundamental en la apreciación de la ciencia por la sociedad. Así, la Academia Francesa
80
AÑOS
2278
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
inició el Journal des Savants y la Royal Society su Philosophical Transactions. Estas
publicaciones, que en sus principios comprendían temas científicos y filosóficos muy
generales, fueron dando origen a numerosas revistas especializadas, muchas de las cuales
perduraron hasta nuestros días.
Tuvo que pasar todavía algún tiempo para que la profesión del científico fuese
socialmente reconocida y la ciencia dejara de ser contemplada como una ocupación rara
a la que sólo se dedicaban los “gentlemen” y aristócratas en sus ratos de ocio. John D.
Bernal cita a un tal Whemell como el primero, en una obra llamada Filosofía de las
ciencias inductivas, fechada en l840, en proponer el uso de la palabra científico:
“Necesitamos un nombre para designar a aquel que se dedica al cultivo de la ciencia en
general. Yo me inclinaría llamarlo científico”. Hasta aquí lo que se refiere a Europa
como cuna de la ciencia moderna.
En cuanto a México, la situación de la ciencia ha tenido y sigue teniendo grandes
altibajos. Eli de Gortari, en su monumental obra La ciencia en la historia de México,
hace un detallado inventario de los logros alcanzados en la ciencia y la tecnología, por
los pueblos del México precortesiano. Estos pueblos tuvieron un desenvolvimiento
cultural bastante notable, sobre todo en el campo del conocimiento científico, alcanzando
un nivel destacado.
En matemáticas, astronomía, agricultura, medicina, trabajos de los metales, construcción,
obras hidráulicas y artesanías, nuestros antepasados lograron adquirir un desarrollo
sumamente amplio y profundo, sólo que este desarrollo fue interrumpido de manera
violenta y definitiva por los conquistadores.
Posteriormente, pueden distinguirse tres épocas durante las cuales se ha intensificado
notablemente la actividad científica en nuestro país. Cito a de Gortari:
la primera de ellas comprendió las tres últimas décadas del siglo XVIII y la primera
del siglo XIX; la segunda abarcó desde el último tercio del siglo XIX hasta los
primeros años del siglo XX; y la tercera –en la cual nos encontramos ahora– se
inició después de la revolución de 1910. Fue en la primera época “cuando se inició
en México la secularización de la enseñanza y se introdujeron la ciencia y la
filosofía modernas. El resultado fue que se produjo un auge inusitado en la
investigación científica.
mismo que fue interrumpido como consecuencia de los graves conflictos sociales y
políticos que se suscitaron después de la guerra de independencia.
La segunda época se dio a partir de la instauración de las leyes de reforma, pues en ellas
se declaró obligatoria y gratuita la enseñanza primaria, y se ensanchó
considerablemente la enseñanza media y se mejoró de un modo conspicuo la
educación superior. Por otra parte, se fundaron varios institutos de investigación
científica y se formaron muchas sociedades científicas que promovieron la
ejecución de una gran cantidad de trabajos científicos [...] Sin embargo, antes de que
pudiera llegar la etapa de la elaboración científica propiamente dicha, el gobierno
porfirista destruyó las bases liberales del movimiento de reforma [...]
teniendo, entre otros muchos efectos, el haber tergiversado y detenido el movimiento de
investigación científica. (Las citas anteriores son del ensayo Problemas de la historia de
la ciencia y la tecnología en México de Eli de Gortari, aparecido en Reflexiones
Históricas y Filosóficas de México, Grijalbo, 1982.)
80
AÑOS
2279
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 192/451
Fue a partir de los logros de la Revolución Mexicana que, poco a poco, se han ido
sentando las condiciones propicias para el desarrollo de la actividad científica. De nuevo
comenzaron a crecer y multiplicarse las sociedades y publicaciones científicas, y en
nuestras universidades –con grandes dificultades económicas a veces, luchando contra la
incomprensión, en otras– se han abierto carreras que pueden catalogarse, sin lugar a
dudas, como carreras científicas. Durante la última década, la formación de varios miles
de investigadores y la apertura de centros, instituciones e institutos de investigación, han
constituido un enorme paso para el desarrollo de la ciencia en México.
Sin embargo, quienes hemos elegido la profesión científica, en cualquiera de sus ramas,
nos encontramos frecuentemente con manifestaciones de incomprensión sobre los
objetivos, logros y alcances de nuestra actividad. Muchas veces somos objeto de críticas
infundadas que parten de puntos de vista deformados sobre las tareas de investigación
científica. Esta situación puede explicarse porque la ciencia en México apenas está en
vías de alcanzar su institucionalización plena. Por una parte, los medios de divulgación
científica son todavía pocos y modestos en sus alcances; por otra parte, la insuficiencia
de recursos para realizar trabajos de investigación provoca que la productividad sea poca
y de alcances limitados.
Se ha insistido en muchas ocasiones sobre la gran importancia que tiene para México el
desarrollo científico y tecnológico, como también se ha tratado de hacer ver la urgente
necesidad de diseñar una política científica para aprovechar al máximo los recursos
disponibles.
Para no perder otra oportunidad de consolidar a la ciencia como factor básico de
desarrollo social, hace falta un apoyo decidido a las tareas de investigación y a la
formación de científicos, además de una participación, también decidida, de los propios
investigadores para volver más productivo y eficiente su trabajo, en el marco de una gran
responsabilidad y solidaridad social que, en estos momentos tanta falta nos hace.
El Cabuche (crónicas de la Facultad de Ciencias)/ Todo por la paz
En acción desesperada por la paz, estuvimos a punto de solicitarle al Angelito
intercediera con su otro primo (no el ruso, el norteamericano) para ver si lograba
convencerlo de cambiar su voto ante el Consejo de Seguridad de la ONU (en la bronca
que nos metió Castañeda), más que el voto la propuesta de intervenir militarmente en
Iraq, en legitima respuesta al acoso que Bush hace sobre el gobierno de México para
torcerle la manita e incidir en la opinión que emitirá en la ONU, pero resultó que no era
su primo. La confusión se debió a las reiteradas menciones del Facus, el Chino y otra
raza, de Negroponte. Tarde me di cuenta que era en minúscula. Así que el Angelito no se
apellida Negroponte, aunque la duda persiste, ¿por que le dirán negroponte? Así con
minúscula. Pensar que la salida al conflicto iraquí estaba en sus manos. ¡En fin! Por un
momento su parentela fue de Tamasopo en la puerta de la Huasteca, a Rusia con los Putin
y, a Estados Unidos con los Negroponte.
Para hablar de la Huasteca, hay que haber nacido allá/saborear su carne seca
con traguitos de mezcal/Fumar cigarrillo de hoja prenderlo con
pedernal/Aquel que mejor lo moja más largo lo fumará
80
AÑOS
2280
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.193, 3 de marzo de 2003
No. acumulado de la serie: 452
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
5 de marzo de 1956
Inicio formal de una
aventura, cuya
historia continúa
forjándose
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
ESCUELA DE FÍSICA
UASLP
Hoy
Facultad de Ciencias
1956-2003
El Hijo de El Cronopio No. 193/452
HUMOR CIENTÍFICO
Fís. Guillermo Enderle Aburto (Exalumno, Escuela de Física-UASLP)
Los conceptos físicos son creaciones libres del espíritu humano y no están por más que
lo parezca, determinados unívocamente por el mundo exterior. En nuestro empeño de
concebir la realidad, nos parecemos a alguien que tratara de descubrir el mecanismo
invisible de un reloj, del cual ve el movimiento de las agujas, oye el tic-tac, pero no le es
posible abrir la caja que lo contiene. Si se tratara de una persona ingeniosa e inteligente,
podrá imaginar un mecanismo que sea capaz de producir todos los efectos observados;
pero nunca estará segura de si su imagen es la única que los pueda explicar. Jamás podrá
compararla con el mecanismo real, y no puede concebir, siquiera, el significado de una
tal comparación. Como él, el hombre de ciencia creerá ciertamente que, al aumentar su
conocimiento, su imagen de la realidad se hará más simple y explicará mayor número de
impresiones sensoriales. Puede creer en la existencia de un límite ideal de saber, al que
tiende el entendimiento humano, y llamar a este límite la verdad objetiva.
Es en realidad imposible dividir la ciencia en ramas separadas y sin relación entre sí. Un
método desarrollado en una rama de la ciencia puede muy a menudo aplicarse para la
descripción de sucesos de naturaleza, en apariencia, totalmente distinta.
El calor no es, ciertamente, una sustancia en el mismo sentido que la masa, ya que éste
no se puede pesar en una balanza; un trozo de hierro frío no pesa menos que uno caliente.
¿Si el calor es una sustancia, tiene que ser imponderable?
El objeto de toda teoría física es la explicación del más amplio conjunto de fenómenos
posibles. Se justifica mientras nos hace inteligibles sucesos de la naturaleza.
Pruebas capaces de pronunciar un veredicto de vida o muerte de una teoría se dan
frecuentemente en la física y son llamadas experimentos cruciales.
El análisis desemboca en ordenar todo el material de su experiencia en términos de
desarrollo ideal. Esa referencia fundamental es la tensión, la oposición, para designarla
finalmente por su nombre, entre proceso primario y proceso secundario, entre principio
de placer y principio de realidad.
Freud, en el curso de su llamado autoanálisis, escribe en una carta, la carta 73 Meine
Analyse geht weiter, mi análisis prosigue, es mi interés principal, mein Hauptinteresse,
todo sigue estando todavía oscuro, incluso los problemas en juego, pero tiene un
sentimiento de comodidad -es, dice, como si uno tuviese más que buscar en una cámara
de provisiones para sacar de ella lo que se necesita. Lo desagradable, dice, son die
Stimmungen, en el sentido más general que podemos darle a esas palabras que tiene su
resonancia especial en alemán los estados de humor, los sentimientos que, por su
naturaleza, cubren ocultan- ¿qué? -die Wirklichkeit, la realidad.
Freud interroga en términos de Wirklichkeit lo que se le presenta como Stimmung. La
Stimmung le revela que tiene que ir a buscar en su autoanálisis, qué interroga, aquello
mismo donde tiene la impresión de tener; como en una cámara oscura, en una cámara de
provisiones, Vorratskammer, todo lo que necesita y que lo espera, allí, en reserva. Pero
no es guiado hacia eso por sus Stimmungen.
La experiencia de Freud se instaura con la búsqueda de la realidad que hay en algún lado
en su propio seno, y esta constituye la originalidad de su punto de partida. Agrega, por
otro lado, en la misma línea -incluso la excitación sexual es, para alguien como yo
inutilizable en esta vía. No me fío ni siquiera en eso para ver dónde están las realidades
80
AÑOS
2282
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
últimas. Él agrega -conservo en todo este asunto mi buen humor. Antes de llegar al
resultado debemos todavía saber conservar un instante la paciencia.
No hay teoría en la ciencia. Siempre se da el caso de que algunos de los hechos predichos
teóricamente quedan contra dichos por la experiencia. Cada teoría tiene su período de
gradual desarrollo y triunfo, tras el cual puede experimentar un rápido declive. El
ascenso y el declive de la teoría del calor considerada como una sustancia, que ha sido ya
discutida, es uno de los posibles ejemplos.
Por lo general, todo gran progreso en la ciencia debe su origen a la crisis de una teoría
aceptada y al esfuerzo para hallar el camino que permita salir de ella. De ahí que el
científico se vea obligado a examinar las viejas teorías, aunque pertenezcan al pasado,
por que ésta es la única manera de entender la importancia de las nuevas y la extensión
de su validez.
Al comparar el papel de un investigador con el de un detective, quien después de reunir
los datos indispensables, encuentra la solución correcta mediante un proceso puramente
mental. En cierto sentido esta comparación debe de considerarse muy superficial. Tanto
en la vida como en las novelas policíacas, el crimen existe. El detective tiene que buscar
cartas, huellas dactilares, balas, armas, pero por lo menos sabe que se ha cometido un
asesinato. Este no es el caso para un hombre de ciencia.
Para el detective, el crimen, repetimos, existe y planteando el problema: ¿Quién mató a
Pito Pérez?... El hombre de ciencia, por lo menos en parte, comete su propio crimen, así
como realiza la investigación. Mas aún, su labor no es la de explicar un caso
determinado, sino todos los fenómenos que han sucedido o que puedan suceder.
Colofón.
Freud describió el tipo caracterológico de los "arruinados por el éxito", personas en que
el sentimiento de culpa (superyó severo) inconscientemente por su sexualidad infantil
sigue siendo tan intenso que no les permite gozar de ningún éxito.
Algunas personas pagan su tributo al superyó, no en forma de sufrimientos sino de
éxitos. Para ellos, el éxito tiene la virtud de anular culpas y fracasos anteriores. Como
ninguna hazaña puede anular realmente la culpa inconsciente, estas personas sienten la
compulsión de correr tras los éxitos, sin sentirse nunca satisfechos de sí mismos. Son los
Don Juanes del éxito.
Referencias
Otto Fenichel. Teoría psicoanalítica de las neurosis.
A. Einstein, L.Infield. La evolución de la física.
Jaques Lacan. El seminario 7. La ética del psicoanalisis.
Muestra NASA infancia del Universo
El Universo se formó hace 13 mil 700 millones de años
Con información de AFP y Reforma
La NASA dio a conocer las fotografías más detalladas hasta ahora obtenidas de los
primeros instantes del cosmos tomadas por la sonda WMAP, que confirman que el
Universo tiene una edad de 13 mil 700 millones de años.
La imagen muestra las fluctuaciones en su temperatura de hace más de 13 mil millones
de años, que son las 'semillas' que crecerían para llegar a formar las galaxias.
80
AÑOS
2283
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
Una de las grandes sorpresas que se reveló es que la primera generación de estrellas
surgieron 200 millones de años después del Big Bang, mucho más temprano de lo que se
pensaba.
"Tomamos una imagen detallada del Universo en su infancia, y gracias a esta foto
seremos capaces de describirlo con una precisión sin precedentes", dijo Charles Bennett,
jefe de la misión WMAP en el centro espacial de la NASA en Greenbelt Maryland..
Estas imágenes fueron tomadas por la sonda WMAP (Wilkinson Microwave Anisotropy
Probe) lanzada el 30 de junio de 2001 de Cabo Cañaveral, Florida.
En órbita en torno al punto llamado Lagrange 2 (L2), a un millón y medio de kilómetros
de la Tierra, la misión de la sonda es trazar un mapa del Universo, midiendo con una
precisión de una millonésima de grado Kelvin las ínfimas fluctuaciones de temperatura
(anisotropías) presentes en el cosmos 400 mil años después del Big Bang, la gran
explosión en la que se originó.
De esta explosión inicial se conserva un rastro fósil llamado "fondo difuso cosmológico",
una "luz" que nos llega hoy bajo la forma de irradiación de microondas de una
temperatura vecina a los 3 grados Kelvin (- 270°C). Esa irradiación fósil, que empleó
más de 13 mil millones de años en llegarnos, fue captada por la sonda MAP observando
durante 12 meses la esfera celeste en todos sus rincones.
Una de las mayores sorpresas reveladas por esas imágenes reside en el descubrimiento de
que las primeras estrellas que brillaron en el Universo se "iluminaron" unos 200 millones
de años después del Big Bang, mucho antes de lo que se pensaba.
Además, la nueva imagen de la infancia del Universo permite situar más precisamente su
edad en 13 mil 700 millones de años, con un margen de error sorprendentemente
estrecho de 1 por ciento.
"Esos datos son sólidos, una verdadera mina de oro", dijo Bennett.
Noticias de la Ciencia y la Tecnología
Misterio lunar resuelto
Durante la madrugada del 15 de noviembre de 1953, el astrónomo aficionado Leon Stuart fotografió lo que
creyó era un estallido en la superficie de nuestro satélite. Si su teoría era correcta, fue el primer ser humano
de la historia que presenció y documentó el impacto de un asteroide contra la Luna.
Pero tras el envío de numerosas sondas espaciales y de seis alunizajes tripulados, el caso permanecía aún
abierto. Algunos expertos opinaban que el estallido era la entrada de un meteorito en nuestra propia
atmósfera, y otros simplemente que se trataba de un fallo en la película.
Medio siglo después, Bonnie J. Buratti, del Jet Propulsion Laboratory, y Lane Johnson, del Pomona
College, creen haber encontrado las pruebas definitivas de que Stuart tenía razón.
Los dos científicos utilizaron la fotografía del aficionado como punto de partida. En función del brillo,
estimaron la energía producida por la colisión, y después calcularon el tamaño del cráter que habría
resultado. Concluyeron así que habría sido demasiado pequeño como para poder ser visto incluso con los
mejores telescopios terrestres, de manera que buscaron otras fuentes de documentación.
Las encontraron en las imágenes de alta resolución enviadas por la sonda Clementine en 1994. En ellas
hallaron un pequeño cráter sustancialmente más brillante que otros cercanos, que parecía el escenario del
"acontecimiento de Stuart".
Se ha estimado que el objeto que golpeó la Luna tenía aproximadamente 20 metros de diámetro. El cráter
producido debía pues medir entre 1 y 2 km, y tener un aspecto "fresco" o reciente. La superficie envejecida
por la radiación espacial tiene un color rojizo, mientras que las zonas nuevas reflejan más luz que los
alrededores y son azuladas. Efectivamente, el cráter encontrado por Buratti y Lane, visible en las imágenes
80
AÑOS
2284
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
de la Clementine, tiene 1,5 km de diámetro, está justo en el medio de la zona afectada, bien visible en la
imagen de Stuart, y tiene un aspecto reciente.
Sobre la base de estos datos, se ha calculado que el choque liberó una energía equivalente a una explosión
de 0,5 megatones, unas 35 veces la que produjo la bomba atómica de Hiroshima. Las estimaciones indican
que tales sucesos ocurren en la Luna una vez cada medio siglo, aunque hasta ahora habían sido muy
difíciles de detectar y fotografiar.
Stuart murió en 1969, pero su hijo Jerry cree que a su padre le hubiera hecho muy feliz el descubrimiento.
Información adicional en: http://www.jpl.nasa.gov/releases/2003/23.cfm
Nueva técnica de autoensamblaje molecular
Investigadores de la University of Pennsylvania y de la University of Sheffield informan en la revista
Science sobre la creación de moléculas en forma de árbol que son capaces de ensamblarse por sí mismas,
formando bloques de construcción estructurados de manera precisa de un cuarto de millón de átomos.
Tales bloques podrían ser los precursores de futuras formas de diseñar nanoestructuras para electrónica
molecular o materiales fotónicos, los cuales "conducen" la luz de la misma manera que los chips lo hacen
con los electrones.
Virgil Percec y sus colaboradores han desarrollado un modelo que imita lo que ocurre durante el
autoensamblaje de las células biológicas. Es la primera vez que se obtienen estructuras supramoleculares a
tan gran escala, que se autoensamblan para dar lugar a sistemas tan excepcionalmente grandes y
complejos.
El objetivo de la ciencia fotónica es controlar la luz de la misma manera que la electrónica controla y usa
los electrones. Un cristal fotónico que funcionase tendría que tener el tamaño aproximado de la longitud de
onda de la luz, del orden de cientos o miles de nanómetros, y a pesar de todo estar estructurado de forma
precisa para que interactuase con la luz de manera predecible. Las técnicas de Percec y sus colegas
ayudarán a los químicos a diseñar materiales que se autoensamblen y que se aproximen al tamaño fotónico.
Los investigadores empiezan con moléculas orgánicas parecidas a árboles, llamadas dendrones, cada una
de las cuales tiene un aspecto cónico. Doce de los dendrones se autoensamblan en esferas de 8.500 átomos.
Una vez ensambladas, estas esferas se convierten en un "cristal líquido", un material que fluye como un
líquido pero que tiene las mismas propiedades de un sólido cristalino.
Bajo las condiciones adecuadas, las moléculas de cristal líquido se "empaquetan" por sí solas formando
patrones muy regulares y repetitivos, algo así como un enrejado. Una estructura común de este tipo se
parece a varias capas de pelotas de golf bien dispuestas en una caja. Sin embargo, las esferas creadas por
Percec y su equipo no forman estructuras comunes sino que dan lugar a formaciones complejas.
Se obtienen así objetos extremadamente grandes, con propiedades particulares. El "bloque de
construcción" que se repite, o unidad celular, comprende 30 esferas, más de 250.000 átomos, y ocupa un
volumen rectangular de casi 20 por 10 nanómetros. Como comparación, el virus del resfriado común tiene
diámetros de unos 25 nanómetros. Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0322.htm
La importancia del núcleo celular
Según la bióloga Kathy Wilson, de las Johns Hopkins Medical Institutions, educadores y científicos
deberían empezar a abandonar la idea de que el núcleo celular es sólo un saco de cromosomas. Nuevas
técnicas de toma de imágenes permiten afirmar que el núcleo es la verdadera "nave nodriza" de la célula,
una fuente crucial y muy activa de información, apoyo y control.
En cierta manera, no es sorprendente que el núcleo haya quedado eclipsado por los recientes
descubrimientos relacionados con el material genético y la maquinaria que depende de él. Pero en los
últimos 10 ó 15 años se han acumulado evidencias de que estos procesos interiores están conectados de
forma activa al núcleo, y que por tanto no sólo "ocurren" de forma aleatoria en su interior.
Wilson y otros colegas han investigado ciertas proteínas que forman redes a través del núcleo y que pueden
ser el origen de enfermedades como la distrofia muscular de Emery-Dreifuss, u otras relacionadas con el
esqueleto, el corazón, el cerebro o la grasa corporal.
La división celular es otro misterio en el que el núcleo juega un importante papel. Aunque el ciclo general
se entiende bien (los cromosomas son copiados y empujados hacia extremos opuestos de la célula,
permitiendo su división en dos partes), los detalles todavía son algo confusos. Por ejemplo, los
80
AÑOS
2285
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
cromosomas están dentro del núcleo, mientras que la maquinaria que los empuja hacia un lado u otro se
encuentra fuera de él. El propio núcleo tiene que desaparecer antes de que la célula pueda dividirse, y todos
creían hasta ahora que simplemente se desmoronaba. Pero recientes investigaciones muestran que esta
descomposición es un proceso orquestado similar al que separa a los cromosomas. Implica a las mismas
estructuras y los mismos diminutos motores, como si fuera un ensayo previo al movimiento de los
cromosomas.
Los nuevos campos de investigación exploran la estructura y función de los "poros" de la membrana
nuclear, las conexiones entre el núcleo celular y las enfermedades, su comportamiento durante la división
celular, etc. Información adicional en: http://www.hopkinsmedicine.org/press/2003/February/030217.htm
Cinturones de seguridad para edificios
La instalación de cables de acero junto a los suelos de edificios ya construidos podría ser una forma
efectiva de evitar su catastrófico colapso en caso de que estalle una bomba terrorista. Las pruebas han sido
realizadas por investigadores de la University of California en Berkeley.
Encabezado por Abolhassan Astaneh-Asl, un profesor de ingeniería civil, un grupo de cuatro estudiantes
ha conseguido ensayar con éxito un sistema que desplazaría la carga de un piso en caída hacia una serie de
cables de soporte, en caso de que se destruyera una columna por un desastre natural, como un terremoto, o
por una bomba terrorista.
Un cable, según Astaneh, es el mejor elemento estructural disponible para reducir un impacto. Dada su
naturaleza, es muy flexible, doblándose sin romperse bajo una carga lateral, pero aún y así puede
transportar grandes fuerzas de tensión, de manera similar a como actúan los cables de un puente colgante.
El sistema de cables fue diseñado para responder a la vulnerabilidad de las columnas de apoyo exteriores
de un edificio, las que están más cerca de las aceras y la calle. Es casi imposible mantener alejados a los
terroristas de estas columnas. Puede aparcarse un vehículo cargado de explosivos junto a una de ellas,
como ocurrió en Oklahoma City, en el Alfred P. Murrah Federal Building, y provocar una reacción en
cadena para que los pisos superiores caigan en sucesión. En Oklahoma se derribó la mitad del edificio y
murieron 168 personas.
Para probar el sistema de cables, se construyó a tamaño real el lateral de un piso con cinco columnas de
apoyo. Se hicieron tres pruebas, una sin la participación de cables, y dos contando con ellos. Los cables
habían sido fabricados con 30 hebras de hilos de acero trenzados. Se pasaron los cables por agujeros de
una pulgada de ancho practicados en las columnas, y se aseguraron al suelo de hormigón. Durante las dos
primeras pruebas, se derribó una columna de apoyo vital y se aplicaron más de 120.000 libras de fuerza
descendente sobre el debilitado suelo, simulando el peso del piso, lleno de gente y de equipos de oficina,
en la zona de la inexistente columna. En la tercera prueba, se dobló la cantidad de peso para buscar los
límites del sistema de cables.
Durante el primer ensayo, una de las conexiones entre la viga del piso y la columna se rompió
completamente. Utilizando cables, en la segunda prueba el piso empezó a combarse en el punto donde
había sido retirada la columna. Pero aunque se oyeron ruidos de grietas, los cables impidieron el colapso
del techo. En el tercer ensayo, el piso descendió algo más (casi un metro), pero el cable aún lo mantuvo
conectado a las columnas adyacentes, que soportaron más carga.
Los cables, pues, previenen un colapso progresivo y catastrófico, dando tiempo a la evacuación. Los daños
son también menores, y se pueden reparar fácilmente. Utilizando modelos por ordenador, se ha averiguado
que si la fuerza aplicada es gradual, el cable puede soportar un 40 por ciento más de carga que si el origen
es una deflagración explosiva. Teniendo en cuenta esto, se podrán diseñar cables que tengan en cuenta
estas diferencias. Información adicional en: http://www.berkeley.edu/news/media/releases/2003/02/20_cables.shtml
El instrumento SeaWinds ya funciona
Instalado a bordo del satélite de teledetección japonés ADEOS-2 (Midori-2), el instrumento SeaWinds del
Jet Propulsion Laboratory ha obtenido sus primeras imágenes de radar en alta calidad, mostrándonos
cómo se mueven los vientos sobre la superficie oceánica terrestre.
Durante los próximos cinco años, el SeaWinds medirá la velocidad y la dirección del viento, así como la
extensión del hielo marino y algunas propiedades de tierra firme. Sus productos serán utilizados por
climatólogos, meteorólogos y oceanógrafos para entender mejor y predecir patrones meteorológicos
80
AÑOS
2286
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
importantes, el cambio climático o fenómenos anormales de alcance global como El Niño. Con esta
información, las rutas marítimas serán mucho más seguras.
Aunque el SeaWinds apenas ha entrado en su fase de calibración y ensayo, las imágenes que nos está
enviando ya tienen un gran interés y calidad. Combinando sus datos con las mediciones de otros
instrumentos del Midori-2 y de otros satélites internacionales, se podrán hacer estudios detallados de la
circulación oceánica, la interacción entre el mar y el aire, y las variaciones climáticas, algo que no era
posible hasta ahora.
La primera imagen distribuida por el equipo de expertos que controla el uso del SeaWinds, obtenida entre
los días 28 y 29 de enero de 2003, muestra a los continentes de la Tierra de color verde, las regiones
polares cubiertas de hielo de color rojo-azulado, y el hielo marino de color gris. Las diversas intensidades
señalan parámetros tales como el deshielo, diferencias de rugosidad en el terreno o la espesura de la
cubierta vegetal. Por su parte, la velocidad del viento en la superficie de los océanos se aprecia también
bajo un código de color: los azules corresponden a vientos de baja velocidad, y los rojos a vientos de hasta
14 m/s. Las flechas negras indican la dirección del viento, mientras que los espacios en blanco muestran
áreas que no han sido medidas por el instrumento durante el período correspondiente.
El SeaWinds emite pulsos de microondas de alta frecuencia hacia las masas de tierra, la cubierta de hielo y
la superficie oceánica, midiendo después la intensidad de los ecos recibidos. Se necesitan millones de
mediciones de este tipo para cubrir diariamente el 93 por ciento de la superficie terrestre, operando en
cualquier condición meteorológica, de día y de noche. Sobre los océanos, la velocidad del viento y su
dirección se calculan a partir de las ondas que el radar detecta en el agua. Son estos vientos de superficie
los que controlan el intercambio de calor, humedad y gases entre la atmósfera y los mares.
El Midori-2 fue lanzado el 14 de diciembre de 2002. El SeaWinds fue activado por primera vez el 10 de
enero, pasando a su modo operativo normal el 28 de enero. El día 31, se completaron las comprobaciones
rutinarias. En abril comenzará un período de seis meses protagonizado por la fase de calibración y
validación. En octubre se iniciarán las operaciones científicas.
Información adicional en: http://www.jpl.nasa.gov/releases/2003/24.cfm
Niebla intergaláctica
¿De qué está hecho el Universo? Esta pregunta fundamental ya empieza a tener respuesta: la "receta" nos
habla de un 73 por ciento de "energía oscura", un 23 por ciento de "materia oscura" y sólo un 4 por ciento
de materia normal. Los astrónomos, que tienen dificultades incluso para localizar a esta última, piensan
ahora que la masa que falta se encuentra en forma de "niebla caliente intergaláctica".
Habitualmente, somos capaces de detectar la materia normal bariónica (protones, electrones y neutrones)
cuando forma parte de estrellas luminosas, o cuando bloquea la luz estelar (es el caso de las enormes y
oscuras nubes moleculares). Pero si sumamos la masa de todas las estrellas y nubes conocidas, veremos
qué aún no alcanzamos la cifra teórica que constituye la materia normal (el mencionado 4 por ciento que
contribuye a dar forma al Universo).
El astrónomo Fabrizio Nicastro, del Harvard-Smithsonian Center for Astrophysics, y sus colegas, creen
haber localizado un gran reservorio hasta ahora desconocido de bariones en nuestro grupo local de
galaxias. Esta materia bariónica forma una especie de niebla caliente que rodea a la Vía Láctea y sus
vecinas. Según las investigaciones, esta niebla caliente podría contener hasta dos tercios de la materia
normal presente en las cercanías de nuestra galaxia.
El hallazgo no ha sido fácil. Los astrónomos no pueden ver esta niebla intergaláctica porque es demasiado
difusa, a pesar de que su temperatura se encuentra entre los 100.000 y los 10 millones de grados Kelvin, lo
que hace que brille débilmente en el espectro de los rayos-X. Para detectarla, se ha utilizado un truco:
observar la "sombra" que arroja. Nicastro y su equipo observaron en la longitud de onda de los rayos-X y
el ultravioleta allí donde la niebla intergaláctica absorbía la luz de fuentes lejanas como cuásares y núcleos
galácticos activos. Los datos se consiguieron gracias al observatorio espacial FUSE (Far Ultraviolet
Spectroscopic Explorer), que les ayudó a identificar unas 50 nubes, o bancos de niebla, rodeando a nuestra
galaxia en todas direcciones.
Los átomos de las nubes individuales absorben luz en longitudes de onda específicas, creando líneas
oscuras en los espectros de las fuentes luminosas situadas más allá. El movimiento de una nube, además,
desplaza la longitud de onda de su línea espectral debido al efecto Doppler. Gracias a estos
desplazamientos, Nicastro derivó las velocidades radiales de las nubes, consiguiendo pistas sobre su origen
y posición. Estos estudios confirmaron que las nubes calientes forman parte, casi con toda seguridad, del
80
AÑOS
2287
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
grupo local de galaxias, que incluye a nuestra Vía Láctea, la Galaxia de Andrómeda y otras 30 galaxias
más pequeñas.
La cantidad de material detectada por el FUSE y el telescopio espacial Chandra sugiere que la niebla de
este grupo local contienen una masa equivalente a la de 1 billón de soles como el nuestro. En cuanto a su
procedencia, los astrónomos piensan que se trata de materia residual del proceso de formación de la
galaxia, una reliquia de la historia temprana del Universo.
Algunas teorías indican que el joven Universo estaba lleno de una mezcla casi homogénea de hidrógeno y
helio. Acumulaciones de materia oscura dentro de esta sopa primordial actuaron como semillas para la
formación galáctica. A lo largo de varios cientos de millones de años, la fuerza de la gravedad reunió a
parte de la materia normal del Universo para formar las galaxias que contienen miles de millones de
estrellas. Sin embargo, sólo un tercio de la materia bariónica fue consumida de este modo. El resto aún
flota entre las galaxias, invisible excepto por la sombra que arroja.
Información adicional en: http://cfa-www.harvard.edu/press/pr0306.html
Un buen fósil
Una mandíbula fosilizada de 1,8 millones de años de antigüedad encontrada en Tanzania, perteneciente a
un homínido, podría estar entre los cinco mejores especimenes conocidos, de los aproximadamente 50 que
se han encontrado hasta ahora y que representan a los miembros más antiguos del género Homo, al que
pertenece la especie humana.
Robert Blumenschine, profesor de antropología de la State University of New Jersey en Rutgers, y sus
colegas, han descrito en la revista Science este espécimen que encontraron en la Olduvai Gorge en 1995,
una zona rica en fósiles que se hizo muy conocida a principios de los años 60 debido a los descubrimientos
de Louis y Mary Leakey.
La mandíbula, designada OH 65, procede de una época crucial de la prehistoria, cuando los hombres
primitivos empezaron a utilizar herramientas de piedra y a explotar animales cada vez mayores como
fuente de alimentación. Es también el momento que marca una significativa expansión del cerebro.
OH 65 consiste es una mandíbula superior con todos sus dientes y una parte de la zona inferior de la cara.
Gracias a la completa presencia dental, se han podido hacer muchos diagnósticos importantes sobre sus
características.
El artículo publicado en Science señala que el fósil proporciona una conexión anatómica entre otros dos
especimenes conocidos, el H. Rudolfensis (un cráneo con casi toda la cara pero sin dientes, procedente del
norte de Kenia) y el espécimen original del tipo H. Habilis (una mandíbula inferior encontrada en
Olduvai). El estudio sugiere que es probable que los tres especimenes pertenezcan a la misma especie, el
Homo habilis. El OH 65 fue encontrado junto a herramientas de piedra y huesos de animales más grandes
que muestran claramente marcas de utilización de cuchillos de piedra e impactos de martillos del mismo
material. Información adicional en: http://ur.rutgers.edu/medrel/viewArticle.phtml?ArticleID=2989
Exploración del espacio interior
Varios investigadores de la University of Michigan intentarán capturar panoramas inéditos de la actividad
química que se produce dentro de las células vivas, en tiempo real y en tres dimensiones. El proyecto
durará tres años e implicará el uso de nanosondas sintéticas lo bastante pequeñas como para caber dentro
de una célula.
Las citadas nanosondas no deberán interrumpir las funciones normales de la célula mientras estén
midiendo la actividad de iones metálicos muy importantes, como el zinc o el cobre. Se usarán programas
de modelado estadístico muy sofisticados para interpretar los datos obtenidos de las partículas, las cuales
se asemejarán a un enjambre de moscas revoloteando alrededor de un recipiente de fruta.
Los científicos saben que el tráfico de iones metálicos dentro y fuera de la célula es crucial para funciones
básicas como la contracción muscular y el sistema nervioso. Sin embargo, hasta ahora no hemos sido
capaces de medir este proceso dinámico en tiempo real.
El nuevo estudio buscará patrones en el movimiento de los iones, para determinar cuándo y cómo las
moléculas individuales en el enjambre pueden hacer que la célula actúe de una cierta manera en un
momento particular. Los bioquímicos que colaborarán en el proyecto proporcionarán proteínas que se
unirán específicamente a los iones de zinc y cobre, ayudando a las nanosondas a hacer su trabajo.
80
AÑOS
2288
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
Los biólogos descubrieron hace tiempo que los iones de calcio, zinc, sodio, potasio y cobre son esenciales
para la función celular, pero nunca lograron ver la "compra-venta" de iones que lleva a cabo cada célula, ni
adónde van dichos iones en su interior. La literatura científica actual al respecto se basa principalmente en
la mera presencia o ausencia de un ión, o en su abundancia relativa, algo así como fotografiar en dos
dimensiones un proceso que es en realidad tridimensional. En la nueva investigación se prestará especial
atención a los iones de zinc porque juegan un papel importante en muchas enfermedades neurológicas,
incluyendo el Alzheimer. Las nanosondas que realizarán las mediciones fueron desarrolladas por Philbert y
Raoul Kopelman. Están hechas con materiales sintéticos y miden unos 20 nanómetros. Emitirán luz
cuando un ión se una a un punto específico (una proteína) dentro del sensor.
Información adicional en: http://www.umich.edu/news/Releases/2003/Feb03/r022003a.html
Luz verde para ALMA
El radiotelescopio más poderoso del mundo, operando en las longitudes de onda milimétricas y
submilimétricas, será una realidad en 2011. El 25 de febrero, el European Southern Observatory y la
National Science Foundation firmaron el acuerdo que permitirá su construcción en el desierto chileno de
Atacama.
El sistema, llamado ALMA (Atacama Large Millimeter Array), consistirá en 64 antenas o
radiotelescopios, cada uno de 12 metros de diámetro, interconectados entre sí. Se trata de un proyecto
conjunto entre los países europeos del ESO (más España) y los norteamericanos (Estados Unidos y
Canadá).
La aprobación y firma del acuerdo implica el reparto entre ambos lados del Atlántico, a partes iguales, de
los gastos de construcción y operación (unos 650 millones de dólares). Instalado en Chajnantor, una zona a
gran altitud del norte de Chile, el sistema abrirá nuevas oportunidades para la investigación astrofísica. Los
científicos, por ejemplo, esperan discernir el aspecto que tenían las primeras galaxias del Universo. No en
vano sus capacidades de observación y sensibilidad serán muy superiores a las de cualquier otro
instrumento disponible hoy en día.
ALMA será posible también gracias al apoyo del gobierno chileno, cuyo suelo privilegiado es un escenario
perfecto para su instalación. Sus 64 antenas actuarán como un único telescopio, combinando la
información que recojan en la región del espectro dominada por las longitudes de onda milimétricas y
submilimétricas. Esta radiación atraviesa la frontera entre el infrarrojo y las microondas, y guarda la clave
para la comprensión de procesos tales como la formación planetaria y estelar, la formación de las primeras
galaxias y cúmulos galácticos y la formación de moléculas orgánicas y de otro tipo en el espacio. El vapor
de agua absorbe las ondas milimétricas, y sobre todo las submilimétricas, de modo que ALMA será
construido a gran altitud (unos 5.000 metros), en una zona muy árida, para reducir al máximo esta
interferencia.
Se espera que en 2004 ya esté en marcha un sistema prototipo. En 2007, comenzarán las operaciones de
ALMA, aunque sólo de forma parcial. En 2011, entrará en servicio la última antena.
Información adicional en: http://www.eso.org/outreach/press-rel/pr-2003/pr-04-03.html
Posible nuevo tipo de célula
Un científico del Medical College of Georgia ha investigado un tipo de célula localizado en el estómago y
en el intestino delgado que tiene el potencial de "fabricar" hasta cuatro tipos principales de tejido humano.
Dichas células han sido bautizadas con el nombre de VENT (ventrally emigrating neural tube) y han sido
localizadas junto a otras tres fuentes de células asociadas habitualmente con el desarrollo gastrointestinal,
explica el doctor Paul Sohal, biólogo que las identificó por primera vez hace una década.
Desde entonces, Sohal ha estado investigando sus propiedades. De hecho, la identificación de las células
VENT dentro del estómago y el intestino delgado es sólo una pieza más en su esfuerzo por definir y
describir las células que halló un día migrando desde el tubo neural de un embrión de pollo. Si sus estudios
están bien encaminados, habría encontrado la primera fuente de nuevas células en un embrión desde hace
muchos años, así como lo que podría ser el precursor de las conocidas células madre adultas.
En su último estudio, Sohal etiquetó varias células VENT mientras aún se encontraban en el tubo neural, la
estructura que en el embrión acabará formando el cerebro y la médula espinal. El tubo neural envía un
nervio desde el cerebro en desarrollo hacia abajo, pasando por el cuello, los pulmones, el corazón, y
80
AÑOS
2289
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
finalmente hasta el tracto gastrointestinal. Sohal vio las células VENT marcadas migrar a lo largo de este
nervio vago, diferenciándose en neuronas y células de apoyo del sistema nervioso entérico. Las células
VENT también se convirtieron en células musculares y epiteliales.
Hasta ahora se creía que el tracto gastrointestinal se desarrollaba a partir de tres fuentes de células. El
sistema nervioso entérico procedía aparentemente de células neurales. Un tipo de células musculares
procedía del mesodermo, y el epitelio surgía del endodermo. Sin embargo, Sohal afirma que los tres tipos
de célula provienen de las células VENT.
Este descubrimiento pone en duda nuestra comprensión del desarrollo embrionario, y también es un factor
a tener en cuenta en nuestro estudio de las enfermedades del tracto gastrointestinal.
Información adicional en: http://www.mcg.edu/news/2003NewsRel/vent.html
Breves del Mundo de la Ciencia
NUEVA EDAD PARA EL HOMBRE DE MUNGO: Un estudio realizado por científicos de la University
of Melbourne ha permitido definir con exactitud la edad del Hombre de Mungo, los restos humanos más
antiguos descubiertos en Australia.
ESPERANZA PARA LOS CELIACOS: Un descubrimiento realizado por científicos californianos podría
llevarnos al primer tratamiento médico efectivo contra una enfermedad digestiva hereditaria que puede
dañar el intestino delgado e interferir en la absorción de nutrientes.
LIRIS, LO QUE EL OJO NO VE: Un equipo interdisciplinar formado por investigadores e ingenieros del
Instituto de Astrofísica de Canarias (IAC) realizó con éxito las primeras pruebas del espectrógrafo LIRIS
(Long-Slit Intermediate Resolution Infrared Spectrograph), que ha sido construido en el IAC.
NO AGUANTO EL DOLOR: Una pequeña variación en un único gen puede ayudar a explicar por qué
algunas personas pueden soportar el dolor -u otras tensiones físicas o emocionales- mejor que otras.
EL ÁRBOL DE FAMILIA DE LAS ARDILLAS: Biólogos de la Duke University han utilizado ADN y
registros fósiles para hacer un seguimiento de las genealogías de casi todos los grupos de especies de
ardillas existentes hoy en día.
BANCO DE TEJIDOS HUMANOS: La Universitat Autònoma de Barcelona contará con el BioBanco de
Reparación del ADN, el primer banco de todo el Estado que albergará ADN y tejidos derivados de
pacientes de enfermedades causadas por deficiencias en la reparación del ADN, un conjunto de
enfermedades generalmente de muy baja incidencia pero con una elevadísima predisposición genética al
cáncer.
EXPLOSIONES ULTRA-RÁPIDAS: Gracias a una nueva simulación por ordenador diseñada por un
físicoquímico y un ingeniero aeroespacial de la Penn State University, se ha descubierto que son posibles
detonaciones explosivas a velocidades superiores a las que las actuales teorías predecían.
¿MOSCAS CON ALZHEIMER? El hallazgo de una nueva mutación genética que provoca que moscas
adultas de la fruta desarrollen síntomas similares a la enfermedad del Alzheimer podría tener implicaciones
humanas, ya que los hombres poseen el mismo gen.
LOS CORALES SON DIFÍCILES DE CLASIFICAR: Catalogar los corales por especies es un trabajo
arriesgado. El biólogo Onno Diekmann, de la Universiteit van Amsterdam ha descubierto que cuatro
especies de corales pétreos difieren tan poco en cuanto a su material genético que apenas pueden ser
considerados especies distintas.
DESMONTANDO LA MOLÉCULA DE LA VIDA: Los investigadores han diseñado una nueva técnica
que permite medir las fuerzas necesarias para desplegar la doble hélice del ADN.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
LUDWIG WITTGENSTEIN
Cuando oímos a un chino, nos inclinamos a considerar su lenguaje
como un balbuceo inarticulado. Pero quien entiende el chino
80
AÑOS
2290
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
reconocerá allí el lenguaje. Así, con frecuencia, no puedo reconocer al
hombre en el hombre.
Este genial como enigmático pensamiento fue escrito por el filósofo Ludwig
Wittgenstein (Viena, 1889-Cambridge, 1951). ¿Qué quiso decir con estas cortas frases?,
¿acaso que el hombre es un lenguaje que debe descifrarse para reconocer al hombre?, y
¿cuál sería el “código” para descifrar tal lenguaje?
Existen muchas definiciones y muchas maneras de acercarse al lenguaje; se puede partir
de la filología que estudia las lenguas desde un punto de vista histórico gramatical, o
bien, puede estudiarse la moderna teoría matemática de las gramáticas, surgida del
análisis y diseño de los lenguajes artificiales que emplean las computadoras. Se puede
considerar al lenguaje como “el empleo de la palabra para expresar ideas” o como “un
conjunto de señales que dan a entender una cosa” o, en el contexto de las gramáticas,
formales, “el conjunto de palabras generadas por reglas gramaticales de algún tipo”.
Todo lenguaje puede ubicarse, para su análisis en tres dimensiones: la sintáctica, la
semántica y la pragmática; también, puede abordarse el estudio de la historia de las
lenguas, la filosofía del lenguaje, la psicología del lenguaje, etcétera.
El estudio de ese fenómeno que simplemente designamos con el nombre de “lenguaje”
es, pues, un asunto bastante complejo.
Para Ludwing Wittgenstein el lenguaje constituyó un problema tan serio que dedicó la
mayor parte del trabajo al esclarecimiento de la naturaleza y función de los lenguajes.
Hijo de un próspero industrial del acero, Wittgenstein se dedicó en su juventud al estudio
de las ciencias naturales y a la ingeniería. Una serie de problemas prácticos lo condujo al
cultivo de las matemáticas, interés que eventualmente lo absorbió a tal grado que, en
1911, se inscribió en la Universidad de Cambridge para estudiar lógica matemática con
Bertrand Russell, quien pronto reconoció en él un gran talento.
Durante el transcurso de la Primera Guerra Mundial, Wittgenstein sirvió como oficial del
ejército austríaco y, al mismo tiempo, escribió lo fundamental de su obra Tractatus
Logico Philosophicus. En ésta, los principales problemas a los que pretende dar solución
se refieren a cuestiones tan trascendentes como ¿qué hace posible la existencia de un
lenguaje?, ¿cómo puede un hombre mediante la emisión de sonidos decir algo? y, ¿cómo
puede otro hombre entenderlo?
Tractatus está compuesto por un conjunto de cortas reflexiones, cuidadosamente
ordenadas y numeradas, cuyo contenido se refiere a la naturaleza del lenguaje, las
matemáticas, la lógica, la ética y la filosofía, pero el núcleo alrededor del cual giran
todos sus pensamientos es el lenguaje.
A pesar del éxito de su obra, Wittgenstein decidió retirarse de la filosofía y, de 1920 a
1925, fue maestro en una escuela primaria. Después, trabajó como jardinero y
posteriormente aceptó diseñar y construir la casa de una de sus hermanas. Hay que
mencionar que siendo heredero de una fortuna nada despreciable, el filósofo renunció a
ella y decidió vivir con sus propios medios. En 1929, regresó a Cambridge y volvió a
desarrollar sus ideas filosóficas, comenzando las notas de lo que más tarde sería
publicado bajo el nombre de Investigaciones filosóficas.
Wittgenstein nunca se sintió a gusto entre los practicantes de la filosofía académica y
recomendaba a sus alumnos que se dedicaran a otra cosa. Él mismo, después de haber
obtenido un destacado puesto profesional en Cambridge, renunció para trabajar como
conserje en un hospital y más tarde como ayudante en un laboratorio clínico.
80
AÑOS
2291
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 193/452
La lectura de Wittgenstein es un tanto penosa, pero una vez que se penetra al espíritu de
la letra, el pensamiento se ve empujado en las más diversas direcciones; así queda claro
por qué en alguna ocasión Wittgenstein afirmó:
Me es indiferente que el científico occidental típico me comprenda o
me valore, ya que no comprende el espíritu con el que escribo. Nuestra
civilización se caracteriza por la palabra “progreso”. El progreso es su
forma, no una de sus cualidades, el progresar. Es típicamente
constructiva. Su actividad estriba en construir un producto cada vez
más complicado. Y aún la claridad está al servicio de este fin; no es un
fin en sí. Para mí, por el contrario, la claridad, la transparencia, es un
fin en sí.
No me interesa levantar una construcción, sino tener ante mí, transparentes, las bases de las
construcciones posibles. Así pues, mi fin es distinto al del científico y mi manera de pensar
diversa a la suya.
El Cabuche (crónicas de la Facultad de Ciencias)/ Entre la niebla
Cuarenta y siete años han pasado desde que iniciaron formalmente las actividades de la
antes Escuela de Física y ahora Facultad de Ciencias de la UASLP; tres meses antes,
principios de diciembre de 1955 el Consejo Directivo había aprobado la creación de la
Escuela de Física. El 5 de marzo de 1956 a las nueve de la mañana se impartió la primer
clase de la nueva escuela e iniciaba la aventura. En esta edición del boletín publicamos
trabajos de ex alumnos de la escuela; la ya tradicional sección de la Ciencia desde el
Macuiltépetl de Manuel Martínez Morales, que a propósito fue uno de los iniciadores del
periódico padre de este boletín El Cronopio que iniciara en 1970. Otro trabajo se registra
en el artículo intitulado Humor Científico de Guillermo Enderle que aparece en la
primera sección de este boletín; y, para culminar la edición, justo en esta sección
comentaremos el trabajo de tesis de Salvador Alvarado de la Tejera, alumno de la
segunda generación, aquella en la que ingresó el maestro Sada. El trabajo de tesis fue
presentado en enero de 1966 a diez años de existencia de la escuela; tesis que fue
recuperada por el Juanillo y que, sabedor de que juntamos cosas “viejas”, nos la guardo.
Gracias. La tesis lleva como titulo Calibración de una cámara de nubes para el estudio de
los rayos cósmicos, misma en la que Alvarado de la Tejera escribe en sus
agradecimientos, “me permito agradecer por medio de estas líneas al Sr. Fís. Candelario
Pérez Rosales, Director de la Escuela y el Instituto de Física de la Universidad Autónoma
de San Luis Potosí, y al Sr. Fís. Juan Fernando Cárdenas Rivero, Jefe del Laboratorio de
Radiación Cósmica del mismo Instituto, por la sabia y desinteresada orientación que se
sirvieron ofrecerme en el presente trabajo, ya que con su concurso han facilitado su
realización”. El trabajo, amen de que sirvió para graduar a un estudiante, guarda
importancia histórica, pues la cámara de nubes, o niebla, en cuestión, fue la primera
construida totalmente en México y con la cual Gustavo del Castillo y colaboradores
observaron, a mediados de 1957, por primera vez en nuestro país los trazos de partículas
generadas al interaccionar la radiación cósmica con la materia terrestre, que formaba
parte de un proyecto que trataba de utilizar la radiación cósmica como fuente de
partículas de alta energía para inducir interacciones nucleares en placas de plomo.
Pensamiento,/dile a fragancia que yo le quiero/que no la puedo olvidar/Que ella
vive en mi alma/Anda y dile así,/dile que pienso en ella/aunque no piense en mi
80
AÑOS
2292
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.194, 10 de marzo de 2003
No. acumulado de la serie: 453
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
41
Semana de
Ciencias
del 17 al 20 de marzo del 2003
Actividades Académicas,
Deportivas y Culturales
Facultad de Ciencias
UASLP
1956-2003
El Hijo de El Cronopio No. 194/453
Envía la Pioneer 10 su último mensaje
Las últimas tres señales que envió la nave fueron muy tenues y aunque la NASA trató de comunicarse el 7
de febrero ya no tuvo éxito
Después de casi 31 años, la primera nave espacial que salió del sistema solar, la Pioneer
10, envió su última transmisión de radio a la Tierra desde una distancia de 12 mil 200
millones de kilómetros, informó la NASA.
La última señal de la nave llegó el 22 de enero a la Red del Espacio Profundo del
Laboratorio de Propulsión a Chorro de la NASA y a pesar de que viajó a la velocidad de
la luz, tardó 11 horas 20 minutos en llegar.
"Originalmente diseñada para una misión de 21 meses, la Pioneer 10 continúa trabajando
superando por más de dos veces su tiempo de vida útil", señaló un comunicado de la
NASA.
Esta nave integró junto con la Pioneer 11, el Proyecto Pioneer de la NASA que fueron
concebidos para explorar diversos planetas del Sistema Solar.
Las últimas tres señales que envió la nave fueron muy tenues y aunque la NASA trató de
comunicarse el 7 de febrero ya no tuvo éxito, y no prevé realizar nuevos intentos.
La Pioneer 10 fue lanzada el 2 de marzo de 1972, con destino a Júpiter y viajó a una
velocidad superior a los 50 mil kilómetros por hora, lo que la convirtió en la creación
humana más veloz de todos los tiempos que haya dejado la Tierra.
A esa velocidad en tan sólo 11 horas atravesó la órbita de la luna y en 12 semanas
alcanzó la órbita de Marte. Fue la primera nave espacial en cruzar el cinturón de
asteroides que orbita el Sol y que cuenta con asteroides con diámetros que van de unos
cuantos centímetros hasta miles de kilómetros.
De acuerdo a la página web de la NASA, en diciembre de 1973 fue el primer artefacto en
llegar a la órbita de Júpiter y obtuvo las imágenes más cercanas que se hayan tomado del
planeta gigante, así como de los anillos y del planeta Saturno. Diez años después, en
1983, cruzó la órbita de Plutón y se internó al espacio abierto al salir del Sistema Solar.
Aunque su misión finalizó oficialmente en 1997, los científicos siguieron rastreándolo
como parte de un estudio de tecnología de las comunicaciones para la futura misión de la
NASA llamada Sonda Interestelar, y para analizar el viento solar que impulsa energía y
partículas cósmicas a una velocidad de un millón 600 mil kilómetros por hora.
A iniciativa del famoso astrónomo y divulgador Carl Sagan, la Pioneer 10 lleva una
placa de oro grabada con un mensaje de buena voluntad y un mapa que muestra la
situación de la Tierra en el Sistema Solar junto con información de la vida y las diversas
culturas del planeta.
De acuerdo con la NASA, la nave sigue su viaje hacia la estrella Aldebarán en la
constelación Tauro que se encuentra a 68 años luz de distancia, a la cual tardará dos
millones de años en llegar. Periódico Reforma con información de la NASA
Noticias de la Ciencia y la Tecnología
Simios y monos ayudarán a entender el genoma humano
Científicos del Joint Genome Institute y del Lawrence Berkeley National Laboratory han desarrollado una
nueva y poderosa técnica que permite descifrar información biológica codificada en el genoma humano.
80
AÑOS
2294
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
Se llama "sombreado filogenético" y posibilita que los investigadores hagan comparaciones entre
secuencias de ADN del genoma humano y secuencias pertenecientes a los genomas de simios, monos y
otros primates no humanos. Gracias al sombreado filogenético se pueden estudiar rasgos biológicos que
son propios de los miembros de la familia de los primates.
Como explica Edward Rubin, director del Joint Genome Institute, ahora que la secuenciación del genoma
humano casi se ha completado, el próximo reto será desarrollar el vocabulario para leer e interpretarla.
Poder comparar secuencias de ADN de nuestro genoma con las de primates no humanos nos ayudará a
entendernos a nosotros mismos mejor que si estudiáramos parientes evolutivamente mucho más distantes,
como el ratón o la rata. Esto es importante, porque aunque el modelo del ratón sigue siendo muy valioso,
existen algunos atributos físicos y bioquímicos de los humanos que sólo comparten los primates.
Así, utilizando el sombreado filogenético, Rubin y sus colegas han podido identificar las secuencias de
ADN que regulan la activación o "expresión" de un gen que sólo se encuentra en los primates y que es un
importante indicador del riesgo de sufrir una enfermedad cardiaca.
Comparar los genomas de diferentes animales es muy útil para identificar aquellas secuencias que se
consideran esenciales. La lógica de esta práctica reside en considerar que todos los animales que viven hoy
en día en la Tierra proceden de ancestros comunes que vivieron hace decenas de millones de años. Si
ciertos segmentos de los genomas de dos organismos diferentes se han conservado a lo largo de millones
de años desde que ambos divergieron, entonces es lógico asumir que las secuencias de ADN dentro de
tales segmentos codifican funciones biológicas importantes.
Los ratones y los humanos compartieron un ancestro común por última vez hace 75 millones de años.
Tiempo suficiente como para que las secuencias no funcionales en sus respectivos genomas se hayan
separado. De hecho, sólo el 5 por ciento de los dos genomas se conserva, apreciándose que la mayoría de
los genes y secuencias reguladoras que se han descubierto residen dentro de estos segmentos conservados
de ADN. En cambio, los hombres y los primates no humanos compartieron ancestro común por última vez
hace entre 6 y 14 millones de años (simios), 25 millones de años (monos africanos), y 40 millones de años
(monos sudamericanos). Esto es poco tiempo para que se haya producido una divergencia genética grande,
por lo que los primates no humanos no se han utilizado apenas para interpretar el genoma humano.
Pero si, además de identificar las regiones de nuestro genoma que realizan funciones biológicas básicas
compartidas con la mayoría de mamíferos, estamos interesados en cambios mucho más recientes en el
ADN (aquellos que configuran los rasgos biológicos específicos de los primates), entonces deberemos
volver a tener en cuenta a estos últimos. En otras palabras, comparar el genoma humano y el del ratón es
como comparar un automóvil y un cochecito de niño, los cuales, en sus partes fundamentales, son
parecidos. Comparar el genoma de un humano con el de un chimpancé, en cambio, es como comparar un
sedán con una camioneta, donde muchas piezas son intercambiables.
Hasta ahora era muy difícil comparar genomas tan parecidos. Por ejemplo, hay sólo una diferencia de un 5
por ciento entre nuestro genoma y el de los babuinos. Para superar esta falta de distinción, Rubin y sus
colegas compararon segmentos del genoma humano no con uno sino con entre 5 y 15 genomas diferentes
de primates no humanos, incluyendo chimpancés y gorilas, orangutanes, babuinos, monos africanos y
sudamericanos. Se encontraron así pequeñas diferencias que combinadas crean una "sombra" filogenética
comparable a su vez con el genoma humano.
Información adicional en: http://csee.lbl.gov/lifesciences/labs/rubin_lab.html
Nube de gas alrededor de Júpiter
La sonda Cassini, en camino hacia Saturno, descubrió una masiva nube de gas alrededor de Júpiter cuando
sobrevoló este planeta hace unos meses. La nube es sorprendentemente densa y comparte órbita con la
famosa luna joviana llamada Europa.
Su aspecto tiene forma de dónut (toro), y abarca millones de kilómetros alrededor del planeta gaseoso. Los
científicos creen que es el resultado del severísimo bombardeo de radiación de iones que Júpiter envía
hacia Europa. Dicha radiación daña la superficie de la luna, arrancando moléculas de hielo de agua y
dispersándolas a lo largo de la órbita del satélite, formando un toro de gas neutro con una masa de unas
60.000 toneladas.
Según Barry Mauk, del Johns Hopkins University Applied Physics Laboratory, la gran masa de la nube
demuestra que la intensa radiación que soporta Europa tiene consecuencias más graves de lo que creíamos.
También indica que la luna, en su órbita a 671.000 km de Júpiter, tiene una considerable influencia en la
configuración magnética que rodea al planeta.
80
AÑOS
2295
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
La nube de gas de Europa es comparable a la generada volcánicamente por Ío, otro de los satélites
jovianos. Pero mientras Ío y sus volcanes están emitiendo constantemente materiales, sobre todo azufre y
oxígeno, Europa es un cuerpo mucho más tranquilo, cuyas emisiones desde su superficie helada sólo son
explicables por la intensísima radiación que soporta.
Los científicos estudiaron las imágenes de Júpiter que envió la sonda Cassini a finales de 2000 y principios
de 2001. Fueron tomadas mediante su instrumento Ion and Neutral Camera. Este aparato utiliza una nueva
técnica para estudiar la magnetosfera de los planetas. Las magnetosferas brillan con átomos neutros
energéticos de una manera similar a como una pieza de hierro al rojo vivo brilla con fotones de luz. Hasta
ahora, ningún instrumento había fotografiado este tipo de actividad en una magnetosfera distinta de la de la
Tierra. La cámara especial visualiza la estructura tridimensional de los ambientes espaciales planetarios,
hasta ahora invisibles a cualquier técnica remota.
Información adicional en: http://www.jhuapl.edu/newscenter/pressreleases/2003/030227.htm
Pistas sobre el desarrollo del lenguaje
Aunque no lo sepamos, todos pasamos un curso intensivo de aprendizaje de la lengua cuando somos bebés.
Escuchando a su alrededor, los niños captan patrones de sonido que les ayudan a entender el habla que
oyen. Pero unos patrones son más sencillos de identificar que otros, lo que sugiere que el desarrollo del
lenguaje humano estuvo conectado a lo que los niños podían aprender.
Esto es al menos lo que opina la psicóloga Jenny Saffran, de la University of Wisconsin-Madison, al frente
del Infant Learning Laboratory de dicha universidad.
Saffran destaca lo rápidamente que los bebés aprenden el lenguaje, y su habilidad de encontrar dónde
empiezan y acaban las palabras, aunque se encuentren en medio de un flujo continuo de ellas.
En sus estudios, Saffran presentó a un grupo de oyentes infantiles un lenguaje artificial y sin sentido. En él
colocó palabras como "giku", "tuka" y "bugo". Utilizándolas, y teniendo en cuenta que los niños no las
habían oído jamás, Saffran pudo aislar elementos particulares encontrados en lenguajes naturales como el
inglés.
Durante un par de minutos, los niños oyeron docenas de palabras de dos sílabas como las mencionadas,
entremezcladas en un discurso monotonal, sin pausas entre las palabras (por ejemplo, "gikutukabugo...").
Las palabras eran presentadas en un orden particular que revelaba un patrón sonoro. Si los niños
reconocían el patrón, lo utilizarían para identificar rápidamente el inicio y final de las palabras que oyeran
a continuación.
Para comprobarlo, Saffran proporcionó a sus pequeños oyentes una nueva serie de palabras sin sentido en
la que sólo una de ellas encajaba en el patrón oído anteriormente. Saffran registró el tiempo que los niños
pasaban escuchando partes que se ajustaban al patrón y partes que no se ajustaban. Una diferencia de
tiempo apreciable implicaba que los niños habían reconocido el patrón.
Según los resultados, los bebés aprenden patrones de sonido que les ayudarán a aprender palabras, y
finalmente, la gramática. La habilidad de lograrlo, sin embargo, depende de la edad. Los niños de 6 meses
y medio y los de 9 meses usan distintas estrategias para determinar dónde empiezan y terminan las
palabras. Mientras que los más jóvenes identifican su inicio y final en función de la probabilidad de que
ciertos sonidos sucedan juntos, los otros prestan atención a qué sonidos del habla son enfatizados.
Una vez que los niños pasan de sílabas a palabras, pueden empezar a reconocer la gramática del lenguaje.
A la edad de un año, ya pueden reconocer patrones en el orden de las palabras.
Saffran también ha descubierto que ciertos patrones de sonido son identificados mejor que otros. Es
posible pues que el lenguaje producido por los humanos funcione de manera que satisfaga lo mejor posible
al cerebro. Si incluso los niños pueden reconocerlo, entonces el lenguaje se aprenderá antes.
Estos trabajos, además de ayudarnos a entender las razones de los déficit de lenguaje que sufren algunos
niños, también nos ofrecen pistas sobre cómo el lenguaje humano empezó a desarrollarse y cómo
evolucionó. Información adicional en: http://www.news.wisc.edu/view.html?get=8292
Palabras de moda
Jon Kleinberg, un profesor de ciencia informática en la Cornell University, ha desarrollado un método que
permite a un computador encontrar los temas que dominan una conversación en un momento particular.
Para ello busca, entre grandes colecciones de documentos, la aparición súbita y rápida de palabras.
80
AÑOS
2296
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
En los años después de la Revolución Americana, los presidentes estadounidenses hablaban mucho de los
británicos, y después de las milicias, de Francia y España. A mediados del siglo XIX, en sus discursos
aparecieron palabras como "emancipación", "esclavos" y "rebelión". A principios del siglo XX, los
presidentes empezaron a usar muchas palabras sobre negocios, que fueron reemplazadas pronto por
"depresión". Un par de décadas después, hablaban de átomos y comunismo. A finales de los años 90, las
palabras de moda seguían prevaleciendo.
Para demostrar el funcionamiento de su método de búsqueda de tópicos, Jon Kleinberg escaneó los
discursos sobre el Estado de la Unión de los presidentes estadounidenses desde 1790 hasta el presente, y
creó una lista de palabras que sorprendentemente refleja las tendencias históricas.
Lo interesante es que la técnica podría usarse en muchas otras aplicaciones de tratamiento y búsqueda de
datos, como la búsqueda de información en Internet, o el estudio de las tendencias de la sociedad reflejadas
en las páginas web.
Kleinberg tuvo la idea de su programa tratando de encontrar una manera de enfrentarse al intenso flujo de
correo electrónico que recibe. Supuso que cuando un tema importante sale a la palestra, las palabras clave
relacionadas con dicho tema mostrarán un súbito incremento de frecuencia en sus apariciones. La
búsqueda de estas palabras que aparecen de pronto más a menudo que antes podría, imaginó, proporcionar
una forma de categorizar los mensajes.
Preparó entonces un algoritmo que se ocupa de ello. Mide no sólo el número de veces que una palabra
aparece, sino también el ritmo de incremento en dichos números a lo largo del tiempo. Los programas
basados en este algoritmo pueden escanear textos que varíen con el paso del tiempo y señalar las palabras
que se utilizan de forma más frecuente y súbita.
Un sistema semejante podría emplearse para analizar los emails intercambiados por terroristas, o para
buscar modas temáticas en páginas web personales.
Información adicional en: http://www.news.cornell.edu/releases/Feb03/AAAS.Kleinberg.bursty.ws.html
Circulación casi humana en plantas
Investigadores de la University of Utah que se han pasado dos años cortando secciones de tallos y hoja s,
han descubierto que el sistema circulatorio que transporta agua a través de las plantas obedece a una ley de
1926 que describe cómo las arterias y los vasos sanguíneos llevan la sangre de un lugar a otro en humanos
y otros animales.
El estudio demuestra que plantas y animales utilizan la misma solución para mover fluidos de forma
eficiente, a pesar de que sus sistemas vasculares son radicalmente distintos, explica la bióloga Kate
McCulloh.
Cecil D. Murray, autor de la ley de Murray, describió en 1926 la estructura que debían tener las arterias y
los vasos para permitir un flujo de sangre más eficiente en los animales. Según las investigaciones de
McCulloh y su equipo, muchas plantas siguen la misma ley, aproximando mucho más de lo que se pensaba
sus sistemas de transporte de agua a los de circulación sanguínea de los animales.
La ley de Murray predice la forma en que las arterias, vasos y capilares deberían estrecharse
progresivamente para optimizar la eficiencia del sistema circulatorio animal, moviendo sangre a lo largo
del cuerpo con una cantidad de fricción mínima. McCullohy y sus colegas han descubierto que esto es
también cierto en muchas plantas. En aquellas donde no se cumple la ley, como en las coníferas, los
conductos del agua forman también parte del sistema de soporte de la planta.
Las plantas desarrollan el sistema de transporte de agua más eficiente en función de diversos factores que
se presentan en competencia. Por ejemplo, si el flujo de agua a través de la planta es el máximo posible, se
produce más fotosíntesis, convirtiéndose más luz solar en energía, y por tanto propiciándose un
crecimiento más rápido. Sin embargo, al mismo tiempo, la planta desea minimizar la energía y el material
que debe dedicar al sistema de conducción de agua, porque así puede reservarlos para su objetivo
primordial: la reproducción. Es decir, se trata de entregar la mayor cantidad de agua por unidad de energía,
utilizando la menor cantidad posible de material (minimizando el área de los conductos utilizados para
mover el flujo).
McCulloh se ha pasado dos años cortando secciones de hojas, tallos, ramas y ramitas, etiquetándolas y
observándolas bajo el microscopio. Tomó cientos de fotografías para medir mediante un software especial
los diámetros de los conductos de agua. En un solo árbol, la bióloga llegó a medir los diámetros de 22.000
conductos a diversos niveles, desde las ramas a las hojas. En total se midieron 100.000 conductos, una
tarea extremadamente tediosa que a pesar de todo ha dado sus frutos.
80
AÑOS
2297
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
El próximo objetivo será examinar helechos actuales que son muy parecidos a las plantas primitivas que
vivieron hace entre 430 y 400 millones de años. ¿Se puede aplicar también la ley de Murray a estas
plantas? ¿Evolucionó el sistema vascular ideal ya en estos antecesores o se desarrolló mucho más
lentamente a lo largo del tiempo? Información adicional en: http://www.utah.edu/unews/releases/03/feb/plants.html
Donde hay humo, hay mas fuego del que creíamos
En las selvas tropicales es casi imposible detectar la presencia de un fuego por el humo que produce. Este
creciente problema provoca que cada vez haya más incendios sin control, amenazando vastas regiones de
territorios ecológicamente vitales.
La deforestación intencionada ha recibido mucha atención últimamente, pero en un informe publicado en
la revista Nature, Mark Cochrane, un investigador de la Michigan State University, señala que bajo el
humo espeso de los fuegos hechos a propósito se hallan muchos otros no intencionados que están
devorando millones de metros cuadrados y que permanecen desconocidos y por tanto sin extinguir.
Cochrane cree que los incendios forestales en la selva son mucho más frecuentes de lo que tales
ecosistemas pueden llegar a resistir. Con el paso del tiempo, los afectarán decisivamente, transformándolos
en algo irreconocible.
Para detectar estos fuegos que parecen "volar bajo el radar", Cochrane ha utilizado imágenes tomadas por
satélites de teledetección, y también ha explorado las selvas tropicales y las áreas que circundan a los
establecimientos humanos en Latinoamérica. El científico opina que hay que entender mejor cómo se
comporta el fuego en las selvas y cómo pueden ser detectados y contenidos.
De hecho, los fuegos en las selvas tropicales se comportan de distinta manera a como lo hacen los fuegos
en los bosques templados, como los de Norteamérica. En los primeros, el fuego no se desencadena,
avanzando rápidamente, sino que a menudo se mueve lentamente y en la zona baja, donde la espesura
tropical crece. Pero aunque no son incendios dramáticos, sí son feroces: la corteza de la mayoría de árboles
tropicales es delgada, de manera que un pequeño fuego deslizándose a través de la selva puede herir
mortalmente al 40 por ciento de los árboles.
Parece una muerte lenta. Primero caen los árboles pequeños, pero luego vendrán los mayores y más viejos.
La selva perderá espesura y se hará más débil, convirtiéndose en más susceptible a futuros incendios.
Lo más frustrante es que los pequeños fuegos son fácilmente controlables, pero los siguientes se vuelven
mucho más difíciles de extinguir. A partir de aquí, los problemas empeoran: el fuego pone en peligro las
poblaciones humanas, especies vegetales raras son erradicadas, la biodiversidad de la selva se reduce, las
emisiones de carbono aumentan de forma exponencial...
Cochrane cree que tres fuegos en las selvas de México, Brasil e Indonesia podrían haber liberado el 41 por
ciento de las emisiones de dióxido de carbono en 1998.
Una vez que se ha reconocido que el problema existe, deben aplicarse los recursos y la investigación
necesarios para evitar que empeore. Aún no está claro cuánto tiempo se necesita para que una selva
quemada se recupere. Algunas de ellas, por desgracia, no lo harán ya jamás.
Información adicional en: http://newsroom.msu.edu/news/archives/2003/02/rainforests.html
La resistencia de la fibra de vidrio
Analizando las características de un tipo de fibra de vidrio desarrollada hace 50 años, científicos de la Ohio
State University han descubierto que es al menos una vez y media más fuerte de lo que se creía hasta
ahora. El material podrá ser usado en el futuro en nuevas aplicaciones que antes no se creían posibles.
La industria de la fibra de vidrio está pasando por una época de declive económico paralelo a otros
negocios. Por eso, encontrar nuevas aplicaciones para un material como éste, de probada valía y cuyos
costes ya han sido amortizados, podría permitir su expansión a otros campos.
El tipo más popular de fibra de vidrio, y el que ha superado el medio siglo de existencia, es el "E-glass",
utilizado ampliamente para reforzar plásticos y otros materiales. Prabhat K. Gupta y sus colegas de Ohio
describen en el número de febrero del Journal of Non-Crystalline Solids un método mejorado para la
medición de su resistencia y la de otras fibras de vidrio, incluyendo las fibras ópticas utilizadas en
comunicaciones. El método puede ser implementado en la industria de forma sencilla, e implica la sujeción
de una única fibra a bajas temperaturas, doblándola hasta que se rompe. La clave es asegurar que la
muestra esté completamente libre de fallos antes de la prueba.
80
AÑOS
2298
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
Gupta no está sorprendido de que nadie haya medido con anterioridad y de forma definitiva la resistencia
de la fibra de vidrio. Las industrias desarrollan nuevos materiales rápidamente y para aplicaciones
específicas. Será después cuando tendrán tiempo suficiente para realizar investigación básica sobre sus
propiedades y oportunidades de mejorar el material.
El "E-glass" fue creado en los años 50 para aislar componentes electrónicos. Hoy en día, se usa para
fortalecer plásticos diversos, desde bañeras a paneles de puerta de automóvil. Para mejorar su fórmula y
localizar nuevas aplicaciones, los investigadores deben saber antes cuán fuerte es el material bajo
condiciones ideales. Éste era el objetivo de Gupta y sus colegas.
Las pruebas se realizaron con fibras de 100 micrómetros de diámetro (un grosor parecido al de un cabello
humano) mantenidas a -195 grados C. Cada fibra individual fue doblada en forma de U, presionada entre
dos placas metálicas hasta que se rompió. Según las mediciones, las fibras resistieron una presión de 1,5
millones de psi (libras por pulgada cuadrada), aproximadamente 1,7 veces más que lo que indicaban las
medidas anteriores.
No es probable que esta resistencia sea explotada en breve en el área de las comunicaciones, pero sí en el
de la industria automotriz. Podrán fabricarse plásticos reforzados que sustituirán a las piezas metálicas,
haciendo a los automóviles más ligeros y más eficientes en cuanto a consumo de combustible.
Información adicional en: http://www.osu.edu/researchnews/archive/strnglas.htm
¿Cuántas estrellas tiene el Universo?
Esta vieja pregunta sigue sin respuesta, pero los astrónomos se preparan para contestarla. La misión
astronómica Herschel volará en 2007 y nos ayudará a establecer el ritmo de formación estelar a lo largo de
la historia cósmica.
Basta con salir a un cielo despejado y oscuro para apreciar la inmensidad del Universo. Miles de estrellas
individuales se ofrecen a nuestros ojos, pero muchas más permanecen ocultas debido a la distancia y a su
escaso brillo relativo. Utilizando un telescopio de aficionado, en cambio, el número de astros a nuestra
disposición aumenta hasta alcanzar la cifra de varios millones. Así pues, ¿sería posible calcular el número
exacto de estrellas existentes en el Cosmos?
Entre 1989 y 1993, el satélite Hipparcos de la Agencia Espacial Europea se dedicó a levantar un mapa
estelar de nuestra galaxia, situando sobre él a 2 millones y medio de estrellas. En 2012, una nueva misión
llamada Gaia extenderá este trabajo hasta los 1.000 millones. No obstante, las estrellas no se encuentran
distribuidas de forma aleatoria a través del espacio, sino que se agrupan en galaxias. Los astrónomos
estiman que nuestra Vía Láctea posee unos 100.000 millones de soles. Pero mucho más allá, existen miles
de millones de galaxias, lo que complica nuestros cálculos.
Los telescopios no pueden ver las estrellas individuales que se hallan en galaxias muy distantes, así que no
es posible contarlas una a una. Ni siquiera el sucesor del telescopio Hubble, el James Webb Space
Telescope, podrá hacer algo parecido a partir de 2010. Y aunque pudiera, contar las estrellas del Universo
sería peor que hacer lo propio con los granos de arena de todas las playas de la Tierra. Afortunadamente,
hay formas más inteligentes de obtener un número fiable.
Sabiendo lo rápido que se forman las estrellas podremos aportar una mayor certeza a los cálculos. El
telescopio infrarrojo Herschel de la ESA intentará medir el ritmo de formación estelar, y con ello, en
función del tiempo transcurrido desde el inicio del Universo y la vida media de una estrella, tendremos una
estimación de cuántas podrían existir hoy en día.
El Hubble nos sugirió en 1995 que la formación estelar probablemente alcanzó su punto álgido hace unos
7.000 millones de años. Pero esta cifra podría no ser correcta. Las imágenes del Hubble se tomaron en
longitudes de onda visibles, y ahora tenemos evidencias de que buena parte de la formación estelar pasa
desapercibida porque ocurre tras espesas nubes de gas. Sólo un telescopio infrarrojo como el Herschel
podrá apreciar qué pasa tras ellas. Esperamos que nos muestre a muchas más estrellas que antes,
acercándonos un poco más a la contestación de la pregunta fundamental: ¿cuántas estrellas tiene el
Universo?Información adicional en: http://sci.esa.int/content/news/index.cfm?aid=16&cid=39&oid=31456
Moléculas de vida corta
Algunos de los compuestos más importantes son también los menos duraderos. Se trata de moléculas
transitorias que aparecen en las reacciones químicas durante apenas unas milésimas de segundo. La
80
AÑOS
2299
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
caracterización de los llamados "intermediarios de reacción" podría ayudarnos a entender los mecanismos
por los cuales las moléculas cambian.
Procesos como las reacciones químicas básicas o enfermedades complejas como la de Alzheimer recibirían
nueva luz con estas investigaciones. Sin embargo, la empresa es complicada, por cuanto no existen
demasiados sensores capaces de analizar moléculas que viven tan poco tiempo.
Jason Shear y Matthew Plenert, de la National Science Foundation, describen en un reciente artículo un
método para tomar rápidas "fotografías" de estas moléculas intermediarias, antes de que sus estructuras
cambien y adopten la forma de productos más estables y definitivos.
El nuevo método se basa en una técnica llamada "electroforesis capilar", y fue desarrollada en el
laboratorio de Shear en la University of Texas, en Austin. A diferencia de algunas técnicas de electroforesis
utilizadas para la secuenciación de ADN, donde un campo eléctrico mueve moléculas cargadas a través de
una placa de gel, la electroforesis capilar emplea tubos de sílice parecidos al cristal, delgados como una
aguja, donde campos eléctricos muy grandes mueven las moléculas sin el calentamiento que se produciría
en un gel.
Para incrementar el campo eléctrico, el capilar ha sido alterado, dotándolo de una zona estrecha con el
aspecto de un reloj de arena. Los análisis se llevan a cabo en esta zona más estrecha, donde el diámetro es
inferior a 5 micrómetros y donde el campo eléctrico puede ser mayor de 100.000 voltios por centímetro.
Aquí, las sustancias se ven separadas a lo largo de una distancia de unos 10 micrómetros porque las
porciones más cargadas positivamente (las más pequeñas) se mueven más rápidamente que las más
cargadas negativamente (las mayores). Ello aísla los diversos componentes.
La separación de los componentes individuales durante la reacción se efectúa muy rápido, a diferencia de
otros métodos que necesitan minutos o más, cuando algunas de las moléculas intermedias ya han
desaparecido.
Para probar el método, Plenert y Shear examinaron una solución que contenía el neurotransmisor
serotonina y su precursor metabólico, un compuesto conocido como hidroxitriptofano, utilizando un
campo eléctrico que la hiciera pasar a través del capilar.
Para producir los intermediarios de muy corta duración de la serotonina y el hidroxitriptofano, golpearon la
mezcla con un rayo de luz láser de un microsegundo de duración, cuando la solución pasaba a través de la
sección estrecha del capilar. Diez micrómetros más adelante, una sonda láser golpeó a su vez a los
intermediarios, ahora segregados espacialmente en dos grupos en función de su progenitor molecular,
haciendo que emitieran luz. Las moléculas migraron entre los dos puntos láser unos 100 millones de veces
más rápido que en otros procedimientos de separación convencionales.
El próximo paso será aplicar la técnica al estudio de cómo las proteínas se pliegan convirtiéndose en
moléculas funcionales. Cuando lo hacen incorrectamente, pueden causar disfunciones y enfermedades
como la de Alzheimer. Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0325.htm
Premio para el inventor de hormigas
James McLurkin, el creador de los robots autónomos más pequeños del mundo, ha sido el ganador del
Lemelson-MIT Student Prize, un premio de 30.000 dólares a la inventiva de los estudiantes en el
Massachusetts Institute of Technology.
A sus 30 años, McLurkin trabaja en ciencia informática, plenamente dedicado a la construcción de una
"flota" de pequeños robots autónomos que trabajarán de forma cooperativa para llevar a cabo tareas
complejas. Su diseño original de robots "hormiga", de poco más de una pulgada de lado, requirió el
desarrollo, durante su investigación para el doctorado, de algoritmos y técnicas que permitiesen programar
a estos enjambres para que reprodujesen el comportamiento de las abejas: reunión, dispersión, seguimiento
y órbita. Simulando las complejas interacciones de las abejas, los robots de McLurkin pueden realizar
tareas individuales que apoyen el objetivo colectivo del grupo.
No hay ninguna duda de que en el futuro existirán en el mundo muchos equipos de robots diminutos
trabajando en diversas circunstancias. Deberán agradecer su presencia a los ancestros que ahora mismo
está desarrollando McLurkin. Este científico está fascinado con el proceso de la invención desde que tenía
7 años, cuando pasaba mucho tiempo reconstruyendo y mejorando juguetes y dispositivos electrónicos.
Antes de graduarse en la escuela secundaria, ya programaba sus propios videojuegos, además desmantelar
y reconstruir partes de su bicicleta, ensamblar un ordenador a medida y diseñar y construir un par de
robots. Inspirado por el amor de sus padres hacia la naturaleza, también empezó a desarrollar un amplio
interés en la exploración y aprendizaje de los principios naturales.
80
AÑOS
2300
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
McLurkin cree que la microrrobótica debería empezar a estudiar los fenómenos naturales. Por eso, su
proyecto para la tesis en el MIT consistió en simular el comportamiento de una colonia de hormigas
utilizando robots de 12 pulgadas cúbicas. Durante su proyecto, estudió un gran contenedor lleno de estos
robots, viendo cómo interactuaban, se comunicaban y realizaban tareas. Los programó para que
respondieran frente al ambiente que los rodeaba, permitiéndoles buscar "comida", pasarse mensajes entre
ellos o incluso jugar.
La autoorganización de los microrrobots es un requisito fundamental para que puedan efectuar tareas
útiles. Por eso McLurkin dedicó sus posteriores investigaciones al desarrollo de técnicas de computación
distribuida, donde los enjambres de robots actuaban como grupo y también de forma individual. Una vez
uno de ellos hacía un descubrimiento, avisaba al grupo. El enjamb re se reunía después alrededor del
descubrimiento y realizaba la tarea para la que habían sido programados.
Su última creación, en iRobot, es un equipo de 100 robots pequeños capaces de comunicarse entre sí,
calcular sus posiciones relativas y utilizar el sentido del tacto como navegación. El enjambre de robots está
formado por unidades mayores que los robots hormiga (125 veces mayores, cubos de 5,5 pulgadas de
lado), mucho más potentes. Está previsto que sean equipados con cámaras, sensores de seguimiento, etc.
Información adicional en: http://web.mit.edu/newsoffice/tt/2003/feb26/lemelson.html
Breves del Mundo de la Ciencia
AVANCE EN INFORMÁTICA CUÁNTICA: La carrera hacia la obtención de ordenadores más potentes,
rápidos y pequeños, así como mejores productos electrónicos de consumo, ha efectuado un importante
paso adelante. Investigadores de la University of Pittsburgh y de la University of California en Santa
Barbara han conseguido controlar electrones mediante campos eléctricos por primera vez.
CÉLULAS MADRE EN LOS TUMORES DE PECHO: De todas las células neoplásticas existentes en los
cánceres de mama humanos, sólo una minoría, quizá menos de una de cada 100, es capaz de formar nuevos
tumores malignos, han descubierto científicos del University of Michigan Comprehensive Cancer Center.
CAUSA GENÉTICA DE ATAQUES CARDIACOS: Unos investigadores del Instituto Médico Howard
Hughes han descubierto la forma en la que un trastorno hereditario desencadena ataques al interrumpir el
flujo de calcio en células del músculo cardiaco.
LOS HOMBRES DE CLOVIS ERAN INOCENTES: Los arqueólogos han desenterrado nuevas evidencias
que exoneran a esta antigua población humana norteamericana de la acusación de exterminio de 35
especies de mamíferos de la época del Pleistoceno.
TERREMOTOS EN 2002: El año pasado se produjeron 85 terremotos importantes (de magnitud superior a
6,5) que mataron a 1.711 personas en todo el mundo.
EN BUSCA DE NUEVAS FUERZAS: Científicos de la University of Colorado en Boulder han llevado a
cabo la búsqueda más sensible hasta la fecha de fuerzas de intensidad gravitatoria entre masas separadas
por sólo el doble del diámetro de un cabello humano. Sin embargo, no han encontrado señales de su
existencia.
EL MOTOR PERFECTO: Marlan Scully, un curioso profesor de la Texas A&M University que aplicó
física cuántica al diseño de un motor que emitía rayos láser en lugar de gases de escape, ha vuelto a dar
señales de vida.
OZONO EN EL CUERPO HUMANO: Investigadores del Scripps Research Institute anuncian que el
cuerpo humano produce ozono, en una auténtica primicia biológica.
OBSERVANDO LO DIMINUTO: Se ha desarrollado el sistema óptico de observación de más alta
resolución, que permitirá revelar con claridad estructuras tan pequeñas como los nanotubos de carbono.
CÉLULAS MADRE A PARTIR DE LA SANGRE: Investigadores del Argonne National Laboratory
podrían haber revolucionado la medicina y el campo de los transplantes. Han conseguido producir un
poderoso, y hasta ahora escaso, tipo de células madre a partir de una fuente muy próxima a nosotros, el
torrente sanguíneo.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
80
AÑOS
2301
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
LAS CONDICIONES DE LA GUERRA
¿Qué imagen se representa, estimado lector, cuando se le dice que el arsenal atómico
actual es más que suficiente para destruir varias veces nuestro planeta? ¿Qué sentido real
tiene semejante aseveración? ¿Acaso podemos concebir que la tierra sea destruida, vuelta
a reconstruir y de nuevo destruida, y así, en un infernal e interminable ciclo?
Hay en la ciudad japonesa de Hiroshima una plancha de piedra que puede darnos la
dimensión humana de lo que una hecatombe nuclear significaría. En esa piedra quedó
grabada por el fuego radioactivo, producto de la bomba de 1945, la silueta de un hombre,
la sombra de lo que fue un hombre. De los huesos de ese hombre no quedó rastro. Esa
piedra es un punzante recordatorio de lo horrendo que es el poder atómico. El poder
explosivo del arsenal mundial actual es igual a 1 300 000 bombas del mismo tipo de la
lanzada sobre Hiroshima, equivalente a tres toneladas de TNT por cada hombre sobre la
tierra, suficiente para destruir las siluetas de las siluetas de todos los hombres sobre el
planeta. Entonces, ni la sombra de la silueta de la tierra perduraría.
Se calcula que el mundo invirtió en gastos militares, en 1980, una cifra cercana a los 650
mil millones de dólares. ¡Más de 1 700 millones de dólares diarios, 74 millones cada
hora, más de un millón de dólares por minuto! Según datos de la ONU, los gastos
militares mundiales en ese año representaron el equivalente del Producto Interno Bruto
conjunto de África y América Latina en ese mismo año y 6% del valor global de la
producción de bienes y servicios. Los gastos en todo el mundo en salud pública sólo
ascienden a 60% de los gastos militares. El costo de un bombardero moderno equivale a
los salarios de 250 mil maestros durante un año, o al costo de la construcción y
equipamiento de 75 hospitales de 100 camas.
Cinco punto nueve por ciento del Producto Nacional Bruto de los países de Asia, África
y América Latina se invierte en armas y gastos militares, mientras que 1% se destina a la
salud pública y 2.8% a la educación. En los países subdesarrollados, en su conjunto, hay
actualmente un soldado por cada 250 habitantes y un médico por cada 3 700.
Según estimaciones recientes, el mundo gasta hoy día un promedio de 19 300 dólares al
año por cada soldado, mientras que los gastos públicos destinados a la educación
promedian tan sólo 380 dólares por cada niño en edad escolar. Por cada 100 mil
habitantes del planeta hay 556 soldados y solamente 85 médicos. El presupuesto de los
Estados Unidos de Norteamérica y los países de la Comunidad Europea asignan 45
dólares percapita a la investigación con fines militares y sólo 11 dólares a las
investigaciones relacionadas con la salud. Ruth Leger Sivard, World Military and Social
Expenditures, 1982.
¿No es evidente, entonces, que en el creciente armamentismo y en la creciente amenaza
de una guerra total encontramos una absoluta irracionalidad? Y la ciencia, es decir, los
científicos tienen una gran responsabilidad en este asunto, pues la constitución de tal
poder destructivo ha sido posible sólo gracias a una constante y planificada investigación
científica y tecnológica.
La explosión de la primera bomba atómica supuso un grave peso sobre la conciencia de
los científicos que la fabricaron. Uno de ellos, Robert Oppenheimer, escribía a propósito,
en 1948: “En cierto sentido brutal, que ni la vulgaridad, ni el humor, ni la exageración
pueden borrar, los científicos hemos conocido el pecado; y éste es un conocimiento del
que no nos será fácil librarnos”.
80
AÑOS
2302
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
Antes del lanzamiento de las bombas sobre las ciudades de Hiroshima y Nagasaki, no
solamente Oppenheimer, sino Einstein, Fermi, Compton, Lawrence y muchos otros
destacados científicos que habían contribuido a la fabricación de la bomba, se oponían a
que fuera lanzada sobre Japón, pues era evidente que la guerra ya estaba perdida para los
nazis y sus aliados. Pero era tarde, demasiado tarde, los militares y los políticos se habían
ya apoderado de la bomba, ahora era su bomba y, con ellos, los amos del imperio
comenzaron a intimidar al mundo. En una carta al entonces presidente Truman, su
secretario James F. Byrnes escribía: “La bomba nos dará la posibilidad de imponer
nuestras condiciones al finalizar la guerra”. En una reunión cumbre, en 1945, el propio
Byrnes declaró a la delegación soviética: “si ustedes no están de acuerdo con nosotros,
sacaré del bolsillo la bomba atómica y la descargaré sobre ustedes”; la respuesta no se
hizo esperar; en el verano de 1949, la exUnión Soviética hacía estallar su primera bomba
atómica.
Los conocimientos científicos y tecnológicos, además de su función directa en la
economía de una sociedad, son también integrados al aparato de dominación para servir
como instrumentos de opresión y destrucción.
El poder es implacable y no se detiene ante nada; los científicos, según la lógica del
poder, son simples servidores bien pagados que deben hacer lo que se les pide sin
cuestionar los efectos que su trabajo pueda tener.
Por su oposición al desarrollo de las armas atómicas, Oppenheimer fue separado de los
cargos que ocupaba y sometido a juicio por ser considerado un “peligro para la
seguridad” de Estados Unidos de Norteamérica. De Einstein y muchos otros también se
sospechó e inmediatamente fueron retirados de todo proyecto que tuviera que ver con el
desarrollo de armas nucleares.
A pesar de la responsabilidad moral que implica participar en el desarrollo de este tipo de
armas, un número creciente de científicos e ingenieros entregan su potencial creador a las
actividades de investigación con fines militares y desarrollo de armamentos. En 1970, se
calculaba en medio millón el número de científicos dedicados a estas tareas. El
imperialismo puede contar con tal ejército de intelectuales a su servicio, por el duro y
concienzudo control que ejerce sobre la conciencia de los hombres. El hombre de
ciencia, bajo el dominio imperial, puede estar tan enajenado de sí y de su sociedad como
el menos educado de los obreros.
Desafortunadamente, está lejano el día en que no sólo los científicos, sino todo el pueblo
norteamericano renuncie a que, con su apoyo y en nombre suyo, un puñado de lunáticos
ensoberbecidos intenten dominar al mundo. Dos distinguidos científicos que participaron
en la construcción de la primera bomba, Isaac Rabí y E. Fermi, en su momento
declararon:
El hecho de que la destructividad de esta arma no tenga límites hace
que su misma existencia y el conocimiento de su construcción sean un
peligro para toda la humanidad. Es necesariamente una cosa malvada,
cualquiera que sea el aspecto bajo el cual se le considere. Por estas
razones, creemos importante que el presidente de los Estados Unidos
diga al pueblo estadounidense y al mundo que nosotros pensamos
basados en principios éticos fundamentales, que será inmoral iniciar el
desarrollo de tal arma.
La mayoría del pueblo norteamericano , sin embargo, no parece haberse enterado y sigue
creyendo en sus profetas esquizofrénicos. A tal grado llega su ignorancia de lo que una
80
AÑOS
2303
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 194/453
guerra nuclear implica, que prontamente se deja estafar por compañías que anuncian en
los periódicos la construcción “en su propio sótano” de cómodos y lujosos refugios
antiatómicos con capacidad para nueve personas y varias toneladas de alimentos. Bajo el
lema “algunos sobrevivirán” estas compañías apuran a sus clientes a hacer sus pedidos,
pues “ya es grande la demanda por parte de militares, altos funcionarios del gobierno,
millonarios y otras grandes personalidades”. Y, mientras llega el gran momento, el
refugio puede usarse “como cuarto de juegos y fiestas”. Pobre pueblo. A lo mejor ya
hace falta, como alguien dijo recientemente, una campaña de solidaridad con el pueblo
estadounidense.
El Cabuche (crónicas de la Facultad de Ciencias)/ Entre semanas
Esta por realizarse una edición mas de la ahora llamada Semana de Ciencias, que del 17
al 20 de marzo se efectuará por cuarenta y una ocasión. La Semana de Ciencias inició en
1962 como Semana de Física, como marco para recordar el inicio de actividades
académicas de la entonces Escuela de Física. Esta semana llevó tal nombre hasta el año
de 1994. La semana ahora lleva el nombre de Semana de Ciencias, nombre que apenas en
1994 la práctica lo formalizó. Ya en 1992 se le nombraba Semana de Ciencias, pero
existían actividades que englobaban la todavía Semana de Física; en ese año de 1992 se
organizó la serie El Mundo Maravilloso de la Física Recreativa con actividades en
escuelas, plazas públicas y en la propia escuela-facultad, dirigidos principalmente a niños
y estudiantes de preescolar y primaria, que tenía como marco la 30 Semana de Física, que
a partir de ese momento se le agregaba su número de realización, ya que anteriormente
sólo se refería como Semana de Física. La tónica en aquel año fue la realización de la 30
Semana de Física como tal, que se efectuó en la semana que engloba el 5 de marzo, como
tradicionalmente se celebraba, y la Semana de Ciencias que se desplazó hasta los últimos
días de marzo. Como todo evento de tradición no escasean las anécdotas. En el año de
1976 comenzamos a participar en la organización de la semana con los clásicos eventos
académicos, culturales y deportivos. Durante muchos años se realizó la que fue
tradicional carrera a la presa de San José, que en ocasiones era en la propia presa en su
modalidad de campo traviesa subiendo el cerro y bajando por la cortina de la presa; en
1975 en lo que fue nuestra primer semana, perdí con chapuza del Mora que aprovechó un
rodeo que tuve que dar. Posteriormente la participación en esta carrera fue copiosa y llegó
a ser nombrada como carrera Antonio Nieto, uno de nuestros compañeros, por el Mike.
En aquel año de 1976 conseguimos fuéramos invitados el recién inaugurado Canal 13, el
anfitrión resultó ser Juan Manuel Calzada quien tenía un noticiero deportivo. Nos
interesaba dar a conocer las conferencias que tendrían lugar en esa Semana de Física; sin
embargo, teníamos que hablar de deportes. Juan Manuel Calzada, nos pidió que
comenzáramos a dar información sobre los eventos deportivos, para lo cual nos
formularía algunas preguntas y de pasadita diéramos el resto de la información. Canal 13
apenas comenzaba a transmitir, sus instalaciones eran modestas y se notaba sus
limitaciones técnicas. Comenzamos a platicar de fútbol y como en el cuento de la
hormiguita, entramos de lleno al tema de la ciencia, con la cara de resignación del
bigotón Calzada. Con acordes de Silvio Rodríguez, que viva una Semana más.
Me vienen a convidar a arrepentirme,/me vienen a convidar a que no pierda,/me vienen a
convidar a indefinirme,/me vienen a convidar a tanta mierda./Yo no se lo que es el
destino,/caminando fui lo que fui/Allá Dios, que será divino/Yo me muero como viví
80
AÑOS
2304
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.195, 17 de marzo de 2003
No. acumulado de la serie: 454
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
17 de marzo se cumpen 45 años del
lanzamiento del satélite que más tiempo
ha permanecido en el espacio. El
Vanguard-1, diseñado por el Naval
Research Laboratory y lanzado en 1958,
ha completado 178.061 revoluciones
alrededor de la Tierra y aún sigue en
órbita, al contrario que algunos de sus
compañeros de la época, como los
Sputniks-1 y 2 ó el Explorer-1. El
Vanguard-1 también fue el primer
satélite que utilizó energía solar, lo que
le permitió sobrevivir activo casi 7 años.
Además, completó todos sus objetivos,
que incluían estudios sobre el tamaño y
forma de nuestro planeta, la densidad de
la atmósfera, temperaturas e impactos de
micrometeoritos.
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Más información en:
http://www.nrl.navy.mil/content.php?P=
VANGUARD
El Hijo de El Cronopio No. 195/454
Letras y Voces en el Altiplano/
EN EL FILO DEL CRISTAL
Fernando Luis Pérez Poza
Pontevedra. España.
Hoy las calles
parecen tan grises y tan rectas,
tan de vuelta de todas las esquinas,
que te miran lento,
de arriba a abajo, de abajo a arriba,
con ojos de embudo solitario.
Es tan triste el destino de una uva
convertida al final en un mal vino,
que vivo en el revés del tiempo
estrujando sombras y arrugas
que se retuercen en el espejo.
Aquí...
anclado en el andamio cojo del trébol
me pregunto:
¿Por qué no respiran las piedras?
¿Por qué no reclaman los muertos?
¿Por qué los horizontes
siempre están tan lejos?
Hace ya tanto tiempo
que no siento
la espiral azul de un beso
o no vuelca el infinito su risa redentora
en el cáustico vaivén de mis latidos,
que mis sueños son panteras negras
atrapadas en el centro de la nada.
Camino por el filo del cristal
en los brazos de una noche sonámbula:
¡Hay tantas estatuas rotas
adornando el jardín del pasado,
tantos marcos sin foto
encogiendo la memoria,
tanto cohete mojado y caduco
en la feria de mis sentimientos,
que nunca avanzo
y el aire es una noria sin caseta
donde sacar las entradas.
Soy un barco que no vuelve,
un sótano de nudos desatados
que respira como un pez en tierra seca,
el absurdo disparate de un osario
o la cuerda rota de un reloj sin hora.
Es tan dulce la memoria de un pétalo,
el delirio del vuelo de una mosca,
el cálido ballet de una llama.
Fotografían punto más frío del Universo
El telescopio espacial Hubble es una empresa conjunta de la ESA y la agencia espacial norteamericana NASA
El telescopio espacial Hubble fotografió el punto más frío del Universo, en la llamada Nebulosa
Bumerang de la Constelación del Centauro, comunicó la Agencia Espacial Europea (ESA) en
Garching. El punto en cuestión, con 272 grados centígrados bajo cero, es sólo un grado más
"caliente" -o menos frío- que el cero absoluto, de 273,15 grados bajo cero, cuando teóricamente
cesa todo movimiento atómico. Incluso el eco del Big Bang -la radiación cósmica de fondo- es
dos grados menos frío. La Nebulosa Bumerang es la cubierta gaseosa de una estrella en vías de
extinción, a 5 mil años-luz de la Tierra. Se trata del único objeto conocido hasta ahora que es más
80
AÑOS
2306
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
frío que la radiación cósmica de fondo. El telescopio espacial Hubble es una empresa conjunta de
la ESA y la agencia espacial norteamericana NASA. Periódico Reforma con información de la
agencia DPA
Usan Galaxia como "lente"
Esto permitió una mirada más profunda del Universo y captar imágenes de objetos débiles
Por ARTURO BARBA NAVARRETE / Grupo Reforma
El telescopio espacial Hubble utilizó una galaxia situada a dos mil 200 millones de años luz de
distancia como un zoom "natural" para observar regiones del Universo nunca antes vistas
informó la agencia espacial estadounidense NASA.
El zoom "natural" fue la galaxia Abell 1689, cuya gravedad de las miles de millones de estrellas
y de la materia oscura que la componen funcionaron como un lente gravitacional, que magnificó
la luz de las galaxias que se encuentran más lejos.
Esto permitió una mirada más profunda del Universo y captar imágenes de objetos débiles, cuya
distancia se estima en 13 mil millones de años-luz, tan solo dos mil años después de la formación
del Universo.
Los científicos esperan que la observación, que duró 13 horas, ayude a entender la evolución del
Universo, la formación de galaxias y de materia oscura.
Los astrónomos señalaron ayer en la reunión anual de la Sociedad de Astronomía en Seattle, que
los fenómenos captados por el Hubble sucedieron dos mil millones de años después de la Gran
Explosión o Big Bang.
Abell 1689 se encuentra a 2 mil 200 millones de años luz de distancia de la Tierra y sus estrellas
forman un lente de aumento que tiene una extensión de dos millones de años luz, dijeron los
astrónomos. A primera vista la imagen parece ser la de centenares de objetos brillantes sobre un
fondo negro, pero en un examen más profundo se advierten arcos rojos y azules que son parte de
la luz de galaxias más remotas que ha sido desviada por la fuerza gravitacional de sus estrellas.
Algunas de esas galaxias ya habían sido detectadas, pero las nuevas imágenes revelan un número
diez veces mayor de arcos que los captados en las imágenes de telescopios terrestres. con
información de agencias
Observan partículas bajo el mar
El telescopio europeo en el Mediterráneo será 10 veces más preciso que los instrumentos existentes
hasta ahora
Por GRUPO REFORMA /
AFP
Un observatorio europeo de un nuevo tipo, llamado Antares y que está siendo instalado en el mar
Mediterráneo a 2 mil 400 m de profundidad, podría aportar respuestas a los secretos de la
creación del Universo mediante la observación de partículas elementales, los neutrinos. Una
primera fase del futuro observatorio, instalado en el mar Mediterráneo 10 millas náuticas al sur
de la isla de Porquerolles, será activada a mediados de marzo por el Nautile, submarino del
Instituto francés de Investigaciones Oceanográficas (IFREMER).
Los neutrinos, partículas infinitamente pequeñas, bombardean la Tierra y la atraviesan, a menudo
sin dejar rastros. "Algunas de ellas, llamadas de alta energía, proceden de los confines del
universo, de núcleos de estrellas, pulsares o restos de supernovas", explica John Carr, director de
investigaciones del Centro de Física de las Partículas de Marsella.
Otras podrían proceder de la materia negra que representa el 90 por ciento del Universo y que
sigue siendo un enigma para los astrofísicos. La existencia de neutrinos fue formulada en 1931
80
AÑOS
2307
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
por el austriaco Wolfgang Pauli, que obtuvo el Premio Nobel en 1945, y demostrada 25 años más
tarde por el norteamericano Frederick Reines, Premio Nóbel en 1995. El norteamericano
Raymond David y el Japonais Masatoshi Koshiba fueron también coronados con el Nobel, en
2002, por sus trabajos sobre la detección de neutrinos cósmicos.
Los científicos trabajan desde los años 70 para lograr extraer información de estos extraños
mensajeros que podrían aportar revelaciones sobre las estrellas, la materia negra y el Big Bang
(la explosión original que habría dado origen al Unvierso hace 14 mil millones de años).
Pero la observación de los neutrinos es una tarea compleja, puesto que interactúan rara vez con la
materia. Cuando excepcionalmente uno de ellos choca con un átomo de materia, se transforma en
otra partícula, el muón, portadora de una carga eléctrica que, bajo el agua, produce una estela
luminosa, el llamado "efecto Cherenkov", mensurable gracias a fotomultiplicadores.
Después de los primeros experimentos realizados en el fondo de minas (para eliminar los rayos
cósmicos "parásitos"), a partir de 1993, científicos rusos instalaron captores en medio natural, en
el fondo del lago Baikal, y científicos norteamericanos hicieron lo mismo bajo los hielos de la
Antártida.
Los europeos se incorporaron a la investigación en 1996 con el proyecto Antares, dirigido por el
Centro de Física de las Partículas de Marsella y la Comisaría francesa de Energía Atómica y en el
que participan, además de Francia, otros seis países (Italia, Holanda, Alemania, España, Gran
Bretaña y Rusia).
El telescopio europeo en el Mediterráneo "será diez veces más preciso" que los instrumentos
existentes hasta ahora", indicó John Carr.
Noticias de la Ciencia y la Tecnología
Núcleo líquido en Marte
El centro del Planeta Rojo se parece al de sus hermanos del sistema solar, la Tierra y Venus, confirman
científicos del Jet Propulsion Laboratory. Marte tiene un núcleo fundido, de hierro líquido, lo que
proporciona nuevas pistas sobre el pasado geológico de este mundo.
Los investigadores han llegado a esta conclusión analizando tres años de datos relacionados con el
seguimiento de las señales de radio de la sonda Mars Global Surveyor. Dichos datos permiten afirmar que
Marte no se ha enfriado completamente, y que su núcleo de hierro no es sólido sino que, o es del todo
líquido, o posee una zona externa líquida y una interna sólida. El núcleo terrestre responde también a este
último modelo.
Marte se ve influido por la atracción gravitatoria del Sol. En un cuerpo sólido dicha atracción provocaría
un efecto de marea (la aparición de sendos abombamientos en extremos opuestos). Midiendo este
abombamiento en el campo gravitatorio marciano es posible determinar cuán flexible es Marte: el
resultado es inferior a 1 cm, muy poco, pero suficiente como para señalar que el núcleo del Planeta Rojo
no puede ser únicamente una bola de hierro sólido sino que al menos estará fundido de manera parcial.
Los científicos utilizaron el seguimiento Doppler de las señales de radio emitidas por la sonda para
determinar de forma muy precisa su órbita alrededor del planeta. El abombamiento debido al efecto de
marea es diminuto, pero es una fuerza detectable que actúa sobre la órbita de la nave y que causa un
desplazamiento en la inclinación orbital de una milésima de grado por mes.
Alex Konopliv y Bill Folkner, científicos planetarios del JPL, han calculado que la precesión del eje
marciano (el lento movimiento en forma de cono similar al de una peonza) implica una revolución cada
170.000 años. Este dato proporciona una indicación de la cantidad de masa que se halla concentrada en el
núcleo del planeta. Un ritmo de precesión más rápido sugiere un núcleo más grande y denso.
También se ha llegado a la conclusión de que el tamaño de este núcleo es aproximadamente un tercio de
las dimensiones del planeta, como ocurre con la Tierra o Venus. Además, en él se halla de manera
abundante un elemento más ligero que el hierro, como el azufre.
Información adicional en: http://www.jpl.nasa.gov/releases/2003/32.cfm
80
AÑOS
2308
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
Topografía de alta resolución
Basándose en los datos capturados por la Shuttle Radar Topography Mission, un vuelo de la lanzadera que
utilizó un radar especial, un grupo de investigadores ha preparado un mapa topográfico del continente
Norteamericano, que abarca desde Canadá hasta América Central.
Quizá lo más destacable del nuevo mapa es la confirmada existencia del cráter de impacto Chicxulub, en la
Península de Yucatán, propuesto en 1980 y utilizado en los años 90 como objeto de estudio por los
científicos que lo designan como el origen de la catástrofe que acabó con los dinosaurios y con el 70 por
ciento de los organismos vivos, hace 65 millones de años. La Shuttle Radar Topography Mission ha
proporcionado la prueba más contundente de dicha existencia, mostrando claramente el cráter de 180 km
de diámetro y 900 metros de profundidad, el resultado de la colisión de un cometa gigante o un asteroide.
El radar de la Shuttle Radar Topography Mission, instalado en la bodega de uno de los transbordadores,
capturó datos de altimetría de buena parte de la superficie terrestre durante los días que permaneció en el
espacio. El caudal de información recolectada fue tan grande que, después de varios años, los analistas
siguen todavía preparando productos basados en ella.
En el nuevo mapa se expande nuestro conocimiento topográfico de Canadá, el sur de Alaska, las islas
Aleutianas, México y América Central, explica Michael Kobrick, responsable del programa. Adquieren
notoriedad como nunca lo hicieron antes diversas estructuras espectaculares, como el ya mencionado cráter
de Chicxulub. La expresión superficial del cráter es tan sutil que no lo notaríamos aunque camináramos
sobre él. Sólo la visión general proporcionada por el radar desde el espacio permite apreciar claramente sus
características.
Los investigadores creen que el impacto, centrado frente a la costa de la península de Yucatán, perturbó las
rocas que se encuentran por debajo de la superficie, inestabilizándolas. Las rocas quedaron posteriormente
enterradas por los sedimentos de caliza, que se erosionan con facilidad. La inestabilidad del borde del
cráter hizo que la caliza se fracturara a lo largo de dicho borde, formando una depresión semicircular de 3 a
5 metros de hondo y 5 km de ancho, muy visible en las imágenes.
La NASA finalizó el procesado de los datos de la Shuttle Radar Topography Mission en febrero. Fueron
entonces entregados a la National Imagery and Mapping Agency, donde se preparará la información antes
de su distribución pública a través del U.S. Geological Survey.
La lanzadera Endeavour recogió más de 8 terabytes de datos, que han sido convertidos en 200.000
millones de medidas altimétricas. El vehículo permaneció en el espacio del 11 al 22 de febrero de 2000 y
realizó mediciones tridimensionales de más del 80 por ciento de las masas emergidas de la Tierra, entre las
latitudes 60 grados norte y 56 grados sur, donde vive más del 95 por ciento de la población mundial.
El próximo paquete de información continental que se dará a conocer será el correspondiente a América
del Sur. Información adicional en: http://www.jpl.nasa.gov/releases/2003/30.cfm
Plásticos mas baratos y ecológicos
El primer óxido de cobre y plata conocido, sintetizado en el Instituto de Ciencia de Materiales de
Barcelona (CSIC), puede abaratar y simplificar los procesos de fabricación de plásticos. Este óxido (ahora
ya una familia de óxidos) reduce el tiempo y temperatura necesarios para obtener formaldehído (producto
intermedio en la síntesis de polímeros), lo que se traduce en un aumento de productividad y ahorro
energético para la industria.
El resultado ha conducido a una patente y a la búsqueda de socios para su explotación industrial. Otra
posible aplicación son las pilas de combustible basadas en el metanol, alternativas a las de hidrógeno.
"Resulta sorprendente que nadie haya obtenido antes este material", señala Pedro Gómez-Romero,
responsable del proyecto, que alude a "la belleza de lo simple".
Los intentos de otros laboratorios internacionales para sintetizarlo, basados en el calentamiento de óxidos
de cobre y de plata, se encontraban siempre con el mismo problema: la plata tiende a separarse del oxígeno
a las altas temperaturas asociadas a las reacciones en estado sólido. Los científicos del Instituto de Ciencia
de Materiales de Barcelona lo resolvieron con un procedimiento mucho más simple y que se desarrolla a
temperatura ambiente. La fórmula funciona y a primera vista resulta de lo más fácil: "Basta con disolver
unas sales de cobre y de plata en agua y forzar su coprecipitación en medio básico, lo que forma un
precursor que da lugar al nuevo óxido mixto de cobre y plata, que a diferencia de los óxidos de plata es
estable en aire hasta los 350 grados C". "Este material no se sintetizó buscando una aplicación inmediata.
80
AÑOS
2309
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
Simplemente respondía a un interés científico básico", afirma Gómez-Romero, quien a partir de entonces
ha colaborado con otros centros en la búsqueda prospectiva de aplicaciones. Tras publicar su trabajo inicial
recibió llamadas de diversos especialistas interesados en aspectos diversos del óxido, como mineralogía,
propiedades magnéticas o catálisis.
El contacto más fructífero vino de la mano de Gerhard Mestl, entonces científico del prestigioso Instituto
Fritz-Haber de Berlín, y del que actualmente se ha desvinculado para formar una empresa tecnológica. Este
investigador "coincidió con nosotros en considerar el óxido recién descubierto como potencialmente
interesante. Nos abrió una nueva puerta, al estudiar y descubrir la capacidad catalítica del compuesto en los
procesos de oxidación parcial de alcoholes".
"Nuestro compuesto, por ejemplo, facilitaba considerablemente la reacción de oxidación parcial del
metanol para dar formaldehído, especialmente a temperaturas bajas de reacción", explica Gómez-Romero,
quien añade que el formaldehído es uno de los intermedios esenciales para la síntesis de resinas
poliméricas y plásticos. Al funcionar mejor a bajas temperaturas este catalizador supone una reducción en
el consumo energético de las empresas con lo que se abaratarían los costes y disminuiría el impacto
ambiental.
Por otra parte, a temperaturas más elevadas, el mismo óxido es capaz de catalizar la oxidación total de
metanol a CO2 y agua, lo cual se podría explotar en su aplicación en pilas de combustible de metanol
directo, una alternativa a las de hidrógeno que goza de las ventajas del manejo de un combustible líquido.
Si el metanol procede de la biomasa (desechos naturales), no importa que produzca CO2 , pues este gas "ha
sido previamente fijado en los tejidos vegetales de dicha biomasa y vuelve a ponerse en circulación en un
ciclo cerrado sin que aumente su cantidad global en la atmósfera", explica Gómez-Romero.
Mientras esta segunda aplicación "debe todavía probarse", las propiedades del óxido como catalizador ya
han sido demostradas en laboratorio, lo que ha conducido a una patente y a buscar socios para su posible
explotación industrial. (R+D CSIC) Información adicional en: http://www.dicat.csic.es/rdcsic/rdma15esp.htm
Nuevos satélites de Júpiter
Dos astrónomos de la University of Hawaii acaban de anunciar el descubrimiento de siete nuevos
miembros de la cada vez más nutrida familia de satélites del gigante planetario del Sistema Solar, Júpiter.
Con ellos, el total de lunas conocidas a su alrededor asciende a 47.
El impresionante hallazgo se hizo a principios de febrero de 2003 por Scott S. Sheppard y David C. Jewitt,
con la colaboración de Jan Kleyna, de la Cambridge University. Para sus observaciones emplearon las dos
mayores cámaras digitales del mundo, instaladas en el telescopio Subaru (de 8,3 metros de diámetro) y en
el Canada-France-Hawaii (de 3,6 metros), ambos en la cima del Mauna Kea, en Hawai.
El anuncio formal se hizo en la circular número 8.087 de la Unión Astronómica Internacional, el pasado 4
de marzo. Dos de los siete nuevos satélites, llamados provisionalmente S/2003 J1 y S/2003 J6, siguen
órbitas normales alrededor de Júpiter, mientras que el resto lo hace de manera retrógrada (en el sentido
contrario al del eje de giro del planeta). La mayoría de los pequeños satélites irregulares jovianos se mueve
en órbitas retrógradas.
La información que tenemos de los cuerpos es aún muy escasa, y se limita a apenas una leve indicación de
sus trayectorias, que de todas maneras aún son provisionales.
Información adicional en: http://www.ifa.hawaii.edu/~sheppard/satellites/jup2003.html
Mejores baterías de litio
Se ha desarrollado en los Sandia National Laboratories una nueva clase materiales compuestos que
podrían doblar las capacidades de almacenamiento de energía que actualmente poseen los ánodos de
grafito. Ello nos llevaría a baterías recargables de litio de menor tamaño, mayor vida útil y más energía
acumulada.
El nuevo material utiliza silicio y grafito. Según los cálculos, esta revolucionaria unión mejorará las
capacidades específicas de los cátodos de grafito comerciales hasta en un 400 por ciento, afirman Jim
Wang y Scott Vaupen, de los Sandia Labs.
Este paso adelante es necesario para satisfacer las necesidades de los microsistemas híbridos, incluyendo
automóviles eléctricos, ordenadores portátiles, teléfonos celulares, etc. No existe actualmente un
dispositivo lo bastante pequeño, robusto, duradero y de alta potencia, que cubra los requerimientos de estos
80
AÑOS
2310
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
sistemas híbridos, por lo que los fabricantes se ven obligados a utilizar componentes de muy bajo consumo
y diseños cuya longevidad se ve limitada.
Sandia ha estudiado durante años los límites de capacidad asociados a los ánodos tradicionales de las
baterías de litio. Para intentar superarlos, sus científicos empezaron a utilizar silicio, que tiene 10 veces la
capacidad del grafito, pero esta capacidad se pierde rápidamente durante la fase de reciclado de la batería.
Afortunadamente, cuando se combinan pequeñas partículas de silicio con una matriz de grafito, la
capacidad elevada se conserva.
El proceso de fabricación del compuesto silicio/grafito es sencillo y conocido por la industria de las
baterías. La materia prima para este tipo de electrodo es asimismo barata y abundante.
Los investigadores reconocen que aún están lejos de obtener el material perfecto, pero afirman que futuras
mejoras en su microestructura podrían servir para minimizar sus actuales desventajas.
Información adicional en: http://www.sandia.gov/news-center/news-releases/2003/renew-energy -batt/betterlithium.html
Nanocomputación
Investigadores del Georgia Institute of Technology han demostrado el funcionamiento a escala
nanoscópica de un nuevo dispositivo optoelectrónico capaz de efectuar sumas y otras operaciones lógicas
complejas. Es simple de fabricar y produce una salida óptica que puede ser leída sin contactos eléctricos.
El dispositivo cuántico está basado en formaciones de nanoacumulaciones individuales de plata,
electroluminiscentes, y promete convertirse en el punto de partida de nuevos modos de computación
especializada a escala molecular.
Según Robert Dickson, uno de los científicos que han participado en su desarrollo, lo que se ha demostrado
en sus investigaciones es el comportamiento de un transistor optoelectrónico. En lugar de medir la salida
de corriente como ocurriría con un transistor electrónico tradicional, se ha medido la salida
electroluminiscente para una entrada de voltaje determinada. Es decir, el dispositivo funciona de una forma
análoga al transistor, pero utiliza luz como salida, en vez de corriente eléctrica.
Dado que las nanoacumulaciones poseen diferentes niveles de energía, podemos dirigirnos a ellas de forma
individual, variando el voltaje inyectado en sus alineaciones con un sistema simple de dos terminales.
Evitar la necesidad de conexiones eléctricas aisladas para cada nanoacumulación hace que el sistema sea
más sencillo de fabricar a escala nanoscópica que los dispositivos electrónicos de diseño tradicional.
La clave está en los voltajes específicos bajo los cuales las acumulaciones (de 2 a 8 átomos de plata)
emiten luz cuando son excitadas eléctricamente. Para operar, los dispositivos requieren al menos dos
pulsos eléctricos separados que pueden ser variados en amplitud. La electroluminiscencia ocurre sólo
después del segundo pulso, que activa las nanoacumulaciones dentro de las alineaciones, dependiendo del
nivel de voltaje al que cada una responda. Dado que cada nanoacumulación responde sólo a voltajes muy
específicos, la corriente combinada entregada por los pulsos activa sólo acumulaciones concretas, que son
observadas ópticamente.
Leyendo la emisión de salida de dos moléculas correlacionadas, podemos sumar pulsos y realizar una muy
básica pero importante operación de adición. La aplicación de diferentes pulsos puede provocar también
que las nanoacumulaciones individuales operen como puertas lógicas con funciones AND, OR, NOT y
XOR.
Incrementando el número de acumulaciones operando juntas se podrían obtener dispositivos capaces de
realizar operaciones complejas. Mientras cada acumulación se mantenga lo bastante separada como para
ser resuelta por una cámara, las formaciones podrían contener miles de nanoacumulaciones de plata.
Para tareas ordinarias, los dispositivos optoelectrónicos no reemplazarán a los ordenadores tradicionales
basados en semiconductores. Pero hay aplicaciones en las que podrán ser útiles, gracias a la inherente
naturaleza paralela del sistema y a los bajos niveles de energía requeridos.
Información adicional en: http://www.gtresearchnews.gatech.edu/newsrelease/nanocomputing.htm
La próxima fase de SETI@home
Después del equivalente a más de un millón de años de computación en más de 4 millones de ordenadores
de todo el mundo, el famoso salvapantallas SETI@home ha reducido suficiente información como para
producir una lista de 150 fuentes de señales de radio que merecen un segundo análisis.
Este mismo mes, miembros del equipo de SETI@home empezarán a utilizar el radiotelescopio de Arecibo
para observar estas fuentes, en busca de posibles señales de civilizaciones inteligentes.
80
AÑOS
2311
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
El programa SETI@home se ha convertido en un programa muy popular. Ha permitido al hombre de la
calle contribuir con los recursos no utilizados de su ordenador al análisis de las escuchas radiotelescópicas
efectuadas por los astrónomos. Después de tres años de continuada computación (de hecho, el mayor
esfuerzo de este tipo jamás emprendido), ha llegado el momento de continuar con la búsqueda, prestando
especial atención a las fuentes más interesantes detectadas. Los candidatos a la reobservación son señales
especialmente potentes o aquellas que se han detectado en un mismo punto del cielo más de una vez
(algunas hasta cinco o seis veces).
El radiotelescopio de Arecibo, el mayor del planeta, observará una a una estas fuentes, e intentará obtener
más información sobre ellas. Los resultados estarán disponibles dentro de dos o tres meses. Las
posibilidades de que alguna de las señales corresponda a una emisión extraterrestre inteligente son, sin
embargo, muy escasas, menos de un 1 por ciento.
En todo caso, el programa SETI@home puede considerarse todo un éxito. Ha permitido realizar el análisis
SETI (búsqueda de inteligencia ext raterrestre) más sensible del cielo hasta la fecha, y ha demostrado el
poder de la computación distribuida, a través de Internet. Hasta este momento han participado más de
4.287.000 voluntarios, que han instalado el salvapantallas en sus ordenadores y han contribuido al análisis
de las señales. Los nombres de quienes identificaron a los 150 candidatos serán anunciados
oportunamente.
De hecho, son más de 150 los candidatos listados por el proyecto, pero los miembros del equipo sólo
disponen de 24 horas de tiempo total de observación con el radiotelescopio de Arecibo, entre el 18 y el 20
de marzo. Por eso, el criterio de selección ha incluido: señal de radio potente, observada más de una vez en
el mismo punto del cielo y en el mismo rango de frecuencias, próxima a una estrella conocida, y a ser
posible, con planetas. Esto elimina a muchos candidatos que son simplemente ruido o interferencias de
satélites.Información adicional en: http://www.berkeley.edu/news/media/releases/2003/03/10_search.shtml
Embotellamiento cerebral
Muchos aficionados tratan a sus automóviles como si fueran personas. Más aún, los reconocen con la
misma parte del cerebro que empleamos para identificar caras humanas. Quizá por ello, cuando tratan de
distinguir coches y caras a un tiempo, suelen experimentar una especie de embotellamiento perceptivo.
Esto es al menos lo que un equipo de científicos de la Vanderbilt University y de la University of Colorado
en Boulder ha descubierto. Utilizando sofisticados aparatos, compararon el modo en que los cerebros de
los expertos automovilísticos y los de los no conocedores de la materia procesan imágenes de coches y
caras.
Así, vieron que en el cerebro de los primeros, al observar un automóvil, se desarrollan señales parecidas a
las que encontraríamos en el cerebro de una persona normal tratando de identificar una cara humana. Sin
embargo, cuando a los expertos se les presentó la tarea de procesar imágenes de caras y coches de forma
simultánea, su habilidad de identificar rostros se vio disminuida. Hasta ahora se creía que las caras se
reconocían en un área muy concreta del cerebro, de forma holística, rápida y una por una. Cuando se trata
de identificar un objeto nuevo, en cambio, se usarían otras regiones diferentes, de manera fragmentada y
gradual. Sin embargo, Isabel Gauthier y sus colegas de Vanderbilt opinan que las caras no se identifican en
un módulo especial del cerebro, sino que se emplea un procesador visual general, el cual puede ser
entrenado también para identificar holísticamente otros objetos. Parece que los expertos en coches, o los
entendidos en aves, por ejemplo, han desarrollado esta habilidad.
Los investigadores reclutaron a 40 hombres para el estudio, 20 aficionados a los automóviles y otros 20 sin
un interés particular en ellos. Fueron sometidos a secuencias de imágenes de caras y coches, de forma
alternada, y se les pidió que compararan cada coche y cara con los anteriormente vistos. De estas forma, la
persona tenía una imagen de un coche en su mente cuando estaba mirando una cara, y viceversa. Para saber
si los voluntarios observaban unos y otras de forma holística o gradual, se dividió cada imagen en dos
partes, superior e inferior, y se pidió a los sujetos que ignoraran la zona superior, que era variada de forma
sucesiva. El resultado fue que las personas con mayor grado de conocimientos sobre automóviles
reconocían las imágenes de los coches de forma holística, pero ello reducía su habilidad en el
reconocimiento holístico de caras. Al contrario, los poco avezados en automóviles los reconocían mediante
el método gradual, evitando cualquier interferencia en su reconocimiento holístico de caras.
Queda claro con este experimento que los dos procesos holísticos no son independientes, sino que se
realizan en la misma área, en el hemisferio derecho del cerebro.
Información adicional en: http://exploration.vanderbilt.edu/news/news_car_face_interference.htm
80
AÑOS
2312
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
Un planeta que se evapora
Gracias al telescopio espacial Hubble, un grupo de astrónomos ha observado, por primera vez, a un planeta
extrasolar que se está "evaporando" en el espacio. Parecido a Júpiter y orbitando muy cerca de su estrella
madre, acabará por perder toda su atmósfera gaseosa, dejando tan sólo un denso núcleo.
El planeta ha sido bautizado como HD 209458b y se encuentra a tan sólo 7 millones de kilómetros de su
estrella, un cuerpo amarillo parecido a nuestro Sol. En comparación, el planeta gaseoso más cercano al Sol,
Júpiter, se halla a unos 780 millones de kilómetros.
El infernal ambiente en el que se mueve HD 209458b acabará por destruirlo parcialmente. Las elevadas
temperaturas están evaporando el hidrógeno que lo rodea, permitiendo que la atmósfera escape hacia el
espacio. Visto desde fuera, el planeta tiene el aspecto de un cometa, con una gran cola de hidrógeno
huyendo de él. Su atmósfera se extiende ahora a lo largo de unos 200.000 kilómetros.
HD 209458b gira alrededor de su estrella cada 3 días y medio. Antes o después, perderá todo el hidrógeno
y se convertirá en un objeto mucho más pequeño, compuesto únicamente por su actual núcleo, más denso y
sólido.
Las investigaciones, lideradas por Alfred Vidal-Madjar, del CNRS francés, han sido difíciles. El estudio de
los planetas extrasolares, sobre todo si éstos se encuentran muy cerca de su estrella madre, es complicado
debido a que el brillo de esta última impide su visualización. Sin embargo, los astrónomos han podido
observar el planeta de forma indirecta, ya que al pasar repetidamente por delante de la estrella bloquea
ligeramente parte de su luz. Además, la luz que pasa a través de la atmósfera alrededor del planeta se ve
afectada por su presencia y nos permite analizarla. Algo parecido pasa en la Tierra, cuando la luz solar se
vuelve rojiza al pasar de forma oblicua a través de la atmósfera, durante una puesta de Sol. El
espectrógrafo STIS del Hubble ha permitido analizar la luz estelar y comprobar que las características de
su señal se pueden explicar por la presencia de una atmósfera de hidrógeno que se escapa del planeta.
El hidrógeno se calienta al estar muy cerca de la estrella, y ello le permite escapar de la gravedad
planetaria. Después, en el espacio, es empujado por la presión de la luz solar, formando la "cola
cometaria". Los astrónomos han calculado que se están escapando de HD 209458b unas 10.000 toneladas
de hidrógeno por segundo. El planeta, por tanto, podría haber perdido ya una buena parte de su masa. Por
el momento, tiene un diámetro equivalente a 1,3 veces el de Júpiter, y dos tercios de su masa. Se encuentra
a unos 150 años-luz de nosotros. Información adicional en: http://hubblesite.org/newscenter/archive/2003/08/text
Influencia de la circulación Ártica en el clima
Un estudio de la erupción de 1991 del volcán Pinatubo ha permitido a los científicos unir sus efectos a un
patrón climático conocido como Oscilación Ártica. Durante los dos años siguientes a la erupción, la
Oscilación Ártica causó inviernos más calientes sobre las tierras de las latitudes medias y altas del
hemisferio norte.
Y ello, a pesar del efecto de enfriamiento provocado por las partículas volcánicas, que bloqueaban la luz
solar, explica Georgiy Stenchikov, de la Rutgers University.
El estudio es interesante porque ha permitido probar los mecanismos que gobiernan la Oscilación Ártica.
Durante las últimas décadas, dicha oscilación ha fortalecido poco a poco su fase positiva, que implica
vientos más fuertes circulando en el sentido contrario a las agujas del reloj alrededor del Polo Norte, sobre
la latitud 55 grados N (la línea que pasa por Moscú, Belfast y Ketchikan, Alaska). Durante el invierno,
dichos vientos arrastran más aire caliente desde los océanos a los continentes, provocando un
calentamiento invernal. Además, el sistema impide que el aire frío se mueva hacia el sur.
Según las investigaciones, los cambios de temperatura asociados a los efectos de los aerosoles volcánicos
en la troposfera y la estratosfera pueden llevarnos a una fase positiva de la Oscilación Ártica. Los
científicos han utilizado un modelo que simula cómo se comportaron los aerosoles volcánicos procedentes
de la erupción del Pinatubo, afectando al clima.
En la troposfera, dichos aerosoles reflejan la radiación solar y enfrían la superficie terrestre, disminuyendo
las diferencias de temperatura entre el ecuador y el polo norte en la capa atmosférica más baja. Estos
cambios inhiben a otros procesos que de otra manera reducirían la potencia de los vientos alrededor del
polo norte.
En la estratosfera, los aerosoles absorben radiación solar, calientan la zona baja de esta capa e incrementan
las diferencias estratosféricas de temperatura entre el ecuador y el polo norte. Estos cambios fortalecen los
80
AÑOS
2313
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
vientos que se mueven hacia el oeste en la baja estratosfera y ayudan a crear una fase positiva de la
Oscilación Ártica.
El estudio también ha averiguado que cuando los aerosoles llegan a la estratosfera, se producen reacciones
muy rápidas en sus superficies, las cuales destruyen el ozono, sobre todo en latitudes altas. Cuando el
ozono se agota, se absorbe menos radiación ultravioleta en la estratosfera, enfriando la zona polar y
aumentando las diferencias de temperatura entre el ecuador y el polo. Esto, de nuevo, crea una fase
positiva de la Oscilación Ártica. Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0306aopin.html
Breves del Mundo de la Ciencia
EL VIENTO INFLUYE EN LA ROTACIÓN DE LA TIERRA: Debido al clima dinámico de nuestro
planeta, los vientos y los sistemas de presión atmosférica experimentan cambios constantes. Estas
fluctuaciones afectan a cómo gira la Tierra sobre su eje.
NUEVO PROCESO DE IMPERMEABILIZACIÓN: Investigadores del MIT han demostrado una técnica
que permite depositar una muy fina capa de material hidrófugo, lo que posibilita impermeabilizar a
muchos otros materiales e incluso combinar esta propiedad con protecciones de otro tipo (antibacterianas)
"CHAPERONAS" PARA RECEPTORES DE FEROMONAS: Investigadores del Instituto Médico
Howard Hughes (HHMI) y sus colegas han descubierto que se requieren moléculas chaperonas para guiar
a los receptores de las feromonas hacia la superficie de las neuronas sensoriales donde se les necesita para
traducir señales químicas.
PRODUCCIÓN ESTELAR DE HELIO: Científicos de la University of Pennsylvania han conseguido
aumentar la precisión en el cálculo de la producción del elemento helio en las estrellas. Ello nos ayudará a
conocer mejor cómo era el universo temprano, su composición y quizá la naturaleza exacta de la energía
oscura.
LA PRIMERA CENTRAL DE ENERGÍA SIN EMISIONES: El gobierno estadounidense ha decidido la
construcción de la primera central térmica del mu ndo que no producirá emisiones contaminantes. Es ahora
el turno de los científicos e ingenieros, quienes deberán hacer el proyecto realidad.
UNA PROTEINA PREVIENE CONSECUENCIAS DE INFARTOS Y EMBOLIAS: Un péptido o
proteína de pequeño tamaño obtenido por investigadores del CSIC y de las Universidades Miguel
Hernández y de Valencia podría mejorar el tratamiento de infartos y embolias, ya que puede prevenir gran
parte de los trastornos derivados de estas patologías.
FÓSILES QUE CUENTAN SECRETOS: Geólogos dirigidos por Joshua Smith, de la Washington
University, en St. Louis, han encontrado el fósil bien preservado de un cangrejo a pocos centímetros de las
vértebras, también fosilizadas, de la cola de un gran dinosaurio herbívoro.
NUEVA FUENTE DE NEUTRINOS DE ALTA ENERGÍA: Un equipo internacional de astrofísicos ha
descubierto que los neutrinos de alta energía, partículas que raramente interaccionan con otra materia,
pueden producirse en los discos de acreción de las estrellas de neutrones, en cantidades suficientes como
para ser detectados por la próxima generación de telescopios.
10 TERAFLOPS: El National Energy Research Scientific Computing (NERSC) Center, dependiente del
U.S. Department of Energy, ha puesto en marcha un ordenador IBM que es capaz de realizar 10 billones de
cálculos por segundo (10 teraflops). Proporciona a los investigadores estadounidenses el más potente
sistema de computación no clasificado del país.
MUTACIÓN GENÉTICA Y GLAUCOMA: Mientras estudiaban ratones que tenían un gen mutado cuya
contrapartida causa glaucoma hereditario en seres humanos, unos investigadores descubrieron una segunda
mutación génica que empeora el defecto estructural del ojo que causa este tipo de glaucoma.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
Y SIN EMBARGO, SE MUEVE
80
AÑOS
2314
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
Dondequiera que se encuentre, el alma de Galileo Galilei ha de estar gozando del dulce
sabor de la revancha; el Vaticano se ha disculpado y ha reivindicado públicamente el
nombre del célebre italiano quien fuera humillado e infamado por la Santa Inquisición,
hace más de trescientos años, por la venial herejía de adherirse a la idea de que la tierra
ni es el centro del universo, ni permanece inmóvil. Según el Santo oficio, la ciencia era
un entretenimiento intelectual que nada tenía que ver con el conocimiento verdadero,
sancionado por la Biblia y en concordancia con la santa interpretación del propio Santo
Oficio.
Cosa curiosa, lo que hace tres siglos era una idea peligrosa y subversiva, es ahora parte
de un nuevo dogma, el dogma cientificista. De acuerdo con este dogma, existe un
método de conocimiento casi perfecto al que se denomina el método científico, y existen
entidades, llamadas hechos, que son las únicas de las que se puede decir algo
“científico”. Son los inquisidores del nuevo dogma quienes deciden que “hechos”
inscribir en su índice.
Según esta doctrina, la historia no puede ser objeto de conocimiento científico, pues
evoluciona caprichosamente, siendo la voluntad de unos cuantos elegidos la que
determina el rumbo de aquélla. Voluntad que se sostiene en el caparazón de una tortuga
mitológica, la que a su vez descansa sobre los lomos de cuatro elefantes, que a su vez...El
hombre no ocupa el centro del mundo, pero tampoco ocupa parte alguna, es decir, vive
en la eternidad, fuera del tiempo concreto. Se proclama el fin de la historia, el fin de las
ideologías, el fin de la utopía. ¿En qué, me pregunto, se fundamenta la propaganda
doctrina de la libertad individual absoluta, sin límites? ¿No habíamos quedado en que la
libertad es la conciencia de la necesidad?
Lo perdurable en la obra de Galileo es, sobre todo, el espíritu abierto y realmente
inquisitivo, penetrante, con que el sabio renacentista aborda el problema del
conocimiento; así como su profundo sentido de respeto y veneración por la naturaleza y
el hombre.
En esta tradición galileana se inscribe una pléyade de nuevos renacentistas. Uno de ellos,
“el poeta de la termodinámica”, Ilya Prigogine, se trepa en los hombros de Galileo para
proponernos revolucionarias y muy veraces teorías sobre el universo y sobre el hombre
mismo. Ahora no se trata de decidir si la tierra se mueve o no, sino de preguntarse si las
“leyes de la naturaleza” son inmutables o no; si tiene sentido hablar de un propósito en el
hombre; si hay un significado en proponer una ciencia de la historia o no lo hay.
El pensamiento no tenía sitio en la imagen que daba la física clásica
del universo. En esa imagen, el universo aparece como un vasto
autómata, sometido a leyes deterministas y reversibles, en las que es
difícil reconocer lo que para nosotros caracteriza el pensamiento: la
coherencia y la creatividad (Ilya Prigogine).
El devenir, la historia –de un proceso físico, de un individuo, de una sociedad- ofrece en
cada instante una multiplicidad de opciones, de bifurcaciones posibles, no caprichosas,
sino sujetas a restricciones y regularidades enmarcadas por las leyes del azar: el caos es
ahora objeto de la ciencia, de una nueva ciencia. “Por lo que a mí respecta –clama
Prigogine- éste es un momento muy emocionante. Sólo estamos en la prehistoria de la
ciencia. Apenas comenzamos a entender las leyes de la naturaleza y cuál es el “método”
de la ciencia.
80
AÑOS
2315
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 195/454
La naturaleza, la vida y la historia están abiertas al cambio, a la evolución, a los saltos
cuánticos. Alarma para el santo sínodo cientificista:
No podemos extrapolar de nuestro estado presente lo que deparará
el futuro. Creo que lo que hacemos hoy depende de nuestra imagen
del futuro, en lugar de que el futuro dependa de lo que hacemos hoy.
Desarrollamos nuestras ecuaciones en nuestros actos. Estas
ecuaciones y el futuro que retratan no están escritas en la naturaleza.
En otras palabras, el tiempo deviene construcción. Contamos con
ciertas condiciones que determinan los límites del futuro, pero hay
muchas posibilidades dentro de esos límites (la Capilla Sixtina e
Hiroshima) (Ilya Prigogine).
Tal vez en el futuro no muy lejano se reconozca el valor de lo que ahora proclaman los
nuevos renacentistas, cuyo proyecto sea, quizá “construir una especie de estructura
teórica que sirva más para unir que para enajenar al hombre de la naturaleza”. Entonces
tendrá que haber una reivindicación pública de Hegel y, por supuesto, de Carlos Marx;
pues, a pesar de todo lo que se diga, la dialéctica, la vida, esto es, la historia real, sigue
moviéndose.
El Cabuche (crónicas de la Facultad de Ciencias)/ Entre días y flores
A lo largo de la historia de la escuela-facultad varios han sido los maestros que han
participado con cursos no propiamente del área o las áreas cultivadas. Este tipo de
materias, que en algún momento fueron llamadas complementarias, constituyen parte del
currículo de las carreras que ha ofrecido y ofrece nuestra institución. Uno de tales
profesores es el maestro Carlos García Assaf quien por mucho tiempo estuvo a cargo de
los cursos de técnicas audiovisuales. El maestro Assaf, quien se jubiló no hace mucho, se
desempañaba en el departamento de divulgación universitaria ahora Departamento de
Comunicación Gráfica; departamento que al reestructurarse y crearse la División de
Difusión Cultural y Comunicación de la UASLP quedó integrado a la misma. El
Departamento de Comunicación Gráfica ha cumplido veinticinco años de creado y con tal
motivo se le rindió homenaje al profesor Carlos García Assaf. Desde esta sección nos
unimos al reconocimiento otorgado, pues la labor del maestro Assaf no se restringió a las
aulas, apoyó a través del departamento de divulgación los eventos que tenían lugar en la
escuela-facultad, desde las semanas de física o de ciencias hasta congresos, pasando por
las entregas de premios de los concursos regionales de física y matemáticas. En dichos
eventos se elaboraban, bajo su dirección, los letreros en unicel, así como los escudos que
engalanaban las sesiones. El maestro Assaf no logró ser recategorizado como profesor
hora clase, pues de acuerdo a los parámetros que se han impuesto quedaba fuera de la
jugada, a pesar del servicio de apoyo que brindaba, no sólo a la facultad, sino a la
universidad, en el apoyo a la mayoría de los eventos. El lunes 17 de marzo quedará
grabado en su recuerdo como el día que la División de Comunicación le brindó un
reconocimiento a su labor desinteresada; recuerdo que compartirá con sus vivencias
universitarias a lo largo de su actividad profesional que vivió como universitario, entre
días y flores. Salud maestro Assaf.
Pero si un día me demoro,/no te impacientes yo volveré mas tarde/Será que a la mas
profunda alegría,/le habrá seguido la rabia ese día/La rabia simple del hombre silvestre
80
AÑOS
2316
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.196, 24 de marzo de 2003
No. acumulado de la serie: 455
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Nuestra portada se cubre de luto
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
José Antonio Pérez González
Exalumno de la entonces
Escuela de Física de la UASLP
Investigador del Instituto de Física
“Luis Rivera Terrazas” de la BUAP
Javier Montalvo Navarro
Alumno de la carrera de
Ingeniería Electrónica de la
Facultad de Ciencias de la UASLP
El Boletín puede consultarse por Internet en
la página:
Juan José Calatayud
http://www.fc.uaslp.mx/divulgacion.html
Excepcional músico mexicano
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
Niños y civiles iraquíes
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
En la injusta invasión, gran negocio,
disfrazada de guerra por el imperio
norteamericano
El Hijo de El Cronopio No. 196/455
Letras y Voces en el Altiplano/
EN EL FILO DEL ALAMBRE
Fernando Luis Pérez Poza
Pontevedra, España
Lluvia de mísiles, de corto, medio,
largo alcance, toneladas de sueños
que estallan entre risas de murciélago,
vampiros cocineros de la muerte
vomitando bombas sobre Bagdad.
Es una náusea lenta, ruidosa,
un vómito de metal y miseria
que siembra la semilla retorcida
del odio, un dolor sordo y desbocado
que lacera el alma y convierte en humo
el latido breve de la vida humana.
Silencio. Un niño llora sin garganta
mientras gélidos pájaros de acero
le picotean sin pudor el alma.
Y mientras llora, el niño piensa que
no hay caminos para huir del infierno
ni un cielo más allá de los aviones,
ni razones para seguir viviendo.
Silencio. Un niño duerme para siempre
en la cloaca negra de la muerte
mientras el horizonte afila el vértigo
que se siente al caminar sobre el alambre.
Silencio. La guadaña corta el aire,
negra como una sombra despiadada.
Carruseles de miedo surcan las venas
mientras el cielo blasfema metralla.
Científicos miran al ojo "electrónico"
Enviado por Juan José Jaramillo y Dr. Felipe Rábago Bernal
Un equipo de científicos estadounidenses desarrolla una técnica para implantar un "ojo
electrónico" que podría ayudar a millones de no videntes a recuperar la vista.
El objetivo es poder "instalar" un microchip que estimule las células de la retina que no
hayan sido dañadas.
Éstas, a su vez, estimularían las células en el cerebro, logrando que el sentido de la vista
vuelva a trabajar.
El implante podría ser posible en seres humanos en los próximos tres años.
Científicos de la Universidad de California ya han realizado experimentos exitosos con
perros.
Ahora trabajan codo a codo con colegas del Laboratorio Nacional Lawrence Livermore
para lograr los mismos resultados con hombres y mujeres.
Sumando electrodos
El microchip mide unos cuatro milímetros y se inserta en una clase de silicona conocida
como polidimetilsiloxano.
80
AÑOS
2318
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
Esta sustancia -que se utiliza también en los implantes mamarios- es flexible y se adapta
a la curvatura del ojo, sin dañar los tejidos de la zona.
El microchip prototipo contiene 16 electrodos, lo que permitiría al paciente distinguir
entre luz y oscuridad.
La idea es aumentar el número de electrodos hasta unos mil, para que se puedan
distinguir imágenes.
Noticias de la Ciencia y la Tecnología
Película de diamante
En una época de constante amenaza del terrorismo y de existencia de armas biológicas, los responsables de
las agencias de seguridad buscan formas rápidas y sencillas de detectar la presencia de bioagentes
peligrosos. Uno de estos métodos podría utilizar una novedosa película de diamante aplicada a un sensor
compacto y fiable.
El citado sensor podría instalarse en aeropuertos, ferrocarriles metropolitanos y campos de batalla, y su
función sería la de vigilar continuamente la más mínima señal de presencia de armas biológicas. Unido a
un sistema electrónico moderno, no sólo haría funciones de detección, sino también de alarma y de aviso a
las autoridades.
La nueva tecnología ha sido desarrollada por Robert J. Hamers, químico de la University of WisconsinMadison, con la ayuda de Lloyd Smith y Dan van der Weide, ambos de la misma universidad.
Hamers explica que aunque ha habido muchos avances en las tecnologías de bio-chips, conseguir una
plataforma estable que pueda ser usada como sistema de vigilancia continuo (y no sólo para un único
análisis) ha constituido un gran problema desde el principio. El uso de la película de diamante ha
solucionado este obstáculo.
Los sensores biológicos del futuro necesitarán operar en diversos ámbitos. Además de ser capaces de
detectar moléculas biológicas de interés, deberán poder beneficiarse de la amplificación de señal y de las
propiedades de procesamiento proporcionadas por la microelectrónica. Dado que las películas de diamante
pueden ser depositadas sobre silicio, suponen un puente perfecto entre el mundo de la electrónica en
miniatura y la biología.
Los sensores no deberán tener un tamaño superior al de un sello de correos y serán instalados en todo tipo
de lugares públicos, sobre todo allí donde se reúne gran cantidad de personas. Los medios técnicos para
lograr algo así ya están disponibles. Los científicos han demostrado que podemos detectar la respuesta
eléctrica que se produce cuando las biomoléculas se unen a la superficie de diamante.
Las películas de diamante, modificadas biológicamente, son muy duraderas y pueden aguantar múltiples
ciclos de procesamiento de ADN, el material genético que puede proporcionar el diagnóstico de agentes
tales como el ántrax, la peste bubónica u otras moléculas utilizadas en las armas biológicas.
Información adicional en: http://www.news.wisc.edu/releases/view.html?id=8350
Reutilización de basura electrónica
Los desechos electrónicos, incluyendo ordenadores obsoletos, televisores, teléfonos móviles, baterías,
equipos de audio, etc., son objeto de preocupación creciente entre las autoridades porque pueden
convertirse en una fuente contaminante para los acuíferos, debido al plomo y otras sustancias tóxicas que
contienen. La solución, dicen los expertos, es reciclar estos materiales y evitar que lleguen a la naturaleza.
Según un reciente análisis, un monitor informático o un televisor pueden contener más de 3 kilogramos de
plomo. Si tenemos en cuenta que sólo en los Estados Unidos pronto se van enviar más de 12 millones de
toneladas de desechos electrónicos a los vertederos, el problema ambiental se vuelve muy grave.
Mientras las autoridades revisan su legislación para evitar que ello suceda, científicos del Georgia Institute
of Technology han realizado un estudio que sugiere que la "producción inversa", es decir, la extracción de
materiales útiles a partir de los desechos electrónicos, será la solución a adoptar en los próximos años. De
esta forma, materiales como el plomo, el cobre, el aluminio y el oro, así como varios tipos de plásticos,
cristal y cables, podrían ser recuperados y reciclados en futuros productos.
80
AÑOS
2319
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
El proceso, por supuesto, debe ser económicamente viable, y aquí reside uno de los grandes retos de la
propuesta. Jane Ammons y Matthew Realff, del GIT, están diseñando estrategias para hacerlo posible.
Destaca entre ellas un sistema de modelado matemático que tendrá en cuenta todas las variables que
intervienen (hasta 300.000), el cual permitirá afrontar con mayor decisión cualquier iniciativa de reciclaje.
Técnicamente hablando, los investigadores ya han ideado maneras de separar los diferentes metales, así
como las diversas calidades de plásticos, a partir de componentes triturados y desechados.
Información adicional en: http://gtresearchnews.gatech.edu/newsrelease/demanufacture.htm
Un ancestro del orangután
Expertos en fósiles descubrieron recientemente, en Tailandia, restos de un hominoideo que podría ser el
pariente más antiguo conocido de los orangutanes actuales. Gracias a la luz de sincrotón de la European
Synchrotron Radiation Facility, los especialistas han podido analizar las piezas dentales recuperadas de
este antiguo animal.
Los 18 dientes en estudio se encontraron en el norte de Tailandia, dentro de un fragmento de carbón. La
luz de sincrotón ha permitido estudiarlos y compararlos con los registros dentales de otros simios
primitivos.
La nueva especie, llamada cf. Lufengpithecus chiangmuanensis, vivió hace 12 millones de años. Su
aspecto parece confirmar que es el pariente fósil más próximo al actual orangután.
La técnica de microtomografía permitió reconstruir una sección vertical de diferentes dientes para mostrar
el grosor del esmalte. Se generaron después modelos tridimensionales de las mandíbulas pertenecientes a
un macho y a una hembra. La comparación de este material con el de los orangutanes actuales posibilitó
hallar muchas similitudes.
El paleontólogo Jean-Jacques Jaeger, de la Universidad de Montpellier, uno de sus descubridores, advierte
sin embargo que no es posible decir que la nueva especie sea un ancestro directo de los orangutanes vivos,
pero sí algo muy cercano a ellos.
Se ha encontrado polen fosilizado junto a los dientes, lo que demuestra que el cf. Lufengpithecus
chiangmuanensis vivió una vez en un bosque tropical, como lo hacen hoy en día los orangutanes. El citado
polen se parece al de la flora africana actual, de modo que es posible que la misma flora y fauna estuvieran
presentes hace 12 millones de años en África y Asia tropical. Información adicional en: http://www.esrf.fr/
Se recupera la antigua ciudad de Tusculum
Tusculum, situada en la región italiana del Lacio, cayó en el olvido tras su destrucción a finales del siglo
XII. Sus restos estaban cubiertos por una espesa capa de vegetación y, a excepción de algunos
monumentos, apenas se veían. En 1994, un equipo de arqueólogos coordinado por el CSIC se decidió a
investigar los restos de esta ciudad y desde entonces ha descubierto información de gran valor.
Estas acciones permitirán entender mejor la historia de Tusculum, desde el periodo arcaico (siglos VI-V
a.C.), pasando por la época romana y hasta el periodo Medieval. Los hallazgos realizados han valido a los
científicos del CSIC el premio internacional de restauración AR&PA 2002.
En la última campaña, a finales del año pasado, los arqueólogos terminaron de excavar una basílica
jurídica del siglo I antes de Cristo decorada con pavimentos de losas y capiteles jónicos. Este edificio es
uno de los pocos con planta basilical anteriores a la Roma imperial y conserva en buen estado
infraestructuras como los sistemas de desagüe.
Otros hallazgos importantes han sido un pequeño templo dedicado a Mercurio (también del I antes de
Cristo y decorado con mosaicos), diversas casas de la época medieval, el ábside de una iglesia de este
periodo y un fragmento de fusayola, pequeño instrumento cerámico utilizado para hilar, en el que se
conserva inscrita la letra alfa, primera muestra de escritura hallada en Tusculum y datada del siglo VI antes
de Cristo.
Los arqueólogos, pertenecientes a la Escuela Española de Historia y Arqueología de Roma (CSIC) y a
diversas universidades españolas (Alicante, Murcia, La Rioja y País Vasco), han estudiado también la
ocupación de la ciudad durante la Edad Media, así como los aspectos urbanísticos de la ciudad romana.
Los orígenes de Tusculum, situada a 30 kilómetros al sur de Roma, se remontan al siglo VI antes de Cristo,
fecha en la que estaba gobernada por Octavio Mamilio, casado con la hija del último rey etrusco de Roma,
80
AÑOS
2320
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
Tarquinio el Soberbio. Tras una época de enemistad con Roma, Tusculum pasó a ser un municipio romano
(381 a.C.) y alcanzó su esplendor en la época republicana, anterior a los grandes emperadores.
Fue residencia estival de importantes personajes como Cicerón, el gran orador, y de emperadores como
Tiberio o Galba. En la época medieval se convirtió en residencia de los Condes de Tusculum, familia muy
vinculada al papado, hasta la destrucción de la ciudad en 1191. A partir de entonces permaneció
abandonada y el lugar exacto en el que se hallaba se fue borrando de la memoria colectiva.
La importancia de los personajes que vivieron en esta ciudad y su estrecha relación con Roma la convierte
en un referente para el estudio de la historia de esta última, desde el periodo arcaico hasta la Alta Edad
Media. Los monumentos construidos alrededor del foro (basílica, teatro, templos, etc.), que ahora
investigan los arqueólogos españoles, proporcionan importantes datos para el conocimiento de la
arquitectura romana y medieval.
Durante los nueve años de excavaciones han pasado por Tusculum casi 200 jóvenes arqueólogos españoles
e italianos, ocho de los cuales realizan sus tesis doctorales sobre distintos aspectos del yacimiento. Durante
las campañas de excavación, el trabajo de campo se alterna con visitas los fines de semana a ciudades
como Pompeya, Roma, Nápoles, Ostia o Tarquinia.
La labor de estos investigadores, que proyectan abrir el yacimiento al público, les ha valido el premio
internacional de restauración AR&PA 2002, concedido por la Diputación de Valladolid, la Junta de
Castilla y León, y el Instituto Español de Arquitectura de la Universidad de Valladolid, dentro de la Feria
Nacional de la Restauración del Arte y el Patrimonio AR&PA 2002. Con él se distingue a la Escuela
Española de Historia y Arqueología en Roma-CSIC por su contribución a la promoción de la investigación
española en Italia. (R+D CSIC). Información adicional en: http://www.dicat.csic.es/rdcsic/rdhu03esp.htm
Emisiones de radio en pulsares
Un equipo de astrónomos ha descubierto que las intensas emisiones de ondas de radio procedentes de los
púlsares son generadas por estructuras de escaso tamaño. Tan pequeñas como pelotas de playa, estas
estructuras son de largo los objetos de menores dimensiones detectados fuera de nuestro Sistema Solar.
Los radioastrónomos, liderados por Tim Hankins, han estudiado el púlsar que se halla en el centro de la
Nebulosa del Cangrejo, situada a más de 6.000 años-luz de la Tierra. Las observaciones se efectuaron con
la antena del gigantesco radiotelescopio de Arecibo, en Puerto Rico.
Los púlsares son estrellas de neutrones superdensas, los restos de estrellas masivas que explotaron como
supernovas. Girando muy rápidamente sobre sí mismos, los púlsares emiten poderosos haces de ondas de
radio y luz, que barren el espacio como si fueran faros. Cuando uno de estos haces se encuentra con la
Tierra, iluminándola, los astrónomos pueden detectarlos en forma de pulsos (de aquí el nombre de púlsar, o
estrella pulsante). El púlsar de la nebulosa del Cangrejo gira 33 veces por segundo.
Descubiertos en 1967, los púlsares seguían siendo un misterio. Hasta ahora, los científicos no sabían cómo
producen sus potentes haces de radiación electromagnética. Con la ayuda de ingenieros del NRAO,
Hankins y sus colegas diseñaron y construyeron un equipo electrónico especializado que les permitió
estudiar el púlsar del Cangrejo a escalas de tiempo muy pequeñas. Instalaron el equipo en Arecibo y lo
utilizaron para analizar sus pulsos "gigantes", dividiéndolos en segmentos de tiempo mucho menores.
Así, descubrieron que algunos de los pulsos "gigantes" contienen subpulsos que no duran más de 2
nanosegundos. Ello implica, según los astrónomos, que las regiones que generan estos subpulsos no
pueden ser mayores de medio metro, la distancia aproximada que la luz puede viajar en ese tiempo.
Este hallazgo será muy importante para entender cómo se generan las emisiones de los púlsares. La
magnetosfera de estos últimos, la región situada por encima de los polos magnéticos de la estrella de
neutrones, donde se generan las radioondas, es un escenario exótico, en el que la materia existe en forma
de plasma. Aquí, las partículas cargadas eléctricamente pueden responder libremente a los fortísimos
campos magnéticos y eléctricos de la atmósfera de la estrella. Los subpulsos ultra-cortos detectados sólo se
podrían generar mediante un extraño proceso en el que ondas de densidad en el plasma interactuarían con
su propio campo eléctrico, convirtiéndose en cada vez más densas hasta alcanzar el punto de "colapso
explosivo" (estallidos superfuertes de radioondas).
Información adicional en: http://www.aoc.nrao.edu/epo/pr/2003/pulsaremission/
80
AÑOS
2321
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
Asteroides y tsunamis
La caída de un gran asteroide en el océano, además de provocar un desastre ecológico, puede ocasionar
una enorme ola (tsunami) capaz de barrer las costas de las tierras emergidas a miles de kilómetros de
distancia. Estos acontecimientos, afortunadamente, son raros en la historia de la Tierra, pero los científicos
se preguntan qué ocurre cuando los asteroides son más pequeños (y más frecuentes).
Según H. Jay Melosh, de la University of Arizona, no tenemos por qué preocuparnos. Los tsunamis
generados por el impacto de pequeños asteroides (menores de 1 km de diámetro) son un peligro mucho
menor de lo esperado. Melosh basa su conclusión en evidencias geológicas terrestres y en un estudio
realizado por la U.S. Office of Naval Research en 1968.
Son buenas noticias, ya que además de disminuir el peligro para los habitantes de las zonas costeras,
también nos ahorraremos dinero en la búsqueda sistemática de este tipo de objetos extraterrestres.
Hasta ahora, los científicos creían que los asteroides de más 100 metros de diámetro podían representar un
riesgo serio debido a su capacidad de generar grandes y destructoras olas oceánicas (los llamados
tsunamis), un fenómeno que podría ocurrir una vez cada 250 años. Pero no todo el mundo estaba
convencido de ello. El astrofísico J. Mayo Greenberg, del Leiden Observatory y ya fallecido, dijo en 1993
que los ciudadanos holandeses, cuyo territorio se encuentra por debajo del nivel del mar, no han sufrido
ningún tsunami durante los últimos mil años.
Melosh visitó Ámsterdam en 1996 y obtuvo información adicional de varios geólogos locales, quienes
habían hecho perforaciones en la roca del delta del río Rhine, obteniendo así registros geológicos de los
últimos 10.000 años. Según este registro, sólo se produjo un gran tsunami hace 7.000 años. Pero su origen
no fue el impacto de un asteroide, sino un corrimiento de tierras gigante que se produjo en la costa
noruega.
El peligro de los asteroides pequeños como generadores de terribles olas oceánicas ha sido pues exagerado
en exceso. De hecho, la conclusión de Melosh no hace sino confirmar un estudio realizado en 1968 por la
U.S. Office of Naval Research. En esa época, se redactó un informe que resumía varias décadas de
investigaciones sobre el riesgo que suponían las olas generadas por las explosiones nucleares. Diversos
experimentos en 1965-66, en el lago Mono de California, demostraron que las olas producidas por bombas
o meteoros eran mucho menores que las provocadas por terremotos. Una buena parte de la energía se
disipa antes de que las olas alcancen la costa, sobre todo si el lugar de impacto tiene una gran profundidad.
El informe de 1968, sin embargo, permaneció secreto hasta su publicación en 2002.
Información adicional en:
http://uanews.opi.arizona.edu/cgi-bin/WebObjects/UANews.woa/wa/MainStoryDetails?ArticleID=7003
Información segura
Si los datos de su compañía son realmente importantes, querrá almacenarlos de forma segura. Paul
Greenfield y Paul Watters, del CSIRO australiano, le proponen una buena alternativa: colóquelos en
Internet.
Los dos expertos en ciencia informática están desarrollando tecnologías que permitirán a los colaboradores
de las empresas virtuales guardar información en la red. Para Greenfield, Internet se ha convertido en una
plataforma mundial para aplicaciones distribuidas, servicios e información. Como consecuencia de ello,
muchos negocios utilizan la red para formar empresas virtuales temporales, que sólo se adaptan a las
necesidades de un único proyecto o contrato.
En dichas empresas virtuales, los colaboradores, socios y competidores, pueden cooperar durante un
tiempo, compartiendo de forma segura datos sin transferir su control o propiedad efectiva a ninguno de
ellos.
No es un problema de falta de espacio de almacenamiento. Éste es hoy en día lo bastante barato como para
que no suponga un problema. La verdadera cuestión radica en disponer de sistemas de almacenamiento
inteligentes que tengan en cuenta las necesidades de seguridad y flexibilidad de las empresas, sobre todo
cuando precisan compartir información y procesos de negocio.
El almacenamiento de los datos en Internet sólo será útil si éstos permanecen de forma absolutamente
segura, privada y siempre disponibles. Para conseguirlo, se fragmentarán los datos, encriptándolos,
protegiéndolos contra el borrado, copiándolos y distribuyendo los distintos paquetes de forma aleatoria en
80
AÑOS
2322
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
servidores de todo el mundo. Ningún servidor contendrá la información sobre qué datos originales se
conservan o cómo reconstruirlos.
Los detalles sobre cómo los fragmentos estarán almacenados se derivarán de una clave segura
proporcionada a los usuarios autorizados. Sólo aquellos que posean dicha clave podrán recuperar los
bloques, desencriptarlos y formar los archivos originales.
Otra ventaja del almacenamiento en Internet es la disponibilidad absoluta, ya que ello no dependerá de si
algún servidor está caído o ha fallado.
El sistema de Greenfield y Watters, además, es capaz de detectar si la información original ha sido
manipulada y cambiada. Ya existen prototipos del sistema funcionando, y se sigue trabajando en optimizar
la distribución y obtención de los fragmentos de datos, claves seguras, etc.
Información adicional en: http://www.csiro.au/index.asp?type=mediaRelease&id=Prnetdata
La relatividad según John Moffat
El profesor de física John Moffat tiene sus propias ideas sobre la teoría que hizo famoso a Albert Einstein,
la columna vertebral sobre la que los cosmólogos actuales han intentado explicar cómo se inició el
universo y, quizá, cómo acabará.
A pesar de la genialidad de Einstein, sus teorías no han carecido de problemas: cómo explicar la expansión
del universo y la existencia de una misteriosa materia de "masa negativa", son algunos de ellos. En 1981,
apareció el modelo del universo inflacionario que trataba de resolver algunos de estos problemas. Sugería
que durante una fracción de segundo, al comienzo del universo, éste se expandió a un ritmo
exponencialmente rápido. Pero incluso esta teoría dejaba algunas cuestiones sin responder.
A principios de los años 90, Moffat propuso una teoría radicalmente alternativa: que la velocidad de la luz
había sido mucho más rápida en el momento del Big Bang, el gran estallido que dio origen al universo. Sus
cálculos sugerían que la luz viajó a 1.030 veces su valor actual (300.000 km/s) justo después de este inicio
explosivo.
Obviamente, la nueva teoría fue recibida con gran escepticismo por la comunidad científica mundial, por
cuanto cambiaba de manera sustancial a la de Einstein.
El pasado mes de enero, sin embargo, el astrofísico teórico Joao Maguelijo, del Imperial College London,
publicó un libro llamado "Faster than the Speed of Light", describiendo sus teorías sobre la variabilidad de
la velocidad de la luz y reconociendo los trabajos de Moffat. En agosto de 2002, la revista Nature había
publicado un artículo de Paul Davies, del Australian Centre for Astrobiology, que continuaba examinando
la teoría de Moffat.
Otros científicos, como Michael Duff, de la University of Michigan, por cierto un buen amigo de Moffat,
se han distinguido por dar a conocer una opinión contraria. Duff cree que los seguidores de Moffat
confunden un cambio en la física con un cambio en las unidades utilizadas para medirla. Para él, preguntar
si la luz ha modificado su velocidad a lo largo de las escalas cosmológicas de tiempo es como preguntarse
si el número de litros que hay en un galón ha cambiado.
En un sentido u otro, queda claro que las ideas de Moffat no dejan indiferentes a los físicos. Aunque ya
casi retirado, el profesor sigue publicando artículos de forma regular sobre la cuestión, y ha ofrecido
recientemente conferencias en Francia y Portugal. Moffat está contento porque, aunque tenga detractores,
su teoría al menos está siendo sometida a un escrutinio científico serio. Espera que su labor sirva y
contribuya al avance de la Cosmología.
Información adicional en: http://www.newsandevents.utoronto.ca/bin4/030224d.asp
Explorando la biosfera de la corteza oceánica
La extracción de muestras de roca procedentes del fondo marino confirma la existencia de una gran
cantidad de organismos vivos que dan forma a una biosfera casi desconocida, "de otro mundo". Las
muestras se obtuvieron mediante largas "agujas hipodérmicas" desplegadas desde un buque oceanográfico.
Tales agujas son en realidad sondas de unos 5 metros de largo, lo bastante sólidas como para penetrar en la
corteza volcánica submarina y capaces de recolectar muestras para su posterior estudio. Fueron
desplegadas en varios puntos de la placa Juan de Fuca, a unas 200 millas frente a la costa de Washington y
Oregón.
80
AÑOS
2323
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
Los científicos han sabido desde hace unos 20 años que existen organismos viviendo en áreas donde se
está creando corteza oceánica, zonas ricas en hierro, azufre y otros metales pesados, sujetas a frecuentes
erupciones volcánicas y dotadas de campos de chimeneas hidrotermales que inyectan agua supercaliente en
los océanos.
Pero este tipo de paisaje es sólo la punta del iceberg. Aparte de las regiones más activas, existen otras más
viejas, de hasta decenas de millones de años de antigüedad. Son éstas las que un grupo de investigadores
ha estado explorando últimamente, y en ellas se ha descubierto una especie de incubadora microbiana de
proporciones globales. En efecto, este tipo de áreas está presente en todo el mundo y podría ser el hábitat
de colonias biológicas de grandes proporciones.
Pero los trabajos apenas se han iniciado. El 3 de enero se publicó el primer informe sobre microbios
viviendo en una sección de corteza de 3,5 millones de años, presentado por H. Paul Johnson, de la
University of Washington, y otros colegas de la University of Hawaii, la Oregon State University y la
University of Illinois.
Ahora, el mismo equipo está cultivando microbios procedentes de áreas tan viejas como la anterior (3,5
millones de años), nuevas (volcánicamente activas), y de otras que no se ven afectadas por fuerzas
tectónicas (fondo marino "normal"). Estas últimas conforman el 90 por ciento de la corteza submarina, y lo
más interesante sobre ellas es que se parecen mucho (en cuanto a porosidad, sedimentos y temperaturas) a
las zonas más activas, a pesar de que en algunos casos tienen más de 100 millones de años de antigüedad.
Según los análisis realizados, los microorganismos extraídos durante las expediciones oceanográficas
crecen especialmente bien a altas temperaturas (de hecho, a mayor temperatura que la que tenían las zonas
de donde procedían). Esto quiere decir que su lugar de origen se encuentra a mayor profundidad en la
corteza oceánica, quizá a más de medio kilómetro por debajo del fondo marino.
Las muestras que se obtienen han sido tratadas con mucho cuidado, para evitar su contaminación. Las
sondas utilizadas han sido diseñadas para garantizar su seguridad, y pueden conseguir muestras 200 veces
mayores que con otros sistemas. El submarino robótico Jason II se emplea para supervisar los trabajos en
el fondo oceánico. Información adicional en:
http://www.washington.edu/newsroom/news/2003archive/03-03archive/k031803.html
La importancia del agua potable
La celebración el 22 de marzo del World Water Day, impulsado por las Naciones Unidas, es un nuevo paso
para concienciar a la opinión pública de la importancia que tiene el agua para los pueblos. Un informe
muestra el estado actual de las reservas mundiales.
Entre los investigadores que han participado en este informe se encuentra Slobodan P. Simonovic, de la
University of Western Ontario, quien se ha ocupado de poner de manifiesto los conflictos que se producen
con relación a la posesión o disponibilidad de agua.
Son muchos los problemas que afectan a esta disponibilidad, en todo el mundo, y las naciones deberían
movilizarse para hacer de este elemento un bien universal que hay que cuidar y repartir adecuadamente.
En la actualidad, 1.100 millones de personas carecen de acceso a agua potable, mientras que 2.400
millones no la poseen en suficiente cantidad como para mantener una buena higiene.
Más de 6.000 niños mueren diariamente debido a enfermedades asociadas con el consumo de agua en mal
estado. De hecho, el agua no potable y la falta de higiene causan el 80 por ciento de las enfermedades del
mundo subdesarrollado.
Hay que tener en cuenta que la descarga de agua de un inodoro occidental es superior a la que una persona
del tercer mundo puede utilizar para lavar, beber, limpiar y cocinar en todo un día. Por otro lado, el
consumo de agua ha crecido el doble que la población durante el último siglo.
En los países en vías de desarrollo, hasta el 90 por ciento del agua residual es descargada sin tratamiento
alguno.
Paralelamente, las inundaciones afectaron durante los años 90 al 75 por ciento de las personas que
experimentaron algún tipo de desastre natural, causando el 33 por ciento de las pérdidas estimadas para
tales desastres.
En un país como Canadá, donde se dispone de mucha más agua dulce que en otros países del mundo,
también existen problemas. Por ejemplo, los niveles de los Grandes Lagos están fluctuando tanto que será
necesario su vigilancia diaria. El 26 por ciento de los canadienses consumen agua procedente del subsuelo
para uso doméstico. Si ésta se contamina, será difícil volver a hacerla potable. Además, el propio país
experimenta grandes desequilibrios en la disponibilidad de agua dulce. Por ejemplo, el 60 por ciento de
80
AÑOS
2324
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
dicha agua se halla en el norte, mientras que el 90 por ciento de la población se encuentra en el sur, dentro
de la franja de 300 km que bordea la frontera con los Estados Unidos. Para resolver esto ha sido necesario
construir más de 600 grandes embalses y más de 60 trasvases entre cuencas.
Si Canadá tiene estos problemas, a pesar de su indudable riqueza acuática, podemos imaginar aquello a lo
que se enfrentan las naciones pobres del resto del mundo, que no tienen acceso libre a este recurso
fundamental. El World Water Forum, que se celebra en Kyoto, Japón, reúne a más de 10.000 responsables
gubernamentales, miembros de organizaciones, científicos, etc., para debatir esta crisis mundial y sus
soluciones. Información adicional en:
http://comms.uwo.ca/media/archives/commentary/2003/jan%20to%20april/march19.htm
Breves del Mundo de la Ciencia
VIABILIDAD LIMITADA DEL VEHÍCULO DE HIDRÓGENO: Incluso tras un período de agresiva
investigación, los vehículos impulsados por células de combustible que consumirán hidrógeno no serán
mucho mejores que el híbrido diesel, ya disponible, en cuanto a uso energético y emisiones de gases
invernadero, hacia 2020.
LA DISMINUCIÓN DE UNA PROTEINA ESTÁ RELACIONADA CON LA ESTEATOHEPATITIS:
Un grupo de investigadores de la Universidad de Navarra ha descubierto que el descenso de la proteína
prohibitina (PHB1) en el hígado está relacionado con la esteatohepatitis no alcohólica, una enfermedad que
consiste en la inflamación y acumulación de grasa en este órgano.
AUTOMÓVILES MÁS SEGUROS E INTELIGENTES: Los ingenieros del mundo automovilístico están
dedicando mucho tiempo a preparar tecnologías que conviertan a los coches de la próxima generación en
vehículos mucho más seguros que los actuales.
CHIMPANCÉS AISLADOS: El llamado Triángulo Goualougo, situado entre dos ríos de la selva
centroafricana, se halla en una zona tan remota que los investigadores que se adentraron en él descubrieron
un grupo de chimpancés muy especial, uno que ha tenido muy poco o acaso ningún contacto con los
humanos.
FLUORESCENCIA PARA MEDIR LOS COMPUESTOS DEL COMBUSTIBLE: Un equipo del Instituto
de Carboquímica de Zaragoza (CSIC) ha desarrollado una nueva técnica para medir concentraciones de
familias de diferentes compuestos químicos en diesel a partir de su fluorescencia. Este procedimiento,
inédito en combustibles, permitirá diseñar sistemas de control de calidad compatibles con la directiva
europea que entrará en vigor en 2005.
DEUDA DE SUEÑO: Dormir menos de seis horas, según un estudio realizado por científicos de la
University of Pennsylvania School of Medicine, supone una acumulación de efectos negativos que hará que
las personas respondan cognitivamente de forma limitada, a pesar de sentirse sólo "ligeramente" cansados.
UNA FUENTE DE CÉLULAS PRODUCTORAS DE INSULINA: Un reciente hallazgo podría
convertirse en una nueva avenida para el tratamiento de la diabetes. Varios investigadores han demostrado
que las células de la médula ósea de ratones pueden dar lugar a células productoras de insulina en el
páncreas del animal.
PLANTAS RESISTENTES A CADMIO, ARSÉNICO Y MERCURIO: Una de las soluciones que se
barajan como alternativa para la limpieza de suelos contaminados por metales pesados es la fitoremediación, el uso de plantas que absorban y acumulen esos contaminantes.
¿SON MÁS FELICES LAS PERSONAS CASADAS? Un estudio realizado sobre 24.000 personas ha
encontrado que la satisfacción general respecto a la vida afecta a nuestra impresión sobre la felicidad
conyugal.
FILTROS MOLECULARES: Imaginemos una máscara que permita a una persona respirar el oxígeno del
aire sin el riesgo de inhalar un gas tóxico, bacterias o incluso virus. Un nuevo sistema de filtrado de
moléculas, desarrollado en la University of Rochester, podría hacerlo más fácil.
80
AÑOS
2325
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
LA FORMACIÓN DE CIENTÍFICOS
Ahora que se ha puesto de moda hablar de revolución educativa (lo que sea que esto
signifique), cabe reflexionar sobre un sector de la población de educandos poco tenido en
cuenta, me refiero precisamente a los estudiantes de ciencia.
Ignoro por qué aberrantes razones se educa con el mismo método a futuros abogados,
físicos, economistas, matemáticos y sociólogos. Se les ofrece lo que otros han llamado
“educación en cápsulas”, a través de un sistema verbalista, memorista y autoritario donde
el papel del estudiante es servir como receptáculo pasivo al que hay que rellenar de
“conocimientos”. Los programas de estudio y su secuencia son, por lo general,
totalmente arbitrarios pues dependen de los gustos, conocimientos e inclinaciones de
quienes los elaboran y, en muchas ocasiones, son una simple trascripción de índices de
los libros de moda, nada más perjudicial para los estudiantes de ciencia que requieren,
como ningunos otros, de iniciativa, capacidad crítica y fundamentalmente, creatividad.
No es casual que muchos de los grandes científicos contemporáneos se hayan formado al
margen y a pesar del sistema educativo. El mismo Einstein, tan rechazado y maltratado
por el sistema educativo formal, en alguna ocasión dijo que “la educación es aquello que
permanece cuando todo lo aprendido se ha olvidado”. Probablemente las cosas sean
como lo señala Louis Althusser diciendo “la escuela sirve fundamentalmente como un
instrumento ideológico del estado; esto es, que su función primordial es transmitir un
conjunto de ideas, nociones y conductas que garanticen, ante todo, el consenso con el
sistema social en que se vive”. En otras palabras, lo importante de la función escolar no
es tanto la transmisión de conocimientos, sino la “educación” de los sujetos en la
obediencia y el conformismo necesarios para la reproducción del sistema.
Entonces, hablar, como se hace, de revolución educativa implica en su base, cuestionar la
función misma de la escuela. Aquí, nos interesa en particular la escuela que intenta, que
dice, formar científicos. Muchos entienden la susodicha revolución como un cambio en
los programas, un cambio en las formas, y no comprenden, o no quieren comprender,
que una revolución real implica el trastrocamiento total de la forma y el contenido que la
educación han tenido hasta hoy. Trastrocamiento que significa superación, no
involución, que se traduciría no en “eficiencia”, sino en conciencia y aptitud, en ese
orden.
Lo dicho es particularmente importante en lo que se refiere a la formación de científicos.
Hasta el momento, nuestras escuelas de ciencias se han conformado con producir
científicos de la misma manera en que se producen panes o tabiques, en serie y al vapor.
Muy raramente se han cuestionado los antidiluvianos métodos de enseñanza, a lo más se
han actualizado los temas de estudio, pero eso no basta. En su importante, y poco
conocida obra, la función social de la ciencia, dice John Desmond Bernal que
El objetivo de la enseñanza de la ciencia es doble: proveer un
conocimiento de los logros de la ciencia y acumular efectivamente el
método mediante el cual tales conocimientos han sido adquiridos [...] Este
ultimo aspecto es en el que mayormente falla la enseñanza de las ciencias.
80
AÑOS
2326
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
El método científico generalmente se expone, aún en las prácticas de
laboratorio, como si constara sólo de mediciones y deducciones lógicas
simples. Difícilmente se menciona el rol que la imaginación y la
construcción y prueba de hipótesis tienen en el método científico.
A lo anterior, agréguese que la mayoría de los profesores de las escuelas de ciencias
podemos ser clasificados en la categoría que Gastón Bachelard justamente ha
denominado alma profesoral:
orgullosa de su dogmatismo, fija en su primer abstracción, apoyada toda la
vida en éxitos escolares de su juventud, repitiendo cada año su saber,
imponiendo sus demostraciones, entregada al interés deductivo, sostén tan
cómodo de la autoridad enseñando a su criado como hace Descartes.
Y aquí no para el asunto, pues requerimos, y con urgencia, calidad y cantidad. Daniel
Reséndiz, en 1983, secretario general del CONACYT, declaró (Unomásuno, 25/sep/83)
que el país necesitaba 40 mil investigadores en diversas ramas de la ciencia y, lo crítico,
sólo se contaba con siete mil.
Cómo y de qué manera se habrán de formar esos treinta y tres mil científicos que México
requería, constituye, aún hoy, uno de los mayores retos para las universidades y, en
particular, para las escuelas de ciencias.
¿Qué hacer? No mucho, simplemente desmantelar esa máquina infernal llamada escuela
y con un verdadero espíritu democrático y comunitario “rehacer lo que no se ha hecho”,
educar. Y, desde el punto de vista meramente técnico, volver a la enseñanza
individualizada recordando aquello de “cada cabeza es un mundo” y conformar
programas, horarios ritmos a cada estudiante de acuerdo con sus intereses y aptitudes.
¿Imposible? Nunca se ha intentado.
Pero, sobre todo, habrá que saber infundir en esos futuros hombres de ciencia la pasión y
el compromiso con el conocimiento. Si uno solo de nuestros estudiantes hace suya la
siguiente reflexión de Bachelard:
La ciencia se comprende cuando uno se ha comprometido vigorosamente
con ella, cuando se ama la tensión del estudio, cuando se ha reconocido
que ella es un modelo de progreso espiritual y que nos permite ser un actor
de un gran destino humano, cualquiera que sea el lugar en que la modestia
de la investigación científica nos sitúe.
Entonces habremos iniciado la marcha, la larga marcha.
El Cabuche (crónicas de la Facultad de Ciencias)/ A vuelo de pájaro
Ingresamos a la entonces Escuela de Física de la UASLP en el año de 1974. Como era
común el número de alumnos, no era muy abundante, aunque en primer año llegaba haber
hasta cincuenta estudiantes de nuevo ingreso, después de realizarse el reacomodo de
aspirantes, principalmente, a ingeniería, que no se habían visto beneficiados con el
examen de admisión. En septiembre de 1974, ingresamos 10 estudiantes que habíamos
hecho los cursos de verano, requisito en ese momento para ingresar, previo al examen de
admisión que se efectuaba directamente en la Escuela. Se incorporaron del orden de 35
80
AÑOS
2327
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 196/455
estudiantes más procedentes de las carreras de ingeniería, y se formó un grupo que cursó
las materias de primer semestre en las instalaciones de la Escuela de Física,
específicamente en el aula Enrico Fermi; aunque los cursos correspondían al
Departamento de Físico-Matemáticas. Después del primer semestre se depuró el grupo y
sobrevivimos del orden de 12 estudiantes. La relación con el resto de la raza comenzó a
ser de verdadera camadería rayando en lo familiar. Como buena familia, muchas de las
pláticas circundaban a antiguos estudiantes que habían llenado de anécdotas la historia de
la escuela. Las fuimos conociendo una a una; en poco tiempo nos familiarizamos con los
detalles característicos de toda esta raza que seguía sus propios rumbos después de
egresar de la escuela. Así conocimos, de oídas, a Brito, Mirabal, Moran, Navarro, Lastras,
Lucio, Medina, Manijas, Villaseñor, Lavin, el Topo, Terrel, Guel, Adán, Carvajal, Lino,
... En fin, toda una serie de personajes que habían pisado las aulas de la escuela, y entre
ellos a uno que le apodaban “el pajarito” que según nos decían se llamaba José Antonio
Pérez González. La mayoría de esta raza puso sus enclaves en tierras poblanas e hicieron
de la Benemérita Universidad Autónoma de Puebla el bastión de la raza de escuela de
física de San Luis. Antonio Pérez no fue la excepción se incorporó al entonces
Departamento de Física del Estado Sólido dependiente del Instituto de Ciencias de la
UAP, mismo que ahora se ha convertido en el Instituto de Física “Luis Rivera Terrazas”.
De ahí partió a realizar su doctorado y regreso para reincorporarse a sus filas, hasta el
pasado viernes en que lamentablemente falleció, víctima de un cáncer mortal. Los
derroteros me llevaron a la universidad poblana y allí empecé a conocer personalmente a
la mayoría de los exalumnos, tanto de los que estaban ahí. Como de aquellos que sin estar
laborando en la universidad o el INAOE llegaban de visita académica a dictar algún
seminario o a trabajar con los investigadores poblanos, como fue el caso de Moran y
Lastras. Justo cuando llegaba, Antonio Pérez partía a Estados Unidos a su doctorado y no
lo conocí. Cuando regresaba a San Luis a incorporarme a la escuela-facultad, llegaba
Toño de su doctorado y no lo conocí. Cada año acostumbraba visitar Puebla y a los
compañeros del INAOE y la BUAP, en esas ocasiones, por fin conocí personalmente a
Toño Pérez, aunque no lo suficiente, si a través de todas esas pláticas que no escaseaban
en los pasillos de la escuela de física potosina. Ahora, como familia, nos encontramos de
luto por el deceso de Antonio Pérez y desde esta sección enviamos condolencias a su
familia y a los compañeros del Instituto de Física “Luis Rivera Terrazas”; así como a sus
demás compañeros de la Benemérita Universidad Autónoma de Puebla. Vuela, vuela
pajarito por esos extraños e ignotos caminos.
Pajarillo, pajarillo, pajarillo barranqueño,/anda dile que no cante que mi corazón
lastima/Qué pajarillo es aquél/que canta en aquella higuera,/anda dile que no
cante/que espere a que yo me muera.
80
AÑOS
2328
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.197, 31 de marzo de 2003
No. acumulado de la serie: 456
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
El Cabuche (crónicas
de la Facultad de
Ciencias)/ Para no estar loco....
....no es solución, olvidarse de la Física. Era, y
sigue siendo, común pensar que estudiar Física
se convertía en solicitud a la demencia. Los
físicos no están locos, aunque existan personajes,
no volteen a mirar al Mike, que se empeñen en
demostrar lo contrario. En el conjunto de
personas en su sano juicio, caben los físicos. La
demostración de lo anterior está confirmándose
con los recientes resultados de científicos
israelíes. El consumo de alcohol, bueno, en
forma moderada, ayuda a evitar la demencia.
Este resultado nos ayuda a entender muchas
cosas que sucedían y suceden en la escuelafacultad. Puede ser que la carrera propicie el
convertirse en loco, pero que el alcohol lo
compense y provoque que el individuo quede
neutralizado y en su juicio preestudiante.
También explica esos casos imposibles en los
cuales el individuo, a pesar de los pesares, esté
loco; ni el alcohol lo salva. Aquellos que ni
pichan ni dejan batear, pues simplemente son
trasparentes al efecto. No me pidan dar ejemplos.
Lo que si podemos decir es que aquellas sesiones
en el antiguo jardín de la escuela, ahora
convertido en taller mecánico del instituto, que
está por inaugurarse, fueron la salvación. Las
bebidas espirituosas, consumidas en ese jardín,
resultaron, a la larga, formidable tónico, además
de sabroso, para evitar la locura. Reafirmó que
no quiero llegar a estar loco. Quienes quieran
compartir el remedio, nos encuentran en el
laboratorio. Y ya lo dijo el Flaco Jiménez.
Hay momentos que n o sé de donde vengo/Hay
momentos que no s é pa’donde voy/Hay momentos que
no s é ni lo que tengo y me olvido de mi nombre , de mi
nombre y lo que soy
El Hijo de El Cronopio No. 197/456
Letras y Voces en el Altiplano/
EN EL CAMINO DEL FIN
Por Perla Negra
Besé la luz de la tarde
al aire, al tiempo...,
a la intimidad sonora de Su voz,
de Sus mentiras.
Sibilantes susurros
que acompañan la corriente de la brisa
baje la mirada, una y otra vez,
subiendo de repente en altivez y no
armonía
de prestancia en defensiva;
pulse!
a cada palabra la tormenta de mi yo
desmenuzando,
y desvariando en el como conseguirle,
caí al abismo y todo fue inútil.
Cual gota sutil, sobre gargantas
la tormenta de Su actitud se deslizaba
resbalando ante mis ojos,
que un poco en desconcierto, no entendía
¡Era Su defensa!, creía, yo insensata.
Entre en la oscura boca
de la rejilla del destino
y al encuentro del camino del fin,
me debatía en Sus historias,
sola, como un barco a la deriva.
mas bien apasionantemente brusca
y me desvanecía entre Sus sombras.
Mi ser, se derrapo en conclusiones
personales
y mi función en el arte de poeta.,
que ahora aflora
y que en vez de gota a gota, letra a letra
aceptó por fin lo que negaba mi
existencia.
Palabras varias se agolparon en duras
decisiones
y bajo el nombre, de Su nombre tan
perverso,
le convirtió Usted en lluvia avasallada.
Ahogando tentativas,
haciendo obnubilar, la voz en quedo.
Y.
Dejo ante usted una flor,
porque aquel beso necesario se ahogaba
definitivamente entre mis labios.
Mientras Usted se agazapaba
a hurtadillas, cual ladrón en la noche
en otros brazos.
Mientras, un concierto de ilusión casi
rajada
vagando cual lluvia de voz sobre mis
manos
trate de sonreír bajo Su niebla,
y hubo un torbellino del ser,
yo no soy tibia,
80
AÑOS
2330
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
Baja alcohol moderado riesgo de demencia
Los bebedores moderados tienen 54 por ciento de menor riesgo de demencia que los abstemios
Por CLAUDIA MACEDO RAMÍREZ / Grupo Reforma
El consumo moderado de alcohol está vinculado a un menor riesgo de padecer demencia
en adultos mayores, de acuerdo a una investigación que publica esta semana la revista de
la Asociación Americana de Medicina.
De acuerdo con el estudio llevado a cabo por investigadores del Centro Médico
Diaconista de Israel, los adultos de más de 65 años que consumen entre una y seis copas
de alcohol cada semana tienen menor riesgo de padecer algún tipo de demencia, en
comparación con personas no bebedoras o aquellas que beben en mayores cantidades.
"Encontramos que los abstemios son dos veces más propensos a padecer demencia que
los bebedores moderados", explica el estudio dirigido por Kenneth Mukamal,
investigador de la División General de Medicina y Cuidados Primarios en el Centro
Médico Diaconista de Israel. "Además, aquellos que beben 14 o más copas por semana
también presentan un mayor riesgo que los bebedores moderados".
La investigación comparó los patrones de consumo de alcohol de 373 pacientes con
demencia con el mismo número de sujetos de control que no tenían este padecimiento
mental.
Las personas analizadas incluyeron tanto mujeres como hombres, quienes fueron
examinados de entre 5 mil 888 ancianos participantes en el Estudio de Salud
Cardiovascular, patrocinado por el Instituto Nacional de Sangre, Pulmón y Corazón de
Estados Unidos.
El CHS inició hace 15 años para evaluar las variedades de condiciones médicas entre
individuos mayores de 65 años en cuatro comunidades: Pennsylvania, Maryland,
Carolina del Norte y California.
Cada año, los pacientes reportaron sus hábitos de consumo de diferentes bebidas, como
cerveza y vino.
Después de tomar en cuenta numerosos factores --como la edad, sexo, factor genético de
riesgo de demencia, diabetes, índice de masa corporal, nivel de colesterol y
padecimientos del corazón, entre otros-- los científicos detectaron una clara asociación
entre el consumo moderado de alcohol y la reducción de riesgo de demencia.
"Los bebedores moderados tienen 54 por ciento de menor riesgo de demencia que los
abstemios, mientras que los bebedores en exceso tienen 22 por ciento de mayor riesgo
que las personas que no beben", señaló Mukamal.
Una de las posibles explicaciones, dijeron los investigadores, es que el alcohol puede
prevenir esta enfermedad debido a que protege contra el desarrollo de arteriosclerosis
cerebral o el endurecimiento de las arterias.
"Hay muchos estudios referentes al uso del alcohol y las funciones cognitivas, pero hasta
ahora no estaba claro si el consumo de alcohol es bueno, malo o neutral en estos casos",
dijo el investigador.
"Sin embargo", advirtió, "no podemos recomendar que los ancianos empiecen a beber
alcohol basándonos en estos descubrimientos, sino que deben discutir la pertinencia del
consumo de alcohol con sus médicos y con base en ello tomar una decisión".
80
AÑOS
2331
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
Noticias del Espacio
Una vez completada su construcción y pruebas correspondientes, la ESA presentará la misión
lunar SMART-1 al público el próximo 3 de abril, en Holanda. El SMART-1 es un prototipo de
sonda de pequeñas dimensiones y bajo precio. Su principal elemento es su sistema de propulsión
eléctrico solar, que la ESA planea aplicar a futuras misiones más ambiciosas, como la BepiColombo (a Mercurio) o el Solar Orbiter. El SMART-1 demostrará ésta y otras tecnologías
durante una misión científica útil, alrededor de la Luna. Su lanzamiento está previsto para julio o
agosto de este año, pero todo depende del exitoso retorno a la actividad de los lanzadores Ariane5. La sonda viajará en uno de ellos como carga secundaria. Más información en:
http://sci.esa.int/home/smart-1/index.cfm
La primera sonda europea que visitará el planeta Marte se encuentra cada vez más cerca del
momento de su lanzamiento. La Mars Express, junto a la subsonda de aterrizaje Beagle -2, ha
finalizado su fase de ensayos y fue transportada el 19 de marzo hasta el cosmódromo de
Baikonur, a bordo de un avión Antonov-124. Despegará desde allí, sobre un cohete SoyuzFregat, hacia el 6 de junio. La ventana de lanzamiento va del 23 de mayo al 23 de junio, pero los
técnicos necesitan unos días para reemplazar un componente. La sonda Mars Express entrará en
diciembre en una órbita marciana elíptica y casi polar, desde donde realizará diversas tareas
científicas. Su acompañante, el Beagle -2, tratará de aterrizar y localizar signos de actividad
biológica. Más información en:
http://www.esa.int/export/esaCP/SEM2DO8YFDD_index_0.html
La NASA ha seleccionado su próxima misión Explorer de la serie MIDEX. Se lanzará en 2007 y
se llamará THEMIS (Time History of Events and Macroscale Interactions during Substorms).
Consistirá en una constelación de cinco pequeños satélites que intentará determinar las causas de
las reconfiguraciones de la magnetosfera terrestre, tal y como se evidencia a través de la
actividad de las auroras. Cada satélite transportará los mismos detectores eléctricos, magnéticos y
de partículas, y operará en una órbita perfectamente coordinada con la de los demás. La misión,
que costará 173 millones de dólares, fue seleccionada entre 31 candidatos. Más información en:
http://explorers.gsfc.nasa.gov
http://sprg.ssl.berkeley.edu/themis/
Los ingenieros del Johns Hopkins University Applied Physics Laboratory han iniciado el
ensamblaje de la sonda MESSENGER (MErcury Surface, Space ENvironment, GEochemistry,
and Ranging), con destino al planeta Mercurio. Las diversas piezas del vehículo están llegando
ya a Laurel, Md, donde se montará esta astronave de la clase Discovery. El MESSENGER
transportará siete instrumentos científicos, que serán integrados durante los próximos meses. La
construcción y las pruebas se prolongarán hasta septiembre, momento en que la sonda será
llevada a las instalaciones del Goddard Space Flight Center para otra ronda de ensayos. En enero
de 2004 será enviada a Florida, donde será preparada para su lanzamiento en marzo, a bordo de
un cohete Delta-II. Después de un viaje de cinco años, en abril de 2009 entrará en órbita
alrededor de Mercurio, donde trabajará durante al menos un año. Previamente, en 2007 y 2008, la
astronave habrá efectuado sendos sobrevuelos cerca del planeta. También visitará Venus en 2004
y 2006. Más información en:
http://messenger.jhuapl.edu/press_release_3_12_03.html
80
AÑOS
2332
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
Noticias de la Ciencia y la Tecnología
Cristales sobre una esfera
Investigadores americanos han descubierto cómo consigue la naturaleza situar partículas cargadas
formando una fina capa alrededor de una esfera. Este avance ayudará a encontrar puntos débiles en la
armadura exterior de virus y bacterias, y a diseñar nuevos tipos de moléculas.
En una superficie plana, las partículas que se repelen unas a otras son capaces de ordenarse entre ellas
creando un estado energético estable, situándose en los vértices de una celosía de triángulos idénticos, de
manera parecida a la disposición de las bolas de billar al comienzo de este juego.
Pero desde hace casi un siglo, los investigadores que estudian estructuras esféricas han sabido que esta
celosía plana no podría envolver simplemente a una esfera porque la estructura de triángulos perfectos no
podría mantenerse. Desde 1904, los científicos se han preguntado qué forma adoptaría realmente la
diminuta red de partículas, de entre una miríada de posibilidades.
El rompecabezas podría estar cercano a la solución, según un artículo publicado el 14 de marzo en la
revista Science. Una serie de experimentos realizados por Mark Bowick, de la Syracuse University, David
Nelson, de la Harvard University, y Alex Travesset, de la of Iowa State University y del Ames National
Laboratory, han demostrado cómo una serie de cristales esféricos son capaces de compensar su disposición
en una superficie curva, desarrollando una especie de "cicatrices", pequeños defectos que permiten a las
bolitas situarse en su lugar.
Para crear cristales esféricos, los investigadores obligaron a pequeñas esferas de poliestireno, de sólo un
micrón de diámetro, a congregarse y rodear, cubriendo completamente, diminutas gotas de agua de unos
10 micrones de diámetro, suspendidas en una mezcla oleosa.
El equipo utilizó un microscopio especial para ver las esferas y trazó imágenes de los patrones cristalinos
digitalmente. Un patrón cristalino plano habría consistido en una serie de triángulos equiláteros
adyacentes, mientras que el patrón triangular de la estructura esférica mostraba defectos (por ejemplo, una
de las pequeñas esferas tenía cinco o siete vecinos, en vez de los seis que tendría en una celosía perfecta).
Es decir, los científicos han descubierto que una curvatura puede cambiar de forma fundamental la
disposición de las partículas en la superficie. Las esferas más pequeñas tenían una docena de defectos
aislados, mientras que las mayores mostraban una sucesión dentada de defectos que los científicos
denominaron "cicatrices". Tales cicatrices aparecen de una forma predecible en función del tamaño de la
esfera, siguiendo perfectamente la teoría.
Algunos virus y bacterias poseen estructuras esféricas similares a las estudiadas. Conocer cómo se forman
las "cicatrices" en ellas podría ayudar a diseñar reacciones químicas en tales puntos, permitiendo desplegar
tratamientos efectivos para combatir los patógenos.
Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0328.htm
Analizando el riesgo de crear biofármacos en cultivos
Nadie sabe a ciencia cierta los riesgos que supone cultivar plantas modificadas genéticamente para otros
fines distintos a los de la simple alimentación. Es el caso de los cultivos diseñados para producir
biofármacos. Investigadores de la Iowa State University esperan responder a esta incógnita antes de que
transcurra un año.
Para ello están desarrollando una herramienta científica que permita valorar los mencionados riesgos antes
de que se hayan tomado las decisiones definitivas. El análisis cubrirá los riesgos de contención en todos los
pasos que implica cultivar una planta de este tipo, desde la siembra a la utilización. También indicará los
puntos de intervención donde se necesitarán protecciones científicas específicas.
Iowa y otros estados estadounidenses productores de cereales están trabajando intensamente en crear una
industria farmacéutica basada en estos cultivos, por ejemplo, para obtener proteínas interesantes. Los
críticos, sin embargo, opinan que tales plantas no deberían ser producidas en los mismos estados donde se
hallan cultivos para uso alimentario, debido a la posible contaminación de estos últimos.
Manjit Misra, profesor del Seed Science Center en la Iowa State, cree no obstante que en vez de decir si
deberíamos o no cultivar plantas farmacéuticas en áreas donde se produce comida, deberíamos utilizar la
ciencia para determinar cuáles de las primeras son seguras y cuáles no deberían ni siquiera crecer en un
80
AÑOS
2333
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
ambiente abierto. Entre 35 y 40 plantas modificadas para producir biofármacos y otros productos
industriales están a punto de ser comercializadas. La autorización de su producción depende de que exista
un riesgo cero de que tales productos se introduzcan de forma involuntaria en la cadena alimentaria
humana o animal.
Misra y sus colegas están tratando de desarrollar un modelo que defina los niveles de tolerancia para cada
producto farmacéutico o industrial, relacionándolos con los posibles peligros que pudieran acarrear. Un
grupo de agrónomos, genetistas, economistas, matemáticos y especialistas en salud pública emprenderán
esta tarea empezando con la clasificación de cada proteína como peligrosa, menos peligrosa o benigna,
basándose en los análisis disponibles en la literatura científica. Después, crearán un diagrama de flujo
sistemático de cada paso del proceso, desde la inserción de la proteína en la planta hasta el consumo del
cultivo. Se espera así identificar los cientos de operaciones y sub-operaciones donde un cultivo modificado
genéticamente podría contaminar la cadena alimentaria.
Información adicional en: http://www.iastate.edu/~nscentral/releases/2003/mar/misra.shtml
Aumenta la radiación solar
Desde los años 70, la cantidad de radiación que el Sol emite, durante los momentos de baja actividad, se ha
incrementado en casi un 0,05 por ciento por década, según un estudio realizado por científicos de la
NASA. Si esta tendencia continuara así durante varias décadas más, la Tierra podría afrontar un sustancial
cambio climático.
El resultado no es una sorpresa, explica Richard Willson, del Goddard Institute for Space Studies y de la
Columbia University. Los registros históricos ya indican que la radiación solar se ha ido incrementando
desde finales del siglo XIX. Si una tendencia comparable a la mencionada en el estudio hubiera estado
presente durante todo el siglo XX, sería un componente significativo en el calentamiento global que otros
informes sugieren se ha producido durante los últimos 100 años.
El ciclo solar se desarrolla aproximadamente cada 11 años. Cuando el Sol atraviesa su "máximo solar", la
actividad magnética y las manchas solares alcanzan su punto álgido.
La diferencia encontrada en la radiación solar durante los últimos 24 años ha sido de un 0,1 por ciento.
Ello no es suficiente para causar un notable cambio climático, pero sí lo sería si la tendencia se prolongara
durante un siglo o más. Ha sido necesario un período de un cuarto de siglo de observaciones desde satélite
para poder detectar con precisión este efecto.
La Irradiación Solar Total (TSI) es la energía que recibe la Tierra procedente del Sol, en todas las
longitudes de onda, fuera de la atmósfera. La interacción de la TSI con esta última, los océanos y las tierras
emergidas es el principal factor en la determinación de nuestro clima. Para que nos hagamos una idea, se
puede producir un descenso de un 0,2 por ciento en la TSI durante el paso de un gran grupo de manchas
solares a través del hemisferio visible del Sol, algo que precisa de aproximadamente una semana. Estos
cambios son relativamente insignificantes comparados con la emisión total de energía, aunque equivale a
toda la que consume la humanidad en un año. Por otro lado, si las variaciones son persistentes y se ven
sostenidas durante muchas décadas, sí pueden desarrollar efectos climáticos significativos.
Willson y su equipo midieron las tendencias de irradiación solar reuniendo los datos ofrecidos por seis
satélites desde 1978 (Nimbus-7, SMM, UARS, ACRIMSAT, ERBS y SOHO). Sus periodos de
funcionamiento se han solapado a lo largo de los años, lo que ha proporcionado una mayor fiabilidad a los
resultados. Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0313irradiance.html?ct=1
Retrato de familia del sistema Alfa Centauro
Observaciones realizadas con el Very Large Telescope Interferometer, instalado en el observatorio Paranal
del ESO, en Chile, han proporcionado la primera determinación directa del tamaño angular de los dos
mayores miembros estelares del sistema triple Alfa Centauro, el más cercano a la Tierra (unos 4 años-luz).
Gracias a esta información, y a diversos datos fotométricos y asterosísmicos, ya podemos decir que Alfa
Centauro A y Alfa Centauro B son las estrellas mejor conocidas por los astrónomos.
Como se ha dicho, el sistema estelar triple Alfa Centauro es el más cercano a nosotros, ya que se encuentra
a "sólo" 4,36 años-luz de distancia, unos 41 billones de kilómetros, en la constelación sureña del Centauro.
Las dos principales estrellas del sistema, A y B, son bastante parecidas a nuestro Sol (tipos espectrales
G2V y K1V, respectivamente). La tercera es sólo una enana roja conocida como Próxima Centauro.
80
AÑOS
2334
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
Mucho más fría y pequeña que las otras dos, es la que realmente está más cerca de la Tierra. Alfa Centauro
A y B giran una alrededor de la otra a una distancia de unos 3.600 millones de kilómetros, algo más de la
que separa Urano del Sol. El período orbital se aproxima a los 80 años. Próxima, por su parte, está 1,5
millones de kilómetros más cerca con respecto a nosotros, lo que implica que debe girar alrededor del par
con un período de varios millones de años.
La pareja A y B ofrece numerosas posibilidades para el estudio de la física estelar, sobre todo de estrellas
semejantes al Sol, incluyendo evolución, composición, estructura y desarrollo. A es algo más masiva que
nuestra estrella y B un poco menos. Los resultados sugieren que el radio de A llega a los 854.000 km,
mientras que el de B es igual a 602.000 km. Ambas son ligeramente más viejas que el Sol. El sistema tiene
unos 4.850 millones de años de edad, comparado con los 4.650 millones del Sol.
Los astrónomos han utilizo el interferómetro VLTI para medir las dimensiones de las dos estrellas
principales del sistema. A pesar de su proximidad y brillo, nunca antes habían sido resueltas mediante este
tipo de interferometría, que permite medir sus diámetros angulares.
Se utilizaron para ello dos pequeños telescopios de 0,35 metros de diámetro, situados a 16 metros entre sí
(para la observación de Alfa Centauro A) y 66 metros (para AC B). La luz capturada por ambos fue
dirigida mediante espejos hasta un foco común en el instrumento VINCI.
Información adicional en: http://www.eso.org/outreach/press-rel/pr-2003/pr-05-03.html
Pozos ardiendo en Irak
Los efectos ambientales de la guerra contra Irak ya se dejan sentir. Los satélites de teledetección han
fotografiado la zona del conflicto, poniendo de manifiesto varios incendios cuyos focos son los pozos
petrolíferos.
El satélite Terra ha utilizado su instrumento MODIS (Moderate Resolution Imaging Spectroradiometer)
para observar la región del Golfo Pérsico y Oriente Medio. En la imagen que nos ha enviado se aprecia
polvo en suspensión, así como diversas anomalías térmicas, marcadas con símbolos rojos.
La fotografía se tomó a las 07:25 UTC del 21 de marzo y muestra tanto Irak como Kuwait, partes de
Arabia Saudí e Irán. Junto a los puntos rojos se pueden ver columnas de humo, que coinciden con la
posición conocida de diversos pozos de petróleo.
Dada la abundante presencia de yacimientos en el área, suele ser habitual para el instrumento MODIS
detectar puntos calientes. Sin embargo, en esta ocasión la cantidad de humo es mucho mayor a lo normal.
La imagen enviada por el Terra, que en realidad forma parte de una escena mayor, tiene una resolución
espacial de 250 metros. Información adicional en:
http://earthobservatory.nasa.gov/NaturalHazards/natural_hazards_v2.php3?img_id=5685
La dureza de las nanoesferas de silicio
Investigadores de la University of Minnesota han realizado las primeras mediciones de la dureza de
nanoesferas individuales de silicio y han descubierto que se hallan entre el zafiro y el diamante, dos de los
materiales más duros conocidos.
Las nanoesferas son cuatro veces más duras que el silicio típico, aquel que se emplea como ingrediente
para fabricar chips de ordenador, cristal y arena. Las propiedades que adoptan en el mundo nanoscópico
son tan interesantes en algunos aspectos que podrían abrir nuevos tipos de industria. Además, demuestran
que otros materiales, como el propio zafiro, podrían utilizarse en este formato.
William Gerberich y William Mook creen que su técnica de medición les permitirá diseñar materiales
superduros. De momento, las nanoesferas podrían intervenir en la fabricación de componentes primarios
para los sistemas microelectromecánicos (MEMS), como engranajes, etc.
Antes de proceder con las mediciones, los dos investigadores desarrollaron un método para producir
nanoesferas de silicio. Una vez obtenidas, su dureza se midió comprimiéndolas de forma individual entre
una superficie de zafiro y una sonda con punta de diamante. El resultado indica que las nanoesferas más
pequeñas son también las más duras. Se ensayaron con diversos tamaños, de 100 a 40 nanómetros de
diámetro, y su dureza osciló entre los 20 y los 50 gigapascales. En comparación, el acero inoxidable tiene
una dureza típica de 1 gigapascal, el zafiro de unos 40 gigapascales y el diamante de unos 90 gigapascales.
El silicio normal, por su parte, promedia los 12 gigapascales. Sin embargo, hasta ahora no se habían
conseguido esferas tan pequeñas sin defectos. Estos últimos debilitan a las partículas.
80
AÑOS
2335
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
Es la primera vez que se han practicado mediciones mecánicas en nanopartículas. Anteriormente sólo se
medían sus propiedades electromagnéticas. El avance permitirá hacer comparaciones con los resultados
obtenidos mediante simulaciones por ordenador. Una esfera de silicio de 40 nanómetros de diámetro posee
unos 40 millones de átomos. Las esferas examinadas en Minnesota poseían entre 5 y 600 millones de
átomos. Estas cifras pueden simularse en supercomputadores sin demasiados problemas.
Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0331.htm
Cazador de estallidos gamma
El satélite Integral de la Agencia Espacial Europea se ha convertido quizá en el campeón de la
investigación de uno de los fenómenos más energéticos del Universo. Sus instrumentos son capaces de
detectar un estallido de rayos gamma al menos una vez al día.
Lanzado en octubre de 2002, el Integral ha logrado otra marca. Cuatro de los estallidos, ocurridos a lo
largo de los últimos cuatro meses, se desarrollaron justo en el centro de su campo visual. Gracias a ello, los
astrónomos están consiguiendo información muy valiosa sobre estas manifestaciones cósmicas.
Los estallidos gamma aparecen en el cielo de forma aleatoria. Brillan intensamente, con la fuerza de
millones de soles, sobre todo en el espectro de los rayos gamma. Pero también se atenúan muy deprisa, en
apenas unos segundos, lo que dificulta su estudio.
Aunque el Integral fue diseñado para observar supernovas, agujeros negros y estrellas de neutrones, sus
instrumentos son adecuados para realizar una buena contribución al campo de los estallidos gamma.
Su origen es aún desconocido, si bien los científicos piensan que podrían señalar el nacimiento de un
nuevo agujero negro, después de la muerte de una gran estrella masiva o por la unión de dos estrellas de
neutrones o agujeros negros más pequeños. El suceso crea una lluvia de rayos gamma que se tranquiliza en
muy poco tiempo, para no reaparecer nunca en el mismo sitio.
Los instrumentos del Integral pueden detectar un estallido gamma que aparezca en cualquier lugar del
cielo. Ésta es una operación que hace rutinariamente, cada día. La información es inmediatamente
distribuida hacia otros observatorios. Con estos datos y con los aportados por sondas interplanetarias, es
posible realizar una triangulación y determinar con precisión su posición en la esfera celeste. Este proceso
lleva poco tiempo, de manera que durante los siguientes días los astrónomos podrán seguir el fenómeno en
su evolución.
Una vez al mes, sin embargo, los descubrimientos del Integral cobran mayor interés, ya que el estallido
aparece en el centro de su campo visual. Esto permite efectuar un estudio inmediato de la fuente. El último
estallido detectado de esta forma se llama GRB 030227, y sobre él se emplearon los cuatro instrumentos de
los que dispone el observatorio espacial (una cámara óptica, un espectrómetro, un monitor de rayos-X y un
detector de rayos gamma). Todos ellos observaron el estallido al mismo tiempo.
Información adicional en: http://sci.esa.int/content/news/index.cfm?aid=21&cid=44&oid=32011
Neumáticos "verdes"
Tecnólogos holandeses han llevado a cabo una investigación gracias a la cual han logrado desarrollar un
tipo de neumático que convierte a los automóviles en más amistosos con el medio ambiente. Una nueva
mezcla utilizada en su fabricación reduce la resistencia a la rodadura, disminuyendo el consumo de
combustible.
Los científicos de la University of Twente lo han conseguido su objetivo mezclando goma y sílice, dos
sustancias que normalmente no combinan en absoluto, pero que lo hacen bajo la influencia de una tercera,
llamada organosilano, y que actúa como agente acoplante.
Los fabricantes de neumáticos suelen utilizar partículas de carbón para hacer más resistente la goma
(caucho). Louis Reuvekamp y sus colegas han sustituido estas partículas de carbón por otras de sílice, que
se unen a la goma gracias a la capacidad del organosilano. Este agente se une a la superficie del sílice y de
la goma, conectando ambas sustancias de una forma que en solitario no sería posible.
La temperatura ideal para la unión se determinó de forma experimental. Para que el agente reaccione con el
sílice se necesitan al menos 130 grados Celsius. Pero la reacción no debe hacerse por encima de los 150
grados, o de lo contrario la goma se vulcaniza y se convierte en demasiado dura para un procesamiento
posterior. El óxido de zinc es una parte esencial del neumático definitivo, pero se ha descubierto que esta
sustancia dificulta el acoplamiento. Por ello, se añade sólo después de completada la reacción.
80
AÑOS
2336
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
Por otro lado, se ha visto que el tamaño del grano de sílice influye en la resistencia a la rodadura. Un sílice
preparado en partículas diminutas disminuye al máximo esta resistencia, dando lugar a un ahorro de
combustible. Información adicional en:
http://www.nwo.nl/nwohome.nsf/pages/NWOP_5KRHC7?OpenDocument&g=NWO&n=ACPP_4WMESE&rc=1
Simulando la ingravidez
Una de las pocas formas que existen de liberarnos de la sensación y los efectos de la gravedad consiste en
lanzarnos dentro de ella. En caída libre, los objetos se comportan como si ninguna fuerza actuara sobre
ellos. Para conseguirlo, los científicos utilizan vuelos parabólicos mediante aviones, que proporcionan
algunos segundos de ingravidez artificial.
No son muchos, apenas 20 segundos, pero suelen bastar para llevar a cabo experimentos cuyo desarrollo
quizá haya necesitado de varios años. La Agencia Espacial Europea dispone de un avión dedicado
especialmente a estas tareas, el llamado 'Zero-G' Airbus A300.
Es un hecho que la gravedad cambia la forma en que la materia y la energía interactúan, el comportamiento
de gases y líquidos, e incluso la manera en que el fuego quema. La fuerza de la gravedad distorsiona
frecuentemente los procesos físicos básicos que los investigadores tratan de estudiar, y es necesario buscar
formas de liberarse de esta tiranía natural.
La gravedad alcanza también a las naves espaciales, pero éstas vuelan tan rápido alrededor de la Tierra que
la fuerza centrífuga que generan compensa el tirón gravitatorio, proporcionando microgravedad. El
problema es que enviar cargas científicas al espacio no es precisamente barato, por lo que si es posible
simular la ingravidez aquí mismo, en la Tierra, aunque sea durante poco tiempo, estaremos ante una
solución mucho mejor.
Como muy bien sabía Albert Einstein, un objeto en caída libre dentro de un campo gravitatorio como el de
nuestro planeta verá cancelado un efecto que todos experimentamos: el peso. Se han construido pues torres
de caída libre, como la Bremen Drop Tower, en Alemania, de 146 metros de altura, que permiten a
paquetes de instrumentos experimentar la ingravidez durante unos pocos segundos. Como el tiempo útil es
muy corto y el tamaño del paquete de instrumentos limitado, los científicos con mayores aspiraciones
deben buscar otras opciones. Es el caso del 'Zero-G' Airbus A300, gestionado por la empresa Novespace.
El avión permite que los propios científicos viajen con sus exp erimentos, y prolonga de forma significativa
la duración del efecto microgravitatorio.
Despegando desde el aeropuerto de Bordeaux-Mérignac, en Francia, la aeronave suele seguir un corredor
asignado sobre el golfo de Gascogne. Una vez alcanzado un nivel de vuelo a 6.000 metros de altitud, inicia
sus maniobras de arco parabólico, colocándose en una inclinación ascendente de 45 grados con sus
motores a máxima potencia. En estos momentos, los pasajeros experimentan una fuerza de 1,8 G, debido a
la aceleración. Después de 20 segundos, y a una altitud de 7.600 metros, el Airbus reduce la potencia de
los motores hasta casi cero, compensando apenas la resistencia del aire. En este punto, todas las fuerzas se
ven canceladas y el avión se encuentra en caída libre. Es el momento elegido por el piloto para anunciar el
inicio de un período de microgravedad de 20 segundos, que los científicos aprovecharán para realizar sus
experimentos.
El Airbus alcanza el punto máximo de su arco parabólico a unos 8.500 metros de altitud, y después
empieza a descender de nuevo. Cuando el ángulo de la aeronave se encuentra 45 grados por debajo de la
horizontal, vuelve a acelerar sus motores hasta nivelarse, a unos 6.000 metros. Será el punto de inicio de la
próxima parábola.
El avión genera unas 31 parábolas en un día. La Agencia Espacial Europea patrocina tres campañas al año
(dos profesionales y una para estudiantes), cada una de ellas compuesta por tres vuelos. Así, al final del
año se han acumulado 90 minutos de microgravedad, equivalente a una órbita completa de un satélite.
Información adicional en: http://www.esa.int/export/esaCP/SEM8WZ8YFDD_FeatureWeek_0.html
Cañerías diminutas
Investigadores de la University of Illinois en Urbana-Champaign han desarrollado un método que permite
fabricar "tuberías" tridimensionales para fluidos que deban operar en dispositivos de tamaño milimétrico,
utilizando un robot que dibuja las cañerías con una tinta especial.
80
AÑOS
2337
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
Gracias a este sistema, los científicos han construido una "fábrica" que puede mezclar varios flujos
microscópicos de fluidos. Las aplicaciones son diversas, incluyendo sensores, laboratorios en un chip y
materiales que se auto-reparan.
Las tuberías, que forman redes de microcanales en tres dimensiones, pueden tener entre 10 y 300 micrones
de diámetro, explica Jennifer Lewis, participante en el trabajo, lo que supone un sustancial avance sobre
las redes bidimensionales que son talladas en una superficie plana, por ejemplo. Dado que las tuberías
están situadas unas sobre otras, ocupan menos espacio. Además, son más efectivas a la hora de mezclar
fluidos.
Las redes de microcanales podrían llegar a proporcionar un equivalente al sistema circulatorio humano a la
próxima generación de materiales capaces de auto-repararse. Una red de este tipo actuaría como un sistema
circulatorio que transportaría sustancias de reparación hasta los puntos dañados dentro de un material.
Para crear las redes de microcanales, Lewis y sus colegas Scott White y Daniel Therriault utilizan una
"pluma" robótica controlada por ordenador. La salida de la pluma deposita una línea de tinta cerosa a partir
de la cual se construirá el andamio tridimensional. La tinta sale de forma continua y se deposita en una
plataforma móvil, lo que crea un patrón bidimensional. Después de que se haya generado una capa, la
plataforma es elevada y rotada, permitiendo depositar la siguiente capa. El proceso se repite hasta que se
consigue la estructura deseada. En ella, la tinta retiene siempre su forma cilíndrica. A continuación, el
andamio será rodeado con una resina epoxy. Una vez solidificada ésta, el material es calentado, y la tinta
cerosa se funde y desaparece, dejando detrás de sí una red vacía de microcanales. En un último paso, las
tuberías son inundadas con una resina que se endurece bajo luz ultravioleta. El material será expuesto a los
rayos UV de forma selectiva.
El sistema posibilita crear redes de microcanales de geometrías regulares, como torres cuadrangulares
espirales, etc. Cada estructura es útil para una aplicación.
Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0330.htm
Breves del Mundo de la Ciencia
COMO PERDIMOS NUESTRO OLFATO: Al menos en una actividad, los humanos no podemos
competir con los perros. Éstos pueden ser entrenados para detectar con su fino olfato drogas y explosivos,
o seguir a un sospechoso por su olor. ¿Por qué no podemos hacer nosotros lo mismo?
GENES INACTIVOS Y CLONACIÓN: Sólo entre el 1 y el 3 por ciento de los animales clonados a partir
de células adultas sobreviven al nacimiento. Muchos mueren misteriosamente durante su desarrollo inicial,
durante la implantación. Un nuevo estudio sugiere que un grupo de genes importante para este desarrollo
temprano no consigue reactivarse en los clones derivados de células somáticas o adultas.
UNA ESTRATEGIA ENGAÑOSA PROTEGE AL VIRUS VIH: Investigadores del Instituto Médico
Howard Hughes y sus colegas han descubierto el mecanismo por el cual el virus de la inmunodeficiencia
humana (VIH) se esconde del sistema inmune del cuerpo.
LENTES DE CONTACTO ESPECIALES: Enfermedades oculares como el glaucoma podrían tratarse
algún día mediante fármacos proporcionados por lentes de contacto especiales.
ACEITE DE MOTOR "VERDE": El aceite vegetal utilizado a menudo en la cocina podría algún día llenar
el motor de nuestro coche, disminuyendo nuestra dependencia del petróleo.
CÉLULA DE BIOCOMBUSTIBLE: Las baterías recargables podrían ser reemplazadas en un futuro
cercano por células de combustible en miniatura, alimentadas por alcohol.
METAMATERIALES: Un investigador de la University of Toronto ha construido una lente plana con
materiales artificiales que rompen las reglas de la naturaleza. Con ella se mejorará mucho la resolución
durante la observación de objetos.
SEÑALES QUE HACEN CRECER LOS FOLÍCULOS PILOSOS: La precis a interacción de dos señales
químicas engaña a las células troncales para que se conviertan en folículos pilosos, según indica el nuevo
trabajo de investigación realizado por los científicos del Instituto Médico Howard Hughes en la
Universidad Rockefeller.
REFRIGERACIÓN MAS EFICIENTE: Los científicos del Research Triangle Institute han creado el
primer dispositivo funcional que utiliza materiales a escala nanométrica para convertir energía eléctrica en
frío o calor, o calor en electricidad.
80
AÑOS
2338
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
FRAY DIEGO RODRÍGUEZ
Atitalaquia es un pueblito ubicado en el estado de Hidalgo. Ahí, en el año de 1596, nació
fray Diego Rodríguez, quien habría de ser uno de los más destacados científicos del siglo
XVII. Se debe principalmente al historiador de la ciencia mexicana. Elías Trabulse, el
haber estudiado y divulgado lo esencial de la obra del fraile mercedario. En su colección
de ensayos El Círculo roto. Trabulse dedica dos interesantes artículos a la vida y obra de
fray Diego.
La obra del fraile se inclina, por una parte, hacia el aspecto teórico y general de la
ciencia; fray Diego conocía a fondo los mayores tratados científicos de su época y estaba
familiarizado con las teorías de Copérnico, Tycho de Brahe y Kepler. Su conocimiento
de las matemáticas era, por decir poco, avanzado y, por otra parte, se dedicaba a las
matemáticas aplicadas (“impuras” las llamaba). Para darnos una idea de la magnitud de
sus intereses veamos el esquema de Trabulse traza sobre la obra de fray Diego.
Matemáticas “puras”:
Geometría. Traducción y comentarios de Euclides. Resolución de triángulos y cálculos de áreas
en función de los lados; círculo, elipse, parábola, hipérbole; perspectiva, dióptrica, catóptrica,
óptica.
Aritmética. Numeración, las cuatro operaciones con cuadradas y cúbicas de cuadrados y cubos
perfectos e imperfectos; exponentes, cuadrados, cubos; proporciones, regla de tres; cálculo.
Algebra. Ecuaciones cuadráticas, cúbicas y de cuarto grado. Logaritmos.
Trigonometría. Funciones trigonométricas, tablas ecuaciones trigonométricas, tablas logarítmicas
de funciones trigonométricas, trigonometría esférica; triángulos esféricos.
Matemáticas “impuras”:
Gnomónica. Mecánica. Arquitectura. Artes bélicas. Astronomía. Fabricación de astrolabios.
Astrología judiciaria. Meteorología. Música. Cosmografía. Geografía. Prosopografía. Geodesia.
Magnetismo. Hidrostática. Calendarios.
La obra de Diego Rodríguez y, en general, la de los demás científicos mexicanos del
siglo XVII, muestra dos cosas:
1) El carácter universal de la ciencia pues, a pesar de las limitaciones en los medios de
comunicación, los científicos mexicanos vivían intelectualmente la revolución
científica que en ese entonces se desarrollaba en Europa. “El análisis de sus obras (de
los científicos mexicanos), ya sea impresas o manuscritas, nos permite situarlas
dentro de la corriente científica que en Europa echaba por aquellos años las bases
definitivas de la ciencia moderna”.
2) La importancia práctica que se daba al conocimiento científico pues, se cultivaban las
matemáticas y la astronomía, como la hidráulica, la arquitectura y la minería.
El conocimiento y reconocimiento de nuestra historia, en particular de la historia de la
ciencia, nos hace ver que el pensamiento científico no ha sido algo ajeno a nuestro
pueblo. En toda época, con matiz, orientación y grados diferentes de desarrollo, se ha
manifestado el espíritu inquisidor y creativo del hombre; esa inquietud de los hombres
80
AÑOS
2339
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 197/456
por entender mejor el mundo en que viven y entenderse a sí mismos. Por eso vale la
pena, de vez en cuando, acercarnos a nuestro pasado para entender mejor nuestro
presente. Acercarnos a obras como la de fray Diego Rodríguez, precursor de la ciencia
moderna en México, quien en la introducción al breve tratado de las elementales
disciplinas matemáticas dijera: “el conocimiento se alcanza no hojeando los folios de los
libros, sino aprendiendo con el corazón hasta alcanzar la razón y la sabiduría.”
PREPÁRATE PARA EL PRÓXIMO ENCUENTRO
Comité Organizador del Tercer Encuentro Juvenil de la Ciencia
Dos años hace ya del primer Encuentro, donde un pequeño grupo de alumnos de la
Facultad de Ciencias, se encargó de idear, planear y organizar el Primer Encuentro
Juvenil de la Ciencia, todo un éxito al llevarse a cabo; pero pasó un año, la idea que
parecía había desaparecido, pero no había muerto, fue rescatada por uno de los primeros
organizadores y puesta en marcha por un nuevo grupo de alumnos de la misma Facultad,
pese a ser alumnos casi todos de nuevo ingreso y de nunca haber realizado un evento
similar, se atrevieron a llevarlo a cabo. Aunque claro se tuvo apoyo de parte de algunos
organizadores del Encuentro anterior, y entonces, el Segundo Encuentro Juvenil de la
Ciencia, se levó a cabo; el éxito obtenido superó por mucho al esperado, y la difusión de
la Facultad de Ciencias se vio favorecido.
Se debe resaltar sobre todo el apoyo de parte de algunos profesores, quienes creyeron en
los jóvenes alumnos, que pese a su poca experiencia lograron la gran realización del
evento, que como es sabido, fue una antesala para la aplicación del examen FisMat.
También se debe destacar el apoyo de parte del Director de la Facultad, quien confió
plenamente en la capacidad de los organizadores, así como también de la administración,
que apoyó de forma entusiasta al evento. La gran mayoría de los profesores quedaron
bastante contentos con los resultados, así que también se les hace un agradecimiento a
éstos profesores.
Ahora, a casi un año del último Encuentro, con las ideas mejoradas y reforzadas, con la
vista puesta en lo alto, el mismo grupo de alumnos, con más experiencia, apoyado de
nuevos integrantes, se ha propuesto la realización del Tercer Encuentro Juvenil de la
Ciencia, que planea el crecimiento del evento en forma cualitativa; se sabe que se cuenta
con el apoyo de los dirigentes de ésta Facultad, y por lo mismo se está dispuesto a
mejorar.
Con una gran visión para el futuro próximo, se planea que éste Encuentro crezca a
escalas superiores y de comparación con eventos de realización nacional e incluso
internacional. Se agradece también a los organizadores y se les desea todo el éxito que se
pueda lograr. El Encuentro está cerca, y tu como alumno de ésta Facultad puedes apoyar
al evento, infórmate con los organizadores, pero si tu eres un profesor que imparte clases
aquí, también puedes apoyar, no importa a que área te dediques, tu puedes colaborar.
¡Prepárate para el Próximo Encuentro Juvenil de la Ciencia!
Mayores informes:
[email protected]
[email protected]
En Consejería de Alumnos...
80
AÑOS
2340
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.198, 7 de abril de 2003
No. acumulado de la serie: 457
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
Número dedicado a la memoria de
Juan Fernando
Cárdenas Rivero
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
En su quinto aniversario luctuoso
El Hijo de El Cronopio No. 198/457
Boletín de la Academia Noruega de Ciencias y Letras
Det Norske Videnskaps-Akademi The Norwegian Academy of Science and Letters A: Drammensveien 78, N-0271
Oslo, Norway | T: +47 22 12 10 90 | F: +47 22 12 10 99 | E: [email protected] | W: www.abelprisen.no
La Academia Noruega de Ciencias y Letras ha resuelto conceder el Premio Abel 2003 a
Jean-Pierre Serre
del Colegio de Francia, París, Francia, “por su papel central en la elaboración de la forma
moderna de numerosas partes de las Matemáticas, en particular la Topología, la
Geometría Algebraica y la Teoría de los Números”.
El primer Premio Abel ha sido otorgado a Jean-Pierre Serre, uno de los grandes matemáticos de nuestros
días. Serre es Profesor Honorario del Colegio de Francia de París. Durante más de medio siglo, ha
contribuido notablemente al progreso de las Matemáticas, y lo sigue haciendo. Los trabajos de Serre son de
una amplitud, profundidad e influencia extraordinarias. Serre ha desempeñado un papel central en la
elaboración de la forma moderna de numerosas partes de las Matemáticas, en particular:
• La Topología, que trata de la cuestión siguiente: ¿Qué es lo que se mantiene constante en geometría aún
cuando se deforme la longitud?
• La Geometría Algebraica, que trata de la cuestión siguiente: ¿Cómo resolver geométricamente los
sistemas de ecuaciones polinómicas?
• La Teoría de los Números, el estudio de las propiedades básicas de los números. Por ejemplo los números
primos y la resolución de las ecuaciones polinómicas en el Último Teorema de Fermat.
Serre desarrolló métodos algebraicos revolucionarios para el estudio de la Topología, ocupándose en
particular de las transformaciones entre hiperesferas. A él se debe una espectacular aclaración de los
trabajos de los geómetras algebristas italianos mediante la introducción y el desarrollo de los sistemas
algebraicos adecuados para determinar cuándo funcionaban sus construcciones geométricas. Esta potente
técnica de Serre, con su nuevo lenguaje y su punto de vista inédito, inauguró una nueva edad de oro de la
Geometría Algebraica.
Durante las últimas cuatro décadas, los magníficos trabajos de Serre y su visión de la Teoría de los
Números han sido decisivos para dar a esta disciplina su éxito actual. Estos trabajos conectan y amplían en
muchos aspectos las concepciones matemáticas introducidas por Abel, en particular su prueba de la
imposibilidad de resolver las ecuaciones de quinto grado por radicales y sus técnicas de análisis para el
estudio de las ecuaciones polinómicas con dos variables. Las investigaciones de Serre han sido centrales
para abrir la vía a los descubrimientos recientes más destacados, inclusive la prueba por Wiles del Último
Teorema de Fermat.
Si bien es cierto que Serre ha centrado sus esfuerzos en las matemáticas más abstractas, sus aportaciones
han encontrado importantes aplicaciones. Determinados problemas prácticos que plantean el desarrollo de
eficaces códigos de corrección de errores y la criptografía de llave pública se resuelven mediante
ecuaciones polinómicas (en particular en los campos finitos), y los trabajos de Serre han profundizado
realmente nuestra comprensión de este tema. Jean-Pierre Serre nació en 1926 en Bages, Francia. Cursó
estudios en la Escuela Normal Superior y obtuvo el título de Doctor en Ciencias por la Universidad de la
Sorbona de París en 1951.
Después de haber ocupado varios puestos en el Centro Nacional de Investigaciones Científicas, fue
Profesor Asociado en la Facultad de Ciencias de la Universidad de Nancy. En 1956, se le nombró Profesor
del Colegio de Francia.
Serre es miembro de la Academia de las Ciencias de Francia. Es Gran Oficial de la Orden Nacional del
Mérito y Comendador de la Legión de Honor. Ha sido nomb rado miembro de varias Academias
Nacionales, en particular las de Francia, Suecia, los Estados Unidos y los Países Bajos. Entre las
distinciones con que ha sido galardonado están la Medalla Fields en 1954 (sigue siendo el receptor más
joven), el Premio Gaston Julia en 1970, el Premio Balzan en 1985, el Premio Steele en 1995 y el Premio
Wolf en 2000. Ha sido nombrado Doctor Honoris Causa por numerosas universidades, en último lugar la
Universidad de Oslo, en 2002, en ocasión de la conmemoración del bicentenario del nacimiento de Niels
Henrik Abel.
80
AÑOS
2342
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
Filones de Historias Mineras/
El último gambusino
Artículo escrito en conjunto con J.A. Mart ínez y publicado en la revista El Cronopio No.9 y revista GEOMIMET
Siempre que se hace una historia
Se habla de un viejo, de un niño, o de sí,
pero mi historia es difícil
no voy a hablarles de un hombre común
haré la historia de un ser de otro mundo
de un animal de galaxia.
Es una historia que tiene que ver
con el curso de la Vía Láctea,
es una historia enterrada
es sobre un ser de la nada.
Silvio Rodríguez
La minería es sin duda, una de las actividades de mayor tradición en nuestro país. ¿Cuántas poblaciones,
principalmente en el bajío y norte de México, fueron fundadas con base en yacimientos minerales
descubiertos y “redescubiertos” después de la conquista? Más de sesenta años de guerra chichimeca no
fueron gratuitos. Estas tierras inhóspitas representaban una importancia económica para los españoles;
mientras continuaba la guerra se iban descubriendo yacimientos y las labores mineras empezaban a
desarrollarse. Zacatecas, Guanajuato, Jalisco, San Luis Potosí, en fin. El Camino de la Plata, quedó
establecido, resguardado por fortificaciones estratégicas entre México y Zacatecas. Estas fortificaciones,
llamadas presidios, aún pueden observarse en varios puntos del centro-norte del país, como mudos testigos
de una guerra sin cuartel, una guerra a sangre y fuego. La guerra chichimeca que durara más de sesenta
años después de caída la capital azteca, produjo entre otras cosas, la desaparición de un gran número de
tribus nómadas y seminómadas y la extinción de varias decenas de idiomas que se hablaban en lo que
ahora es México. Las nuevas poblaciones forjadas por hombres de a caballo fueron posibles con la ayuda
de “indígenas” del centro del país, tlaxcaltecas principalmente, como agentes de pacificación y fuerza
bruta.
Teniendo a la minería como eje de desarrollo de las comunidades recién fundadas se fue tejiendo una
cultura mestiza, ahora disfrutada y padecida por nosotros. Como en toda cultura un sinnúmero de
personajes se pueden mencionar; sin embargo, nos enfocaremos en uno de ellos, el cual tiene qué ver
precisamente con la minería: el gambusino, pero no hablaremos de cualquier gambusino, hablaremos de un
gambusino en particular, aquél al que llamamos el último gambusino.
Este calificativo forma parte de la historia de un hombre excepcional que se nutrió y nutrió nuestra cultura:
Samuel Rodgers Lunn.
Entre sierras y montañas y bajo de un cielo azul
Por callejones y mercados de Guanajuato un hombre delgado de más de sesenta años, ojos demasiado
azules, sobre piel tostada y arrugada, con sombrero, o en casco de minero, y pantalón gastado por el
tiempo, mochila raída en mal estado y abundante barba, acompañado por una perra, representaría un
personaje extraño para los turistas que en frecuentes ocasiones infestan tan extraordinaria ciudad, pequeña,
bella y apacible, para la gente de Guanajuato era una situación común y más común era verlo enfilar sobre
los callejones que conducen al cerro de las ranas, al de los leones, siempre acompañado de su inseparable
perra “Lasagna”, llamada así por él en honor de la pasta italiana que rara vez degustaba pero que disfrutaba
mucho. Los cerros siempre rodearon la vida de Sam, no sólo son parte del escenario guanajuatense.
Hombre de campo y con buena preparación y amplia cultura, igual hablaba de arte que de astronomía, de
historia de México que de historia natural; tuvo por muchos años al cielo como su techo y, su casa, la
plenitud del cerro Tatalayo, ubicado a espaldas de la Bufa en relación a la ciudad y personalizado por su
mojonera de localización “M.L., Don Samuel, 62.00 Has, E-4162, GTO. GTO.” Las condiciones de vida y
trabajo que llevaba no necesariamente comulgaban con las comodidades de la ciudad, esto representa un
80
AÑOS
2343
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
agente de aislamiento, una especie de encuentro de dos mundos extraños entre sí. A pesar de eso, Sam
interaccionaba con la gente, al menos con la gente que le interesaba relacionarse.
A pesar de ser conocido estaban vetadas para él las formalidades de la sociedad. Sus visitas a la oficina, de
uno de los autores de este artículo, tenían que hacerse a regañadientes de secretarias y demás personal,
escurriéndose entre pasillos, máquinas de escribir y computadoras, hasta llegar a nuestro escritorio a
platicar, intercambiar experiencias y comer galletas con café. Como luego dicen, este mundo es pequeño;
veinticinco años atrás Sam, con su misma indumentaria arrastrando las huellas de sus días en el cerro, llegó
a las puertas de la sala magna de la Universidad de Guanajuato, para asistir al examen profesional de uno
de nuestros hermanos, que había estudiado ingeniería de minas en la centenaria escuela de minas de la
universidad guanajuatense, donde por cierto estamos seguros que no era el primer potosino en estudiar en
sus aulas, al menos existe otro personaje: el insurgente potosino Mariano Jiménez quien interrumpió su
profesión para luchar por la independencia de nuestro país. A Sam no le permitieron entrar a la sala,
entonces, bajó por las escaleras del magno edificio y esperó a que las campanas de la Universidad
anunciaran a la ciudad entera que había un graduado más. Sam había acompañado a nuestro hermano de la
manera que se le había permitido. Para Rodolfo fue una ausencia lamentable en la sala, pues había fincado
una buena amistad con Sam y era importante para él que Sam asistiera, posiblemente si no estuviera
ocupado exponiendo su tesis en la sala podría haber logrado que se le permitiera a Sam entrar a la defensa
de su trabajo de tesis sobre minería. Para nosotros que conocimos a Sam algunos o muchos años después,
significó el primer encuentro, a distancia y sin observarnos, con este personaje; nosotros en la sala
presenciando el examen de nuestro hermano y detrás de la puerta, Sam acompañándolo a distancia, pero al
fin de cuenta acompañándolo.
Pero tarde o temprano existen reuniones donde se puede ser el personaje principal, a Sam le tocó en 1989.
Elegante reunión en el Hotel Real de Minas de la ciudad de León, Gto., para presentar un libro de Luz
Marcela Vera intitulado Personajes de Hoy, y claro uno de los personajes era Sam Rodgers. Libro editado
en 1989 donde se presentan 53 entrevistas con personajes variados de la vida artística, cultural, deportiva y
social tanto de México como del extranjero. A Sam lo entrevistaron en 1988 y algunos de los fragmentos
de la entrevista de Marcela Vera son presentados en este artículo. Sam asistió a la reunión con su
indumentaria de siempre, a pesar de la resis tencia de los organizadores, pues era una reunión de etiqueta,
Sam tenía que estar presente, pero tenía que ceder en algo y tuvo que conceder que la Lasagna, su perra, lo
esperara en los jardines del Hotel. Sam aprovechó para socializar un poco y surtirse, para sus días en el
campo, con los elegantes y extravagantes bocadillos que ofrecieron, los cuales colectó en las bolsas de su
ropaje.
¿Reunión de etiqueta? A Sam no le importaban los convencionalismos sociales, ni aún cuando, en cierta
ocasión, fue a recibir el Premio Nacional de Minería en manos del Presidente de la República; su
indumentaria fue la de siempre, la de sus eternos días en el cerro. Si esa indumentaria le cerraba las
puertas, su trabajo y personalidad le abría otras más importantes. Sam nos contaba de aquella ocasión; el
Presidente de la República le felicitaba y entusiasmado le decía que estaba orgulloso de conocer y
estrechar la mano de un verdadero minero.
“Me divierte más el contacto eventual con la gente, que estar constantemente con ellos. Desde chico he
sido solitario. Cuando salía de la escuela, me pelaba al cerro a hacer mi tarea. Nunca me he perdido. Yo me
enfilo en una dirección, y automáticamente voy marcando los lugares por donde paso”. Yo viví en la
ciudad de México cerca de 20 años trabajando detrás de un escritorio. Y no me gusta ser sedentario. Estoy
más a gusto tirado en el cerro. Yo me quedo donde sea. Es más, me he quedado dormido entre el agua…
Una noche me dormí en un banco de arena, cerca de un arroyo, y desperté en la madrugada, medio
mareado. Había subido el agua, y me estaba jalando. Inmediatamente calenté mi café y me lo chupé,
porque soy muy cafetero. Entonces pensé: Si me levanto es para irme al cerro y pasarme el resto de la
noche tiritando de frío. Me puse unas piedras y me volví a dormir. La calma que tengo es porque sé que
esta vida la tengo prestada por un rato. El día que yo nací, en ese momento quedé condenado a morir”.
Como en una inmensa hamaca arrullada por el Sol
Es común generalizar toda actividad “informal” de buscar o extraer minerales por una sola persona como
gambusino, lo cual es un error muy común. En la minería existe una diferenciación para estas actividades,
se habla de buscón, campista, lupio y gambusino. El propio Sam Rodgers explicaba esta diferencia: “El
buscón, como su nombre lo indica es el que entra a la mina a buscar mineral, con permiso del dueño. El
campista es lo mismo que el buscón, pero a él se le asignaba un campo que tenía su propia gente. Una
80
AÑOS
2344
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
compañía dentro de la misma compañía. Al final de la semana salían con su carga con la obligación de
venderle la mitad a la compañía. El lupio es el ladrón de las minas. Que generalmente trabajaba ahí como
peón, y se fijaba dónde había costales de minerales para robarlos. El gambusino busca en el campo una
veta chiquita para explotarla y trabaja nada más para él”.
Esta era básicamente la actividad que desarrollaba nuestro personaje por las sierras y montañas de
Guanajuato, una de las zonas con tradición minera por excelencia. A pesar de que las comunidades de la
zona están orientadas a extraer plata, Sam encontraba oro.
Oro que no detectaban los aparatos de absorción atómica de las compañías mineras, irónicamente Sam le
llamaba “el oro volador” o “copalillo”; cuando separaba y concentraba el oro con su propio método de
beneficio, con equipo diseñado por él y movido según sus palabras “por medio de frijoles” (fuerza
manual), nos lo mostraba, también irónicamente, como un mineral de densidad 19.32 g/cc, similar al oro,
maleable como el oro, dúctil como el oro, color amarillo como el oro pero llamado “ilusión óptica”.
Cuando se trataba el tema con seriedad, Samuel sugería una variedad mineralógica no muy común llamada
“Fischesserita” (Ag3 AuSe2 ); lo que pude con certeza comprobar, mediante un estudio detallado en el
distrito, que el elemento selenio (Se) estuvo presente y asociado con el oro (Au) en las soluciones
hidrotermales mineralizantes que actuaron hace 28 millones de años en la región; lo que da la razón a la
tesis propuesta por Sam.
“Yo saco el oro a la antigüita, lavando y luego con mercurio. La veta que estoy trabajando me da de ocho a
diez gramos de oro por tonelada. Estoy sacando cantidades muy pequeñas, pero me defiendo haciendo
exploraciones para otras personas. Yo soy concesionario de la nación en una superficie de 62 hectáreas”.
El método empleado por Sam para la extracción de oro, realmente era como él lo indicaba, a la antigüita,
pero sobre todo un método implementado por él. Tan efectivo le resultaba que llegó a ser del interés de
compañías mineras.
Tierra de mis amores, tierra bendita, tierra que me vio nacer
Sam Rodgers, aunque su nombre nos podría indicar otra cosa, es mexicano de nacimiento y por sus venas
corre sangre española, francesa, escocesa, irlandesa, suiza y holandesa. Sam nos explicaba su genealogía
con un dejo de orgullo “ Rogerio era el nombre original en España. En el año 860 la familia se fue a
Francia y el nombre se convirtió en Roger. Hacia 1089 emigraron nuevamente a Irlanda, donde nace mi
abuelo William Rodgers. Tengo una abuela sueca del año del caldo. Y la otra fue a Suiza. Mi papá nace en
los Estados Unidos. Los antecesores de mi madre fueron de los primeros colonos de Norteamérica. Mi
padre vino a Guanajuato en 1892 y aquí murió en el 46. Mi mamá es maestra egresada de la Universidad
de Ohio y vino a Guanajuato a dirigir el Colegio Juárez. Cuando yo nací en 1925, ella desempeñaba esa
función”.
“Yo terminé mi secundaria en el Colegio del Estado. Y comencé a estudiar la preparatoria de medicina,
pero a los 17 años me fui a la guerra de voluntario, como enfermero en la infantería de los aliados durante
la Segunda Guerra Mundial. Mi matricula fue 17147115. Fueron 14 meses de combate en Normandía,
Norte de Francia, Alemania y Europa Central. Y ya íbamos al Pacífico a invadir el Japón, cuando se acabó
la guerra con la bomba atómica. Eso me salvó porque yo iba a formar parte de las primeras cinco olas. Las
primeras 10 son 100% bajas”.
“La artillería no distingue cruces, sólo la infantería, porque, los soldados alemanes reconocían que los
enfermeros podían curarlos a ellos. Yo los atendía, sólo que con cuidado porque había soldados que no
estaban tan heridos como parecía, y trataban de matarlo a uno a la hora que nos acercábamos, sobre todo
los de la S.S. famosa, que eran fanáticos. De los 40 enfermeros de mi grupo, yo fui el único que salió vivo.
En mi compañía tuvimos 2700 bajas. Yo soy un tipo con sentido de responsabilidad. Para mí era una
obligación ir, pero fue algo tremendo”.
Allí donde yo amé con febril locura
“Estuve 35 años casado. Con eso ya estuvo bueno. Ya cumplí. Tengo suficiente para esta vida y las dos
siguientes reencarnaciones. Yo solo me cocino. También lavo. Lo único que no me gusta hacer es
remendar”.
Para Sam la única compañía permanente era su perra Lasagna, su inseparable amiga que compartió sus
aventuras y los últimos años de su vida.
80
AÑOS
2345
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
Las noches en el cerro eran compartidas por las estrellas, la Luna, el Universo. Sam gustaba de observar el
cielo con su telescopio y un viejo astrolabio, con los cuales efectuaba observaciones y mediciones de la
salida y puesta de varias estrellas. Frecuentemente nos mostraba su diario con anotaciones referentes a la
posición de una estrella a la cual seguía noche a noche su paso por los cielos guanajuatenses. Sam era un
autodidacta, nunca estudió formalmente minas, ni ninguna otra profesión. Una persona sumamente práctica
e inteligente, su fisonomía engañaba a la gente que no lo conocía, aparentaba ser un vagabundo sin
ambiciones intelectuales. En el cerro tenía su biblioteca, rica y variada, un buen número de libros
colocados en una especie de socabón en el cerro Tatalayo.
Yo solamente quiero un rinconcito para descansar en él
“¿Qué si me han robado? ¿Qué se llevan? Si saben que no tengo dinero. En cambio a Valadez uno de los
más ricos del pueblo lo asaltaron aquí en el callejón de El Campanero. Una vez me preguntaron: ¿De qué
vives? Mi contestación fue: De milagro. Y no ambiciono más. Yo digo que hay que disfrutar esta vida. Me
han contado que en ultratumba se vive muy bien, pero yo no conozco todavía a nadie que me lo venga a
asegurar”.
Sin embargo, había quienes sospechaban, que compartía las riquezas mineras de la sierra guanajuatense, y
que atesoraba gran cantidad de oro que con sus propias manos extraía de las entrañas de la tierra, …y un
día Sam dejó de bajar al pueblo, recorrerlo acompañado de su perra, abastecerse, visitar a sus amigos y
engalanar el escenario de las calles y callejones de Guanajuato. A partir de ese día Sam ya no sería más
parte del escenario, fue encontrado muerto en su campamento, tal vez asesinado para quitarle su supuesta
riqueza; a pesar del destrozo que hicieron a su campamento, la única riqueza que desaparecieron fue que
dejara de existir el último de los gambusinos. Lo acompañamos no más de ocho personas a su última
morada física: la segunda hilera de criptas en la pared surponiente del lúgubre panteón municipal de
Guanajuato.
Solo quedan los recuerdos y el resonar de sus palabras presagiando el final: “La calma que tengo es porque
sé que esta vida la tengo prestada por un rato. El día que yo nací, en ese momento quedé condenado a
morir”.
Noticias de la Ciencia y la Tecnología
Poros magnéticos
Un grupo de investigadores de la Cornell University ha demostrado que el uso de pequeñas partículas de
óxido de hierro incrustadas en las paredes de una estructura de cerámica porosa permite la ordenación
magnética de proteínas. Este tipo de estructuras ayudará, entre otras cosas, a separar proteínas importantes
de fluidos donde se hallen presentes miles de ellas.
La separación de proteínas por tamaños ya hace tiempo que es una realidad. Se fabrican materiales
cerámicos con poros de diámetro nanoscópico, canales de dimensiones comparables a las moléculas
orgánicas, que sólo dejan pasar las proteínas que nos interesan.
Ahora, los científicos han realizado otro paso adelante, incorporando partículas magnéticas de óxido de
hierro en las paredes de las estructuras cerámicas porosas, de manera que puedan ser utilizadas para
separar proteínas etiquetadas con materiales magnéticos, o en procesos catalíticos.
Ulrich Wiesner, profesor de ciencia de los materiales en Cornell, cree que es la primera vez que se
combinan ambos conceptos, tamaño y magnetismo, para separar proteínas. Podría utilizarse, por ejemplo,
para identificar una única proteína entre miles, procedente del suero sanguíneo.
El trabajo de investigación ha sido realizado por Carlos García, Yuanming Zhang, el propio Wiesner y
Francis DiSalvo. El equipo ha creado estructuras porosas mezclando polímeros orgánicos con cerámica.
Bajo las condiciones adecuadas, los materiales se auto-ensamblan formando canales de polímeros rodeados
por el compuesto de cerámica-polímero. La estructura es después "calcinada", o expuesta a calor extremo,
para vaporizar los componentes orgánicos, dejando sólo la cerámica y sus diminutos pasadizos internos.
Controlando el peso molecular del polímero y las cantidades relativas de polímero y cerámica, se controla
el tamaño de los poros. Durante los últimos trabajos, los investigadores han añadido polvo de óxido de
hierro a la mezcla. Cuando el material es calcinado en presencia de oxígeno, el hierro se transforma en
80
AÑOS
2346
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
nanopartículas de óxido de hierro cristalino, la forma "lambda" que posee propiedades magnéticas. Las
partículas, además, son superparamagnéticas, es decir, sus propiedades magnéticas pueden activarse o
desactivarse mediante la aplicación de campos magnéticos externos.
Información adicional en: http://www.news.cornell.edu/releases/March03/ACS.Wiesner.magceramics.ws.html
El eco de una estrella
Un astrónomo del Grupo Isaac Newton (ING), del Observatorio del Roque de los Muchachos (La Palma),
y anteriormente investigador del Instituto de Astrofísica de Canarias (IAC), ha obtenido imágenes
espectaculares de la estrella V838 Monocerotis, de la constelación del Unicornio (Monoceros), con el
Telescopio Espacial "Hubble".
Esta estrella llegó a ser la más brillante de nuestra galaxia cuando explotó a principios del 2002. La imagen
forma parte de un estudio de investigación en el que participan astrónomos de diversas instituciones de
Estados Unidos, de la Agencia Espacial Europea y del Observatorio Astronómico de Padua-Asiago en
Italia, además del ING, y fue publicada en la portada del la revista Nature el 27 de marzo.
V838 Monocerotis estalló en enero del 2002 y en unas pocas semanas su luminosidad aumentó 10.000
veces. La enorme cantidad de energía producida súbitamente por la estrella produjo una enorme burbuja de
luz que se expandía a gran velocidad y fue observada poco tiempo después de que explotara. El fenómeno,
llamado "eco de luz", es un evento extraño que raras veces se da y no está relacionado con las ya conocidas
explosiones de novas. Durante el eco de luz se puede ver directamente el movimiento de la luz mientras
ésta se expande alejándose de la estrella e ilumina toda la materia que encuentra a su paso.
Una de las primeras imágenes detalladas de este eco de luz ya fue obtenida con el Telescopio "William
Herschel", de 4,2 m de diámetro, el 28 de marzo del 2002. Las imágenes tomadas en fechas sucesivas
utilizando el Telescopio Espacial "Hubble" revelaron la expansión del eco de luz, así como también la
compleja estructura del gas y polvo que rodeaban la estrella. La secuencia de imágenes permitió a los
astrónomos medir la distancia a la estrella (aproximadamente 20.000 años luz) y la cantidad de energía
liberada en la explosión.
"En el momento de la explosión -comenta el Dr. Romano Corradi, el astrónomo del ING que participa en
esta investigación-, V838 Monocerotis llegó a ser temporalmente la estrella más brillante entre los 100.000
millones de soles que forman nuestra galaxia, la Vía Láctea. Pensamos que V838 Monocerotis es
actualmente un sistema formado por dos estrellas cuya cercanía es probable que afectara a la evolución de
ambas, conduciéndolas a consecuencias catastróficas como la transferencia de gas de una a otra. Sin
embargo, el origen de la explosión observada en el 2002 es todavía un misterio y se piensa que el caso de
V838 Monocerotis es un nuevo tipo de explosión estelar".
El eco de luz irá desapareciendo lentamente mientras el brillo de la estrella volverá a su valor inicial. Se
prevé que el "eco se oirá" hasta el 2010. Pero, es en este breve periodo de su existencia (pocos años,
comparado con la vida media normal de una estrella, que es de unos miles de millones de años) cuando nos
proporcionará información crucial para entender mejor la vida de las estrellas en el Universo, y cómo
interactúan entre ellas.
El ING es una entidad creada mediante acuerdo entre las siguientes instituciones: Particle Physics and
Astronomy Research Council (PPARC), de Gran Bretaña, Nederlandse Organisatie Voor
Wetenschappelijk Onderzoek (NWO), de Holanda, e Instituto de Astrofísica de Canarias (IAC), de España.
EL ING opera el Telescopio "William Herschel", de 4,2 m, el Telescopio "Isaac Newton", de 2,5 m, y el
Telescopio "Jacobus Kapteyn", de 1 m. Estos telescopios están situados en el Observatorio del Roque de
los Muchachos, en la Palma, perteneciente al IAC. (IAC)
Información adicional en: http://www.ing.iac.es/PR/press/ing22003.html
Polímero biocompatible flexible
Investigadores de la University of California en San Diego han descubierto cómo transferir a un plástico
las propiedades ópticas de los sensores de cristal de silicio, un logro que podría llevarnos al desarrollo de
dispositivos flexibles e implantables capaces de controlar el suministro de fármacos dentro del cuerpo, la
curación de una sutura o la tensión soportada por una articulación debilitada.
El equipo de científicos, liderado por el profesor de química Michael J. Sailor, había creado recientemente
sensores a partir de chips de silicio "poroso" del tamaño de una mota de polvo, capaces de detectar agentes
80
AÑOS
2347
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
biológicos y químicos que podrían estar presentes en un ataque terrorista. Ahora, Sailor y sus colegas han
desarrollado una forma de transferir las propiedades ópticas de tales sensores de silicio a varios polímeros
orgánicos. Hace algún tiempo, se creía que tales propiedades ópticas eran exclusivas de los materiales
cristalinos "nanoestructurados", como el referido silicio poroso.
Lo cierto es que, aunque el silicio tiene muchas ventajas, también tiene sus desventajas. No es muy
biocompatible, no es flexible y puede corroerse. Para aplicaciones médicas, se necesita algo que cumpla
con estos tres requisitos, así que éste ha sido el objetivo del equipo de Sailor.
El método que han utilizado para crear sensores flexibles basados en polímeros se parece al proceso de
inyección para moldeado que los fabricantes usan en la construcción de juguetes de plástico. Los
científicos comienzan tratando una oblea de silicio con un material de grabado electroquímico, para
producir el chip de silicio poroso que contiene una sucesión de agujeros de tamaño nanométrico. Esto
proporciona al chip las propiedades ópticas de un cristal fotónico, un cristal con una estructura periódica
que puede controlar de forma precisa la transmisión de luz, tal y como un semiconductor controla la
transmisión de electrones.
A continuación, los investigadores vierten plástico fundido en los agujeros del chip fotónico de silicio
poroso. El molde del chip de silicio acabará disolviéndose, dejando tras de sí una "réplica" biocompatible y
flexible del chip poroso.
Sus propiedades permitirán que un médico pueda ver directamente si las suturas biodegradables utilizadas
para coser una incisión se han disuelto o no, si una articulación recientemente implantada aguanta la
tensión, o si un fármaco en un polímero biodegradable es suministrado correctamente en el cuerpo del
paciente. Esto es posible porque las propiedades del silicio poroso permiten ajustar los sensores para
reflejar en una amplia gama de longitudes de onda, algunas de las cuales no son absorbidas por el tejido
humano.Información adicional en: http://ucsdnews.ucsd.edu/newsrel/science/mcpolymer.htm
Nuevo tipo de agujero negro
Los científicos han conseguido nuevas evidencias que apuntan hacia un nuevo tipo de agujero negro,
cientos de veces más masivo que la variedad estelar y miles de millones de veces más pequeño que los
agujeros supermasivos que se hallan en el centro de los cuásares.
El equipo de investigadores, liderado por Jon Miller, del Harvard-Smithsonian Center for Astrophysics
(CfA), ha logrado discernir el gas situado en las inmediaciones de dos de estos agujeros negros de masa
"intermedia", material que acabará cayendo sobre ellos. Utilizando el observatorio europeo espacial XMMNewton, sensible a los rayos-X, midieron la temperatura de este gas y consiguieron obtener la estimación
más precisa hasta la fecha de la masa del objeto central.
Pero si bien las pruebas señalan que estos agujeros negros realmente existen, el verdadero misterio sigue
siendo averiguar cómo se han formado. Los agujeros negros son objetos tan densos y con una gravedad tan
potente que nada, ni siquiera la luz, puede escapar de ellos si se aproxima demasiado. Los agujeros negros
son invisibles, aunque el gas y polvo que cae sobre ellos formando un disco en espiral resultan calentados a
altas temperaturas, por lo que brillan furiosamente.
Los científicos están de acuerdo en que existen al menos dos clases de agujeros negros: los estelares, con
una masa de hasta 10 soles como el nuestro, y que son los restos de estrellas masivas cuyos núcleos
colapsaron; y los supermasivos, que contienen el equivalente a entre millones y miles de millones de masas
solares, confinadas en una zona no mayor que nuestro sistema solar. Se forman en inmensas nubes de gas y
se cree que residen en los núcleos de la mayoría de galaxias.
No hay tanto acuerdo sobre la existencia de los agujeros negros de masa intermedia, aunque las últimas
pruebas así parecen sugerirlo. Miller y sus colegas examinaron un par de objetos de este tipo en la galaxia
espiral NGC 1313, situada a 10 millones de años-luz de la Tierra. Una de las fuentes (X-1) se encuentra a
unos 3.000 años-luz del centro galáctico, mientras que la otra (X-2), está a 25.000 años-luz. Las
observaciones del XMM-Newton se han concentrado en averiguar la temperatura del gas que orbita a su
alrededor, formando el llamado disco de acreción.
La zona más interna del disco es la más caliente, brillando sobre todo en la región de los rayos-X. Jon
Miller cree que X-1 y X-2 deben tener unas 100 masas solares, aunque podrían alcanzar entre 200 y 500
masas solares. Para su formación, los astrónomos barajan diversas posibilidades: colisiones directas y
fusiones con otras estrellas dentro de cúmulos globulares; el colapso de estrellas extremadamente masivas
que habrían existido al principio del universo; y la unión de agujeros negros más pequeños. Cada escenario
tiene sus puntos débiles y fuertes. Información adicional en: http://cfa-www.harvard.edu/press/pr0309.html
80
AÑOS
2348
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
Ropa extrema
Tanto si nos encontramos en la Antártida como en medio de un incendio, podemos sentirnos confortables y
seguros, siempre y cuando utilicemos la ropa adecuada. Ello ya es posible gracias a la tecnología
originalmente desarrollada para proteger a los astronautas en el espacio.
Lo podemos comprobar si visitamos la feria internacional Techtextil, que se celebra en Frankfurt, del 8 al
10 de abril. Múltiples empresas muestran en este certamen sus novedades, tanto de diseño como
tecnológicas.
Algunas de las innovaciones presentadas son muy interesantes. Por ejemplo, la compañía italiana Corpo
Nove ha fabricado una chaqueta ligera bautizada como "Cero Absoluto", que mantiene confortablemente
caliente a quien la utiliza, incluso cuando la temperatura exterior se halla a -50 grados Celsius. Ya ha sido
probada con éxito en diversas expediciones a la Antártida. Su secreto reside en una capa de 3 mm de
grosor hecha con un material súper-aislante llamado Aerogel. El Aerogel, basado en sílice, contiene un 98
por ciento de aire y es casi transparente.
En el otro extremo, Karada Italia, junto al diseñador de Hugo Boss, Mauro Taliani, han preparado ropa
interior dotada de un sistema de refrigeración que permite que los mecánicos de la escudería McLaren de
F1 se mantengan seguros aún trabajando en condiciones de altas temperaturas, e incluso frente al fuego. La
ropa posee 50 metros de tuberías de 2 mm de diámetro, por las que circula un líquido refrigerante.
La empresa española Zodiac ha diseñado un sistema parecido, que la policía londinense podría adoptar. Se
llevaría debajo de las pesadas chaquetas antibalas.
Los zapatos también tienen su lugar entre la alta tecnología textil. Una compañía está colaborando con la
Agencia Espacial Europea para fabricar una suela que varía su dureza en función del suelo que pisemos,
amortiguando de manera adecuada los impactos sobre el pie. Se emplea para conseguirlo un material fluido
llamado MR (magneto-reológico), diseñado originalmente para amortiguar vibraciones. Puede pasar de
sólido a líquido y viceversa mediante la aplicación de un campo magnético.
Verhaert Design y la University of Brussels, por su parte, han presentado una serie de pijamas equipados
con sensores que permitirán a los bebés (y a sus madres) dormir con mayor tranquilidad. Los sensores
controlan las constantes del niño y son capaces de avisar si hay peligro de que se presente el llamado
síndrome de la muerte súbita.
Información adicional en: http://www.esa.int/export/esaCP/SEMW659YFDD_Benefits_0.html
Interruptor molecular
Utilizando una técnica de laboratorio llamada inserción de dominio, dos investigadores de la Johns
Hopkins University han unido dos proteínas de forma que juntas forman un "interruptor" molecular. El
resultado es una relación microscópica en la que un miembro controla la actividad del otro.
Proteínas emparejadas de esta forma, algún día, podrán ser utilizadas para producir moléculas
especializadas que suministren fármacos letales exclusivamente a las células cancerosas. También podrían
ser utilizadas para dar la señal de alarma ante la presencia de un agente de guerra biológica.
Marc Ostermeier y Gurkan Guntas han tomado dos proteínas que normalmente nada tienen que ver entre
sí, las han unido genéticamente, y han obtenido como resultado una proteína final en la que los dos
componentes se "hablan" el uno al otro. Más importante aún, cada uno de estos componentes es capaz de
modular o controlar la actividad de su compañero. Las proteínas utilizadas han sido la beta-lactamasa y la
MBP (maltose binding protein). La primera es un enzima que puede desactivar y degradar los antibióticos
como la penicilina, mientras que la segunda es una proteína que se une a un tipo de azúcar llamado
maltosa, utilizado por la bacteria E. coli como alimento.
Utilizando la técnica llamada inserción de dominio, los investigadores colocaron genes de beta-lactamasa
dentro de genes para la proteína que se une a la maltosa. El proceso se realizó en un tubo de ensayo, en
numerosas ocasiones, y supuso la obtención de múltiples proteínas fusionadas. Sólo un pequeño número de
ellas, cuya identificación fue sencilla, se comportarían como un interruptor molecular.
Los científicos creen que si este proceso puede aplicarse a otras proteínas, se podrán crear agentes
biológicos que no existen en la naturaleza y que podrían tener interesantes aplicaciones. Por ejemplo, una
parte de una proteína fusionada podría reaccionar sólo contra las células cancerosas, avisando a su
compañera para que libere una toxina ideada para matar el tejido enfermo. Las células sanas, sin embargo,
no activarían el "interruptor" y no resultarían afectadas.
80
AÑOS
2349
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
En otra aplicación, una parte de la proteína fusionada podría reaccionar ante la presencia de un agente
biológico peligroso, ordenando a su compañera que active un brillo fluorescente que alertaría a las
personas expuestas al ataque terrorista.
Información adicional en: http://www.jhu.edu/news_info/news/home03/mar03/molecule.html
La sequía y los mayas
Un nuevo análisis de muestras de sedimento procedentes del sur del Caribe indica que la región sufrió un
período de severa sequía que se prolongó durante aproximadamente dos siglos. El citado período coincide
con las fechas del colapso de la civilización maya. La situación meteorológica pudo influir de forma
decisiva en la desaparición de este pueblo.
El estudio ha sido realizado por Gerald Haug, del Geoforschungszentrum alemán, en colaboración con
Konrad Hughen, de la Woods Hole Oceanographic Institution, y otros colegas. Los sedimentos se
obtuvieron en Cariaco, en el norte de Venezuela, y muestran que la sequía afectó a la zona a partir del siglo
VII de nuestra era, y que se prolongó durante más de 200 años.
Los científicos analizaron básicamente la concentración de titanio en los sedimentos. La presencia de esta
sustancia varía en función de la actividad de los ríos y las lluvias, de modo que una menor cantidad de
precipitaciones implica menos titanio en los sedimentos. Los que se analizaron pertenecen al período que
va de los años 750 a 950, durante el cual la civilización clásica maya entró en declive en las tierras bajas de
la península del Yucatán. Los datos indican una clara conexión entre la cronología de las sequías en la
región y la desaparición de esta cultura.
Se han datado sequías de varios años alrededor del 810, 860 y 910 después de Cristo. Los investigadores
creen que estas situaciones llevaron al límite los recursos hídricos de la zona, impidiendo el sostenimiento
de la civilización. Los mayas habían florecido durante todo un milenio, alcanzando una población máxima
de aproximadamente un millón de personas. Construyeron pirámides y ciudades complejas, con sistemas
de irrigación. Pero dependían de las lluvias estacionales para su agricultura. Aunque algunas de sus
ciudades fueron repobladas en varios momentos, la mayoría fueron abandonadas en el siglo IX.
Las evidencias arqueológicas muestran que las comunidades mayas del sur y el centro de las tierras bajas
colapsaron antes. Más al norte, las poblaciones aguantaron otro siglo más, quizá porque tenían acceso a
recursos hídricos subterráneos. Finalmente, no pudieron sobrevivir a la sequía.
Los paleoclimatólogos han acumulado durante los últimos años una gran cantidad de registros climáticos
que coinciden con el pasado cercano de la his toria humana (varios miles de años), lo que está permitiendo
conocer mejor las circunstancias de la aparición y caída de las civilizaciones. Para ello se utilizan análisis
de sedimentos, muestras de hielo, anillos de troncos de árboles, etc.
Información adicional en: http://www.gfz-potsdam.de/welcome_en.html
La importancia de la geocriología
El estudio del permafrost (o permagel) se está convirtiendo en un área de investigación cada vez más
interesante en el campo de la ciencia del cambio climático. Científicos como Frederick E. Nelson opinan
que la geocriología nos ayudará a entender mejor el pasado climático de la Tierra y quizá también el
futuro.
Nelson, de la University of Delaware, ha realizado estudios del permafrost en el Ártico durante varios
años. Este campo de investigación, sin embargo, no es totalmente moderno. En 1838, un académico ruso
explicó frente a la Royal Geographical Society de Londres que el suelo en la Siberia central se mantenía
congelado hasta una profundidad de más de 100 metros.
Este sorprendente anuncio fue interpretado como una exageración, y no sería hasta el siglo XX que la
geocriología apareció como una ciencia con entidad propia, con conexiones con la geografía, la geología,
la ingeniería, la hidrología y la ecología. Ello ocurrió después de que la Unión Soviética hubiera ganado
una amplia experiencia en la construcción de edificaciones sobre suelo helado.
En los años 90, la geocriología emergió como un importante componente de los estudios sobre el cambio
climático, ya que la distribución, grosor, temperatura y estabilidad del permafrost se ven determinados en
gran medida por la temperatura en la superficie terrestre, a su vez dependiente del clima y sus variaciones.
El permafrost, definido como los materiales subterráneos que permanecen congelados durante dos o más
años, juega tres papeles esenciales en la ciencia del cambio climático. En primer lugar, preserva un registro
80
AÑOS
2350
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
de cambios de temperaturas en la superficie del planeta, actuando como un archivo de datos. Si
practicamo s agujeros para extraer muestras cilíndricas de permafrost, podremos definir los cambios de
temperatura sufridos por el suelo durante cientos de años.
En segundo lugar, el permafrost traduce los efectos del cambio climático, impactando sobre los
ecosistemas naturales y las infraestructuras humanas. En algunas zonas, por ejemplo, sobre todo allí donde
la capa de permafrost es delgada, los cambios de temperatura y el calentamiento pueden convertir una zona
boscosa en un pantano. El deshielo puede asimismo derribar edificaciones, al perder consistencia los
cimientos.
El tercer papel del permafrost es facilitar el futuro cambio climático. En sus capas superiores se almacenan
cantidades sustanciales de carbono orgánico. Si el deshielo anual se incrementa, parte de este carbono
puede escapar a la atmósfera en forma de CO2 y metano, intensificando el calentamiento del clima.
Las regiones con permafrost ocupan una cuarta parte de las tierras emergidas. Entre ellas, las zonas polares
y las montañas altas mantienen el suelo permanentemente congelado. También podría existir un permafrost
submarino, alrededor de los márgenes del océano Ártico.
Información adicional en: http://www.udel.edu/PR/UDaily/2003/permafrost032103.html
Dinosaurio caníbal
La exótica isla de Madagascar, situada frente a la costa sudeste de África, fue un lugar peligroso hace entre
65 y 70 millones de años. Los cocodrilos reinaban en los ríos y un dinosaurio carnívoro de 10 metros de
largo, llamado Majungatholus atopus, se movía por las planicies. El menú de este último, sin embargo, era
un misterio hasta ahora.
En un informe publicado en la revista Nature, Raymond Rogers, del Macalester College, y sus colegas
David Krause, de la State University of New York en Stony Brook, y Kristina Curry Rogers, del Science
Museum of Minnesota, afirman que el Majungatholus era caníbal, y que por tanto se alimentaba
regularmente de los miembros de su propia especie. En algunos momentos, también comía de los restos de
otros dinosaurios, incluyendo un saurópodo de cuello largo llamado titanosaurio.
Las investigaciones de Rogers y sus compañeros documentan por primera vez de manera clara la
existencia de canibalismo entre algunos dinosaurios. Las pistas para llegar a esta conclusión proceden de
unas marcas muy concretas (como las que produce un perro en un hueso), encontradas en huesos fósiles de
Majungatholus y que delatan por su aspecto que otro Majungatholus fue el responsable.
La evidencia no tiene precedentes. Se han examinado literalmente miles de huesos de dinosaurios de todo
el mundo y ninguno presenta marcas de mordeduras practicadas por miembros de su misma especie.
Antes de dar a conocer su veredicto, Rogers y sus colegas comprobaron si las marcas podrían haber sido
practicadas por otros animales que vivían en el mismo ambiente que el Majungatholus, como un par de
cocodrilos y un dinosaurio carnívoro más pequeño llamado Masiakasaurus knopfleri. Pero sólo el
Majungatholus poseía los dientes y las mandíbulas adecuadas para infligir el daño observado.
El canibalismo tiene mala prensa, sobre todo si es humano, pero no debe sorprendernos el hecho de que
existiese entre los dinosaurios terópodos. Aún hoy en día es una estrategia de alimentación que practican
muchos animales (desde insectos a leones). Las razones pueden ser ecológicas y evolutivas.
Se sabe de otro caso de posible canibalismo en un dinosaurio llamado Coelophysis bauri, del período
triásico, en cuyo fósil se encontraron, en la zona estomacal, huesos de miembros juveniles de su especie,
pero el hecho no ha podido ser probado con total certeza.
Los tres científicos han estudiado los restos de dos Majungatholus. Ambos presentan marcas de dientes,
aunque no es posible saber si fueron muertos por otro Majungatholus o si éste se limitó a devorar sus
cuerpos al encontrarlos sin vida. Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0336.htm
¿Un segundo Nilo?
El agua, después del petróleo, podría ser el próximo centro de disputas en Oriente Medio. Para evitarlo, y
con un mínimo de intervención humana, la naturaleza podría crear un segundo río Nilo.
Mohamed Sultan, geólogo de la State University of New York en Buffalo, opina que pronto presenciaremos
los primeros problemas entre los países que se encuentran en las regiones áridas o semi-áridas del planeta.
El Oriente Medio es una zona especialmente volátil en este sentido, ya que los habitantes de algunas
naciones han empezado a cambiar la forma en que explotan su suelo, transformando el desierto para su uso
80
AÑOS
2351
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
agrícola. Ello está requiriendo una utilización intensiva del agua dulce disponible en la superficie, así como
de los acuíferos. Ya en septiembre de 2002, el Líbano e Israel podrían haber entrado en guerra debido a un
conflicto por los derechos del agua que ambos extraen del río Jordán. Al mismo tiempo, tanto Israel como
los territorios palestinos de la franja de Gaza bombean agua de un reservorio peligrosamente agotado, una
situación que podría hacer estallar otra disputa entre las dos facciones. Además, Egipto, Sudán, Libia y el
Chad extraen agua no renovable del enorme acuífero nubio, en una zona donde apenas llueve y el clima es
cada vez más árido. Cuando escasee, ¿quién tendrá más derechos sobre lo que quede?
Para resolver estos problemas, la ciencia deberá encontrar formas alternativas de obtención de agua. Una
posibilidad son los canales, como la primera fase del Tushka, en Egipto, que costará unos 3.000 millones
de dólares y permitirá sacar agua del lago Nasser. Este lago es artificial, fue creado en los años 60 por la
presencia de la presa de Aswan, ideada para controlar las crecidas del Nilo y generar electricidad.
Uno de los problemas del canal de Tushka es que será necesaria mucha energía para bombear el agua del
Nasser hacia zonas altas. Por eso, Sultan propone dejar actuar a la naturaleza y elegir otras zonas agrícolas.
Por ejemplo, con el paso del tiempo, el lago Nasser está volviéndose más hermético y su agua ya no se
filtra sino que supera sus orillas, extendiéndose cada vez más lejos y pasando de depresión en depresión.
Durante los últimos 40 años, se han creado así otros cinco lagos al este del Nasser. El flujo sobrante ya es
tan importante que con el paso de los años podría convertirse en un segundo río Nilo, que avanzaría hacia
el oeste, en paralelo al valle del Nilo. Acabará llegando al Mediterráneo, pero aún tardará mucho en
conseguirlo. Si el hombre colaborara un poco, el proceso se aceleraría y habría agua para otras zonas a un
coste inferior a lo que los proyectos hidrológicos como el Tushka sugieren.
Información adicional en: http://www.buffalo.edu/news/fast-execute.cgi/article-page.html?article=61610009
Breves del Mundo de la Ciencia
LA ESTACIÓN SISMOGRÁFICA MÁS TRANQUILA: Un nuevo observatorio sismográfico instalado en
la Amundsen-Scott South Pole Station, en pleno polo sur, en la Antártida, es el más sensible y tranquilo de
todo el planeta, perfecto para detectar terremotos muy débiles o producidos en cualquier lugar del mundo.
NUEVA RUTA HACIA EL CÁNCER: Unos investigadores han descubierto un mecanismo
completamente nuevo que genera genes que causan cáncer, al estudiar cuidadosamente el motivo por el
cual un raro trastorno sanguíneo responde a la droga anticancerígena Gleevec.
CONTRA LAS ADHERENCIAS MARINAS: Investigadores de Cornell han desarrollado una pintura que
impedirá que los cascos de los barcos se cubran de bacterias, algas y percebes.
LOS AGUJEROS NEGROS SON REALMENTE AGUJEROS: U objetos sin superficie, explican los
astrónomos Christine Done y Marek Gierlinski, en un reciente artículo publicado en Monthly Notices, de la
Royal Astronomical Society.
UN DISPOSITIVO SIMPLE HACE QUE LA LUZ VAYA MAS LENTA: Nada puede ir más rápido que
la luz, según predijo Einstein, pero si la ha hecho pasar por un sencillo dispositivo desarrollado en la
University of Rochester, incluso un coche deportivo la podría superar.
ENSAYANDO EL ROBOT MARCIANO: Un equipo de científicos de la NASA y de la Carnegie Mellon
University ha viajado a Chile, al desierto de Atacama, para ensayar los sistemas y el funcionamiento de un
prototipo de robot que algún día podría viajar a Marte en busca de rastros biológicos.
ESTALLIDO GAMMA MUY BRILLANTE Y CERCANO: El 29 de marzo, el Universo nos obsequió
con uno de los estallidos de rayos gamma más brillantes y próximos que se han registrado.
MOMENTO CRUCIAL EN LA EVOLUCIÓN VEGETAL: Si las plantas primitivas no hubieran migrado
de los mares poco profundos a los continentes de la Tierra temprana, la vida como la conocemos quizá
nunca hubiera aparecido. Ahora, además, parece que esta colonización masiva de las tierras emergidas fue
posible gracias a una única mutación genética.
LA EVOLUCIÓN DEL VIRUS DE LA GRIPE: A medida que agencias de la salud de todo el mundo se
apresuran a identificar la causa del síndrome respiratorio agudo severo (SRAS), unos investigadores
informan sobre el éxito obtenido al desarrollar un nuevo modelo teórico que muestra la forma en la que la
presión ejercida por la respuesta inmunitaria de una población infectada con el virus de la gripe puede
impulsar la evolución del mismo.
80
AÑOS
2352
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 198/457
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
PROBLEMAS DEL CONOCIMIENTO
El conocimiento no dejará nunca de constituir un problema. Ese vínculo del hombre con
el universo se nos presenta, en su mediatez, como una relación misteriosa. Ya sea desde
el punto de vista idealista, ya del materialista, desde la perspectiva de la vida cotidiana o
desde las teorías científicas más avanzadas, el hombre ha tratado a través de la historia de
responder a esa cuestión fundamental. ¿Qué es el conocimiento? Curiosa interrogación si
consideramos que es desde el propio conocimiento que preguntamos por el
conocimiento. A veces llegan a confundirse las condiciones del conocimiento con la
naturaleza del conocimiento. Cuando Marx afirma que no es la conciencia la que
determina la vida, sino la vida la que determina la conciencia, no hace otra cosa que
sintetizar magistralmente la afirmación de la primacía de las condiciones materiales de la
vida sobre las ideas. Con ello sólo apunta hacia las condiciones para que surja el
conocimiento, no a su naturaleza.
Los cosmólogos contemporáneos, esos grandes metafísicos, nos sorprenden ahora con un
principio sintético de gran alcance; una gran herejía, según los supremos sacerdotes de la
ciencia moderna. Existe, dicen los cosmólogos, un principio fundamental para explicar el
universo: el principio antrópico. Este principio puede resumirse en la frase: “Las cosas
son como son porque existimos nosotros”.
Según una de las versiones de este principio, “existe una gran cantidad de universos
diferentes y separados”, dice el respetable físico teórico S. Hawking. Además afirma que
Cada uno ellos de presenta distintos valores en sus parámetros y en sus
condiciones iniciales. En la mayor parte de estos universos no se dan las
condiciones adecuadas para el desarrollo de la vida inteligente.
Sin embargo en un pequeño número de ellos podrían existir condiciones y
parámetros similares a los de nuestro Universo. En esos mundos sería posible
el desarrollo de formas de vida inteligente capaces de plantearse la pregunta
de por qué el Universo es tal como lo observamos. La única respuesta sería
que, si fuera de otra forma, no habría nadie que pudiera hacerse esa pregunta.
(Stephen Hawking, El universo de Stephen Hawking, Salvat, México, 1986.)
Sorprendentemente, este principio nos ayuda a explicar muchas de las interesantes
relaciones numéricas que se observan entre los valores de diferentes parámetros físicos.
El principio antrópico seguramente inquietará a materialistas e idealistas por igual. Pero
calma señores, ¿qué fue primero, el huevo o la gallina? Ni el uno ni la otra. La
Enciclopedia de la ignorancia ilustra gráficamente el principio antrópico como un
universo en el que brota un gran ojo que lo contempla. El universo observándose a sí
mismo.
Al conferirle significado al Universo, el observador se confiere significado a sí mismo,
como parte de ese Universo. En tal concepto entra la serie interminable de reflejos que
retroceden, que pueden verse en un par de espejos frente a frente. En este sentido
estamos tratando con la “cosmogonía de autoferencia”.
¡Oh Parménides! ¡Oh Berkeley!
80
AÑOS
2353
AUTONOMÍA
UNIVERSITARIA
XXI FIS-MAT
UASLP CIMAT UAZ
UGTO APDC
Miguel Angel Herrera Andrade
La Universidad Autónoma de San Luis Potosí, a través de la Facultad de Ciencias, El Centro de
Investigación en Matemáticas de Guanajuato, La Unidad Académica Secundaria de la Universidad
Autónoma de Zacatecas, La Facultad de Matemáticas de la Universidad de Guanajuato y la Academia
Potosina de Divulgación de la Ciencia
convocan al
XXI CONCURSO REGIONAL DE FISICA Y MATEMATICAS
Miguel Angel Herrera Andrade
BASES:
1.- Podrá participar cualquier estudiante de sexto año de primaria, secundaria y preparatoria de cualquier
Estado de la República Mexicana.
2.- Cada participante podrá concursar en Física y/o Matemáticas; y dependiendo de su escolaridad, en las
categorías: primaria, secundaria o preparatoria. En la categoría de primaria el concurso es en Ciencias
Naturales y Matemáticas.
3.- El concurso consistirá de un examen escrito que se celebrará, para Física el 6 de junio de 2003, para
Matemáticas el 7 de junio de 2003 y para Ciencias Naturales y Matemáticas el 7 de junio de 2003.
4.- El examen se efectuará simultáneamente en las siguientes plazas: Cd. Valles, SLP; Rioverde, SLP;
Matehuala, SLP; San Luis Potosí, SLP; Guanajuato, GTO y Zacatecas, ZAC.
5.- Las inscripciones quedan abiertas a partir de la presente y se cierran el 4 de junio de 2003. Tendrán un
costo de $30 (Treinta pesos) por concurso.
6.- Deberán presentar su credencial y su ficha de inscripción el día del examen. Requisito indispensable.
7.- Se premiará a los tres primeros lugares de cada categoría, tanto en Física, Matemáticas como Ciencias
Naturales y Matemáticas (cinco concursos), de acuerdo a la bolsa recolectada en las inscripciones.
8.- Los resultados se publicarán el 21 de junio de 2003, indicándose el lugar y la fecha de premiación. El
jurado calificador estará formado por físicos y matemáticos. Su fallo será inapelable.
9.- Cualquier punto no previsto en esta convocatoria será resuelto por el Comité Organizador.
10.- Informes e inscripciones:
San Luis Potosí, S.L.P.
Facultad de Ciencias
Universidad Autónoma de SLP
Zona Universitaria
Tel/Fax (444) 8 26 23 19
(444) 8 26 23 21
Guanajuato
Francisco Mirabal García
Cen. de Invest. En Matemáticas
Callejón Jalisco s/n, Valenciana
Tel. (473) 7 32 71 55,
Fax (473) 7 32 57 49
Zacatecas
Sergio Valadez Rosas
Ma. Trinidad Romo Guerrero
Unidad Académica Secundaria
de la UAZ
Antonio Dovalí Jaime s/n
Tel/Fax (492) 9 22 98 64
Matehuala, S.L.P.
José Francisco Rocha Anguiano
Escuela Preparatoria de
Matehuala-UASLP
Paseo Angel Veral s/n
Tel. (488) 8 82 01 06
Fax. (488) 8 82 32 91
Rioverde, S.L.P.
Ramón Gerardo Recio Reyes
UASLP-Zona Media
Km 4, Carr. Rioverde.-S. Ciro
Tel/Fax (487) 8 72 14 99
8 27 50 99
Ciudad Valles, S.L.P.
Hilda Santiago Rodríguez
Patricia Compean
Carr. Valles-Tampico Km. 35
Tel. (481) 3 81 23 48
Fax. (481) 3 81 23 49
80
AUTONOMÍA
AÑOS UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.199, 28 de abril de 2003
No. acumulado de la serie: 458
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Aquí nos tocó vivir....
... programa conducido por Cristina
Pacheco cumple 25 años de transmitirse
por el canal 11 del IPN. Al igual que el
programa Conversando con... Cristina
Pacheco, los programas constituyen un
agradable ejemplo de que es posible
realizar televisión comercial que aporte a
la cultura y entretención del gran
público, contrastando con el tipo de
programas de chismes y contenido vano
que caracterizan a los fuertes consorcios
televisivos por todos conocidos.
Felicitamos a Cristina Pacheco y al canal
11 por este aniversario.
Cristina Pacheco nació en San Felipe
Torresmochas, Guanajuato, en donde las
mujeres tienen fama de ser calzonudas,
vivió un tiempo en San Luis Potosí para
posteriormente trasladarse a la ciudad de
México. Cristina Pacheco es esposa del
escritor José Emilio Pacheco
El Hijo de El Cronopio No. 199/458
Filones de Historias Mineras/
La señal
Rodolfo, el superintendente de la mina, se aprestaba a apurar los trabajos de los mineros
que estaban a punto de cambiar de turno. El cambio se retrazo pues una de las cuadrillas
encontró un quedado y se dedicaron a detonarlo. Rodolfo sintió el estruendo y abriendo
la boca para permitir salir el aire de sus pulmones se dirigió al socavón retirándose los
tapones de oído, en el que taladraban el Beto y Juan.
-Listo muchachos, vámonos
-ta’güeno ingeniero, no se le olvide que mañana le toca traer los tacos
-Claro, le diré a Conchita que me prepare unos cuantos, como quiera te traes los de
frijoles con huevo
Los mineros se enfilaban al malacate esperando su turno de salida. Rodolfo checaba los
trabajos que hacían en el nuevo túnel en la veta de plata que hacía dos meses acababan
de encontrar.
El socavón se encontraba cerca de la zona vieja de la mina que tenía más de cien años de
no laborarse. Zona prohibida para circular debido a su peligrosidad.
Rodolfo dio una última vuelta checando no quedara ningún minero. Después de apurar al
Luis a que subiera al malacate, alcanzó a distinguir una tenue luz en la zona vieja de la
mina. Se acercó a la zona y notó que la luz le hacía las señas de auxilio y le pedía que lo
siguiera.
Rodolfo se encaminó a la zona y se introdujo por los estrechos túneles de esas antiguas
labores. Esa luz se vio ahora con claridad; definitivamente algo andaba mal. El portador
de la luz de la lámpara de carburo le indicaba, con las típicas señas de auxilio, que lo
siguiera. Dos tres señas en vaivén indicando la dirección del problema. Rodolfo seguía
atravesando túneles que nunca había andado. Comenzaron a encontrar bifurcaciones y la
luz no dejaba alcanzarse; cada que llegaba a uno de los puntos en los que la luz se
detenía para indicarle que lo siguiera, la luz, más adelante aún, volvía a dirigirse hacía él
indicándole que lo continuara siguiendo.
El de la luz, si bien daba correctamente las señas, no cumplía con el protocolo, pues no
esperaba en el punto de señalización, sino continuaba caminando e insistiendo con sus
señas a que lo siguiera Rodolfo. El superintendente veía como a lo lejos aquella lámpara
de carburo iluminaba el perfil del túnel y lo estrecho de éste, inclusive en algunos
momentos tenían que agacharse prácticamente arrastrarse por el suelo para continuar su
camino. Aquello era casi una persecución, que se tornaba más peligrosa. El camino se
complicaba. El abandono y lo precario de la tecnología de siglos pasados amenazaba.
No podía ser, pensaba Rodolfo, además de estar prohibido y los mineros saber que
internarse en aquella zona era atentar contra su vida, la distancia que habían caminado
era demasiada. -Esto no puede ser, pensó y comenzó a sospechar de la experiencia. –
Podría ser el Jergas, se dijo para sí. De ser el Jergas tendría que ser el malo, aquel que
embarca a sus víctimas y las pierde entre las minas, pues toda aquella zona vieja había
sido ampliamente explorada y llegado a su límite de explotación.
80
AÑOS
2356
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
De pronto recordaba todas esas leyendas en las que el Jergas, con hechos inexplicables,
orientaba a los mineros en zonas donde eventualmente se encontraban vetas ricas en
metales, principalmente oro y plata. Además se encontraban cerca de las minas del Real
de Catorce; tierra del Jergas.
Al ver que se repetían las reiteradas señas para intrincarlo más aún en aquellos olvidados
túneles, decidió regresar; no sin problemas, pues no conocía el camino más que lo recién
andado. Por no dejar, en cierto punto de su regreso volvió la mirada y se percató de que
aquella luz seguía llamándolo, pero había retrocedido, pues se encontraba a la misma
distancia de separación. En ese momento comprendió que la lámpara de carburo, quizá
portada por el Jergas siempre se mantuvo a la misma distancia y ahora que regresaba
continuaba estando a la misma distancia e insistiéndole que lo siguiera.
Por fin abandonó la zona vieja y prohibida, se encontraba en el socavón y los mineros del
nuevo turno se aprestaban a iniciar sus labores.
-Buenas mi inge, ¿qué hace sólo por acá, allá afuera lo esperan.
-Nada Raúl, sólo checando la perforación que hacen estos nahuales. ¿Todo bien por
allá?.
-Seguro. ¿Por qué pregunta?. Por Nada, nomás por preguntar. Bueno, pues échenle
ganas. ¡Ah! Y recuerden que por ningún motivo, no importa lo que pase, deben de
atravesar a la zona vieja.
-Claro que no, sino estamos tan güeyes.
-¡Nahuales!, alcanzó a decir Rodolfo mientras se dirigía al malacate.
-¿Qué pasó mi fito?, le dijo el malacatero, ya tenía preocupada a la gente.
-Sólo checando que estos nahuales hayan dejado correctamente la perforación para el
pegue.
Al salir sintió el quemante sol de agosto que a pesar de ser las seis de la tarde aún suele
sentirse en esa altiplanicie del Mineral de Tierras Pietras, enclavado en la sierra del
estado de San Luis Potosí, antesala del desierto de Chihuahua. Sólo la altura del mineral
hacía llevadero el clima.
A pesar de ello comenzó a sentir el sudor frío, aunque sin inmutarse, al sentir la
posibilidad de haberse encontrado con el Jergas. Su experiencia con hechos un tanto
sobrenaturales le daban aquella aparente tranquilidad que sólo él por dentro estaba
sufriendo.
Comprobó que todos y cada uno de los mineros que cambiaban de turno se encontraban
en superficie. No faltaba nadie. Todos habían subido por el malacate y a esas horas se
encontrarían en sus casas o en sus cuartos designados descansando o tomando en la
cantina del pueblo.
El recalentado de Conchita, la cocinera del comedor de la mina, lo reanimó, se retiró del
comedor sin olvidar encargar un itacate de tacos para compartirlos al otro día con el Beto
y Juan en el descanso diario para el lonche. Al salir del comedor sintió una extraña
invitación a voltear a la cocina del comedor, como esperando ver de frente al Jergas y no
sentir su fría distancia que momentos antes inundó su ser en el interior de la vieja mina.
80
AÑOS
2357
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
Noticias de la Ciencia y la Tecnología
Regulación de la temperatura corporal
La temperatura del cuerpo podría mantenerse regulada gracias a una conexión neurológica entre la retina
del ojo y el "reloj corporal", un grupo de células del cerebro que se ocupa de las funciones fisiológicas
básicas conocidas como ritmo s circadianos.
Uno de los ritmos circadianos más importantes es, precisamente, la fluctuación de la temperatura del
cuerpo, que varía del día a la noche. Los científicos de la University at Buffalo School of Medicine and
Biomedical Sciences creen que dichas fluctuaciones estarían gobernadas, al menos en parte, por los
circuitos neuronales que enlazan los receptores sensibles a la luz de la retina con el hipotálamo. El "reloj"
de los mamíferos, llamado núcleo supraquiasmático, se halla localizado en esta estructura cerebral.
La investigación también ha señalado que estos circuitos dejan de funcionar adecuadamente cuando los
animales experimentan bajos niveles de oxígeno, y que el retorno al ritmo normal de temperatura corporal
cuando se restaura el suministro de oxígeno depende del tipo de estimulación recibida por los receptores de
la retina. A diferencia de los conos y los bastones (los receptores retinales responsables de la visión), los
nuevos receptores descubiertos informan al cerebro de la cantidad de luz que se encuentra en el ambiente.
Esta información es interesante porque aporta pistas sobre algunas disfunciones, como la apnea del sueño,
que puede inducir hipoxia intermitente, insomnio, síndrome de muerte súbita infantil y mal de altitud.
Conocemos bastantes cosas sobre las células que comprenden el núcleo supraquiasmático, el "reloj
corporal", y el control genético de las proteínas que producen. Lo que no entendemos tan bien es cómo este
grupo de células impone sus ritmos sobre otros grupos celulares a lo largo del cuerpo.
Las pruebas realizadas hasta ahora con ratas han permitido evaluar los efectos que un ambiente de
oscuridad permanente puede ocasionar sobre los ritmos circadianos de la temperatura corporal, y la
respuesta de esta última durante fases de bajo nivel de oxígeno (hipoxia), en estas condiciones. Los
resultados se compararon con los obtenidos para ciclos de 12 horas de luz y para exposiciones constantes
de luz. Las ratas fueron equipadas con sensores de temperatura, que la registraban cada 6 minutos.
La principal conclusión es que la hipoxia detiene el reloj biológico, y que ello a su vez causa otras
disfunciones. Varios factores influyen en el retorno a la normalidad tras salir de la hipoxia.
Información adicional en:
http://www.buffalo.edu/news/fast-execute.cgi/article-page.html?article=61820009
Nuevas herramientas para diagnosticar el cáncer
Científicos australianos han desarrollado métodos estadísticos muy poderosos que pueden llevarnos a una
diagnosis mejorada del cáncer, y quizá a un tratamiento más efectivo de esta enfermedad. Los trabajos han
sido realizados en la compañía CSIRO Bioinformatics.
El cáncer se produce cuando las células del cuerpo cambian y crecen sin control. Los investigadores
pueden detectar ahora estos cambios examinando la actividad de los genes de las células cancerosas.
Las técnicas que permiten examinar la citada actividad genética generan una gran cantidad de información
acerca de lo que está ocurriendo en la célula, de manera que son necesarios buenos métodos estadísticos
para determinar qué datos son los que realmente nos interesan, explica David Mitchell, de CSIRO
Bioinformatics.
La complejidad de muchos cánceres implica que puede haber muchos cientos de genes implicados, algunos
de ellos trabajando juntos. Esto dificulta el desarrollo de una prueba sencilla que pueda distinguir entre los
diferentes tipos de cáncer.
CSIRO Bioinformatics ha desarrollado métodos estadísticos que analizan las complejas diferencias e
identifican sólo uno o dos genes que son típicos de los distintos tipos de cáncer.
En cierta manera, es como encontrar una aguja en un pajar, pero una vez conseguido, representa una gran
ventaja. Si son sólo unos pocos genes los que deben ser tenidos en cuenta para una caracterización exacta,
las compañías farmacéuticas podrán preparar kits de pruebas sencillos que proporcionarán un diagnóstico
detallado, algo necesario para un correcto tratamiento.
Información adicional en: http://www.csiro.au/index.asp?type=mediaRelease&id=Bioinfospinoff
80
AÑOS
2358
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
Refrigeración para ordenadores del futuro
Los chips de los ordenadores del mañana estarán refrigerados mediante un innovador sistema líquido.
Estos nuevos chips generarán más de cuatro veces el calor producido por los actuales, por lo que
necesitarán medios efectivos para permitir un funcionamiento sin errores.
El sistema de refrigeración líquido será posible gracias a un descubrimiento efectuado por investigadores
de la Purdue University. Los científicos pensaban que la existencia de burbujas podría bloquear la
circulación del líquido refrigerante, forzado a pasar por "microcanales" cuyo diámetro es sólo tres veces el
de un cabello humano. También creían que se necesitarían pequeñas bombas eléctricas para mantener el
líquido en circulación a través de estos canales estrechos, incrementando el coste y la complejidad de los
sistemas.
Sin embargo, los investigadores de Purdue han solventado ambos problemas desarrollando un sistema de
refrigeración líquida que carece de bombas y que elimina casi seis veces más calor que los sistemas
refrigerantes líquidos ya existentes.
Issam Mudawar y su equipo han descubierto que el líquido que es forzado a pasar a través de los
microcanales forma burbujas más pequeñas de lo que se esperaba. Además, reducir el diámetro de los
canales permite incrementar la eficiencia refrigeradora del sistema, ya que las burbujas disminuyen aún
más su tamaño, exactamente lo contrario de lo que se creía ocurriría.
Dado que las burbujas son mucho más pequeñas que el diámetro de los microcanales, el líquido y las
propias burbujas fluyen fácilmente a través de ellos. El flujo se mueve sin bombas, ya que forma un
circuito cerrado que se lleva el calor producido por el chip del ordenador.
Este tipo de sistemas de refrigeración deberán estar listos en unos tres años para ser aplicados a los
ordenadores personales. Estos poseerán microprocesadores que generarán cuatro veces más calor que los
actuales. Por ejemplo, un chip de alto rendimiento puede ahora mismo generar unos 75 vatios por
centímetro cuadrado, de manera que sus sucesores generarán unos 300 vatios. Es una consecuencia lógica
de introducir más circuitería en el mismo espacio, lo que provoca producir más calor por unidad de
superficie y por unidad de volumen.
Los ventiladores actuales y los radiadores quedarán obsoletos en poco tiempo. Serán sustituidos por
sistemas de refrigeración líquida como el desarrollado en Purdue, que contiene un circuito cerrado de dos
tubos paralelos y verticales, llenos de un líquido dieléctrico (no conduce electricidad). El líquido fluye a
través de los microcanales de una placa metálica que está en contacto con el chip. A medida que el líquido
pasa por ellos, es calentado por el chip y empieza a hervir, produciendo burbujas de vapor. Como las
burbujas de vapor son más ligeras que el líquido, ascienden hasta la parte superior del tubo, donde serán
enfriadas por un ventilador y condensadas de nuevo en forma de líquido. El líquido enfriado fluirá
entonces a través del tubo paralelo y descenderá, creando un flujo autosostenido y constante.
Información adicional en: http://news.uns.purdue.edu/UNS/html4ever/030411.Mudawar.cooling.html
Danza electrónica
Carol Cunningham, de la School of Liberal Arts de la Purdue University, ha organizado un espectáculo
audiovisual experimental en el que la tecnología y la danza tradicional cooperan para crear una coreografía
fuera de lo común.
Cunningham ha bautizado su "performance" con el extraño nombre de "100d11A0N1C00E1". Durante la
actuación, cinco bailarines interactúan con un ambiente de imágenes y sombras abstractas. Sus
movimientos son capturados además por un ordenador, lo que permite animar las imágenes y proyectarlas
en tres grandes pantallas.
Durante los ensayos, una vez a la semana, uno de los alumnos de Cunningham se enfunda un traje especial
que permite seguir los movimientos de su cabeza, brazos, torso y piernas. Varios dispositivos conectados a
las articulaciones miden la rotación de cada una de ellas. Se han instalado hasta 43 puntos de rotación en el
traje, lo que posibilita al bailarín una completa libertad de movimientos. Su única limitación es no poder
rodar sobre el suelo.
Cunningham dirige al bailarín a través de varias secuencias de danza que proyecta en una pantalla blanca.
Cuando el bailarín se mueve, la imagen generada por ordenador le sigue. El resultado es una coreografía de
danza moderna que arranca una interesante expresión artística de la imagen. Dicha imagen ha tenido
muchas formas durante las pruebas. Se han ensayado diversos tamaños y estructuras, algunas con el
80
AÑOS
2359
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
aspecto de un cuerpo humano, otras mucho más sencillas. El proyecto ha permitido mezclar los intereses
de diversos tipos de alumnos: por un lado los estudiantes en el campo de los gráficos por ordenador, y por
otro los que se han especializado en las artes creativas.
Información adicional en: http://news.uns.purdue.edu/UNS/html4ever/030421.Cunningham.vpa.html
En busca del pavimento silencioso
Un ingeniero ha diseñado una máquina que permitirá ensayar diversos tipos de pavimento y estudiar sus
características sonoras. El objetivo es encontrar alguno que ayude a reducir el ruido que la circulación
ocasiona en carreteras y autopistas, debido a la acción de los neumáticos.
Para Robert Bernhard, del Institute for Safe, Quiet and Durable Highways, de Purdue, el programa es
esencial porque el ruido ocasionado por los vehículos en las vías de circulación se ha convertido en una
molestia ambiental de primer orden.
Bernhard y sus colegas han construido una máquina circular de unos 4 metros de diámetro y casi 18
toneladas de peso que permite ensayar varios tipos de superficies y compuestos de pavimento en
conjunción con diversos diseños de neumático. Las distintas secciones de pavimento, curvadas, encajan
unas con otras formando un círculo, mientras dos neumáticos ruedan sobre las superficies a velocidades
variables. El ruido que producen es registrado por una serie de micrófonos, mientras que otros sensores
envían información de temperatura, rozamiento.
La máquina ha sido pensada para que el pavimento permanezca fijo y estacionario, mientras los
neumáticos son los que se mueven sobre él. Esto simula mejor la realidad, donde, naturalmente, la
superficie no se desplaza. Otras máquinas utilizan neumáticos que giran fijos sobre rodillos de acero
motorizados. El problema con estos últimos es que no pueden estar fabricados con el mismo material que
el pavimento convencional, puesto que la rotación lo desintegra. Los ensayos se pueden realizar entonces
sólo de forma muy aproximada. En cambio, la máquina de Bernhard reproduce más exactamente lo que
ocurre en la vida real.
Los ingenieros han probado inicialmente tres tipos de superficies de hormigón (suave, con textura y
porosa), y cuatro diseños de neumático. Un grupo de cinco micrófonos registraron los niveles de ruidos a
varias distancias y en varias frecuencias (o tonos). El resultado sugiere que los compuestos utilizados para
fabricar la goma del neumático pueden tener un efecto esencial en el control del ruido producido. El
pavimento poroso, además, es el que genera menos ruido.
Información adicional en: http://news.uns.purdue.edu/UNS/html4ever/030418.Bernhard.tiremachine.htm
Nubes de gas se convierten en un telescopio
Un grupo de astrónomos ha aprendido a utilizar nubes cósmicas de gas como telescopios "naturales", más
potentes que cualquier otro fabricado por el Hombre y actualmente en servicio. Los emplearán para
observar más cerca del borde de los agujeros negros de lo que jamás se haya hecho hasta la fecha.
La teoría que explica el fenómeno sobre el que descansa este interesante concepto ha sido publicada
recientemente en el Astrophysical Journal por un equipo de especialistas del CSIRO australiano, la
University of Adelaide y varias instituciones holandesas.
El artículo se basa en las observaciones realizadas por la estudiante de doctorado Hayley Bignall, con el
radiotelescopio Australia Telescope Compact Array, propiedad del CSIRO. Gracias a la nueva técnica es
posible resolver detalles de unos 10 microsegundos de arco, equivalente a contemplar un terrón de azúcar
sobre la superficie de la Luna desde la Tierra. Este nivel de detalle es cien veces mejor que el que podemos
obtener con cualquier otra técnica disponible actualmente en astronomía, y hasta mil veces mejor que lo
que el telescopio espacial Hubble es capaz de hacer.
El método ayudará a conocer muchas cosas sobre los agujeros negros gigantes, en particular cómo
producen "chorros" de partículas cargadas súper-calientes, lanzándolas a millones de años-luz de distancia.
Con él podremos ver a menos de un tercio de un año-luz de la base de uno de estos chorros, y averiguar
cuestiones tales como el diámetro de esta base, el patrón de los campos magnéticos de la región, y cómo
evolucionan los chorros a lo largo del tiempo.
La nueva técnica explota el mismo fenómeno que hace que las estrellas titilen, la turbulencia atmosférica.
Nuestra galaxia posee su propia "atmósfera" invisible, un gas poco denso, formado por partículas cargadas
eléctricamente, que llena los espacios entre las estrellas.
80
AÑOS
2360
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
Cuando este gas forma "grumos", puede actuar como un grupo de lentes, que enfocan y desenfocan las
radio-ondas procedentes de objetos distantes, fortaleciendo o debilitando su imagen. Esta variación se
denomina "centelleo".
Los objetos titilan sólo si se ven muy pequeños en el cielo. Los cuásares lo hacen, porque están tan lejos
que son meros puntos de luz. Además, titilan más despacio que las estrellas. Cualquier cambio que
experimenten en menos de un día se considera rápido. La rapidez y la intensidad de la variación de las
radio-señales depende del tamaño y forma de la radio-fuente, el tamaño y estructura de las nubes de gas, su
velocidad y dirección, y la velocidad de la Tierra y su dirección alrededor del Sol.
Los astrónomos observan y registran la variabilidad de las señales de radio a lo largo de un año completo,
y obtienen así una imagen bidimensional de las regiones del cuásar que emiten ondas de radio, con un
detalle que anteriormente no se había alcanzado.
Información adicional en: http://www.csiro.au/index.asp?type=mediaRelease&id=Prpks
Aguas negras frente a Florida
A principios de 2002, se formó una mancha de "agua negra" de unos 100 km de diámetro frente a las
costas del sudoeste de la península de Florida. Su presencia provocó tensión y muerte en los arrecifes de
coral de Florida Keys. Las investigaciones indican que contenía una gran abundancia de plantas
microscópicas tóxicas y no-tóxicas.
Los científicos, encabezados por Chuanmin Hu, del Institute for Marine Remote Sensing de la University
of South Florida, analizaron imágenes obtenidas vía satélite para averiguar la naturaleza exacta del
fenómeno. En ellas el agua aparecía de color negro por la alta concentración de plantas microscópicas y
otra materia orgánica disuelta, las cuales absorben la luz solar, reduciendo la que normalmente se refleja
desde la superficie del océano.
Hu y sus colegas examinaron también los datos recogidos por submarinistas en la propia zona afectada. Se
descubrió así un descenso de un 70 por ciento de la cubierta pétrea de coral y un descenso en el número de
especies coralinas de hasta un 40 por ciento. Además, cuando el agua negra ya había pasado, habían
desaparecido casi completamente las colonias de esponjas en dos puntos del arrecife.
Observando toda esta información, los científicos han concluido que el ecosistema del arrecife de coral en
la zona se vio seriamente afectado por los organismos microscópicos y las toxinas que se hallaban en el
agua oscura.
El suceso, ocurrido en enero de 2002, causó alarma entre los pescadores locales, los submarinistas y el
público. El color del agua era inusual, y el pescado parecía evitar el área afectada. Para certificar lo
ocurrido, se emplearon imágenes obtenidas mediante los satélites SeaStar, Terra y Aqua.
Este tipo de mareas "rojas", más o menos oscuras en función del grado de concentración de los organismos
presentes en ellas, puede llegar a causar problemas respiratorios y cutáneos en los humanos. Las plantas
microscópicas que causan el fenómeno se llaman dinoflagelados. Otros microorganismos, como las
cianobacterias, pueden asimismo provocarlo.
Las tormentas de invierno pueden traer grandes cantidades de agua dulce de los Everglades hasta Florida
Bight. Con el agua dulce llegan altos niveles de nutrientes, como silicatos, fósforo y nitrógeno. Esto
ocasiona un considerable "florecimiento" de plantas marinas llamadas diatomeas, que oscurecen un mismo
punto. La "mancha" se mueve poco a poco y puede circular durante varios meses.
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0423blackwater.html
Clones no tan iguales
Los cerdos clonados pueden tener el mismo grado de variabilidad en apariencia física y comportamiento
que los animales criados normalmente. Un estudio realizado por investigadores de la North Carolina State
University indica que los clones son genéticamente idénticos, pero las similitudes acaban ahí.
Esto rechaza la noción comúnmente divulgada de que los animales clonados retienen los atributos físicos y
de comportamiento del que fuera utilizado como punto de partida genético.
Las investigaciones han sido llevadas a cabo por Jorge Piedrahita, de la NCSU, y otros colegas de la Texas
A&M University. El equipo analizó con detalle el comportamiento de un cerdo clonado, y constató diversas
diferencias. Piedrahita cree que las conclusiones alcanzadas tendrán mucha importancia, ya que la
tecnología de la clonación había sido vendida como una forma de crear grupos de animales idénticos. Ya
80
AÑOS
2361
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
se han creado, incluso, compañías dedicadas a clonar mascotas, pero aunque el resultado pueda parecerse
mucho al original, difícilmente se comportará de la misma manera. De hecho, podría tener también un
aspecto diferente.
Los científicos encabezados por Piedrahita han clonado animales y los han criado juntos en el mismo
ambiente. Analizando su comportamiento han podido apreciar que el de cada individuo no sólo es distinto
al original sino también al de sus hermanos. Se han tenido en cuenta cuestiones tales como las preferencias
de alimentos, o el temperamento.
En el estudio físico, se compararon los cerdos clonados utilizando una serie de parámetros fisiológicos y
genéticos. Los resultados indican que aunque la clonación crea animales dentro del fenotipo normal (la
apariencia de un organismo con respecto a un grupo de caracteres), se incrementa la variabilidad asociada
a diversos rasgos. Por ejemplo, los clones obtenidos pueden tener diferentes tipos de pelo, distinto peso o
tamaño discordante, porque el proceso de clonación ha afectado a la actividad de ciertos genes.
Durante la clonación, si no es perfecta, se pueden cometer errores genéticos que serán introducidos durante
el proceso en el ADN de los clones. Así, algunos animales podrán ser normales y sanos, mientras que otros
no lo serán tanto. Quizá sean lo bastante sanos como para sobrevivir, pero no tanto como los animales no
clonados.
También puede ser peligroso clonar a un clon, y no a sus hijos. En estos últimos, los errores genéticos ya
han sido corregidos y hay una mayor probabilidad de que su vida sea más sana.
Información adicional en: http://www.ncsu.edu/news/press_releases/03_04/113.htm
Planeta caliente
Hasta la fecha se han descubierto más de 100 exoplanetas, cuerpos que se hallan girando alrededor de otras
estrellas. Algunos lo hacen muy cerca de ellas, otros más lejos. Los astrónomos han localizado el que
parece tener el período más corto, es decir, el que tarda menos en dar una vuelta alrededor de su sol.
La estrella investigada se llama OGLE-TR-3 y se halla en dirección al centro galáctico. Su observación ha
permitido constatar de forma precisa la masa del planeta que se encuentra junto a ella.
En la mayoría de los casos, los exoplanetas no pueden ser visualizados directamente, de modo que los
astrónomos deben detectarlos de manera indirecta, en función de la influencia gravitatoria que ejercen
sobre sus estrellas. Con este método se puede saber la distancia a la que orbitan y su período orbital, pero
su masa no puede ser determinada con exactitud, ya que se desconoce la inclinación de su plano.
Hay una excepción a esta regla, y es que cuando un planeta extrasolar, visto desde la Tierra, pasa por
delante de su estrella, algo que ocurre muy raramente, la disminución temporal de la luz que recibimos de
esta última nos proporciona nueva información. Los tránsitos estelares nos ayudan, entre otras cosas, a
determinar la masa exacta del planeta.
Astrónomos alemanes han confirmado que OGLE-TR-3 es la tercera estrella conocida que experimenta
este fenómeno, el tránsito de un planeta por delante de su hemisferio visible. Gracias a estos episodios, y a
la utilización del espectrógrafo UVES, aplicado al Very Large Telescope (VLT) del ESO Paranal
Observatory (Chile), hemos podido determinar algunas de las características de este extraño sistema
planetario: OGLE-TR-3 es una estrella de tipo solar con un planeta algo mayor que Júpiter pero con una
masa inferior (la mitad). Es el exoplaneta con el período orbital más corto conocido, ya que da una vuelta
alrededor de su estrella una vez cada 28,5 horas, poco más de un día terrestre. Se halla, por supuesto, muy
cerca de ella, a tan sólo unos 3,5 millones de km. Su superficie, a tan corta distancia, experimenta
temperaturas altísimas, que alcanzan los 2.000 grados Celsius. El planeta pierde atmósfera muy
rápidamente debido a esta situación. Es tan caliente que quizá podrá ser observado muy pronto.
Los astrónomos siguen explorando la galaxia en busca de candidatos estelares que sufran tránsitos como el
mencionado. El año pasado se anunció una lista de 59 posibles casos: el programa Optical Gravitational
Lensing Experiment (OGLE) permitió observar durante un período de 32 días una muestra de unos 5
millones de estrellas que muestran pequeños y regulares descensos de luminosidad que podrían ser
causados por tránsitos planetarios.
En estos momentos, son tres las estrellas en las que se han encontrado planetas por el método del tránsito:
HD209458, OGLE-TR-56, y la ya referida OGLE-TR-3. Esta última experimenta una reducción del brillo
de un 2 por ciento, cada 28 horas y 33 minutos.
Información adicional en: http://www.eso.org/outreach/press-rel/pr-2003/pr-09-03.html
80
AÑOS
2362
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
Breves del Mundo de la Ciencia
CONEXIÓN CÓSMICA: El estudio de un grupo enigmático de monumentos pétreos en el Ulster está
ayudando a los arqueoastrónomos a entender mejor el significado y la importancia de la astronomía en la
Irlanda y la Bretaña prehistóricas.
ARTE A LA VELOCIDAD DE LA LUZ: Gracias a la tecnología de redes de alta velocidad, pronto será
posible asistir a una clase de música a través de Internet, con el alumno y el profesor situados en ciudades
diferentes y muy distantes. La misma tecnología ayudará a los realizadores cinematográficos,
geográficamente separados, a trabajar juntos para producir y editar una película.
EL RUIDO BLANCO RETRASA LA ORGANIZACIÓN AUDITIVA DEL CEREBRO: La exposición a
un ruido blanco continuo es capaz de sabotear el desarrollo de la región auditiva del cerebro que, en última
instancia, puede deteriorar la adquisición de la audición y del lenguaje, según indican investigadores de la
Universidad de California, en San Francisco.
LOCALIZADO EL GEN DE LA PROGERIA: El síndrome del envejecimiento prematuro sigue sin cura,
pero un equipo de científicos franceses ha logrado identificar por fin el gen que produce la enfermedad.
EL ADN MAS VIEJO: El análisis de varios depósitos sedimentarios de Siberia han proporcionado
muestras de ADN de 300.000 a 400.000 años de antigüedad, los más viejos certificados hasta ahora.
OJO INTERIOR: Investigadores de la Duke University y de la George Washington University,
especialistas en fotónica y ultrasonidos, han colaborado para diseñar un escáner óptico miniaturizado que
puede ser insertado en el interior del cuerpo, donde sus rayos de luz podrán detectar anormalidades ocultas
en las paredes del colon, la vejiga o el esófago.
EL RECEPTOR DE LA OBESIDAD: Científicos del Salk Institute han encontrado un receptor celular que
equilibra la acumulación y la quema de grasas en el cuerpo. Podría ser un objetivo futuro para tratar la
obesidad y el colesterol, así como otras disfunciones, como la diabetes de tipo II, la hipertensión, la
arteriosclerosis, etc.
LAS RAÍCES DE LOS CONTINENTES NO SON TAN PROFUNDAS: La base de los continentes está
situada a entre 200 y 250 km de profundidad, formando una clara frontera con el manto. Esta es la
interpretación que dimana de los datos sísmicos obtenidos por geofísicos de la University of California, en
Berkeley.
CENSO ESTELAR: Los astrónomos se están esforzando en hacer un censo de las estrellas más difíciles de
encontrar de nuestra galaxia, las enanas rojas y marrones.
PARTÍCULAS VIAJERAS: Un estudio de la University at Buffalo sugiere que algunas de las partículas de
polvo implicadas en las grandes tormentas que afectaron al interior de los Estados Unidos, en los años 30,
llegaron hasta Groenlandia.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
ARTHUR EDDINGTON
Cuando se produce una gran revolución científica suele asociarse el nombre del hombre
de ciencia a quien se considera su creador. Así, al hablar de la teoría de la relatividad nos
viene a la mente el nombre de Albert Einstein. Pero, si bien lo fundamental de una teoría
puede ser enunciado por una sola persona, siempre habrá otros científicos talentosos que,
desde sus propias especialidades, contribuyan a que la nueva teoría avance y se
consolide. Y se da el caso de que los nombres de estos brillante hombres de ciencia no
luzcan tanto como el del genio creador de la teoría, tal es el caso de Arthur Stanley
Eddington.
Astrónomo, físico, matemático, Arthur Eddington, nacido el 28 de diciembre de 1882 en
un pueblo del norte de Inglaterra, fue un pionero en el estudio de la teoría de la
80
AÑOS
2363
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
relatividad, la cosmología y la estructura de las estrellas; fue también un notable
divulgador de las ideas científicas y de las implicaciones filosóficas de las mismas.
Eddington fue el primero en exponer en inglés la teoría de la relatividad, pues el trabajo
original de Einstein había sido escrito en alemán. Durante cierto tiempo se decía que
únicamente dos hombres entendían la teoría de la relatividad, Einstein y Eddington.
En 1918, publicó el Reporte sobre la teoría relativista de la gravitación, presentado a la
Sociedad Física; poco después, en 1920, escribió Espacio, tiempo y gravitación, y en
1923 su gran tratado sobre la Teoría matemática de la relatividad, considerado por el
mismo Einstein como la mejor exposición de su teoría.
Sir Arthur no fue sólo un divulgador de la relatividad; es famoso también por haber
dirigido en 1919 una expedición a la isla del Príncipe, en África Occidental, para
confirmar un aspecto de la teoría de Einstein. Ésta predecía que los rayos de la luz se
curvarían por efecto de la gravedad. Esto es, que al pasar un rayo de luz cerca de un gran
cuerpo celeste, una estrella por ejemplo, su trayectoria cambiaría en una magnitud dada.
En ese año hubo un eclipse total de sol que pudo observarse en la isla mencionada y que
permitió ver el desplazamiento aparente de la posición de las estrellas, tal como la teoría
lo predecía. Además, Eddington contribuyó a modificar la geometría no-euclideana
usada por Einstein, y la utilizó para producir su propia teoría del universo, plasmada en
El universo en expansión (1933). Otra de sus obras se titula Teoría relativista de
protones y electrones, en la cual intentó unificar la teoría de la relatividad y la teoría
cuántica. Se le considera también fundador de la dinámica estelar; a los 34 años (1914)
publicó Movimientos estelares y la estructura del universo.
En lo que se refiere a otros aspectos de su vida, Sir Arthur era pacifista y profundamente
inclinado a la religión. En su libro La ciencia y el mundo inobservable. Eddington
declara que el sentido del universo no puede alcanzarse por medio de la ciencia, sino por
la “aprehensión espiritual de la realidad”. Su teoría de la ciencia lo condujo a elaborar el
concepto de “subjetivismo selectivo”, según el cual gran parte de la física refleja
simplemente las suposiciones que el físico hace sobre los datos con los que trabaja.
Eddington recibió en vida diversos honores, entre otros, títulos honoríficos de diversas
universidades. Fue presidente de la Real Sociedad Astronómica (1921-1923), de la
Sociedad Física (1930-1932) y de la Asociación Astronómica Internacional (1938-1944).
Uno de los grandes anhelos era elaborar una gran teoría unificadora de cuanto se conoce
sobre la estructura física del universo; aunque inacabado, este esfuerzo se plasmó en la
obra Teoría fundamental publicada póstumamente, en 1946, obra que para muchos es
incomprensible y para otros una señal del deterioro mental de Eddington en los últimos
años de su vida.
En este año se cumplirán 40 años de la muerte de Sir Arthur Eddington. Al recordar este
talentoso hombre de ciencia, recordemos también que los logros científicos son posibles
en la medida que muchos hombres contribuyan, algunos más otros menos, con su propia
y original capacidad e inteligencia.
80
AÑOS
2364
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
XI Taller Internacional
"Nuevas Tendencias en la Enseñanza de la Física"
del 29 de mayo al 1 de junio de 2003
Facultad de Ciencias Físico Matemáticas de la Benemérita Universidad Autónoma de Puebla
Información en [email protected], Tel: (01222) 229 5500
Programa
Jueves 29 de mayo
11:00
11:45
12:00
12:20
12:30
13:30
Inscripción
Inauguración
Conferencia inaugural
¿Qué debemos saber sobre los estudiantes para ayudarles a aprender mejor la
física?
Josip Slisko, Benemérita Universidad Autónoma de Puebla, Puebla
16:00
17:30
Primera sesión del minicurso "El papel de los libros de texto en el
aprendizaje y la enseñanza de física: Problemas corrientes y soluciones
futuras"
Jerold Touger, Curry College, Milton, USA
17:45
19:15
Primera sesión del minicurso "SCALE-UP: Aprendizaje activo en clases con
muchos estudiantes"
Robert J. Beichner, North Caroline University, Raleigh, USA
19:30
21:00
Física Nocturna:
Primera sesión del minicurso "Implicaciones de sicología cognitiva para el
diseño de aprendizaje con multimedia, agentes pedagógicos y realidad
virtual"
Roxana Moreno, University of New Mexico, Albuquerque, USA
Viernes 30 de mayo
9:00
10:30
Segunda sesión del minicurso "Implicaciones de sicología cognitiva para el
diseño de aprendizaje con multimedia, agentes pedagógicos y realidad
virtual"
Roxana Moreno, University of New Mexico, Albuquerque, USA
10:45
12:15
Primera sesión del minicurso "Usando resultados de investigación en la
enseñanza de física para preparar profesores cuyos estudiantes realmente
entiendan el mundo físico"
Dewey I. Dykstra, Boise State University, Boise, USA
12:30
13:30
Primera sesión del minicurso "Precursos de física en universidades
alemanas"
Urlich Harms, University of Applied Sciences, Esslingen, Germany
16:00
17:30
Primera sesión del minicurso "Aplicando resultados de investigación
educativa en física para cursos avanzados y poblaciones de estudiantes no
tradicionales"
Stamatis Vokos, Seattle Pacific University, Seattle, USA
80
AÑOS
2365
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 199/458
17:45
19:15
Segunda sesión del minicurso "SCALE-UP: Aprendizaje activo en clases
con muchos estudiantes"
Robert J. Beichner, North Caroline University, Raleigh, USA
19:30
21:00
Física Nocturna
"Secuencias teórico - experimentales con materiales simples en la
Enseñanza de la Física"
Juan Américo González Menéndez, UNAM
Sábado 30 de mayo
9:00
10:30
Segunda sesión del minicurso "Usando resultados de investigación en la
enseñanza de física para preparar profesores cuyos estudiantes realmente
entiendan el mundo físico"
Dewey I. Dykstra, Boise State University, Boise, USA
10:45
12:15
Segunda sesión del minicurso "El papel de los libros de texto en el
aprendizaje y la enseñanza de física: Problemas corrientes y soluciones
futuras"
Jerold Touger, Curry College, Milton, USA
12:30
13:30
Primera sesión del Minicurso "La resolución de problemas de física.
Análisis crítico y propuestas alternativas"
F. Javier Perales Palacios, Universidad de Granada, Granada, España
16:00
17:30
Segunda sesión del minicurso "Aplicando resultados de investigación
educativa en física para cursos avanzados y poblaciones de estudiantes no
tradicionales"
Stamatis Vokos, Seattle Pacific University, Seattle, USA
17:45
19:30
19:15
21:00
Ponencias seleccionadas
Sesión Mural
21:00
22:00
Reunión informal de participantes
Domingo 1 de junio
9:30
11:00
Segunda sesión del minicurso "Precursos de física en universidades
alemanas"
Urlich Harms, University of Applied Sciences, Esslingen, Germany
11:15
12:45
Segunda sesión del minicurso "La resolución de problemas de física.
Análisis crítico y propuestas alternativas"
F. Javier Perales Palacios, Universidad de Granada, Granada, España
13:00
13:50
Conferencia
"Estado del arte de la investigación en enseñanza de la física: Retos y
perspectivas"
Salvador Jara Guerrero, Universidad Michoacana de San Nicolás, Morelia
14:00
14:30
Clausura
Información en [email protected], Tel: (01222) 229 5500
80
AÑOS
2366
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 200, 5 de mayo de 2003
No. acumulado de la serie: 459
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
ECLIPSE LUNAR
15 de mayo del 2003
Observable en la República
Mexicana
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
El eclipse comenzará las 20:05
horas del 15 de mayo, el
eclipse total será a las 22:13
minutos y concluirá a la 01:14
del 16 de mayo.
El Hijo de El Cronopio No. 200/459
Se guían espermatozoides por el olfato
Se vislumbra que este hallazgo podrá contribuir tanto a tratamientos anticonceptivos como de fertilización
Por CLAUDIA MACEDO RAMÍREZ / Grupo Reforma
Para lograr la fertilización del óvulo, los espermatozoides humanos ponen en acción un
receptor de olor que les permite seguir el camino correcto directo hacia su objetivo,
según un estudio realizado por científicos alemanes y estadounidenses.
"Aunque ya se conocía la existencia de estos receptores en los espermatozoides, su
función era hasta ahora desconocida", explican los científicos en el artículo que
publicarán en la edición de mañana de la revista Science.
Según los expertos liderados por Marc Spehr, investigador de la Ruhr-Universität
Bochum, de Alemania, este hallazgo podría conducir a avances en métodos
anticonceptivos y tratamientos contra la infertilidad.
Los resultados alcanzados por este grupo indican la existencia de un receptor de olor
llamado hOR17-4, encontrado en la superficie de las células espermáticas, mismo que
desencadena una serie de eventos fisiológicos que provocan el movimiento dirigido del
esperma. En esta respuesta químico-sensorial, las células espermáticas viajan a través de
elevadas concentraciones de una sustancia que atrae a los espermatozoides, llamada
bourgeonal.
Los científicos señalaron que este nuevo receptor pertenece a una familia de receptores
expresados en las células sensoriales de la nariz, que han sido identificados en muchos
otros tejidos, pero cuyo papel aún no ha quedado claro.
Dentro de este contexto de los receptores de olor, detallaron, los humanos tienen células
espermáticas que pueden oler el componente atrayente.
"No esperábamos descubrir un receptor de atracción química, pero es lo mejor que
podríamos haber encontrado", expresó Marc Spehr.
Los científicos aún desconocen si el óvulo en sí mismo produce algún componente para
atraer a los espermatozoides, similar al bourgeonal o si alguna de las partes del aparato
reproductivo femenino genera otro químico que atraiga al receptor.
"Si un equivalente natural para el bourgeonal pudiera ser, al menos en parte, responsable
del éxito del encuentro del camino del espermatozoide fértil, entonces podría ser posible
usar el bourgeonal en tratamientos de fertilización in vitro, que todavía tienen muchas
deficiencias y poco éxito", señaló Spehr.
El científico alemán indicó que una de las dificultades más comunes de la fertilización in
vitro está ligada a la calidad del esperma. "Entonces, el bourgeonal podría ser usado en el
futuro para detectar la capacidad de los espermatozoides para moverse por sí mismos así
como su rapidez, dos aspectos indispensables para la fertilización", dijo.
Componente Bloqueador
A través de este estudio binacional también se detectó un componente antagonista
(llamado undecanal), que parece bloquear el efecto del bourgeonal, inhibiendo la
respuesta químico-sensorial de los espermatozoides.
"Uno de los graves problemas de los anticonceptivos en estos días es el uso de hormonas.
Si el undecanal puede inhibir la comunicación entre el óvulo y el esperma quizá podría
desarrollarse un medicamento para prevenir embarazos no deseados", mencionó.
80
AÑOS
2368
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 200/459
"Quizá se podría colocar el undecanal en la vagina o inclusive hacer medicamentos
equivalentes con este componente para que pudieran ser usados por hombres", abundó
Spehr, quien hizo hincapié en la necesidad llevar a cabo investigaciones previas antes de
llegar a ello.
El investigador considera que existen otros receptores celulares espermáticos similares.
"No creo que la naturaleza dependa de un sólo tipo de receptor", dijo. "No es la manera
en que yo pienso que funciona la naturaleza.
Noticias de la Ciencia y la Tecnología
El primer genoma de un hongo filamentoso
Después de dos años de trabajo, un equipo de más de 70 científicos ha producido el borrador de la
secuencia de un genoma importante, el primero correspondiente a un hongo filamentoso. Posee más de
10.000 genes y casi 40 millones de pares de bases.
El interés del genoma del hongo Neurospora crassa puede pasar desapercibido bajo la sombra y la
magnitud del genoma humano, pero se trata de un organismo de valor histórico y científico.
Más de una década antes que se determinara la estructura del ADN, dos biólogos empezaron a utilizar el
Neurospora como organismo genético modelo. Con él establecieron por primera vez que los genes
proporcionan la información para la creación de las proteínas. George Wells Beadle y Edward Lawri
Tatum recibieron en 1941 el premio Nobel por su teoría “un gen, una enzima”, que conectaba los genes a
la función bioquímica.
La secuenciación del genoma del Neurospora se ha beneficiado de las técnicas más avanzadas. Ello ha
permitido obtener un borrador de todas las regiones genómicas, a excepción de un 2 ó 3 por ciento que, por
ser poco usuales, no pueden ser tratadas fácilmente con estos medios.
Durante los últimos 30 años, el Neurospora ha sido protagonista de más de 5.000 artículos científicos.
Conocer su genoma permitirá apreciar con una nueva luz muchos de estos estudios biológicos.
La secuenciación de este genoma ya ha aportado información sobre aspectos tales como la sensibilidad a la
luz, el crecimiento micótico, los ritmos circadianos, los mecanismos de liberación de calcio y otros
fenómenos celulares básicos. También ha aportado datos sobre la producción de unos compuestos
llamados “metabolitos secundarios”, como pigmentos, antibióticos y toxinas. El mundo micótico, con más
de 250.000 especies y presente en cada ecosistema terrestre, produce una enorme variedad de estos
compuestos bioactivos.
Los hongos, incluidos los mohos y las setas, se emplean en alimentación y para la producción de sustancias
industriales y enzimas. Pero también pudren la madera, dañan los tejidos textiles, oscurecen las lentes y,
como patógenos, afectan a animales y plantas. De aquí la importancia que tiene el que conozcamos mejor
cómo funcionan. Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0344.htm
10 años del Mosaic
El navegador Mosaic, el primero disponible de forma libre para acceder a páginas web, mostrando textos e
imágenes, fue diseñado hace una década. Desarrollado por estudiantes y personal del National Center for
Supercomputing Applications (NCSA), en la University of Illinois, Urbana-Champaign, se convirtió en un
hito de las comunicaciones modernas.
La existencia de este navegador, y las nuevas posibilidades de interacción con la red que ofrecía, abrieron
una nueva era en el uso de Internet, la que ha dado lugar a su gran explosión comercial y educativa.
Mosaic fue la chispa que posteriormente produjo un brutal impacto económico en todo el mundo: más de
un billón de dólares en campos como los negocios, la educación, la información, las comunicaciones o el
entretenimiento. Después de él vinieron los actuales Microsoft Internet Explorer y Netscape, por ejemplo.
Sin Mosaic, dicen sus promotores, el crecimiento de la Web no habría sido posible, y los nuevos
navegadores, con todo su potencial, no habrían adoptado su forma presente.
80
AÑOS
2369
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 200/459
El Mosaic fue desarrollado con el apoyo de la National Science Foundation. Son este tipo de inversiones
las que demuestran que la financiación de ciertas áreas de la ciencia y la tecnología pueden aportar
enormes ganancias en un futuro cercano.
Los centros de supercomputación de la NSF, de hecho, desarrollaron muchas herramientas para el uso
sencillo de Internet, que con el tiempo se han convertido en estándares de la industria. Pero fue el Mosaic
el que tuvo más éxito. En apenas 18 meses, se convirtió en el navegador elegido por más de un millón de
usuarios, posibilitando el aumento exponencial de “Internautas”.
El Mosaic puso al alcance de sus usuarios imágenes, sonidos, video y textos de diferentes tamaños y
aspectos. El sistema de hipertexto, además, aportó una conectividad y un acceso a la información sin
precedentes.
El proyecto Mosaic finalizó en 1997, pero su legado perdurará durante muchos años.
Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0343.htm
En busca de la masa que falta en el Universo
Un nuevo sistema británico de sensores podría ayudarnos por fin a determinar en qué consiste la masa del
Universo que sabemos se encuentra en él, pero que no podemos ver con los medios de observación
actuales. Los detectores se hallan situados 1.100 metros por debajo de la superficie.
Las instalaciones, llamadas Boulby Underground Laboratory for Dark Matter Research, se encuentran en
el interior de una mina de sal y potasa, en Boulby, en la costa de North Yorkshire. Los sensores con los
que han sido dotadas intentarán detectar WIMPs (Weakly Interacting Massive Particles), un tipo de
partículas de escasa interacción con la materia que es uno de los candidatos a constituir la masa faltante del
Universo.
Los estudios de los astrónomos indican que las estrellas suponen menos de un 1 por ciento de la masa del
Universo. Las nubes de gas y otros objetos, por su parte, supondrían otro 5 por ciento. Esta materia visible
comparte escenario con la llamada Materia Oscura, aquella que detectamos por su influencia gravitatoria
pero que no sabemos en qué consiste y que supone el 90 por ciento de la materia del Universo. Los
científicos tratan por todos los medios de averiguar su naturaleza.
Miles de millones de WIMPs pasan a través de nuestro cuerpo cada segundo, pero dado que estas
partículas apenas interactúan con la materia ordinaria, son muy difíciles de detectar. En ocasiones, sin
embargo, colisionan con el núcleo de algunos átomos. Los experimentos en Boulby tratarán de “capturar”
alguno de estos raros acontecimientos.
En una muestra de un kilogramo de material, puede producirse un choque de un WIMP con un núcleo
atómico por día. La colisión provoca una “retroceso” en el citado núcleo, y esto es lo que los instrumentos
tratarán de detectar.
Los experimentos han sido situados a 1.100 metros bajo tierra para reducir el número de otras incidencias
mucho más frecuentes, como por ejemplo, rayos cósmicos golpeando el material, o la radiación natural. La
Tierra absorbe la mayoría de las partículas exteriores, incluidos los rayos cósmicos procedentes del
espacio, mientras que las paredes de la mina de sal, de muy baja radiación, proporcionarán protección
adicional. Información adicional en: http://www.pparc.ac.uk/Nw/Md/Press/Missing.asp
Tubos de Bucky extra largos
Tres químicos de la Duke University han desarrollado un método que permite producir cilindros de
carbono llamados “nanotubos de Bucky”, cuyas paredes tienen sólo un átomo de grosor, y cuya longitud es
100 veces más grande de lo normal, manteniendo a pesar de todo su aspecto rectilíneo y una orientación
controlable.
El logro resuelve una de las principales barreras que existían para el uso de los nanotubos en dispositivos
nanoelectrónicos ultra-pequeños. Implicó hacer “brotar” las estructuras, infinitesimalmente delgadas
(llamadas nanotubos de carbono de pared única, o tubos de Bucky), a partir de diminutos grupos catalíticos
de átomos de hierro y molibdeno, situados sobre un pequeño rectángulo de silicio dentro de un tubo de
cuarzo.
Los nanotubos en crecimiento continúan alargándose a lo largo de la superficie de silicio en la dirección
del flujo de un gas (monóxido de carbono e hidrógeno), calentado a una temperatura suficiente para fundir
el cristal. Los átomos del gas se emplean como ladrillos moleculares.
80
AÑOS
2370
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 200/459
El proceso, desarrollado por Jie Liu, Shaoming Huang y Xinyu Cai, permite obtener los nanotubos más
largos disponibles hasta ahora (más de 2 milímetros, aunque se han conseguido incluso de 4 mm).
Habitualmente, los nanotubos tienen menos de 20 millonésimas de metro, 100 veces más cortos que los
fabricados por el equipo de Liu.
Después de saber que podían construir nanotubos muy largos y rectos, descubrieron que podían cruzarlos
para formar rejillas. Estos patrones podrían servir en el futuro como base para circuitos electrónicos ultradiminutos. Los científicos estudian los nanotubos porque estas moléculas cilíndricas poseen una ligera
excepcional y también una gran fortaleza, además de propiedades electrónicas curiosas. En función de su
arquitectura específica, los nanotubos de pureza suficiente pueden comportarse como semiconductores o
como metales. Información adicional en:
http://www.dukenews.duke.edu/news/newsrelease.asp?p=all&id=1668&catid=2,46
Realidad virtual y arte prehistórico
Gracias a las técnicas de modelado tridimensional, expertos de la University of Warwick van a revolucionar
la forma en que aprendemos cosas de la historia antigua. Van a crear, digitalmente, lugares arqueológicos y
monumentos pretéritos de Kilmartin Valley, Argyll, el paisaje prehistórico escocés más espectacular y
rico.
La labor de los científicos, sin embargo, será limitada, ya que sólo han recibido financiación adecuada para
recrear a dos de los 298 monumentos que están catalogados en la región.
Su objetivo es reconstruir el pasado produciendo mo delos dinámicos en 3D de objetos y artefactos
históricos, como inscripciones y dibujos hechos por los artistas en las rocas. Aunque son una parte
importante de la herencia escocesa, los significados de estos patrones e inscripciones siguen siendo
inciertos. Utilizando la realidad virtual, los expertos piensan poder arrojar nueva luz sobre su relevancia
pasada y presente.
Las reconstrucciones virtuales colocan los grabados en el contexto más amplio del paisaje donde se
encuentran, para mostrar cómo el arte estaba relacionado con sus inmediaciones miles de años atrás.
Las representaciones nos muestran cómo la vegetación y el propio paisaje han cambiado a lo largo del
tiempo, desde hace unos 5.000 años. Colin Schafer, director del Kilmartin House Museum, donde se
expondrán las reconstrucciones, opina que el uso de la tecnología del siglo XXI ayudará a que la historia
antigua sobreviva y sea conocida.
El E-lab de la University of Warwick ha producido un modelo interactivo en 3D del fuerte Dunadd, uno de
los lugares antiguos más conocidos en Escocia. Establecido por los escoceses que emigraron desde Irlanda
en los siglos V y VI después de Cristo, se convirtió en el centro del reino gaélico, perdido durante mucho
tiempo, de Dal Riata. Recientemente se han hecho diversas investigaciones arqueológicas en el lugar,
cuyos resultados se han aplicado para generar un juego tridimensional que permite al visitante observar y
navegar a través del paraje como lo hicieran miles de años sus habitantes. Información adicional en:
http://www.newsandevents.warwick.ac.uk/index.cfm?page=pressrelease&id=1002
La imagen más antigua de una deidad americana
El continente americano ya tenía su propia religión hace 4.000 años, un milenio antes de lo que se creía.
Los arqueólogos han encontrado un fragmento de calabaza que muestra la representación arcaica del Dios
de los Báculos, la principal deidad en Sudamérica durante miles de años.
Como la cruz cristiana, el Dios de los Báculos es un icono religioso claramente reconocible, explica
Jonathan Haas, del Field Museum. De hecho, es el icono religioso más antiguo que se ha encontrado en las
Américas, lo que demuestra que ya existía una religión organizada en los Andes hace 4.000 años. El
hallazgo lo hicieron miembros del Proyecto Arqueológico Norte Chico, quienes encontraron el fragmento
de calabaza en la costa del Perú, a unos 200 km al norte de Lima, mientras recogían piezas de un
cementerio saqueado.
Analizado mediante la técnica del carbono-14, el fragmento de calabaza, que una vez formó parte de un
cuenco del tamaño de una pelota de béisbol, pertenece al año 2260 antes de Cristo.
El Dios de los Báculos es representado en varias culturas andinas como una figura en visión frontal, con
una boca llena de dientes y pies separados. Su brazo izquierdo parece terminar como la cabeza de una
serpiente, y a menudo sujeta uno o dos báculos (de aquí su nombre).
80
AÑOS
2371
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 200/459
La imagen encontrada, aunque de estilo arcaico, fue pintada con cierta precisión en la superficie de la
calabaza. Procede del valle del río Patavilca, una región que estuvo densamente poblada entre los años
2600 y 2000 antes de Cristo. Parece que éste fue el hogar ancestral de la civilización andina que culminó
3.500 años después en los incas. Todos los lugares estudiados carecen de cerámica, porque no sería
introducida en la costa peruana hasta el 1900 antes de Cristo. Información adicional en:
http://www.fieldmuseum.org/museum_info/press/press_deity.htm
La verdadera edad del fósil
Un equipo de la Purdue University ha evaluado la antigüedad exacta de los restos fósiles de un ancestro
humano encontrado en Sudáfrica, determinando que es mucho más viejo de lo que se creía. Ello podría
arrojar nueva luz sobre la fase más temprana de la evolución de la Humanidad.
El esqueleto pertenece aparentemente a un Australopithecus, una familia de homínidos africanos a través
de la cual los paleontólogos piensan que pasa la línea evolutiva que conduce hasta nosotros. Sus restos
fueron encontrados en una cueva, donde quedaron enterrados hace millones de años. Para determinar con
mayor precisión su edad, los científicos han medido la radiactividad de los sedimentos de la cueva, un
método que se utiliza habitualmente para estimar la antigüedad de las formaciones geológicas, pero que
hasta ahora no había sido empleado para datar fósiles biológicos.
Conociendo la fecha de la formación de los sedimentos que rodean al esqueleto, se puede determinar que la
especie llegó al sur de África hace aproximadamente 4 millones de años, explican Darryl Granger y Marc
Caffee, participantes en la investigación. Si los restos pertenecen en efecto a un Australopithecus, entonces
estos homínidos habrían estado presentes en la región mucho antes de lo que se suponía habitualmente.
El esqueleto es un verdadero regalo científico, puesto que no es frecuente encontrar uno tan completo, y
menos en el sur de África. La mayoría de los fósiles de este tipo se hallaron en el valle del Rift, en el este
del continente, una zona que estaba geológicamente activa cuando el Australopithecus vivía en ella. Los
sedimentos de antiguos lagos y la ceniza volcánica ayudaron a preservar algunos especimenes, algo que no
ha ocurrido en Sudáfrica. Aquí se encuentran también bastantes fósiles, pero no en el marco de pistas
geológicas que ayuden a su datación.
En 1997, T.C. Partridge y R.J. Clarke, de la University of the Witwatersrand, hallaron un esqueleto en la
cueva de Sterkfontein. Estaba bien conservado pero su edad era desconocida. Tenía más de 2 millones de
años, pero ¿cuánto exactamente? La cifra afectaría a las teorías sobre cómo se expandió el
Australopithecus a lo largo y ancho de África.
Una primera estimación de unos 3,3 millones de años provocó una gran controversia. Pocos creían que el
Australopithecus pudiera haber viajado tan lejos hace tanto tiempo. Buscando nuevas pruebas, Granger y
Caffee entraron en acción. La técnica del carbono-14 no puede utilizarse en sedimentos tan antiguos
porque este isótopo radiactivo tiene una vida media de sólo 5.730 años. Pasados unos 50.000, ya no queda
carbono-14 en las muestras y su edad queda indeterminada. Así pues, Granger emplea isótopos de vida
media más prolongada, como el aluminio-26 y el berilio-10. Estos elementos se forman a menudo en el
cuarzo común cuando éste se encuentra en la superficie y queda expuesto a los rayos cósmicos.
Granger y Caffee analizaron muestras del esqueleto y de los sedimentos con esta nueva técnica, y
determinaron que tienen una antigüedad situada entre los 3,5 y los 4,5 millones de años.
Los primeros homínidos del África oriental han sido considerados tradicionalmente como la población a
partir de la cual surgieron todos los homínidos posteriores. Si otro homínido hallado en Sudáfrica es más
antiguo, sea de la especie que sea, entonces podríamos tener que cambiar nuestras teorías al respecto.
Información adicional en: http://news.uns.purdue.edu/UNS/html4ever/030424.Granger.hominid.html
La herencia del huracán
Cuando la periferia del huracán Nora penetró en el interior de los Estados Unidos, en septiembre de 1997,
los meteorólogos estudiaron las nubes que conformaban su estructura sobre el continente, y encontraron
una sorpresa: sal y plankton congelado en suspensión.
Nora había sido una fuerte tormenta formada en el Pacífico oriental. Sin embargo, sus nubes cargadas de
cristales de hielo se extendieron muchos kilómetros hacia el interior de los Estados Unidos. Kenneth
Sassen, de la University of Utah, W. Patrick Arnott, del Desert Research Institute, y David O. Starr, del
Goddard Space Flight Center, estudiaron sus nubes cirros y analizaron su composición, gracias a las
80
AÑOS
2372
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 200/459
muestras que fueron capturadas mediante un avión sobre Oklahoma. Los resultados señalan la presencia de
vida marina microscópica, como el plankton, enterrada en el “núcleo” de cristales de hielo.
Nora se formó en la costa de Panamá, fortaleció su potencia a medida que viajaba hacia el norte y cruzó
California. Sobre el oeste de los Estados Unidos depositó sólo una corriente rápida de cirros altos, nubes
que crearon espectaculares efectos ópticos, como arcos y halos.
El crecimiento de los cristales de hielo se ve afectado por la diferente naturaleza de sus núcleos (polvo del
desierto, sal marina o sulfatos). La sal marina y otras partículas, incluyendo el plankton, se ven
transportadas hacia las alturas desde la espuma evaporada del océano violento. En la fría troposfera
superior, las gotas de agua se congelan y forman cristales de hielo.
Para los científicos es importante entender cómo crecen los cristales y conocer qué determina su forma, ya
que ello influirá en su interacción con la luz solar y la energía infrarroja, aspectos ambos que contribuyen a
modelar el sistema climático global.
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0408plankton.html
El telescopio ISST, en marcha
Cuatro grandes organizaciones de investigación han acordado unir esfuerzos para construir y operar un
nuevo telescopio gigante, pensado para localizar supernovas, estallidos gamma, y asteroides próximos a la
Tierra, y también estudiar la energía oscura misteriosa que acelera la expansión del Universo.
El Large Synoptic Survey Telescope (LSST) estará controlado por la Research Corporation, la Association
of Universities for Research in Astronomy (AURA) Inc., la University of Arizona (UA), y la University of
Washington.
El LSST tendrá un espejo primario de 8,4 metros, pero lo más importante será su cámara digital especial,
compuesta por 2.000 millones de píxeles, que permitirá revisar todo el cielo visible desde su posición una
vez por semana, hasta una magnitud luminosa muy elevada. La constante toma de imágenes del sistema
proporcionará un caudal de información de unos 5 terabytes diarios, que será aprovechado por los
astrónomos de todo el mundo.
El telescopio será capaz de descubrir unas 100.000 supernovas cada año, y 10.000 o más objetos TransNeptunianos, en el borde mismo de nuestro sistema solar. Observará casi todas las estrellas situadas a
menos de 100 años-luz de distancia, en busca de posibles planetas que puedan encontrarse a su alrededor,
gracias a la precisión de sus mediciones astrométricas de movimiento.
El primer objetivo del consorcio será preparar un diseño detallado para que pueda ser considerado por las
entidades que lo deben financiar. Si todo va bien, podría ser inaugurado en 2011, aunque aún no se ha
decidido dónde será construido.
Sin duda, su principal activo será su poderoso campo de visión. El producto de éste por su superficie
colectora será 20 veces superior al de cualquier otro observatorio actualmente en funcionamiento o en
construcción. Por ejemplo, podrá detectar objetos de hasta la magnitud 24 en 10 segundos. Será pues el
único instrumento capaz de encontrar todos los asteroides de más de 300 metros de diámetro que se
acercan mucho a la Tierra.
Su coste será de unos 120 millones de dólares, mucho menos que una misión espacial de parecidas
características (más de 1.000 millones de dólares).
Información adicional en: http://www.lsst.org/lsst_home.html
Interferograma de las vegas
Con todas sus luces de neón y casinos, Las Vegas podría ser la capital mundial de la luminosidad. Sin
embargo, la combinación de dos imágenes de radar tomadas por satélites de la Agencia Espacial Europea
muestra que también puede ser protagonista de otro tipo de brillo.
La ESA ha combinado las imágenes de radar enviadas por los satélites Envisat y ERS-2. Procesadas en el
DLR alemán, proporcionan un análisis topográfico de la zona. Las obtenidas con el radar de apertura
sintética (SAR) del ERS-2 se tomaron en 1999, y las del instrumento Advanced SAR, del Envisat, se
enviaron el año pasado. Una vez combinadas, se consigue un interferograma, una fotografía muy extraña
para cualquiera que no entienda demasiado de la materia, pero una auténtica obra de arte para los
especialistas. Un interferograma es de hecho una imagen generada por el análisis de las diferencias que se
encuentran entre dos señales de radar tomadas sobre la misma zona de la Tierra.
80
AÑOS
2373
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 200/459
El interferograma presentado de Las Vegas, que cubre un cuadrado de 35 por 35 km, es el primero
producido por la ESA con los dos satélites mencionados. En él se aprecia la ciudad en el centro, un área de
colores brillantes donde las calles principales destacan por su aspecto oscuro y lineal. Cada ciclo de color
en la imagen, del azul al amarillo, pasando por el rojo, representa un cambio de elevación de 8,4 metros. El
efecto produce bandas de colores que muestran la topografía de la ciudad y sus alrededores.
Hasta ahora no se creía posible elaborar un interferograma con datos de estos dos satélites. Los
interferogramas suelen hacerse con imágenes adquiridas por los mismos radares o al menos con aquellos
que son compatibles entre sí. Los instalados en el ERS-2 y en el Envisat funcionan bajo frecuencias
ligeramente distintas. Sin embargo, y bajo condiciones geométricas específicas, los expertos lo han
conseguido.
Tras la demostración, los científicos continuarán usando esta técnica para vigilar la superficie terrestre. Se
podrán utilizar datos obtenidos con diferentes instrumentos y en épocas muy separadas, una posibilidad
interesante para el estudio de efectos geofísicos muy lentos.
Información adicional en: http://www.esa.int/export/esaSA/SEM97H5V9ED_earth_0.html
Breves del Mundo de la Ciencia
NUEVA FUENTE DE CÉLULAS MADRE EMBRIONARIAS: Investigadores de la University of
Pennsylvania han creado los primeros gametos mamíferos cultivados in vitro directamente a partir de
células madre embrionarias.
EL METABOLISMO TERRESTRE: Científicos de la NASA han dado a conocer las primeras mediciones
continuadas y precisas del “metabolismo” de nuestro planeta. Los datos enviados por los satélites Terra y
Aqua están ayudando a los investigadores a actualizar frecuentemente los mapas que muestran el ritmo
bajo el que la vida vegetal absorbe carbono de la atmósfera.
CONTRA LA ESCLEROSIS MÚLTIPLE: La UAB y los laboratorios Uriach firman un convenio para la
inversión de 725.000 Euros en una investigación contra la esclerosis múltiple.
CANTANTES MEDIOCRES QUE SUENAN COMO VIRTUOSOS: El popular karaoke ya no será nunca
más el mismo. Un sistema por ordenador será capaz de hacer que la voz de un principiante suene como la
de un profesional.
ERUPCIONES INEVITABLES EN COSTA RICA: Un geólogo de la University of California en Santa
Bárbara confirma que Costa Rica volverá a experimentar una gran actividad volcánica en el futuro.
CRÍSIS EN LA LUCHA CONTRA LA MALARIA: El objetivo de la Organización Mundial de la Salud
(OMS) de reducir el número de muertes por malaria en un 75 por ciento antes del 2015 está condenado al
fracaso debido a la falta de ayuda internacional.
CHIP ÓPTICO PROMETEDOR: Investigadores canadienses han desarrollado un plástico híbrido que
puede producir luz en las longitudes de onda utilizadas para las comunicaciones por fibra óptica. Ello abre
las puertas hacia un chip óptico para ordenadores.
UN INEXPLORADO TERRENO GENÓMICO EN UN PUÑADO DE POLVO: Unos investigadores del
Instituto Médico Howard Hughes y sus colegas han desenterrado literalmente un tesoro de información
genómica contenido en diez virus recientemente identificados que fueron encontrados en la fosa de los
monos del Zoológico del Bronx y en otros lugares. Los virus se llaman micobacteriófagos e infectan toda
una variedad de bacterias, incluyendo las que causan tuberculosis y lepra.
INTERNET, CLONADA: Científicos de la Duke University han desarrollado un software mejorado de
ordenador que es equivalente a un modelo a escala de Internet. Se utilizará para probar nuevos programas
antes de que sean utilizados “en directo” en la red.
CÉLULAS MADRE EN LOS DIENTES INFANTILES: Un grupo de científicos ha descubierto la
presencia de células madre en el interior de los dientes “de leche” que los niños empiezan a perder
alrededor de los seis años de edad.
80
AÑOS
2374
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 200/459
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
TECNOLOGÍA Y FILOSOFÍA
Creo que fue Bertrand Rusell quien, al pedírsele una definición de las matemáticas,
irónicamente respondió: “la matemática es aquello que los matemáticos hacen”.
Ciertamente, resulta difícil proporcionar definiciones rigurosas de actividades humanas
tan bastas, cambiantes y polifacéticas como las matemáticas, la filosofía, la ciencia, el
arte, la tecnología, etc. La respuesta de Russell nos hace ver que una definición tajante
puede resultar extremadamente convencional, y carente de contenido, esto es, vacía. No
obstante, es evidente que al menos deben ensayarse definiciones aproximadas con el
propósito de esclarecer la naturaleza de esas actividades que por razones simplificadoras
denotamos con una sola palabra.
Tal esclarecimiento es indispensable en una sociedad como la nuestra, regida por los
principios de acumulación capitalista, en la cual priva una división del trabajo que
determina que “los actos propios del hombre se erijan ante él en un poder ajeno y hostil,
que los sojuzga, en vez de ser él quien los domine.” (C. Marx, La ideología alemana). A
esto cabe agregar que bajo dichas condiciones, el hombre no puede llegar sólo por su
propia práctica inmediata, como obrero, artista, científico o agricultor, a una
comprensión cabal de la naturaleza de su actividad, ni a una correcta valoración de la
misma. Para ello, hay que dar un rodeo e insertar conceptualmente, es decir, de manera
teórica, la propia práctica en un contexto más amplio que lo incluya.
Y, ¿qué tiene que ver la tecnología con la filosofía?, ¿qué tiene qué decir una sobre la
otra? Pero, para empezar, ¿qué es la tecnología? Son estas preguntas que se hace el
eminente físico y epistemólogo, Mario Bunge (Buenos Aires, 1919), en una pequeña, por
la extensión, obra titulada Tecnología y filosofía, en una excelente edición de la facultad
de filosofía y letras de la Universidad Autónoma de Nuevo León (1976), Bunge nos
comunica sus inquietudes acerca de los problemas surgidos entre “dos vecinos que se
desconocen”.
De entrada, Bunge abre la discusión en el espinoso asunto de la definición de la
tecnología. Nos dice:
El primer problema que plantea la tecnología es el de caracterizarla
tanto más por cuanto no hay consenso acerca de la definición de la
tecnología. Hay una desconcertante variedad de modos de entender
esta palabra. El hombre de la calle confunde a menudo el receptor
de televisión con la tecnología que ha guiado su producción
A partir de esta consideración, el epistemólogo adelanta su primera aproximación:
“Habitualmente se entiende por tecnología la técnica que emplea conocimiento
científico. Por ejemplo, se distingue la técnica de la modista, de la tecnología de la
industria de la confección”. De ahí, proporciona su definición:
Un cuerpo de conocimiento es una tecnología si y solamente si:1. es
compatible con la ciencia y controlable por el método científico y,
80
AÑOS
2375
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 200/459
2. se le emplea para controlar, transformar o crear cosas o procesos,
naturales o sociales.
Bunge también intenta delimitar las finalidades propias de la tecnología de aquellas
propias de la ciencia: “la finalidad de la investigación científica es la verdad por la
verdad misma; la meta de la investigación tecnológica es la verdad útil a alguien”.
Una vez hechas estas precisiones, el autor de tecnología y filosofía afirma que en la
práctica tecnológica, como en cualquier otro empeño racional, deben tenerse en cuenta
ciertos ingredientes filosóficos, aseverando que “debe haber una filosofía de la
tecnología, entendida como el conjunto de los conceptos e hipótesis filosóficos
inherentes a la teoría y práctica de la tecnología”. Enseguida, Bunge procede a enunciar
lo que la filosofía puede y debe aportar a la tecnología, sin pretender dar por resueltos
todos los problemas que esta relación plantea, sino por el contrario, nos presenta una
muestra bastante extensa de problemas por resolver.
Se presta particular atención al aspecto ético de la investigación tecnológica, siendo este
aspecto uno de los más relevantes de la obra que nos ocupa. Se cree que la investigación
científica y tecnológica es en si éticamente neutra y que la perversidad resulta de su
“aplicación” a fines en esencia negativos. Para Bunge esto no es así, en el caso de la
investigación tecnológica, pues hay procesos tecnológicos íntegros que son moralmente
objetables por proponerse metas prácticas perversas
Por ejemplo, es malvado realizar investigaciones sobre la
defoliación de bosques, sobre el envenenamiento de las reservas de
agua, la mutilación de civiles, la tortura de presos, la manipulación
de consumidores o votantes y cosas similares, ya que el
conocimiento adquirido en investigaciones de este tipo se utiliza
verosímilmente solo para fines malvados: se investiga la tortura para
torturar más eficazmente, la manipulación de consumidores para
explotarlos más provechosamente y así sucesivamente. No se trata
del mal uso inesperado de un trozo de conocimiento neutro, como
sucede con el mal uso de la tijera o de un cerillo. La tecnología de la
maldad es malvada. Los pocos resultados valiosos a que puede
llegar -hasta ahora desconocidos- son ensombrecidos por sus
resultados negativos entre los cuales se cuenta el encanallamiento de
los investigadores mismos y de sus amos.
En consecuencia, el tecnólogo tiene ante si un constante dilema moral. La vía apropiada
para resolverlo es tratar de ubicar su práctica, como ya se dijo, en un contexto más
amplio; la filosofía, como lo propone Mario Bunge, puede ser un instrumento adecuado
para lograrlo; entonces la definición, aunque sea aproximada, del propio quehacer es una
tarea impostergable, si es que deseamos ser amos de nuestros productos y no esclavos de
ellos. En este sentido, la obra de Bunge resulta de singular valor, pues apunta hacia un
recurso que en muchas ocasiones el científico y tecnólogo desprecian y pretende ignorar:
la filosofía. Vale puntualizar que, conscientes o no, todos practicamos alguna filosofía;
así que ignorar su existencia sólo puede conducirnos a obrar erráticamente en un mundo
cada vez más complejo donde las fuerzas de la destrucción imperialista se vuelven, día
con día, más poderosas, poniendo en riesgo la supervivencia humana. A esto hay que
oponerse de manera decidida y consciente.
80
AÑOS
2376
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 201, 12 de mayo de 2003
No. acumulado de la serie: 460
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Disponible, vasto archivo de
Einstein por Internet
Un vasto archivo que reagrupa más de
900 documentos de Albert Einstein está
disponible
en
Internet,
tras
su
presentación en el Museo de Historia
Natural en Nueva York. El nuevo sitio
www.alberteinstein.info
resulta de la cooperación entre el
servicio de Archivos de Albert Einstein
en la Universidad hebraica de Jerusalén
y la iniciativa del Instituto de Tecnología
de California llamado Einstein papers
project (Proyecto de documentos de
Einstein).
Este sitio permite acceder a unas 3 mil
imágenes de esta definición, al igual que
a 39 documentos como la obra The
collected papers of Albert Einstein
(Colección de documentos de Albert
Einstein), publicados en alemán por la
Universidad de Princeton.
El banco de datos y las herramientas de
búsqueda permiten que el usuario
consulte más de 40 mil vínculos sobre
Einstein y documentos relacionados,
especialmente sobre temas científicos.
El Hijo de El Cronopio No. 201/460
El sitio también incluye la correspondencia personal y profesional del científico y un
diario de viaje.
El físico nacido en Ulm, Alemania en 1879 y fallecido en 1955, en Princeton, Nueva
Jersey, usó la hipótesis del quantum de Max Planck para describir la radiación de la luz.
Según el punto de vista heurístico de Einstein, se puede imaginar que la luz consta de
bulbos discretos de radiación.
Einstein utilizó esa interpretación para explicar el efecto fotoeléctrico, porque
ciertamente los metales emiten electrones cuando son iluminados por la luz con una
frecuencia dada. Su teoría, y su elaboración subsecuente, fue la base para lo que hoy es la
mecánica cuántica, sustento de la teoría de la relatividad. El sitio también incluye la
correspondencia personal y profesional del científico, cuadernillos y diarios de viaje.
Información: AFP
Noticias de la Ciencia y la Tecnología
Éxito del sistema KAFLOAT
El día 1 de Abril tuvieron lugar en los Astilleros de Huelva, SA las segundas pruebas reales del Sistema
KAFLOAT. Este sistema responde a una patente española de origen gallego cuyo objetivo es mantener a
flote una embarcación tanto en el caso de una entrada o vía de agua como en el caso de un posible vuelco.
La novedad del Sistema KAFLOAT reside en la flotabilidad adicional que proporciona a la nave o
embarcación afectada el empuje de unos flotadores alojados en unos módulos instalados en el costado.
Estos módulos están convenientemente distribuidos y colocados a la parte interna del mismo por debajo de
la línea de flotación. Al activarse de forma inteligente, tanto automática como manualmente, salen los
flotadores al exterior dónde se inflan a la presión correspondiente hasta que se conforman, suministrando
el empuje necesario para evitar el hundimiento, o la estabilidad que impide el vuelco de la embarcación.
La primera prueba real tuvo lugar hace tres meses y medio. Se efectuó sobre un pesquero propiedad de
KAFLOAT, de 26 metros de eslora y 200 toneladas de desplazamiento. Esta segunda prueba real en el
mismo buque pesquero, a flote, fue más ambiciosa que la primera.
En esencia consistió en inundar el mayor compartimiento estanco del barco, la bodega de pescado en este
caso, que en una situación real hubiese prácticamente provocado su ulterior hundimiento. El empuje
proporcionado por 12 flotadores del sistema aportó el complemento necesario a la reserva de flotabilidad
del barco para que quedase, en asiento correcto, con condiciones de proceder a puerto o ser remolcado con
la debida seguridad.
Los flotadores, corazón del sistema, funcionaron con toda actitud y se comprobó también la bondad de los
módulos de estabilidad previstos.
En el desarrollo de la patente colaboran las empresas PARAFLY, SA que se encarga de lo que hemos
denominado coloquialmente “corazón del Sistema” o módulos de flotación; SENER, SA que realiza los
cálculos de estabilidad, “cerebro del Sistema”, y dispone los módulos en situación adecuada; y
ASTILLEROS DE HUELVA, S.A., dónde se efectúan las pruebas y se encarga de la instalación del
Sistema a bordo.
El Sistema KAFLOAT, fundamental en lo que respecta a la Seguridad de la Vida Humana en la Mar,
también está patentado, además de en España, en la Unión Europea (18 países), Estados Unidos, Canadá,
Japón, Hong-Kong y Australia. Se introducirá comercialmente dentro de un año y medio. (KAFLOAT)
Información adicional en: http://paginas.bcentral.es/~KAFLOAT/
80
AÑOS
2378
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 201/460
Telescopio Liverpool
Se presenta el telescopio “Liverpool”, el mayor telescopio robótico del mundo. Instalado en el
Observatorio del Roque de los Muchachos, funcionará por control remoto y estará asociado a un programa
de divulgación científica para escolares.
Con 2 m de diámetro, es, en efecto, el telescopio que no precisa manejo humano directo más grande del
mundo. Una de las particularidades de este telescopio, que pertenece a la Universidad John Moores de
Liverpool (Reino Unido), es su funcionamiento robótico, es decir, que puede ser dirigido de forma remota
o ser programado para trabajar autónomamente. Además, la cúpula tiene un diseño innovador que permite
abatirla por completo: al quedar totalmente abierto el telescopio, éste se mantiene a la temperatura exterior,
evitando así los problemas de turbulencias. Otra de las características fundamentales de este telescopio es
la calidad de imagen que se obtendrá con él. El primer instrumento que se ha montado es una cámara CCD
que proporcionará una resolución de 0,135” por píxel.
Sobre su utilización, el 70 por ciento del tiempo pertenece al Reino Unido, el cual se repartirá entre la
propia Universidad de Liverpool y el Consejo de Investigación en Física de Partículas y Astronomía
(PPARC), organismo que gestiona el tiempo destinado a la comunidad británica. Además, un 5 por ciento
del tiempo total de observación estará reservado a estudiantes y aficionados británicos. El “Telescopio
Liverpool” estará asociado al programa de Divulgación Social de la Ciencia y la Tecnología del Reino
Unido. Las imágenes directas que se obtengan con este telescopio ilustrarán las charlas públicas del Museo
y del Planetario de Liverpool. Profesores y estudiantes británicos también se beneficiarán del Programa
para Escolares del “Telescopio Liverpool” pudiendo realizar prácticas con él. Una página web educativa
facilitará la comunicación entre el telescopio y los colegios y escuelas universitarias que soliciten datos de
observación. Asimismo, se está desarrollando un programa de procesamiento de imágenes
En virtud de los Acuerdos Internacionales de Astrofísica, España dispondrá, como en los demás
telescopios instalados en los Observatorios del Instituto de Astrofísica de Canarias, del 20 por ciento de
uso del “Telescopio Liverpool”, más un 5 por ciento en programas de colaboración internacional. A partir
de 2004, cuando el telescopio esté operativo y se hayan establecido los procedimientos de utilización, se
destinarán hasta 10 noches al año para programas españoles de divulgación.
En cuanto a la investigación científica, los principales objetivos son: el seguimiento de objetos o eventos
celestes variables a diferentes escalas de tiempo, identificación y seguimiento de fenómenos impredecibles,
como las supernovas, observaciones simultáneas con otros instrumentos terrestres o espaciales y,
finalmente, mapeos a pequeña escala y seguimiento de los objetos que se descubran a partir de éstos. (IAC)
Información adicional en: http://telescope.livjm.ac.uk/
Las hormigas desafían la evolución
Las hormigas ejército, una de las principales fuerzas de coalición de la naturaleza, golpea a su presa en
masa, en una columna voraz que avanza a ciegas y sin prestar atención a los supuestos convencionales de
los biólogos evolutivos.
La creencia científica más habitual era que las hormigas ejército aparecieron separadamente en varios
continentes a lo largo de millones de años. Pero ahora se ha descubierto que no hubo evolución. Los
biólogos se preguntaban por qué estas hormigas, cuyas reinas no pueden volar o ser arrastradas por el
viento, eran tan similares en todo el mundo. Utilizando datos de fósiles y herramientas de investigación
genética, un entomólogo de la Cornell University, Sean Brady, ha encontrado que este tipo de hormigas
proceden todas del mismo punto de origen, ya que desde hace 100 millones de años apenas han cambiado.
Las hormigas ejército no son como las que podemos encontrar cuando vamos de picnic. Poseen una
especie de “síndrome” que consiste en tres características principales: son nómadas, buscan las presas sin
lanzar avanzadillas de exploradores, y sus reinas (sin alas) son capaces de producir hasta 4 millones de
huevos al mes. Este síndrome se aprecia en todas las hormigas ejército del mundo, pero los científicos
creían que estos insectos lo habían desarrollado varias veces y por separado después de la fragmentación
del supercontinente Gondwana, hace unos 100 millones de años.
Sin embargo, las pruebas genéticas no apoyan esta teoría. Brady estudió el ADN de 30 especies de
hormigas ejército y a 20 posibles ancestros dentro de la comunidad, divididos entre el grupo Ecitoninae
(Nuevo Mundo) y los grupos Aenictinae y Dorylinae (Viejo Mundo). Buscando relaciones entre ellos,
analizó cuatro genes en particular, y construyó un árbol genético de familias.
80
AÑOS
2379
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 201/460
Combinando esta información con datos morfológicos y fósiles para establecer las edades de las diferentes
especies, Brady descubrió que todas ellas comparten las mismas mutaciones genéticas, lo que sugiere que
proceden de la mis ma fuente.
Por tanto, en vez de confirmar que los grupos del Viejo y el Nuevo Mundo desarrollaron su linaje de
manera independiente, en continentes separados, el entomólogo ha mostrado que las hormigas
evolucionaron sólo una vez, en Gondwana.
Información adicional en: http://www.news.cornell.edu/releases/May03/ArmyAntBrady.bpf.html
Proteína cristalizada
Científicos de la Purdue University han conseguido cristalizar un tipo de proteína particularmente
problemático, un logro que podría permitir superar el obstáculo que durante 20 años ha impedido combatir
un amplio espectro de enfermedades,
Para poder estudiar las proteínas, los investigadores las cristalizan. La mayoría de ellas son solubles en
agua y forman cristales fácilmente. Pero otras proteínas (el 30 por ciento de las que existen en la
naturaleza) son solubles en grasas, y hasta ahora sólo se había conseguido que cristalizaran un puñado de
ellas.
Utilizando una nueva técnica, los científicos de Purdue han logrado cristalizar una de estas proteínas
problemáticas, y piensan que el método podría aplicarse a otras.
El sistema empleado implica disolver la proteína en un detergente sintético y añadir un poco de grasa
sintética que actúa como “pegamento”. Con ello se han producido cristales que pueden ser estudiados con
métodos normales de análisis mediante rayos-X.
William Cramer y sus colegas explican que un ser vivo contiene más de 5.000 proteínas, utilizadas por las
células para multitud de cosas, desde el crecimiento al desarrollo, pasando por la adaptación. Muchos de
estos procesos ocurren en la membrana celular. Las proteínas de la membrana, que numéricamente
constituyen el 30 por ciento de las proteínas de un organismo, son cruciales para la vida de la célula porque
regulan su nivel de energía y el transporte de vitaminas, minerales y otros materiales esenciales a través de
la frontera entre la célula y el ambiente que la rodea.
Las proteínas de la membrana celular tienen un importante papel en muchas enfermedades. El método
convencional de estudio de proteínas (hacer cristales con ellas y examinarlas con rayos-X o electrones) no
ha podido emplearse fácilmente con las proteínas de la membrana, porque éstas sólo se disuelven en
grasas, no en agua.
El problema es más importante de lo que parece. Un grupo alemán ganó el premio Nobel de Química de
1988 por la cristalización de una proteína de membrana celular a principios de la década. Su técnica fue
usar detergente para disolver y cristalizar la proteína, pero el proceso no pudo ser aplicado a otras proteínas
solubles en grasas. Desde entonces, se han cristalizado más de 20.000 proteínas solubles en agua, mientras
que sólo se ha podido hacer lo propio con 50 solubles en grasas.
Lo que ha hecho el grupo de Cramer ha sido mejorar la técnica original, añadiendo un poco de grasa
sintética para que actúe de “cola” y así mantener a la proteína organizada incluso en una solución. El
resultado es espectacular, por cuanto la cristalización se produce entonces muy rápidamente.
Ahora es necesario demostrar que la técnica puede usarse con la misma facilidad en otras proteínas de
membrana celular.
Información adicional en: http://news.uns.purdue.edu/UNS/html4ever/030505.Cramer.crystal.html
El transito de Mercurio
Mercurio, el segundo planeta más pequeño del Sistema Solar, pasó por delante del Sol el miércoles 7 de
mayo, originando un interesante tránsito planetario, un fenómeno astronómico menos frecuente que los
eclipses de Sol y de Luna.
El proceso, que duró 5 h y 20 m, se inició sobre las 05:11 UTC y llegó al punto de máxima proximidad al
Sol a partir de las 07:52 UTC.
Mercurio se ha visto como un pequeño disco de color negro -el contraste entre el hemisferio nocturno del
planeta y la superficie del Sol- proyectado sobre la esfera solar. El tránsito ha sido visible en todas sus
fases (aunque perjudicado por la meteorología) desde el Este de la península ibérica, siendo una nueva
80
AÑOS
2380
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 201/460
oportunidad para el estudio del fenómeno de la gota negra, un curioso efecto visual de contacto entre el
disco del planeta y el Sol.
En 1631 el astrónomo francés Pierre Gassendi realizaba la primera observación de un tránsito de Mercurio.
Con un diámetro de 4.880 kilómetros, Mercurio es el planeta más próximo al Sol, completa una órbita
elíptica cada 88 días y pasa entre la Tierra y el Sol cada tres meses. Debido a la inclinación de la órbita de
Mercurio en relación a la de la Tierra, el tránsito sólo es visible cuando el Sol, Mercurio y la Tierra se
alinean (en concreto, 13 tránsitos de Mercurio cada 100 años, siempre en mayo o noviembre), siendo éstas
las condiciones astronómicas que se han dado el 7 de mayo. El último tránsito de Mercurio visible en
España tuvo lugar el 10 de noviembre de 1973 (el 15 de noviembre de 1999 se producía uno no visible).
Las próximas citas de tránsitos de Mercurio serán el 8 de noviembre de 2006 (no visible en el país) y el 9
de mayo de 2016 (visible).
La observación del tránsito de Mercurio es una actividad previa a la cita del 8 de junio del 2004, todavía
más esperada por los astrónomos: el próximo tránsito de Venus, un fenómeno extraordinario y más inusual
(se producen dos cada 115 años) que será la base de proyectos educativos a nivel internacional. La primera
observación de tránsito venusiano data del año 1639 y fue obra de Jerimiah Horrocks y William Crabtree.
Venus tiene una órbita más extensa que la de Mercurio, y desde la invención del telescopio en el siglo
XVII únicamente se han visto 6 tránsitos (siempre en diciembre o junio, cuando los nodos orbitales de
Venus pasan a través del Sol). Hoy día, los tránsitos son seguidos como curiosidades observacionales, pero
históricamente los tránsitos venusianos se intentaron utilizar para medir la Unidad Astronómica (distancia
Tierra-Sol) sin resultados concluyentes. El último tránsito de Venus se produjo el 6 de diciembre de 1882;
después de la cita del 8 de junio del 2004.
Información adicional en: http://mercuri.am.ub.es/
Estallido vital
Los científicos que están estudiando una serie de rocas próximas a una vieja estructura de impacto, en el
sur de Australia, creen haber logrado evidencias que podrían cambiar las actuales teorías que explican
cómo la vida terrestre se diversificó rápidamente hace unos 580 millones de años.
Kath Grey, del Western Australian Department of Industry and Resources' Geological Survey, Malcolm
Walter, del Australian Centre for Astrobiology, y Clive Calver, del Tasmanian Department of Mineral
Resources, no creen que el intenso período de glaciación ocurrido hace unos 600 millones de años,
conocido como “Tierra Bola de Nieve”, fuera el resorte que provocó la evolución de las formas de vida
sencillas hacia especies más complejas y familiares.
Los tres científicos proponen una hipótesis alternativa que dice que, hace 580 millones de años, el impacto
de un asteroide jugó un papel esencial en este salto evolutivo. El citado impacto (conocido como evento
Acraman), practicó un agujero en el sur de Australia unas cuatro veces más grande que Sydney.
Hasta entonces, durante los primeros 3.000 millones de años de la historia de nuestro planeta, las bacterias
y las algas simples habían dominado la vida en la Tierra. Entonces, de un día para otro (geológicamente
hablando), los ancestros de los animales y plantas modernos empezaron a aparecer en el registro fósil. La
pregunta es: ¿qué causó esta rápida proliferación en ese momento?
Otras investigaciones sugerían que el estallido vital ocurrido hace entre 600 y 540 millones de años fue
debido a un intenso período de glaciación global. Pero el grupo del doctor Grey no opina igual. Han
estudiado fósiles de plancton obtenidos en varias prospecciones de profundidad en toda Australia, y han
encontrado que, como predice la teoría de la Tierra Bola de Nieve, las colonias bacterianas y unas pocas
especies esféricas muy simples de plancton fueron los únicos organismos que consiguieron sobrevivir a la
intensa edad del hielo. A medida que el nivel del mar empezó a elevarse, estas formas esféricas
incrementaron su número. Pero no hay síntomas de la aparición de nuevas especies al final de este período
de glaciación que apoyen las ideas de una rápida diversificación geológica en ese momento.
Grey cree que no fue hasta 20 millones de años más tarde que más de 50 especies nuevas altamente
complejas aparecieron de pronto, reemplazando al pequeño número de especies simples en el registro fósil.
Lo curioso es que estos fósiles más complejos aparecen justo encima de la capa de roca asociada con el
impacto Acraman.
Calver, por su parte, piensa que el impacto de un asteroide pudo crear las condiciones ideales para el
cambio evolutivo. Choques posteriores, como el de Chicxulub, hace 65 millones de años, produjeron una
gran mortandad de especies, incluyendo los dinosaurios. Pero tras el Acraman, la mayoría de especies que
sobrevivieron eran muy resistentes, y tenían la habilidad de permanecer aletargadas a través del invierno
80
AÑOS
2381
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 201/460
cósmico que siguió. Cuando las condiciones mejoraron, estas especies tenían ventaja sobre sus
competidores y pudieron proliferar y diversificarse. La propia diversificación del plancton debió jugar un
importante papel en el desarrollo subsiguiente de animales que dependían del plancton como fuente de
alimentos.
Información adicional en: http://aca.mq.edu.au/acraman.htm
Copiando a las arañas
Un equipo del MIT (Massachusetts Institute of Technology), está trabajando para reproducir las
interesantes características físicas del hilo de seda que tejen las arañas. Lo están intentando para obtener un
material artificial semejante que tendrá múltiples aplicaciones.
El objetivo, desde luego, no es nuevo. Hace varias décadas que los científicos tratan de imitar las
propiedades de esta sustancia natural, un prodigio de flexibilidad y dureza. Paula T. Hammond y su equipo
del MIT, sin embargo, pretenden hacerlo sin utilizar técnicas de ADN, para garantizar un suministro barato
y en grandes cantidades.
Una de las metas consiste en crear materiales que puedan proporcionarnos fibras de alta resistencia para
fabricar tendones artificiales, tejidos especiales y sistemas anti-bala ligeros. La seda de las arañas sería
ideal para estas aplicaciones, pero, a diferencia de las ovejas y los gusanos, son animales solitarios que no
pueden criarse en grupo, dificultando su domesticación. Son territoriales y caníbales, de modo que los
científicos preferirían encontrar una alternativa artificial a su seda, un material con propiedades similares y,
si es posible, mejores.
La seda de araña es un polímero con dos regiones alternantes muy claras. Una región es suave y elástica, la
otra forma pequeños y duros cristalitos. Se supone que esta estructura inusual es la responsable de sus
extraordinarias propiedades.
Los investigadores del MIT quieren elaborar una serie de polímeros sintéticos diferentes y estudiar cómo
los cambios en sus estructuras químicas afectan a sus propiedades físicas. Este trabajo se realiza en
paralelo con otro que se centra en las técnicas de procesamiento que mantendrán estas propiedades
inusuales.
Una compañía llamada Nexia ha conseguido seda de araña a partir de la leche de cabras alteradas
genéticamente. Es una buena solución, pero no resuelve el problema completamente, puesto que las
técnicas genéticas son caras y además nadie ha averiguado aún cómo lo consigue la naturaleza y por qué
funciona.
En el MIT están intentando entender las relaciones estructura-característica creando un material equipado
con un mecanismo que proporciona dureza, y viendo si las unidades estructurales producen esta propiedad
de la misma manera que lo hacen los aminoácidos de la seda de araña.
Otra área de trabajo se centra en el elemento de suavidad de la seda. Podría poseer también dos regiones
distintas, una algo más dura que la otra debido a que las fibras de polímero estarían parcialmente alineadas.
Si esto es así, la seda de araña tendría realmente tres fases distintas: dura, suave e intermedia. Ya se está
intentando producir materiales con tal estructura para probar la hipótesis.
Información adicional en: http://web.mit.edu/newsoffice/nr/2003/spiderweb.html
El trabajo “huele”
Esta frase es algo más que un lema entre las hormigas. Científicos de la Stanford University han
descubierto cómo los miles de bien organizados trabajadores de una colonia logran hacer su labor, sin
supervisión ni dirección alguna, intercambiando en ocasiones sus tareas para satisfacer las necesidades del
hormiguero.
Es sorprendente constatar que un insecto con un cerebro del tamaño de una semilla de amapola puede
comportarse de este modo. La respuesta a esta incógnita reside, según los biólogos, en su extraordinario
sentido del olfato.
En un artículo publicado en la revista Nature, los científicos de Stanford explican que, cuando un grupo de
hormigas exploradoras regresa al nido, el particular olor de su cuerpo sirve a las otras trabajadoras para
saber si deben salir y recolectar la comida.
Los investigadores, encabezados por Deborah M. Gordon, han estudiado una especie concreta de hormigas
(Pogonomyrmex barbatus), que se encuentra en el sur del desierto de Arizona. Una colonia madura de
80
AÑOS
2382
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 201/460
estas hormigas rojas cosechadoras consiste en una única reina y entre 10.000 y 12.000 trabajadoras
hembras. La vida de una trabajadora suele ser de un año, pero una reina puede vivir durante 20 y producir
miles de nuevas trabajadoras anualmente (su única responsabilidad). La reina no dirige la colonia ni señala
a las demás hormigas lo que deben hacer.
Hay muchos científicos interesados en entender las interacciones sutiles que existen entre los insectos que
crean grandes y elaboradas comunidades. Además de los biólogos, los ingenieros esperan aplicar sus
enseñanzas para resolver problemas intrincados en la ciencia de los ordenadores, las redes de
comunicaciones e incluso en robótica.
Como la mayoría de las especies de hormigas, las cosechadoras rojas se comunican mediante el tacto y el
olfato. Pero en vez de oler el aire, utilizan sus sensibles antenas para detectar olores en sus alrededores. La
visión no les sirve de gran ayuda, pero sus antenas, en cambio, son capaces de diferenciar olores muy
sutiles producidos por hidrocarburos. La superficie exterior del cuerpo de una hormiga contiene unos 25
hidrocarburos distintos, que emiten aromas ligeramente diferentes, imperceptibles para nosotros.
Los hidrocarburos son moléculas simples de hidrógeno y carbono. Pero cambios limitados en su
concentración pueden provocar modificaciones de comportamiento muy importantes entre las hormigas.
Por ejemplo, en una colonia, todos los ocupantes comparten un mismo olor, lo cual les ayuda a distinguir
entre la suya y otras. En las colonias de hormigas cosechadoras, además, existe otra subdivisión: tareas
diferentes huelen distinto.
Cada grupo de hormigas tiene su propia responsabilidad, y actúa en función de ello. En una colonia,
existen tres tipos de trabajadoras: las que patrullan en busca de comida, las que la recogerán y las que se
ocupan de mantener la estructura del nido. Un estudio de sus cuerpos muestra que existe un tipo de
hidrocarburo con concentraciones diferentes en cada uno de estos tipos de hormiga. Unos y otros se
reconocen mutuamente y actúan en consecuencia. Por ejemplo, las hormigas que patrullan encontrarán a
las recogedoras al volver al nido. Esta situación indicará a estas últimas si será o no seguro aventurarse
lejos (en función del número de patrulleras que encuentren) y traer la comida que sus compañeras han
localizado.
Existen algunas especies de hormigas muy molestas que invaden nuestros hogares. Si algún día
encontráramos los hidrocarburos que indican a los insectos que es hora de retirarse, dispondremos de un
sistema óptimo para su eliminación.
Información adicional en: http://www.stanford.edu/dept/news/pr/03/antchat57.html
Breves del Mundo de la Ciencia
EL PRIMER TRANSISTOR TRANSPARENTE: Ingenieros de la Oregon State University han creado el
primer transistor transparente del mundo, un componente electrónico que podría abrir las puertas hacia
muchos productos nuevos.
ACUERDO ENTRE EL IAC E “ISAAC NEWTON”: Se ha firmado el convenio de cooperación para la
operación del Grupo de Telescopios “Isaac Newton” (ING) entre el Instituto de Astrofísica de Canarias
(IAC), el Consejo de Investigación de Física de Partículas y Astronomía (PPARC) y el Consejo de
Investigación Científica de los Países Bajos (NWO).
LA REACCIÓN BIOLÓGICA MAS LENTA CONOCIDA: Todas las reacciones biológicas en las células
humanas dependen de los enzimas. Su potencia como catalizadores permite que estas reacciones ocurran
en milisegundos. Sin los enzimas, ¿cuál sería la velocidad de una reacción espontánea de este tipo?
A LA ESPERA DEL GRAN TERREMOTO: Un nuevo estudio realizado por un geólogo de la University
of Colorado en Boulder sugiere que podría producirse un terremoto de más de un millón de muertos cada
siglo si no se desarrollan materiales de construcción y estructuras más resistentes.
ESTRUCTURA DE UN INTERRUPTOR NATURAL: Unos investigadores han encontrado la respuesta a
un importante interrogante biológico al descubrir el exquisito mecanismo mediante el cual los canales de la
membrana celular perciben cambios de voltaje que hacen que se abran o cierren por completo a una
velocidad y precisión extraordinarias.
LA DEMANDA DE MADERA HARA CRECER LOS BOSQUES: Un aumento en la demanda de
productos derivados de la madera fue la causa del crecimiento de la superficie arbolada en la India durante
las tres últimas décadas, y no al contrario, como se creía hasta ahora.
80
AÑOS
2383
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 201/460
MONOS Y DECLIVE MENTAL: Un análisis de los monos más viejos del mundo podría explicar el
declive mental que experimentamos con la edad.
SECUENCIADO EL GENOMA DEL ANTRAX: El genoma del microbio Bacillus anthracis, que en 2001
experimentó una cierta popularidad por protagonizar diversos ataques bioterroristas por vía postal, es a
partir de ahora un organismo mejor conocido.
PURIFICACIÓN DE PROTEÍNA DE SEÑALIZACIÓN: La purificación de una poderosa molécula de
señalización que hace que las células maduren también podría indicar el principio de una nueva era en el
diseño de tejidos.
ATRACCIÓN POLARIZADA: Un grupo de biólogos ha descubierto que algunas mariposas iridiscentes
utilizan la polarización de la luz refractada en sus intrincadas escamas prismáticas como señal de
apareamiento.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
MATEMÁTICOS, ¿PARA QUÉ?
Creo que una de las situaciones más absurdas e irritantes que usted y yo padecemos en
este mundo de hoy es la de “hacer cola”: cola para comprar tortillas, para entrar al cine,
para abordar el autobús, para pagar el agua, para ser atendidos por el médico, para hacer
una solicitud de trabajo, para comprar estampillas, para pagar la cuenta en el
supermercado, para usar un teléfono público y, en ocasiones, hasta para tomar un café.
El número de horas-hombre de trabajo perdidas haciendo cola es un indicador indirecto
de la eficiencia en la conducción y administración de un país; pocas y cortas colas
reflejan prosperidad, largas y numerosas, lo contrario.
Mencionar esta situación viene al caso porque resulta que existe una rama de la
matemática moderna que recibe el nombre, aunque usted se ría, de Teoría de colas.
Precisamente, el propósito de esta teoría es la descripción y análisis matemático del
comportamiento de una cola. Tiene aplicaciones en campos tan diversos como: la
operación de centrales telefónicas, el cálculo de la capacidad de tráfico de una calle o
carretera, el control de las llegadas de aviones a un aeropuerto y, desde luego, el análisis
de las colas que se forman en una tortillería o en un banco. Si bien la formulación
matemática del problema es algo complicada, basta decir que si se aplica adecuadamente
puede derivarse una estrategia que minimice el tiempo que los “clientes” pasan haciendo
cola. Piense en las enormes pérdidas económicas ocasionadas por los barcos que arriban
a un puerto y no pueden descargar de inmediato, las pipas que hacen cola frente a las
puertas de una refinería, los miles de empleados que cada quincena acuden a los bancos a
cobrar sus cheques.
Para llegar a la formulación de la Teoría de colas y otras ramas avanzadas de las
matemáticas modernas como la topología, el análisis funcional, la teoría de autómatas y
otras, la humanidad ha tenido que recorrer un largo trecho. Muy lejos estamos de
aquellas culturas en las cuales ni siquiera existía el concepto número. No se sabe con
exactitud en qué momento fuimos capaces de percibir lo que había de común en tres
piedras, tres árboles y tres borregos. Hacia el año 2000 a.C., los egipcios y babilonios, en
80
AÑOS
2384
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 201/460
el viejo mundo, y los mayas, en nuestro continente, hacían uso de un sistema matemático
rudimentario. Estos conocimientos estaban estrechamente vinculados a problemas
prácticos y se aplicaban principalmente al comercio, al cálculo de tasa de impuestos y a
la agrimensura. También los utilizaron para hacer cálculos astronómicos que empleaban
en la elaboración de calendarios. Para estas sociedades era tanta la importancia dada a los
conocimientos matemáticos que eran los sacerdotes los depositarios de este saber. Los
griegos fueron los herederos de egipcios y babilonios en cuanto al saber matemático y a
ellos se debe el establecimiento de las matemáticas como un sistema formal y deductivo.
Durante la época de oro de la Grecia Antigua, entre 600 a.C. y 600 d.C., surgieron
matemáticos tan notables como Tales de Mileto, Pitágoras, Eudoxo, Euclides,
Arquímedes y Apolonio. Las matemáticas empezaron a tener vida propia y fueron
alejándose de las aplicaciones prácticas. Su importancia era tal que, en la educación de la
aristocracia griega, Platón colocó a la entrada de su famosa academia la frase: “Que
nadie que no sepa geometría traspase mis puertas”.
La destrucción de Alejandría en el año 640 d.C., marcó la caída de la sociedad griega.
Surgió entonces el dominio de los árabes en el continente europeo. A ellos se debe haber
conservado y traducido gran parte de los textos clásicos griegos. En lo que se refiere a las
matemáticas tradujeron las obras de Aristóteles, Euclides, Apolonio, Arquímedes y
Ptolomeo, al árabe y al latín; además, incorporaron algunas ideas de los hindúes como el
uso del cero y la notación posicional con base 10, que hasta la fecha utilizamos.
Durante cerca de 1 500 años, las matemáticas no se desarrollaron de modo apreciable,
más allá del punto donde los griegos las habían dejado. En el siglo XVI, en pleno
Renacimiento, las matemáticas vuelven a recibir un fuerte impulso debido,
fundamentalmente, a problemas prácticos que en ese entonces se planteaban: la
elaboración de cartas de navegación, el diseño y construcción de máquinas, los
problemas de comercio en gran escala, etc. En este momento se dan las condiciones para
superar la oposición matemáticas puras-matemáticas aplicadas; es a partir de fenómenos
físicos que se fueron formulando muchos de los conceptos básicos de las matemáticas
modernas, como el de función. También, en esta época, se sientan las bases de la
notación algebraica moderna, surgen las teorías de Galileo, Kepler y Newton, fuertes
pilares de la ciencia moderna. El efecto de las aportaciones de Newton (la teoría de la
gravitación universal y el cálculo diferencial integral, entre otras) lo hizo merecer
infinidad de honores, lo cual haría decir más tarde a Voltaire que se sentía orgulloso de
haber vivido durante algún tiempo “en un país donde se entierra un profesor de
matemáticas, sólo porque fue grande en su vocación, como a un rey que ha hecho el bien
a sus súbditos”.
Puede decirse que, a partir del Renacimiento, el desarrollo de las matemáticas ha sido
ininterrumpido y que de diferentes ámbitos se ha reclamado su intervención; la física, la
química, la biología, la economía, la agronomía y, en cierta medida, la música y las artes
plásticas han incorporado las matemáticas como parte de su estructura teórica.
Al crecer la importancia de las matemáticas, su ejercicio se ha ido profesionalizando. En
la actualidad, la demanda de matemáticos en los países avanzados es considerable por
parte de la industria, del sector público y, desde luego, de las universidades y centros de
investigación. Asimismo, las matemáticas tienen un lugar importante en nuestra vida
cotidiana. El desenvolvimiento de cualquier ciudadano en el mundo actual es impensable
80
AÑOS
2385
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 201/460
sin ciertas habilidades matemáticas elementales: cálculo de porcentajes, manejo de
“quebrados”, regla de tres, cálculo de promedios, etcétera.
Por lo anterior, resulta alarmante constatar que la calidad en la enseñanza de las
matemáticas en nuestro país está cada vez peor en todos los niveles educativos. Son
numerosos factores los que determinan esta desafortunada situación, pero quizá uno de
los más importantes sea la escasez de matemáticos en nuestro medio. Esto es explicable
debido a que los esfuerzos sistemáticos por formarlos son relativamente recientes.
El doctor Juan José Rivaud, investigador del Instituto Politécnico Nacional, dice que fue
hasta después de la Revolución cuando se empieza a aglutinar a los interesados en las
matemáticas en la Escuela de Ingeniería, que entonces funcionaba en el Palacio de
Minería. En la década de los cuarenta se funda en la UNAM el Instituto de Matemáticas
y la carrera de Matemáticas, dentro de la Facultad de Ingeniería. Y no fue sino hasta los
años sesenta cuando surge la Escuela Superior de Física y Matemáticas del IPN, el
Instituto de Matemáticas Aplicadas y Sistemas de la UNAM, el Departamento de
Estadística del Consejo de Postgraduados de Chapingo y diversas licenciaturas de
matemáticas en universidades de provincia.
Menciona el doctor Rivaud que en la actualidad el país cuenta aproximadamente con 100
doctorados en matemáticas, 250 con maestrías y unos 500 licenciados en matemáticas
(“El Desarrollo de las Matemáticas en México”, Ciencia y Desarrollo, núm. 49, marzoabril, 1983).
Es decir, en todo México no llega a 1 000 el número total de matemáticos. Este hecho se
refleja en la deficiente enseñanza de las matemáticas en todos los niveles académicos, la
poca difusión de conocimientos matemáticos entre la población y en la ineficiencia en el
desarrollo y aplicación de modelos matemáticos a problemas prácticos, como el de las
colas. Pocos jóvenes se sienten atraídos hacia la carrera de matemáticas, en parte por el
velo de esoterismo que la rodea, y en parte, por el poco interés de los matemáticos en
divulgar el objeto de estudio, los métodos y los avances de las matemáticas.
Debemos volver un poco al espíritu renacentista y nutrir a las matemáticas de lo real,
desarrollando, a la vez, sus partes más abstractas para entenderlas mejor y extender aún
más sus dominios. No menospreciar las matemáticas aplicadas ni descuidar la atención
de las matemáticas puras. Requerimos buenos matemáticos, matemáticos “puros” y
también matemáticos “contaminados”, que sean capaces de entender el lenguaje de la
naturaleza y traducirlo al de las matemáticas y viceversa.
Las matemáticas están lejos de ser omnipotentes, pero qué buen servicio prestan. Por
eso, amigo lector, la próxima vez que haga cola, reflexione con benevolencia en las
matemáticas y, muy especialmente, en los matemáticos.
80
AÑOS
2386
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 202, 19 de mayo de 2003
No. acumulado de la serie: 461
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Todo está a punto para que el próximo día 2 de
junio (17:45 UTC) se produzca el lanzamiento de
la sonda europea Mars Express en dirección al
Planeta Rojo, a bordo de un cohete ruso Soyuz,
desde Baikonur. La ESA transmitirá el despegue
vía satélite desde las 17:15 UTC hasta las 20:00
UTC, con comentarios en inglés. La señal podrá
captarse en digital por el popular sistema Astra
(19 grados Este), en la frecuencia 10.832 MHz,
Polarización horizontal, SR: 22.000, FEC 5/6.
La NASA también prepara el lanzamiento de sus
dos sondas marcianas (MER-1 y 2). Para
garantizar que no contaminen biológicamente la
superficie de Marte, tanto los robots móviles
como sus naves de aterrizaje están siendo
esterilizados a conciencia en el Kennedy Space
Center. Según el reglamento vigente, los
vehículos que deberán aterrizar no pueden
transportar más de 300.000 esporas en las
superficies expuestas, y su densidad debe ser
inferior a 300 esporas por metro cuadrado. Para
la descontaminación se emplea alcohol, y las
tareas se repiten una y otra vez hasta alcanzar el
nivel deseado. En la actualidad, los MER
muestran menos de 200.000 esporas, y así deben
permanecer hasta el día del lanzamiento. Las
zonas que no pueden ser descontaminadas con
alcohol son sometidas a un ambiente seco con
temperaturas de hasta 125 grados Celsius durante
5 horas.
El Hijo de El Cronopio No. 202/461
No hay camino seguro
Por Dr. Barbahan
Para Berenice
El mingitorio del bar “El Delirio Azul” es de cemento, y está hecho a la usanza de
antes, además es enorme, parece una alberca diminuta.
Una noche, alguien hizo unos barquitos de papel y los puso dentro del
mingitorio. Con la chorra intente hundir algunos, sólo lo conseguía por unos
instantes, inexplicablemente volvían a la superficie. Todavía peor la pequeña
flota navegaba contra corriente, como si manos expertas la guiaran en la terrible
borrasca, iban rumbo al rincón más oscuro lejos del sumidero, donde, sentada
sobre un pequeñísimo promontorio de piedras y cemento, casi imperceptible,
una sirena de ojos verdes, y labios de carmín pintados a fuego, tocaba el laúd
mientras con su voz hermosa llena de promesas intimas, le cantaba a los
diminutos marineros.
Noticias de la Ciencia y la Tecnología
Cultura Chaco
La tribu de los Anasazi, en el cañón Chaco, construyó viviendas extraordinariamente grandes, sistemas de
control de las aguas muy elaborados y una vasta red de caminos respondiendo a la degradación de sus
tierras de cultivo, un siglo después de haberse establecido en la zona.
Los Anasazi procedían del sudoeste de Colorado, en los Estados Unidos. En el año 850, se desplazaron
hacia la cuenca de San Juan, en el noroeste de Nuevo México, en busca de una nueva zona donde vivir y
cultivar la tierra.
Eric R. Force, de la University of Arizona, ha analizado lo que debieron encontrar cuando llegaron allí: un
lago de uno o dos kilómetros de largo, producido por una presa natural, y más allá, una zona plana creada
por la deposición de sedimentos, ideal para la agricultura.
Sin embargo, unos 50 ó 70 años después, la presa natural se rompió de forma súbita, y la llanura se
convirtió rápidamente en un arroyo, dificultando mantener el suministro de agua doméstica y aún más el
regadío.
La situación obligó a algunos de estos agricultores prehistóricos a desplazarse hacia el sur. Pero no
permanecieron inactivos en Chaco. De hecho, el suceso fue la chispa que propició su expansión como
cultura. Hacia el año 1040, empezaron a construir sus viviendas más grandes, incluyendo las de Pueblo del
Arroyo, Pueblo Bonito y Chetro Ketl. También amp liaron sus intrincados sistemas de control de aguas,
como presas, canales, etc.
Las evidencias arqueológicas sugieren que la tensión del entorno impuesta por la rotura de la presa natural
forzó a esta gente a alcanzar el siguiente nivel superior de organización social. Sólo con este esfuerzo
80
AÑOS
2388
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 202/461
suplementario lograron continuar explotando sus campos en una zona que había cambiado mucho desde
que se establecieron.
Información adicional en:
http://uanews.org/cgibin/WebObjects/UANews.woa/5/wa/SRStoryDetails?Artic leID=7266&wosid=tR8WnWOitVXagFDvnlgJZw
El halo de Andrómeda
Utilizando las imágenes en luz visible más “profundas” obtenidas hasta ahora con el telescopio espacial
Hubble, los astrónomos han podido medir la edad del halo esférico de estrellas que rodea a la vecina
galaxia de Andrómeda (M31).
Para sorpresa de los científicos, aproximadamente un tercio de las estrellas de este halo se formaron hace
“sólo” entre 6.000 y 8.000 millones de años, mucho menos que los 11.000 a 13.000 millones de años de las
estrellas del halo de nuestra galaxia, la Vía Láctea.
¿Por qué esta diferencia de edades? Aparentemente, M31 debió fusionarse con otra gran galaxia, o quizá
con varias más pequeñas, hace miles de millones de años. Los astrónomos aún no saben si fue un
fenómeno tumultuoso o si fue una sucesión continuada de fusiones con galaxias más pequeñas. Las
estrellas “jóvenes” encontradas en el halo de Andrómeda son más ricas en elementos pesados que las
estrellas del halo de nuestra galaxia. El nivel de enriquecimiento químico parece típico de galaxias
relativamente masivas, conteniendo al menos 1.000 millones de estrellas.
Esto sugiere tres posibilidades: que las colisiones destruyeron el disco joven de M31 y dispersaron muchas
de sus estrellas en dirección al halo; que una única colisión destruyó a la galaxia invasora (ésta,
relativamente masiva), y dispersó sus estrellas, así como algunas del disco de Andrómeda, hacia el halo; o
que se formaron muchas estrellas nuevas durante la propia colisión.
Serán necesarias observaciones más detalladas para aclarar este punto. Localizada a sólo 2,5 millones de
años-luz de distancia de nosotros, la galaxia de Andrómeda, visible a ojo desnudo en el cielo de otoño, es
considerada un gemelo de nuestra Vía Láctea en cuanto a tamaño, forma y edad. Conocer mejor a M31
implica saber más cosas de nuestra propia Vía Láctea, sobre cómo se formaron, devorando a otras galaxias
después de atraerlas hacia ellas.
Hasta ahora, los telescopios sólo habían podido ver las estrellas más brillantes de la población del halo de
Andrómeda. Las estrellas “normales”, como el Sol, estaban fuera de nuestro alcance. Con la cámara ACS
del telescopio espacial Hubble, los astrónomos han podido resolver unas 300.000 de estas estrellas
anteriormente invisibles.
En la mis ma imagen de M31, el Hubble nos muestra a miles de galaxias situadas a miles de millones de
años-luz de distancia (brillando hasta la magnitud 31), muchas de ellas resultado de múltiples colisiones.
Información adicional en: http://hubblesite.org/newscenter/archive/2003/15/text
Diamantes con origen oceánico
Un geólogo de la University of Toronto, Daniel Schulze, cree que los materiales que forman los diamantes
extraídos de Guaniamo, Venezuela, se originaron en el fondo oceánico. Símbolo de belleza y riqueza, son
el testamento de la historia de nuestro planeta.
El proceso de formación del diamante empieza cuando el manto, la capa interna de la Tierra entre el núcleo
y la corteza, obliga a la lava a ascender hacia el fondo oceánico. La lava se solidifica, formando una roca
volcánica llamada basalto. Cuando éste interacciona con el agua marina, su contenido de oxígeno cambia.
Las rocas volcánicas se ven alteradas y forman nuevos minerales.
Los procesos geológicos se encargarán después de introducir este basalto bajo las placas continentales del
planeta, donde el calor y la presión lo convierten en hermosas rocas rojas y verdes que podrían contener
diamantes, si se encuentra presente carbono. Con el paso del tiempo, a medida que estas rocas permanecen
en el manto, adoptan la composición de oxígeno que encuentran en el entorno. Este proceso puede borrar o
modificar las pruebas de su origen oceánico. Pero como los diamantes de estas rocas son impermeables,
actúan como “cápsulas del tiempo”, preservando dentro de ellas un registro de las condiciones que
existieron durante su formación.
Schulze y sus colegas han utilizado un nuevo procedimiento que emplea una microsonda de iones para
analizar los diamantes. Se obtiene así una cifra sobre la presencia de oxígeno, que puede ser comparada
con la de basaltos alterados por el océano, por ejemplo.
80
AÑOS
2389
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 202/461
El análisis de los diamantes también ha revelado que algunos poseen carbono “biogénico”, es decir,
carbono que una vez perteneció a un organismo vivo, como podrían ser antiguas bacterias que vivieron en
el fondo del mar. El calor y la presión habrían convertido el carbón orgánico en carbón puro, en forma de
grafito, y finalmente en diamante.
Información adicional en: http://www.newsandevents.utoronto.ca/bin4/030430b.asp
Lluvia de meteoritos
Utilizando meteoritos fósiles y piedra caliza antigua desenterrados en el sur de Suecia, varios geólogos
marinos de la Rice University han descubierto que una gran colisión producida en el cinturón de asteroides
hace 500 millones de años provocó una intensa lluvia de meteoritos sobre la superficie terrestre.
Las muestras extraídas proceden de localidades separadas hasta 500 km. La roca caliza se formó a partir de
sedimento del fondo del mar, durante un período de unos 2 millones de años, hace unos 480 millones de
años, y encerró en su interior, manteniéndolos intactos, un gran número de meteoritos, así como materiales
de otros que se habían desintegrado. El conjunto forma una auténtica cápsula del tiempo litográfica.
Para Birger Schmitz, uno de los participantes en la investigación, su estudio tiene mucho que ver con la
astronomía, aunque en este caso, en vez de mirar hacia las estrellas, lo han hecho hacia el suelo.
La actividad meteórica actual sobre la Tierra es relativamente uniforme, y puede cuantificarse en un
meteorito por año cada 12.500 kilómetros cuadrados. En cambio, el nuevo estudio señala que se produjo
una actividad meteórica 100 veces superior durante el período de formación de la piedra caliza, un nivel de
actividad presente al menos en los 250.000 kilómetros cuadrados del área de búsqueda.
Aproximadamente el 20 por ciento de los meteoritos que caen sobre el planeta hoy en día son restos de un
asteroide muy grande que se desintegró hace unos 500 millones de años, durante la que parece haber sido
la colisión más grande que haya ocurrido en la historia del sistema solar. Todos los meteoritos fósiles
suecos proceden de esta colisión, ya que su composición es idéntica.
Encontrar meteoritos fósiles en estratos de rocas es muy poco habitual: sólo se habían encontrado 5 hasta
que el grupo de Schmitz halló 50 más en la zona de Kinnekulle, en Suecia, durante la última década. Tal
abundancia habla de un acontecimiento extraordinario reflejado en la roca que ahora ha salido a la luz
pública. Es lógico pensar que habrá otros yacimientos de este tipo en todo el mundo. Algunas zonas de
China y Sudáfrica son favorables para una búsqueda.
Información adicional en: http://riceinfo.rice.edu/projects/reno/Newsrel/2003/20030508_meteorite.shtml
El vigía de la lluvia
Los datos que nos envía el satélite TRMM (Tropical Rainfall Measuring Mission) tienen un enorme valor
para los meteorólogos. Los profesionales puedan con ellos levantar a diario mapas de las áreas del planeta
que podrían resultar afectadas por inundaciones.
Los mapas están disponibles para su visualización en Internet y suponen un recurso inestimable para los
órganos que, en muchos países, deben decidir qué medidas a adoptar para garantizar la seguridad de sus
ciudadanos.
El TRMM es diferente de la mayoría de satélites de teledetección porque es capaz de observar las nubes y,
en función de sus características, estimar la cantidad de precipitación que pueden aportar. Sus compañeros
espaciales, en cambio, sólo pueden fotografiar las áreas inundadas por la lluvia, cuando ya no es posible
prevenir sus consecuencias.
Los datos obtenidos por el TRMM son siempre actuales, puesto que es capaz de observar casi toda la
superficie terrestre cada tres horas. Sus mapas de precipitación futura también sirven a los agricultores para
estimar el estado de sus cultivos, a menudo en regiones remotas, sobre todo en los trópicos.
Los mapas del TRMM muestran la Tierra desde la latitud 50 grados norte hasta la latitud 50 grados sur. Se
obtienen mediante el uso de radiómetros de microondas y de un radar especial, los cuales miden el
contenido de agua de las nubes.
Si queremos estimar la precipitación acumulada, el TRMM ofrece tres tipos de mapas: uno cada 24 horas,
que muestra las áreas donde han caído más de 35 mm de lluvia; uno cada 3 días, para acumulaciones de
más de 100 mm; y uno cada 7 días, que muestra los lugares donde se han depositado más de 200 mm de
lluvia.
80
AÑOS
2390
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 202/461
Otro producto, actualizado cada tres horas, muestra una “fotografía” global de las precipitaciones. Las
imágenes pueden ser unidas entre sí para crear películas animadas que permiten seguir el comportamiento
de las tormentas a media que se desplazan sobre tierra y mar.
La fusión de los datos enviados por el TRMM con los de otros satélites posibilita aumentar la precisión y
fiabilidad de los mapas, que serán de mucha utilidad para los meteorólogos de todo el mundo.
El TRMM fue lanzado el 27 de noviembre de 1997 y es una misión conjunta entre Estados Unidos y
Japón.
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0425floods.html
Los aviones se autorrepararán en vuelo
Científicos del CSIRO australiano están investigando una tecnología que permitirá que un aeroplano pueda
diagnosticar y reparar un componente defectuoso incluso en el aire, o que una nave espacial pueda detectar
una loseta térmica rota y repararla sin intervención humana de ningún tipo.
Los actuales sistemas de ingeniería, cada vez más complejos, son también más propensos a desarrollar
puntos en los que pueden aparecer fallos, comprometiendo su funcionamiento. Geoff James, del CSIRO,
propone su sustitución por lo que su grupo llama “Smart Spaces”, sistemas inteligentes con una
flexibilidad automática para afrontar situaciones imprevistas. Serán capaces de autoconfigurarse,
autorrepararse, y adaptarse a las condiciones cambiantes o a nuevos requerimientos, de manera que puedan
funcionar de forma efectiva con una intervención humana mínima.
Esta tecnología habría impedido un accidente como el del transbordador Columbia, causado por el fallo de
una simple loseta térmica cuando resultó dañada por un impacto inesperado. Este hecho demuestra que
incluso las prácticas de ingeniería más meticulosas y la dedicación humana más completa no garantizan un
sistema libre de faltas. La nueva manera de afrontar el diseño de vehículos acepta los errores humanos y
los eventos inesperados como inevitables, de manera que profundiza en la obtención de una adecuada
flexibilidad para la detección de anomalías antes de que se produzca el fallo terminal, creando alternativas
para resolverlas de manera automática y evitar así el accidente.
Los “espacios inteligentes” controlarán los aviones y las naves espaciales, pero también las fábricas y sus
procesos, vigilarán ganado, cultivos, agua y suelo, e integrarán el conocimiento médico y la respuesta que
dimana de él en toda una comunidad. Cambiarán la forma en que las personas interactúan con el entorno,
permitiendo la recogida de información compleja, su reparto y su utilización para la toma de decisiones.
Un espacio inteligente debe poder autoorganizarse o reorganizarse en un todo funcional nuevo. Tendrá así
una vida propia. Dándoles libertad para seguir sus propias estrategias, encontrarán soluciones en las que
los ingenieros humanos podrían no haber pensado.
El grupo CSIRO Smart Spaces ya está trabajando los aspectos teóricos y prácticos del concepto. El
objetivo prioritario será construir sistemas que funcionen, y utilizarlos para revolucionar las prácticas
industriales. Los avances que se realicen serán transferidos de inmediato a prototipos para evaluar su
utilidad en la vida real.
Información adicional en: http://www.csiro.au/index.asp?type=mediaRelease&id=Prsmartspaces
La tormenta imposible
Los meteorólogos creían que los huracanes no podían formarse cerca del ecuador. Pero una tormenta
llamada tifón Vamei, detectada el 27 de diciembre de 2001 cerca de Singapur, rompió todos los esquemas.
Se había formado tan cerca del ecuador que sus fuertes vientos afectaron a ambos hemisferios. Un reciente
trabajo ha desvelado los mecanismos por los cuales la tormenta imposible se hizo realidad.
Financiados por la National Science Foundation y la Office of Naval Research de la Marina
estadounidense, los científicos han concluido que el tifón Vamei fue el resultado de dos sistemas
interactuando entre sí.
Las tormentas intensas que se forman sobre las aguas oceánicas calientes agitan la atmósfera, pero es la
rotación de la Tierra la que las hace girar ferozmente, debido al efecto Coriolis. Esta desviación provoca su
giro en el sentido contrario de las agujas del reloj en el hemisferio Norte, y en el sentido horario en el Sur.
La región más tranquila para esta fuerza (como el ojo del huracán), se halla sobre el ecuador, de manera
que los científicos creían que las tormentas que se formaban sobre ella no podían desarrollar la potencia
necesaria para empezar a girar.
80
AÑOS
2391
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 202/461
Antes del tifón Vamei (los huracanes que aparecen en el océano Pacífico se denomina tifones), no se
conocía a ninguna tormenta de este tipo que hubiera surgido a menos de 200 millas del ecuador. Vamei sí
lo hizo porque fue el resultado de la interacción excepcional de dos sistemas, explica C.P. Chang, uno de
los meteorólogos que han participado en la investigación: una circulación débil que se formó sobre Borneo
y derivó hacia la punta sur del Mar de China Meridional, y otra fuerte y persistente procedente del
nordeste, que giró al cruzar el ecuador y creó una enorme rotación de fondo.
El mecanismo parece claro, pero las tormentas sobre Borneo y los súbitos vientos del nordeste son
procesos habituales durante el invierno monzónico. Cabe pues preguntarse por qué no se había visto
anteriormente un ciclón ecuatorial. Los científicos creen que ello tiene que ver con el estrecho margen de
tiempo, debido a la configuración de la región, disponible para que el fenómeno se produzca. De hecho, se
estima que una tormenta como Vamei sólo tendrá oportunidad de formarse una vez cada 100 a 400 años, y
seguramente jamás fuera de esa zona. Sin duda, una auténtica “tormenta perfecta”.
Información adicional en: http://www.nsf.gov/od/lpa/news/03/tip030512.htm#first
Camino hacia Tierra
La empresa Boeing y la NASA están ensayando un nuevo sistema de representación visual para
navegación aérea que hará más seguro el vuelo, aumentando al mismo tiempo la capacidad de los
aeropuertos actuales. La pantalla, que será montada en las cabinas de mando, mostrará al piloto una ruta
virtual hasta su destino.
El sistema, cuyo desarrollo se halla muy avanzado, está siendo ensayado mediante un simulador instalado
a bordo de un helicóptero UH-60 Blackhawk. Las pruebas, realizadas entre el 12 y el 16 de mayo, buscan
certificar sus capacidades en vuelo.
El sistema ha sido bautizado como PFG (Perspective Flight Guidance) y será especialmente útil sobre
aeropuertos próximos a áreas densamente pobladas o afectados por condiciones meteorológicas poco
idóneas. Su pantalla permitirá a los pilotos entrar y salir de los aeropuertos de forma precisa y segura, sin
afectar al flujo de tráfico primario o sin incrementar el ruido que ya debe soportar la comunidad ciudadana
del entorno.
El investigador principal del proyecto, William Hindson, del Ames Research Center, explica que el sistema
PFG, a diferencia de otros equipos, presenta una visión en perspectiva de los próximos 60 segundos de la
ruta ideal de la aeronave. Basándose en la información del plan de vuelo, traza cuatro líneas segmentadas,
que crean un camino tridimensional virtual apropiado para el piloto. Además, se incluyen notas sobre los
giros y cambios de altitud necesarios para seguir la ruta. El programa que gobierna el sistema también
puede anticipar dónde estará la nave dentro de 4,5 segundos, basándose en el comportamiento del piloto a
los mandos de su vehículo, y lo alertará si sus acciones pueden resultar en una “salida de pista”.
El PFG fue desarrollado originalmente para los aparatos de despegue y aterrizaje vertical (STOL) que
utilizan en ocasiones rutas de gran ángulo para sus maniobras. Se incluyen en esta categoría aviones de ala
fija, helicópteros, etc. La pantalla tiene también aplicaciones militares, como por ejemplo durante
operaciones que requieran el despliegue seguro de un gran número de aviones y helicópteros
convencionales, de noche o en malas condiciones meteorológicas.
El UH-60 Blackhawk utilizado durante los ensayos ha sido modificado por la NASA y el US Army como
plataforma flexible de pruebas en vuelo. Permite comprobar el funcionamiento de muchas tecnologías de
control y visualización en cabina desarrollada tanto por la NASA como por los militares y las empresas
colaboradoras.
Información adicional en: http://amesnews.arc.nasa.gov/releases/2003/03_35AR.html
Una nueva forma de explorar la superficie marciana
Estudiantes de la North Carolina State University han colaborado con la NASA en su programa de
exploración de Marte. Su aportación es un diseño muy interesante llamado “tumbleweed” (planta
rodadora). De aspecto esférico, el vehículo será arrastrado por el viento y podrá recoger datos atmosféricos
y muestras geológicas en múltiples lugares.
El proyecto ha sido realizado en la clase de Diseño Aeroespacial de la NCSU por nueve alumnos y su
profesor. Todos han participado en las investigaciones en torno al concepto y en el desarrollo del prototipo,
80
AÑOS
2392
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 202/461
sometido posteriormente a pruebas en un túnel de viento y en el campo, donde se ha ensayado su
comportamiento en una situación real.
La idea del "Mars Tumbleweed" se le ocurrió a David Minton, el líder del equipo de estudiantes, mientras
trabajaba como interno en el Langley Research Center de la NASA, durante el verano del pasado año. Al
regresar a la universidad, propuso un proyecto que, además de ser útil para su curso de diseño, lo fuera
para la agencia espacial.
El Tumbleweed posee una estructura intrincada y muy ligera, que permite aprovechar el emp uje del viento
para realizar movimientos sin ningún otro gasto de energía. El concepto se basa en ciertas plantas de la
pradera, que se mueven de una manera semejante en la naturaleza.
Validado el diseño teórico, los estudiantes construyeron un prototipo físico de la “planta rodadora”, el
llamado Tumbleweed Earth Demonstrator (TED), cuya escala se ha adaptado a las condiciones imperantes
en nuestro planeta.
El vehículo ayudará a los ingenieros del Langley en sus investigaciones sobre sistemas de exploración
marciana. Los datos preliminares aportados por el TED influirán en futuras ideas parecidas que serán
consideradas para su inclusión en misiones a Marte.
Los actuales vehículos de exploración marciana son muy complejos y caros, además de tener una muy
limitada movilidad en ciertos terrenos. Las zonas de aterrizaje se eligen buscando la seguridad de esta
maniobra crucial, de manera que muchos lugares interesantes permanecen inaccesibles. Una próxima
misión podría lanzar varios Tumbleweeds sobre la superficie del Planeta Rojo, permitiendo que sea el
viento el que los arrastre hasta grandes distancias. Llevarían sensores para buscar agua o investigar el
clima.
Información adicional en: http://oea.larc.nasa.gov/news_rels/2003/03-029.html
Proteínas a la carta
Bioquímicos del Duke University Medical Center han desarrollado un método por ordenador que permite
diseñar proteínas con funciones específicas, como la detección de una amplia variedad de sustancias, desde
el TNT a las que se hallan en el cerebro e intervienen en muchos desórdenes neurológicos.
Los científicos que han participado en el trabajo creen que nos hallamos ante un importante paso hacia la
“biología sintética”, donde seremos capaces de constructor organismos hechos a medida para una gran
variedad de tareas. En este ámbito se encontrarían conceptos tales como los “centinelas biológicos”, que
podrían utilizarse en muchas aplicaciones médicas y ambientales.
Homme Hellinga, el autor principal del artículo que describe el trabajo, publicado en la revista Nature,
explica que sería posible “diseñar” una bacteria modificada que respondiera ante la presencia de TNT, un
conocido explosivo. El organismo podría emitir entonces una luz fluorescente, que nos ayudaría a detectar
la existencia de minas enterradas bajo tierra. También podría desarrollarse un vegetal cuyas células
cambien de color en respuesta a un contaminante. Serían plantados cerca de las instalaciones químicas y
ayudarían a detectar la polución de las aguas subterráneas.
Tales escenarios parecen dignos de una película de ciencia-ficción, pero en realidad son perfectamente
posibles a largo plazo si se emplean las técnicas de diseño por ordenador presentadas por los científicos del
Duke University Medical Center, especialmente indicadas para crear proteínas que actúen como sensores.
Hellinga ya está desarrollando una proteína que detecta glucosa. Los diabéticos podrían utilizarla para
controlar su estado, y quizá, más adelante, será la base para crear un páncreas artificial. También está en
marcha el proyecto de la proteína que detectará TNT. Será instalada en robots submarinos, de manera que
puedan detectarse los gases procedentes de bombas que se han hundido en el mar sin explotar.
La labor de Hellinga y sus colegas Loren Looger, Mary Dwyer y James Smith, ha consistido en utilizar un
ordenador para “rediseñar” una proteína normal de manera que pueda encajar en otros tipos de moléculas.
Las proteínas utilizadas proceden de la bacteria E. coli. Se trata de receptores que detectan una molécula
objetivo gracias a un punto “activo”, dotado de propiedades de unión y de una forma muy precisa que
encaja sólo con una molécula particular, como lo hace una llave en una cerradura. Las proteínas son largas
cadenas de unidades de aminoácidos que se pliegan sobre sí mismas para formar estructuras globulares
muy intrincadas.
El ordenador lo que hace es reducir el enorme número de posibles mutaciones y sus correspondientes
estructuras, para hacer que la proteína estudiada encaje en una molécula particular que nos interese. Se
trata de un cálculo supra-astronómico, puesto que puede producir más combinaciones que partículas
80
AÑOS
2393
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 202/461
existen en el universo conocido. Gracias a técnicas matemáticas reductoras, se obtienen resultados
adecuados en varios días, utilizando una red de ordenadores de 30 procesadores (Beowulf).
Con este equipo se están adaptando las proteínas de E. coli para detectar tres moléculas muy distintas: las
ya citadas de TNT, las de lactar (un indicador del estrés metabólico en el cuerpo), y las de serotonina (un
neurotransmisor). Una vez obtenido el diseño preciso, se modifica genéticamente a la E. coli para que las
produzca de forma natural.
Información adicional en: http://dukemednews.org/news/article.php?id=6549
Breves del Mundo de la Ciencia
EL MISTERIO DEL CAMPO MAGNÉTICO TERRESTRE: Existe un pequeño problema con el campo
magnético de la Tierra: no debería haber existido durante los últimos 3.500 millones de años, a pesar de
que las rocas demuestran palpablemente lo contrario.
VIDA ARTIFICIAL: Si la evolución de los organismos complejos fuera un viaje por carretera, entonces
podríamos decir que los caminos comarcales son lo que realmente no lleva hasta nuestro destino. En
ocasiones, incluso los baches a lo largo de la ruta resultan importantes.
DEFECTO LLEVA A DOS DISTROFIAS MUSCULARES: Una proteína defectuosa que se observa en
dos tipos de distrofias musculares también parece ser importante para reparar el músculo dañado, afirman
investigadores de la Facultad de Medicina de la Universidad de Iowa.
MÉTODO DE DIAGNÓSTICO DE LOS NUEVOS MATERIALES MILITARES: Cómo la araña que
hace vibrar algunas de las fibras de su tela para detectar la presencia de una presa atrapada en ella, una
nueva técnica desarrollada en la Purdue University utilizará vibraciones para localizar daños y fracturas en
los materiales compuestos que se emplearán en los futuros vehículos militares.
PRIMERA SECUENCIACIÓN DE ADN DE CROMAÑÓN: Un equipo de científicos españoles ha
secuenciado por primera vez el ADN de un fósil de cromañón (Homo sapiens). El estudio se ha publicado
en la revista americana Proceedings of the National Academy of Sciencies.
EFECTOS NEGATIVOS DE LOS COMPUESTOS ORGANOCLORADOS: La exposición a ciertos
compuestos organoclorados afecta negativamente al desarrollo neurológico y conductual infantil, aunque la
lactancia materna prolongada puede ayudar a contrarrestar estos efectos.
ESTUDIOS DE LA TORTUGA BABAUA: La especie protegida Caretta caretta, conocida como tortuga
babaua, está siendo estudiada mediante telemetría por satélite, en el marco de un proyecto pionero en
tortugas marinas en el Mediterráneo occidental. El trabajo está siendo llevado a cabo por el Grup de
Biologia de la Conservació (gBC), de la Universitat de Barcelona, dirigido por Àlex Aguilar, y el Centre
de Recuperació de Tortugues Marines Vellmarí de Formentera.
DESTRUCCIÓN FUTURISTA DE ARMAS NUCLEARES: Los exitosos experimentos K2K (“KEK to
Kamioka”), han permitido a los científicos proponer un modo avanzado de destruir las armas nucleares a
distancia.
MAS CO2 PODRÍA LLEVAR LOS BOSQUES A ZONAS SECAS: Cada año, la industria libera 22.000
millones de toneladas de dióxido de carbono a la atmósfera. Y cada año, los científicos miden la presencia
de este gas invernadero en el aire, pero las cifras no coinciden.
NUEVOS GENES DE CÁNCER DE COLON: Investigadores del Instituto Médico Howard Hughes han
realizado una búsqueda en un catálogo de todas las enzimas tirosinas quinasas conocidas para identificar
nuevas mutaciones genéticas que se dan en una porción significativa de cánceres de colon.
80
AÑOS
2394
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 202/461
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
LA ESTADÍSTICA Y EL MÉTODO CIENTÍFICO
La estadística es generalmente considerada como un simple conjunto de técnicas
matemáticas, útiles a diferentes ciencias, esto es, se considera que la estadística es una
herramienta más, en el instrumental disponible en toda ciencia. Cuando se discuten los
fundamentos de la estadística con frecuencia la atención se dirige hacia la
correspondencia entre los modelos probabilistas y la realidad. En torno a este problema
se han delineado dos corrientes: la escuela subjetivista que afirma que la estructura
probabilista de los modelos estadísticos refleja nuestra ignorancia sobre el estado “real”
de la naturaleza y la escuela frecuentista que, por el contrario, afirma que los fenómenos
estudiados por la ciencia están “objetivamente” regidos por leyes probabilistas.
Más allá de esta abstrusa discusión, poco se ha profundizado sobre el significado
epistemológico más general de los métodos y teorías estadísticas. Ya en 1944 el
eminente físico E. Schrödinger decía:
En el curso de los últimos sesenta u ochenta años, los métodos
de la estadística y el cálculo de probabilidades ha entrado en
una tras otra de las ramas de la ciencia. Han adquirido más o
menos rápidamente una posición central en biología, física,
química, meteorología, astronomía y no se diga en las ciencias
sociales tales como la economía, la sociología, etc. Al
principio, esto parecía accidental: surgió un nuevo instrumento
teórico que ha sido empleado dondequiera que es útil; tal
como ocurrió con el microscopio, la corriente eléctrica, los
rayos X, o las ecuaciones integrales. Pero en el caso de la
estadística, hay algo más que una mera coincidencia.
En sus comienzos la aplicación de la nueva herramienta se
acompañaba de una disculpa: su empleo era un remedio para
nuestras limitaciones, nuestra ignorancia de los detalles o
nuestra falta de pericia para trabajar con una vasta cantidad de
material observacional. Por ejemplo, en los libros de texto
sobre la teoría de los gases se explica que los métodos
estadísticos deben usarse debido a nuestra ignorancia sobre las
coordenadas iniciales y velocidades de las moléculas
individuales y por la salvable dificultad de integrar 1023
ecuaciones diferenciales simultáneas, aun conociendo los
valores iniciales.
Pero inadvertidamente esa actitud ha ido cambiando.
Comienza a sernos claro que el caso individual carece de
interés pueda o no puede obtenerse información detallada, sea
80
AÑOS
2395
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 202/461
el problema matemático soluble o no. Nos damos cuenta de
que aunque pudiera hacerse, tendríamos que seguir miles de
casos individuales y eventualmente no podríamos hacer mejor
uso de esa información que la obtenida conjuntando los casos
individuales en un arreglo estadístico. El funcionamiento del
mecanismo estadístico en sí mismo es en lo que realmente nos
interesamos.
Efectivamente, el desarrollo teórico y el amplio campo de los métodos estadísticos nos
hacen ver que éstos son algo más que una herramienta. Apuntan, de hecho, hacia el
surgimiento de un nuevo paradigma científico. Asistimos a la emergencia de un nuevo
modo de abordar la realidad. Atrás queda el viejo determinismo y en su lugar se alza el
concepto de determinación probabilística. Si bajo el concepto clásico de determinismo se
admitía que dadas las condiciones iniciales de un sistema y las ecuaciones que describen
su evolución en el tiempo se podrá, en principio, aun teniendo 1023 ecuaciones,
determinar el estado del sistema en cualquier otro tiempo, la nueva concepción nos dice
que a lo más llegaremos a la descripción de un espacio de probabilidades definido sobre
todos los estados posibles del sistema. Si bien este principio surgió en forma definida y
clara en torno a los problemas de la física atómica, su rango de validez se extiende a
todos los otros dominios de la ciencia: piénsese en la biología, economía, psicología,
meteorología, etcétera.
Sobre el espacio de eventos asociados con un proceso se define, teórica o
experimentalmente, una medida de probabilidad; que ésta sea “subjetiva” u “objetiva”,
no interesa por el momento. Lo importante es que partiendo de tal descripción, y dado un
conjunto de datos podemos estimar parámetros del proceso bajo estudio y hacer
inferencias sobre estados futuros (predicción) o sobre alguna caracterización del conjunto
de eventos (pruebas de hipótesis). Nótese que ya no interesa más el caso individual,
como lo señalaba Schrödinger, sino el agregado, el conjunto de eventos en su totalidad.
Es un error común creer que los métodos estadísticos pueden aplicarse a casos
individuales, por ejemplo, decir que la probabilidad de que una persona de determinada
población enferme de cáncer es 0.05, no nos dice nada sobre cualquier persona particular
de esa población; esa persona enfermará o no de cáncer, y ya. Lo que sí se asegura es que
esperamos que un porcentaje de esa población enferme de cáncer, sin poder afirmar
cuáles personas forman tal subconjunto.
La no comprensión del modo “probabilista” de pensar conduce a serios errores de
interpretación. Frecuentemente, se escucha la afirmación de muchos científicos
experimentales de que cierto fenómeno es así; citar o fijar límites de significancia y otros
criterios estadísticos a sus afirmaciones se toma como un simple expediente
convencional. Al proceder así no se dan cuenta de que el evento observado pudo
generarse por “azar”, es decir, se ignoran las probabilidades asociadas con el evento bajo
el conjunto de las hipótesis de trabajo.
A más de 50 años de la formulación de los principios de la teoría de la relatividad, de la
física cuántica y de la estadística moderna, nos encontramos con que en la práctica
científica cotidiana aún predominan las nociones del viejo determinismo y la casualidad
mecanicista. El estudio y la aplicación de la teoría estadística puede abrirnos el camino a
una nueva concepción del determinismo y la causalidad.
80
AÑOS
2396
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 203, 26 de mayo de 2003
No. acumulado de la serie: 462
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Noticias del Espacio
La sonda Cassini, en ruta hacia Saturno, entró en
modo seguro el pasado 12 de mayo debido a un
error en el sistema de control de orientación, en
respuesta a una secuencia de órdenes ideada para
calibrar varios instrumentos. La nave se
encuentra bajo control y transmitiendo. Los
especialistas en tierra ya han iniciado los pasos
necesarios para devolverla a la normalidad.
La sonda japonesa Muses -C se encuentra en
órbita solar funcionando conforme a lo previsto.
El vehículo, que fue lanzado el pasado 9 de
mayo, ha sido rebautizado con el nombre de
Hayabusa (Halcón). Su destino es el asteroide
1998 SF36, donde tomará varias muestras que
llevará posteriormente a la Tierra. La ignición de
su motor iónico está prevista para tres semanas
después del despegue.
Según oficiales chinos, la aparición de la
neumonía atípica no afectará al lanzamiento de la
próxima misión Shenzhou. Este vuelo (SZ-5)
debería enviar al espacio al primer astronauta
chino, a partir de octubre de este año. Se han
tomado medidas muy estrictas en el centro de
despegue de Jiuquan para evitar que las tareas de
preparación deban ser interrumpidas.
El Hijo de El Cronopio No. 203/462
DIFUSIÓN DE FÍSICA EN LA FACULTAD DE CIENCIAS DE LA UASLP
Por M. Carmona-Alanis
[email protected]
La Facultad de Ciencias de la Universidad Autónoma de San Luis Potosí ha estado
realizando una serie de eventos de gran calidad para el apoyo y la promoción de la
misma, con varios encuentros con escuelas de nivel básico, medio y medio superior en
pos de una difusión mas amplia, no solo en la capital del estado sino en algunos de sus
municipios en los que también se ha venido dando este contacto importante con los
niveles básicos de educación, con el fin de dar a conocer el abanico de oportunidades que
ofrece año con año a los estudiantes egresados de preparatoria y para que en un futuro los
estudiantes de niveles medio y básico tengan una visión mas amplia en su elección de
carrera y opciones de vida.
Con Cuarenta y un ediciones de nuestra Semana de Ciencias en la que se celebra el
aniversario de la fundación de esta institución, con diez semanas del CONACyT y tres
encuentros juveniles de la Ciencia y el examen FISMAT en el que tanto bachilleratos y
secundarias participan con sus conocimientos de Física y Matemáticas, la Facultad ha
llevado una pequeña pero muy fuerte voz de Ciencia y Tecnología a miles de estudiantes
de los niveles básicos en la capital del Estado y el interior.
En la Semana de Ciencias hay visitas guiadas a todos los laboratorios. Hay divulgación
de ciencia y tecnología por parte de los alumnos y se extiende la invitación a personas de
los dos institutos de investigación de Física con los que cuenta la UASLP que son El
Instituto de Física y el Instituto de Investigación en Comunicación Óptica (IICO) para
que expongan sus trabajos y se de a si mismo una promoción para los postgrados que
tienen; al igual que al Instituto Potosino de Ciencia y Tecnología (IPICyT). La valiosa
participación de estos institutos le ha dado fuerza a ésta semana en la que se ofrecen más
de 22 exposiciones diarias entre pláticas, experimentos y talleres, los que nos da un total
de cerca de 100 trabajos de divulgación de la Física y áreas afines en toda esta semana.
La presentación de películas, con un carácter científico, en el auditorio de la Facultad que
también nos ayuda a atraer la atención de los jóvenes estudiantes.
La semana del Consejo Nacional de Ciencia y Tecnología (CONACyT) es también un
buen pretexto para mostrar los trabajos mas recientes que se hacen en la Facultad y en los
Institutos ya mencionados. Los nuevos aparatos con los que va contando la facultad en la
que se ha dado en los últimos dos años mas apoyo para el área de Física Experimental
con equipos de calidad y contando ya con la certificación de el laboratorio de Física que
se ha ido complementando poco a poco. Como también el crecimiento del Laboratorio de
Materiales al que han llegado en los últimos tiempos equipo Raman, Rayos X, Cercano
Infrarrojo y los ya existentes. Muchos de los equipos son mostrados en esta semana del
CONACyT en modo de plática en el laboratorio de Física por los mismos estudiantes de
la carrera de Lic. en Física que en los primeros tres semestres llevan Física Experimental
I y II en donde se entrenan con sus mismos compañeros para estar frente a un grupo
exponiendo su trabajo realizado y discutiendo sobre él de manera muy intensiva.
Los mismos estudiantes de Licenciatura en Física son los organizadores que hacen sus
“pininos” en la divulgación con los “Encuentros Juveniles de la Ciencia” que se lleva a
cabo a finales de Mayo y que igual tienen mucha respuesta por parte de los bachilleratos,
80
AÑOS
2398
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 203/462
secundarias y primarias que llevan a sus alumnos a este manjar de conocimientos sobre
ciencia y tecnología. Con el apoyo de los directivos y algunos profesores del área de
física se prepara una semana de otros mas de 100 trabajos con diferentes técnicas de
presentación donde con la tecnología de nuestro remodelado nuevo auditorio Francisco
Mejía Lira, nombre en honor al personaje que le dio realce a la investigación y difusión
de esta institución, se proyectan las pláticas diarias.
Pero esto no es todo ya está en marcha la creación de una página de Internet piloto en la
que se quiere llegar a tener contacto con otras instituciones y ser uno de los pioneros del
Internet 2 (Internet de banda ancha) para tener foros interactivos con el resto de
instituciones de Física en la República y del extranjero. De hecho en los cursos iniciales
de física ya se trabaja con tecnología web para que los alumnos puedan bajar sus
prácticas experimentales; se cuenta con varias computadoras al servicio del estudiante en
el centro de computo y en los mismos laboratorios de física ya con gran parte de estas
con servicio de Internet sin costo alguno para este mismo fin de las tareas que están en la
página web del curso.
Todo esto no es solo es una labor de difusión de ciencia y tecnología para personas de
preparatoria sino que se abre también para niveles básicos de educación con los que se
espera tener un contacto real, que en toda escuela-facultad se debe pretender
vehementemente, con la sociedad.
Se espera con entusiasmo mas de estos foros en donde la Facultad, con su
responsabilidad social, no solo esté en espera de recibir gente sino de extenderse y llevar
literalmente la Facultad a todos esto lugares educativos ya que algunos no tienen
presupuestos tan solventes para llevar a sus niños y jóvenes al encuentro con la ciencia.
Y con la gran ambición de que en un futuro se pueda coordinar con diferentes instancias
educativas la realización y visita dentro de sus programas a estos eventos.
Noticias de la Ciencia y la Tecnología
Cambio estacional en Neptuno
La “primavera” ha llegado a Neptuno. Teniendo en cuenta que este planeta es uno de los más fríos y
alejados del Sol, esto podría parecer una exageración, pero las más recientes imágenes obtenidas mediante
el telescopio espacial Hubble permiten aseverarlo. Su hemisferio sur se muestra más brillante, y los
astrónomos piensan que se trata de un cambio estacional.
El seguimiento de la evolución de Neptuno, realizado durante seis años por un grupo de científicos de la
University of Wisconsin-Madison y del Jet Propulsion Laboratory (JPL), ha permitido discernir que los
cambios observados se aprecian sobre todo en las bandas nubosas, cuyo brillo y amplitud han crecido.
Para Lawrence A. Sromovsky, de la UWM, ello respondería a las variaciones estacionales de la luz solar
que alcanza a este lejano planeta, de forma parecida a como ocurre en la Tierra.
Neptuno es el octavo planeta de nuestra estrella, y es conocido por su “meteorología” extraña y violenta.
Posee sistemas tormentosos masivos y vientos feroces que en ocasiones alcanzan los 1.500 km/h. Pero tal
y como muestran las imágenes del Hubble, toda esta actividad no es constante, sino que sufre variaciones.
El equipo de científicos de Wisconsin utilizó el telescopio espacial para fotografiar Neptuno en 1996, 1998
y 2002. Se obtuvieron imágenes de rotaciones completas en cada ocasión, y después se compararon entre
sí, poniendo de manifiesto claras diferencias. Las bandas de nubes que lo rodean, sobre todo en el
hemisferio sur, aumentan su brillo progresivamente. Consultando imágenes aún más antiguas, queda claro
que Neptuno ha aumentado su brillo desde 1980. Las diferencias son más acusadas aún en la banda de los
infrarrojos.
80
AÑOS
2399
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 203/462
Como la Tierra, Neptuno tendría cuatro estaciones. Cada hemisferio poseería un verano cálido y un
invierno frío, con estaciones de transición entre ellos (primavera y otoño). Pero a diferencia de nuestro
planeta, las estaciones de Neptuno duran décadas, no meses, ya que tarda 165 años en dar una vuelta
alrededor del Sol. Así, cada estación puede durar más de 40 años. Por eso, los astrónomos piensan que el
hemisferio sur de Neptuno podría continuar incrementando su brillo durante los próximos 20 años.
También como la Tierra, el gigante gaseoso gira alrededor de un eje inclinado respecto al plano de la
eclíptica (la “autopista” sobre la que circulan la mayoría de planetas del sistema solar). Dicha inclinación
es de unos 29 grados, de manera que los hemisferios norte y sur alternan sus posiciones relativas en
relación a nuestra estrella. Lo sorprendente es que, estando el Sol tan lejos (a esta distancia, es 900 veces
menos luminoso que visto desde la Tierra), sus efectos aún se traduzcan en cambios estacionales visibles.
Información adicional en: http://hubblesite.org/newscenter/archive/2003/17/text
Antigua civilización en la selva de Nicaragua
Un equipo de arqueólogos de la Universitat Autònoma de Barcelona (UAB), de la Universidad Nacional
Autónoma de Nicaragua (UNAN-Managua) y del Consejo Superior de Investigaciones Científicas (CSIC)
ha encontrado sólidas evidencias arqueológicas de la existencia de una civilización prehistórica, hasta
ahora desconocida, en la selva de la costa atlántica de Nicaragua.
El hallazgo, que incluye el descubrimiento de petroglifos y de unos insólitos centros de producción y de
distribución de monolitos, podría ampliar los límites geográficos del proceso que originó las ciudades de la
civilización maya. La civilización descubierta desapareció de forma repentina hace unos 1.600 años.
El pasado mes de noviembre, un equipo de investigadores del Departamento de Antropología Social y de
Prehistoria de la UAB y de la UNAM-Managua presentó el descubrimiento del yacimiento arqueológico El
Cascal de Flor de Pino, en el municipio de Kukra Hill, en Nicaragua. El hallazgo aportaba indicios de la
existencia de una antigua civilización hasta ahora desconocida. Los últimos datos que han obtenido los
científicos en la campaña de este mes de abril, y fruto de seis años de investigación continua en el bosque
tropical húmedo de la costa del caribe nicaragüense, con la colaboración reciente del CSIC, han dado lugar
a la confirmación de la existencia de esta civilización. Los científicos han localizado un importante número
de yacimientos arqueológicos producto del poblamiento de la zona entre el año 1500 antes de Cristo y el
período de la conquista europea.
Los nuevos datos muestran cómo las poblaciones aborígenes desarrollaron formas de vida cambiantes en el
tiempo. El aspecto más relevante hace referencia a la identificación de la existencia de una sociedad
compleja que existió en la zona durante cerca de 10 siglos, entre el año 750 antes de Cristo y
aproximadamente el año 400 de nuestra era, y que desapareció sin continuidad.
Entre los hallazgos más significativos, destacan:
-El descubrimiento de un asentamiento con arquitectura monumental y una evidente estructura urbana que
centraliza políticamente el poblamiento de la época en la zona. Este asentamiento tiene una posible
necrópolis asociada.
-El descubrimiento de asentamientos de pequeñas comunidades aldeanas dependientes.
-El descubrimiento de arte rupestre (petroglifos) asociado a los yacimientos de este período.
-El descubrimiento de centros de producción especializada y de distribución de monolitos, como elementos
constructivos y demarcadores del paisaje, probablemente de la misma época.
La civilización descubierta es similar a las sociedades que precedieron a la civilización maya más hacia el
norte, durante el Período Preclásico. Este hecho ilustra que en sus inicios, el proceso (de centralización
política) que llevó a la formación de las ciudades mayas como Tikal, Palenque o Copán (en Guatemala,
Méjico y Honduras, respectivamente) fue mucho más extenso geográficamente de lo que hasta ahora
suponían los arqueólogos.
Hace más de 2.500 años había contactos intensos e intercambios entre las poblaciones de la vertiente
atlántica de América Central, hecho que coincidió en el tiempo con la aparición de estructuras políticas
centralizadas y de sociedades con una distribución desigual de la riqueza. No obstante, este proceso de
“globalización” regional se rompió durante el siglo V de nuestra era. En el norte, las poblaciones
prehistóricas se desarrollaron hacia las sociedades mayas clásicas. En cambio, en la selva nicaragüense los
datos actuales indican un abandono e incendio de los asentamientos conocidos, con la desaparición
definitiva de esta sociedad y la aparición de formas de vida claramente diferentes.
Durante el mes de abril el equipo de investigación ha efectuado excavaciones en el poblado prehistórico de
Karoline y en una de las plataformas del asentamiento de El Cascal de Flor de Pino, ambas acompañadas
80
AÑOS
2400
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 203/462
de prospecciones de las áreas adyacentes. Esta intervención se añade a las realizadas anualmente a partir
del año 1998 por la UNAN-Managua y la UAB, con la incorporación del CSIC en el 2002. Las
investigaciones realizadas han contado también con el apoyo económico del Ministerio de Educación,
Cultura y Deportes y la Agencia Española de Cooperación Internacional, en el marco de los Proyectos de
Investigación Conjunta España-América Latina y de la Convocatoria de Ayudas para Excavaciones
Arqueológicas en el Exterior. También se ha contado con el apoyo de la Universidad de la Regiones de la
Costa de Caribe de Nicaragua (URACCAN), el Consejo Autónomo de la Región Autónoma del Atlántico
Sur, de las autoridades municipales de Kukra Hill, Bluefields y Pearl Lagoon y de la compañía Kukra
Development Corporation
Información adicional en: http://www.uab.es/actualitat/notrecerca/nicaragua0503.htm
Hormigas que destruyen los bosques
Algunas hormigas que viven en los árboles y que se pensaba devoraban a otros insectos y animales, en
realidad comen plantas, como delata el nitrógeno que se encuentra en sus cuerpos. Alimentándose
básicamente del néctar de las plantas y de la sustancia dulce que excretan varios insectos parasitarios, las
hormigas causan indirectamente más daño a las selvas tropicales de lo que se creía anteriormente.
Esto es lo que sugiere un nuevo estudio publicado en la revista Science por Diane "Dinah" Davidson, de la
University of Utah. Según Davidson, habíamos subestimado la cantidad de recursos que los árboles
individuales pierden en favor de estas hormigas y sus socios parásitos, que se alimentan a su vez de savia.
Las hormigas extraen agua, carbohidratos y aminoácidos de las plantas. Esto reduce su crecimiento, sobre
todo en épocas de sequía, y podría matarlas.
En la actualidad, el calentamiento global ya amenaza con retardar el crecimiento de las plantas en la selva,
pero para entender el impacto del cambio climático en los bosques tropicales es necesario conocer antes
cuáles son el resto de factores que afectan a su crecimiento. La acción de estas hormigas, que se suponía
eran carnívoras, supone una enorme pérdida de energía que no había sido considerada hasta ahora.
Los estudios practicados han supuesto el análisis de los contenidos de nitrógeno en el cuerpo de hormigas,
otros insectos y plantas de lugares opuestos del mundo (Perú y Brunei). Más en concreto, se ha buscado la
proporción existente entre el habitual nitrógeno-14 y el mucho más raro isótopo nitrógeno-15. Utilizando
espectrómetros de masa para pesar los átomos, se puede distinguir una forma poco habitual de nitrógeno de
otra mucho más frecuente. El proceso por el cual los organismos transforman tejido vivo en energía y
desechos crea una proporción nitrógeno-15/nitrógeno-14 que es tanto más superior como más arriba se
encuentre la criatura en la cadena alimentaria. Por ejemplo, las plantas tienen una proporción baja,
mientras que los depredadores la tienen mucho más alta.
Analizando el contenido de nitrógeno de un grupo particular de hormigas, los científicos han descubierto
que poseen una proporción baja, a pesar de que se creía que obtenían sus nutrientes mediante la ingestión
de restos de otros insectos y animales. La única explicación a esto es que su alimentación favorita no es
ésta, sino hojas, plantas completas e insectos que extraen su alimento de la savia. En este último caso, las
hormigas no comerían directamente hojas, pero sí se aprovecharían de la labor de intermediario de los
otros insectos, contribuyendo a la destrucción de la masa vegetal en un grado muy superior al esperado.
Información adicional en: http://www.utah.edu/unews/releases/03/may/ants.html
Polvo del desierto chino en Europa
Científicos financiados por la NASA han demostrado por primera vez, utilizando un modelo atmosférico
por ordenador, que el polvo encontrado en los Alpes franceses procede del desierto chino de TaklaMakan.
Alcanzó su insólito destino tras viajar más de 20.000 kilómetros, durante dos semanas, completando una
ruta que lo llevó alrededor del mundo.
Hasta ahora se habían detectado rastros de polvo chino en Norteamérica y Groenlandia, pero nunca en
Europa. El hallazgo, realizado por Francis E. Grousset, del Lamont-Doherty Earth Observatory de la
Columbia University (LDEOCU) y de la Université Bordeaux, Aloys Bory y Pierre E. Biscaye, también
del LDEOCU, y Paul Ginoux, de la University of Maryland en Baltimore County (UMBC) y del Goddard
Space Flight Center (GSFC), es interesante desde el punto de vista de la ciencia atmosférica, porque revela
cuál es el comportamiento de las partículas cuando son lanzadas a grandes distancias.
80
AÑOS
2401
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 203/462
El estudio se ha centrado en una masa de polvo que viajó desde el 25 de febrero hasta el 7 de marzo de
1990, atravesando China, el Pacífico Norte, Norteamérica y el Atlántico Norte. Una investigación llevada a
cabo en 1994 encontró que durante los anteriores 20 años se habían producido numerosos eventos de caída
de polvo rojizo sobre la nieve que cubre los Alpes franceses y los Pirineos. Se tomaron muestras de este
polvo y se almacenaron en bolsas para compararlas con el polvo obtenido de otras partes del mundo.
Analizando los minerales que contenían y la presencia de varios isótopos particulares, pudo identificarse el
origen del polvo caído en Europa.
Esta información es importante porque ayuda a los científicos a entender mejor otros procesos que van
asociados a ello, como la distribución de metales pesados, virus y bacterias, que también pueden ser
arrastrados por la atmósfera y enviados a grandes distancias.
Ginoux y sus colegas utilizaron tecnología de la NASA para sus análisis, así como datos meteorológicos
pertinentes, especialmente velocidad del viento y dirección, precipitación, presión atmosférica y
temperatura. Todo ello fue introducido en un modelo por ordenador, que recreaba cómo se movió la
atmósfera a medida que el polvo viajaba de China hacia los Alpes.
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0427sandalps.html
La teoría del caos explica el origen de las nuevas lunas
Un artículo publicado el 15 de mayo en la revista Science explica cómo la teoría del caos ha conseguido
explicar las razones por las cuales algunos cuerpos menores que habían orbitado alrededor del Sol acaban
haciéndolo más tarde alrededor de los planetas. También ayudará a los astrónomos a predecir dónde
podrían encontrarse nuevos satélites de los planetas gigantes.
Saturno, con más de 30, y en especial Júpiter, con 60 lunas, son los planetas del sistema solar que más
satélites poseen. Muchos de ellos han sido descubiertos durante los dos últimos años, y parece que no serán
los últimos.
Sus lunas se dividen en dos grupos: las que se encuentran en órbitas circulares, que debieron formarse al
mismo tiempo que el planeta, hace muchos miles de millones de años, y las que se hallan en órbitas
elípticas y alejadas (lunas “irregulares”), lo que delata que son cuerpos capturados posteriormente. Estas
últimas habrían orbitado originalmente alrededor del Sol, antes de ser atrapadas por los gigantes del
sistema solar.
El problema de la captura, el mecanismo por el cual un cuerpo que gira alrededor del Sol pasa a ser un
satélite de un planeta, no había sido sin embargo resuelto hasta ahora.
Stephen Wiggins y Andrew Burbanks, matemáticos de la Bristol University, y David Farrelly y Sergey
Astakhov, químicos teóricos de la Utah State University, estaban utilizando la teoría del caos para entender
la mecánica de algunas reacciones químicas cuando se dieron cuenta de que la metodología que estaban
empleando podría aplicarse también al problema de la “captura”.
Hasta ahora nadie había examinado el problema en tres dimensiones con la teoría del caos. Simulando el
mecanismo de la captura, los científicos descubrieron que era el caos lo que permitía que ocurriera.
Las ecuaciones matemáticas desarrolladas para explicar esta cuestión no sólo aportan una solución que se
ajusta bien a la situación actual de las lunas “irregulares”, sino que además predice nuevas regiones donde
podrían encontrarse otras aún no descubiertas. Esto será muy útil para los astrónomos que habitualmente
deben rastrear un gran espacio vacío alrededor de los planetas para intentar localizarlas.
Los científicos también han demostrado que las lunas que fueron capturadas inicialmente en órbitas que
giran en el mismo sentido que el planeta son caóticas y tienen una tendencia a acercarse a una región muy
próxima a él. Esto quiere decir que tienen mayores posibilidades de ser eliminadas por colisiones con las
lunas interiores de los planetas gaseosos (sobre todo en Júpiter). Ello explicaría porqué existen actualmente
más lunas en órbitas retrógradas (las cuales giran en el sentido contrario al planeta).
Información adicional en: http://www.bris.ac.uk/news/2003/188
Detector de gases tóxicos
Un nuevo sistema llamado AVEMS (Aircraft-based Volcanic Emission Mass Spectrometer) es capaz de
detectar y estudiar gases tóxicos a distancia. Los científicos lo han utilizado en Costa Rica para analizar
emisiones volcánicas, pero también podría usarse para detectar aquellas que podría emitir un transbordador
espacial y que podrían poner en peligro a los astronautas.
80
AÑOS
2402
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 203/462
Los motores de maniobra de la lanzadera espacial se alimentan de productos altamente tóxicos. Esta es la
razón por la que, tras un aterrizaje, equipos de especialistas se aproximan con cuidado a la nave, equipados
con sensores para detectar la existencia de fugas. Sin embargo, estos escapes no sólo pueden ser peligrosos
para el personal de tierra. También los astronautas podrían ser afectados. Por eso, la NASA desearía
disponer de un sistema que fuera capaz de detectar gases tóxicos a mayor distancia.
Un paso adelante en esa dirección la tenemos en el instrumento AVEMS, cuyo prototipo ha sido probado
en el volcán Turrialba de Costa Rica. Instalado sobre un avión, y después empleado sobre el propio cráter,
es capaz, gracias a su sensibilidad, de analizar muestras de aire e informar sobre la presencia de gases
nocivos.
Según Richard Arkin, de la empresa ASRC Aerospace Corp., el sistema operará desde altitudes cercanas a
los 40.000 pies, lo que reduce al máximo el riesgo de exposición para las personas. Él y Tim Griffin, del
Kennedy Space Center, han usado el AVEMS para analizar de forma cuantitativa gases volcánicos en su
estado natural, la primera vez que se hace algo así. Los volcanes emiten fumarolas de gases tóxicos que, si
están muy concentrados, pueden ser mortales. Entre ellos destacan el CO2 , el dióxido de azufre, y otros.
Algunos excursionistas se acercan a las fumarolas cuando hace frío porque desprenden calor. Cuando una
gran chimenea volcánica está emitiendo cantidades enormes de CO2 , éste desplaza al oxígeno,
circunstancia que podría matar fácilmente a una persona.
La tecnología del AVEMS podrá ser útil en numerosos campos e industrias, como la de semiconductores,
petroquímicas, refrigeración, fabricantes de tubos de rayos catódicos, etc. También para hacer análisis de
sangre y respiración, o para controlar la calidad del aire de nuestro puesto de trabajo.
Los anteriores espectrómetros de masa eran demasiado grandes y pesados y estaban circunscritos a los
laboratorios. El AVEMS es pequeño y portátil, así como muy potente.
Información adicional en: http://www-pao.ksc.nasa.gov/kscpao/release/2003/36-03.htm
La tercera estrella más cercana
Nuestro vecindario estelar está más concurrido de lo que pensábamos. Los astrónomos han descubierto una
nueva estrella muy débil que hasta ahora no conocíamos. Lo sorprendente es que podría encontrarse en el
tercer puesto de la lista de estrellas más próximas a la Tierra, aunque los científicos no descartan que
puedan existir otras incluso más cercanas que aún no hemos detectado.
El nombre de la estrella, SO25300.5+165258, define a una debilísima enana roja que se encontraría a unos
7,8 años-luz de distancia, en dirección a la constelación de Aries.
Su descubrimiento, anunciado por el equipo de Bonnard Teegarden, astrofísico del Goddard Space Flight
Center, es interesante porque confirma que la mejora de nuestro instrumental de observación podría
revelarnos toda una nueva población desconocida perteneciente a nuestro grupo local. A pesar de todo, el
sistema más próximo a nosotros continúa siendo Alfa Centauro (un grupo de tres estrellas girando unas
alrededor de las otras), a poco más de 4 años-luz de distancia, seguido de cerca en el ránking por la famosa
estrella de Barnard, a unos 6 años-luz (un año-luz equivale aproximadamente a 9,5 billones de kilómetros).
Según los primeros cálculos, SO25300.5+165258 sólo tiene un 7 por ciento de la masa del Sol, siendo
300.000 veces más débil que este último. Su escasísimo brillo es la razón por la que no la habíamos
localizado hasta ahora, a pesar de estar tan cerca.
El descubrimiento propiamente dicho se efectuó en septiembre de 2002, mientras el grupo de Teegarden
estaba buscando estrellas enanas blancas que se movieran rápido en el cielo. Tomando sucesivas imágenes
de una zona concreta de la esfera celeste, es posible detectar desplazamientos de objetos sobre el fondo
fijo. Los científicos deben determinar si se trata de asteroides pertenecientes al sistema solar (movimientos
muy rápidos) o de cuerpos situados mucho más lejos (movimientos en general más lentos).
Intentando confirmar la naturaleza de SO25300.5+165258, los investigadores acudieron al fondo
documental del programa NEAT (Near Earth Asteroid Tracking). En él hallaron más fotografías del objeto
y, utilizando una técnica llamada paralaje trigonométrico, calcularon su distancia aproximada. A
continuación utilizaron una segunda técnica denominada paralaje fotométrico para afinar un poco más los
cálculos. Concluyeron así que se trata de una estrella enana roja (de tipo espectral M6.5) situada a 7,8
años-luz de nosotros.
Sin embargo, la estrella es tres veces más débil de lo que se espera para este tipo de astro a esta distancia.
Por tanto, podría encontrarse algo más lejos o quizá posee propiedades inusuales que la hacen algo menos
brillante que otras enanas rojas de su tipo espectral. Futuras mediciones mediante paralaje trigonométrico
servirán para confirmar uno u otro extremo, y con ello, si es o no la tercera estrella más próxima al Sol.
80
AÑOS
2403
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 203/462
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0520newstar.html
Materiales para almacenar hidrógeno
Los científicos e ingenieros trabajan incansables para poner a punto células de combustible de hidrógeno
que sirvan para alimentar con su energía a todo tipo de aparatos, desde automóviles a teléfonos móviles,
pasando por ordenadores de sobremesa y muchos otros dispositivos. Este elemento tan ligero podría
guardar el secreto de la próxima gran revolución energética. No obstante, uno de los principales retos a los
que se enfrentan los investigadores es el almacenamiento de grandes cantidades de hidrógeno a
temperaturas y presiones normales.
Una nueva clase de materiales ya está en desarrollo para lograrlo. Como explica el químico Omar Yaghi,
de la University of Michigan, el hidrógeno es el combustible ideal, porque al quemarlo en una célula
produce agua y electricidad como subproductos. El principal problema radica en cómo almacenar
suficiente hidrógeno a bordo de un automóvil para que pueda realizar 500 ó 600 km sin repostar. No
podemos instalar un enorme depósito en la parte trasera del vehículo, de modo que deberíamos comprimir
el gas en un volumen mucho más pequeño. Esto se puede hacer enfriando el hidrógeno a muy bajas
temperaturas o comprimiéndolo a altas presiones, ambas opciones impracticables a bordo de un automóvil
convencional. Alejándose de ello, la idea de Yaghi y sus colegas consiste en crear un material con poros
que atraen al hidrógeno. Ello permite almacenar más moléculas de este elemento en un área pequeña sin
tener que utilizar altas presiones o bajas temperaturas.
Este tipo de material se llama MOF (metal-organic framework) y es relativamente fácil de fabricar. A
menudo llamados esponjas de cristal, los MOFs son estructuras que poseen un área máxima. Un solo
gramo de MOF tiene, de hecho, tanta área de superficie como un campo de fútbol. Yaghi y su equipo han
identificado una forma de incrementar aún más su capacidad de almacenamiento, modificando la
disposición de su estructura interna. Además, se ha demostrado que los MOFs pueden usarse para
almacenar metano.
En los MOFs, el hidrógeno es absorbido físicamente, no químicamente, de manera que es más fácil para el
combustible salir de nuevo sin apenas coste energético.
Si la idea de Yaghi tiene éxito experimental, pronto tendremos todo tipo de aparatos y vehículos eléctricos
moviéndose u operando gracias a la energía proporcionada por sus relativamente pequeñas células de
combustible. Podremos entonces depender algo menos de los combustibles fósiles y de otros tipos de
energía que utilizan recursos no renovables y potencialmente contaminantes.
Información adicional en: http://www.umich.edu/news/Releases/2003/May03/r051503.html
Detengan la luz
El doctor Lene Hau, un profesor de física de la Harvard University, y sus colegas, han conseguido frenar el
avance de un pulso de luz, e incluso detenerlo totalmente durante varias milésimas de segundo. Los
científicos piensan que este avance ayudará a utilizar la luz de maneras que hasta ahora sólo podíamos
imaginarnos.
Muchas tecnologías actuales se ven limitadas por la velocidad a la que viaja la luz (aproximadamente
300.000 km/s). Algunas sustancias, como el agua y los diamantes, pueden frenarla hasta cierto punto, pero
para reducir su velocidad de forma dramática son necesarias técnicas mucho más sofisticadas.
Hau y su equipo enfriaron mediante un láser una nube de átomos de sodio en forma de cigarro, dejándola a
una temperatura de tan sólo una milmillonésima de grado sobre el cero absoluto (el punto a partir del cual
los físicos creen que la materia no puede enfriarse más). Utilizando un poderoso electroimán, los
investigadores suspendieron la nube en una cámara de vacío extremo, hasta que formó un conglomerado
helado de átomos.
Cuando lanzaron un pulso de luz a través de esta nube particular, el rayo redujo su velocidad poco a poco,
hasta llegar a pararse y desaparecer. Los científicos revivieron después el pulso y restauraron su velocidad
normal disparando un nuevo rayo láser hacia la nube.
Hau trabaja en este campo desde hace años. En marzo de 1998 consiguió reducir la velocidad de un rayo
de luz hasta los 60 km/h. Mejorando el sistema, él y sus colegas lograron detenerlo totalmente en el verano
de 2000. Ahora han conseguido prolongar el tiempo durante el cual el rayo ha permanecido parado.
80
AÑOS
2404
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 203/462
Es muy posible que estos avances permitan su uso en aplicaciones de comunicaciones ópticas. La luz
puede transportar enormes cantidades de información a través de cambios en su frecuencia, fase, intensidad
y otras propiedades. Cuando un pulso de luz se detiene, su información queda suspendida y almacenada,
como los datos de la memoria de un ordenador. Pero los bits cuánticos que la luz puede transportar
contienen mucha más información que los bits convencionales de un ordenador. Además, las
computadoras cuánticas serán más seguras porque encriptarán su información, que sólo podrá leerse
utilizando láseres y fórmulas de descodificación muy complejas. Ello hará mucho más difícil la actividad
de los hackers o piratas informáticos.
Información adicional en: http://www.jpl.nasa.gov/releases/2003/73.cfm
Plantas resistentes a las sequías
La identificación y duplicación de un gen que controla la producción de la capa externa protectora de las
plantas podría permitir la creación de cultivos capaces de resistir con mayor éxito la llegada de las sequías.
La investigación ha sido llevada a cabo por científicos de la Purdue University.
El gen clonado por los expertos de Purdue se llama WAX2. Fue descubierto en una variedad mutante de la
planta Arabidopsis, un organismo muy utilizado en el laboratorio y del cual disponemos su secuencia
genética completa. El citado gen está directamente asociado a la síntesis de la capa protectora que
denominamos cutícula.
El estudio, publicado en la revista The Plant Cell, explica que la Arabidopsis mutante, comparada con su
variedad normal o salvaje, tiene una capacidad distinta de retención del agua. La mutación que presenta,
llamada wax2, supone una estructura de la cutícula diferente a la que poseen las plantas con el gen normal,
el WAX2.
Gracias a este descubrimiento, los científicos creen que si podemos alterar la expresión de este gen,
entonces podríamos producir una cutícula que fuera más gruesa o más rígida, y por tanto menos
permeable, impidiendo la pérdida de agua.
Matt Jenks, profesor de horticultura, explica que la manipulación de lo que hace el gen cuando se activa
podría resultar en plantas mejor preparadas para sobrevivir en condiciones áridas.
Jenks y sus colegas aislaron más de 20 plantas Arabidopsis mutantes que mostraban alteraciones en la
cantidad de impermeabilización que producían. De éstas, sólo unas pocas perdían más agua que el tipo
normal de planta.
Tras un examen profundo, los científicos vieron que la mutación wax2 era la más susceptible a la sequía.
Si se eliminaba el producto del gen WAX2 se ocasionaba una alteración dramática de la membrana
cutícula, y la planta ya no podía prevenir la pérdida de agua.
Las mutantes presentan un menor número de agujeros que regulan la pérdida de agua en su superficie.
Además, poseen un problema de esterilidad masculina que evita que el polen active el estigma, donde se
inicia la reproducción.
La clonación del gen WAX2 está demostrando que los lípidos de la cutícula pueden servir como señales
que controlan cómo se desarrollan las plantas. Los lípidos son moléculas insolubles en agua que ayudan en
varias funciones metabólicas de la célula.
Comprendiendo estos mecanismos, los científicos podrán modificar algunos cultivos para que puedan
resistir mejor la sequía generalizada o la falta de agua temporal.
Información adicional en: http://news.uns.purdue.edu/html4ever/030521.Jenks.wax2.html
Breves del Mundo de la Ciencia
UNA NUEVA FORMA DE ESTUDIAR EL NÚCLEO TERRESTRE: La revista Nature ha publicado una
interesante propuesta del geofísico David Stevenson, del California Institute of Technology, quien cree
haber encontrado un modo de analizar el núcleo de la Tierra mediante una sonda “in situ”.
LA PRESENCIA DE HOLLIN AFECTA AL CLIMA GLOBAL: Un equipo de investigadores de la
NASA y de la Columbia University han descubierto que las partículas de hollín que se hallan en la
atmósfera, de aspecto microscópico, son más abundantes de lo que se creía, y contribuyen en mayor
medida al cambio climático.
80
AÑOS
2405
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 203/462
RESISTENCIA A LA INSULINA EN LA VEJEZ: Los ancianos podrían desarrollar resistencia a la
insulina -uno de los factores de riesgo principales de la diabetes- porque el número de las “centrales
energéticas” de sus células musculares disminuye o porque fallan con la edad, según dicen investigadores
del Instituto Médico Howard Hughes, en la Facultad de Medicina de la Universidad de Yale.
MINI TURBINAS DE GAS: Los ingenieros más avanzados están pensando en cómo construir motores de
turbina de gas con el tamaño de un botón de camisa.
NUEVO SISTEMA DE REALIDAD VIRTUAL: El uso de gafas para permitir sentirnos inmersos en un
mundo virtual en tres dimensiones podría pasar pronto a la historia. La University of Pennsylvania ha
instalado un sistema de realidad virtual que permite al participante interactuar completamente con un
entorno de este tipo sin tener que utilizarlas.
GENES EN UNA PASTILLA: El objetivo de Michael Nantz, un químico de la University of California,
en Davis, es suministrar terapia genética sin utilizar virus como sistema de transporte.
ESTUDIOS SÍSMICOS MEDIANTE GPS: Un descubrimiento casual realizado por un equipo de la
University of Colorado en Boulder ha permitido demostrar por primera vez que las señales de navegación
transmitidas por el sistema GPS (Global Positioning System) son una herramienta valiosa para estudiar los
terremotos.
COMO ACTUA LA RADIOTERAPIA: Desde hace más de 40 años se ha aceptado que la radiación mata
los tumores porque daña su ADN, mientras que otros elementos que forman parte de su masa, como el
tejido conjuntivo y los vasos sanguíneos, apenas se ven afectados. Pero los científicos del Memorial SloanKettering Cancer Center creen que esto no es exactamente así.
CUATRO NUEVOS REINOS DE LA VIDA: Investigadores de la University of Colorado en Boulder han
descubierto en el paisaje alpino de Colorado cuatro nuevos reinos de la vida, un hallazgo que podría tener
aplicaciones en los camp os de la agricultura y el cambio global.
LA PERSONALIDAD NO ESTÁ DEFINIDA A LOS 30: Un estudio psicológico sobre una población de
132.515 adultos de edades comprendidas entre los 21 y los 60 años, en referencia a sus rasgos principales
de personalidad, muestra que ésta puede cambiar a lo largo de toda la vida, y desde luego mucho más allá
de los 30 años, una edad considerada hasta ahora como el límite predefinido para la formación psicológica
básica humana.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
DIALÉCTICA DE LO CONCRETO
Tratar de tener una comprensión amplia y profunda sobre los problemas del hombre y el
mundo no es tarea fácil. Más aún, esta comprensión nunca puede lograrse en forma
espontánea y acabada. El conocimiento del hombre, su mundo y sus relaciones mutuas
sólo pueden alcanzarse mediante un esfuerzo y siempre en un constante proceso de
devenir; esto es, que la verdad misma se hace, es decir, se desarrolla se realiza.
Karel Kosík, destacado filósofo checo, nacido en Praga, en 1926, aborda precisamente
esos espinosos asuntos en un sorprendente libro del mismo título que este artículo,
subtitulado Estudio sobre los problemas del hombre y el mundo. Acerca del filósofo nos
dice Adolfo Sánchez Vázquez en el prólogo al libro de referencia, que como militante
del Partido Comunista de Checoslovaquia participó activamente en la lucha clandestina
contra el nazismo. Después de liberado su país, hizo estudios filosóficos en Moscú y
Leningrado, entre 1947 y 1949. En 1956, se da a conocer con un artículo sobre Hegel en
una discusión sobre filosofía marxista y suscita, a su vez, agudas objeciones. En 1959,
publica un volumen de carácter histórico llamado La democracia radical checa. Más
tarde, en 1960, participa en el Coloquio Internacional de Royaymont sobre la dialéctica,
con una intervención que hoy constituye el primer capítulo del libro que nos ocupa. En
80
AÑOS
2406
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 203/462
1963, asiste al XIII Congreso Internacional de Filosofía, celebrado en México, donde
presenta algunas ideas básicas expuestas ya en su libro que ese mismo año había
aparecido en su lengua original en Praga.
Lo fundamental de su obre se centra en una discusión sobre la dialéctica y su función en
el conocimiento. “El pensamiento dialéctico distingue entre representación y concepto de
las cosas, y por ello entiende no sólo dos formas y grados de conocimiento de la realidad,
sino dos cualidades de la praxis humana”, afirma Kosík en el primer párrafo de su obre.
Más adelante agrega:
La práctica utilitaria inmediata y el sentido común correspondiente ponen a los
hombres en condiciones de orientarse en el mundo, de familiarizarce con las cosas
y manejarlas, pero no les proporciona una comprensión de las cosas y de la
realidad [...] El conjunto de fenómenos que llenan el ambiente cotidiano y la
atmósfera común de la vida humana, que con su regularidad, inmediatez y
evidencia penetra en la conciencia de los individuos agentes asumiendo un
aspecto independiente y natural forma el mundo de la pseudoconcreción. A él
pertenecen [...] el mundo de traficar y manipular [...] el mundo de las
representaciones comunes [...] el mundo de los objetos fijados, que dan la
impresión de ser condiciones naturales, y no son inmediatamente reconocidos
como resultado de la actividad social de los hombres.
Esta pseudoconcreción o visión aparente del mundo, solamente puede ser trascendida o
destruida a partir de la ciencia y la filosofía. Pero no cualquier filosofía puede realizar tal
cometido; al respecto, el filósofo dice que
la destrucción de la pseudoconcreción como método dialéctico crítico, gracias al
cual el pensamiento disuelve las creaciones fetichizadas del mundo cosificado e
ideal para alcanzar su realidad, es sólo el segundo aspecto, el reverso de la
dialéctica como método revolucionario de transformación de la realidad. Para
que el mundo pueda ser explicado “críticamente”, es necesario que la
explicación misma sea situada en el terreno de la praxis revolucionaria.
Partiendo de un riguroso análisis filosófico, Karel Kosík nos introduce verdaderamente a
los problemas del hombre y el mundo. Así, nos habla de la metafísica de la vida
cotidiana de la ciencia de la razón, y de la cultura. En otro capítulo dedicado a la filosofía
y economía trata sobre la problemática de El capital, de Marx. El hombre y la cosa o la
naturaleza de la economía. En el capítulo final del libro, quizá el más interesante, Kosík
nos da su personal interpretación sobre la praxis, historia y libertad, y el hombre.
Leer a Kosík me ha provocado la misma extraña sensación de perturbación, claridad e
incomodidad que el siguiente poema de César Vallejo:
En el momento en que el tenista lanza magistralmente
Su bala, posee una inocencia totalmente animal; en el momento
en que el filósofo sorprende una nueva verdad, es una bestia completa.
Anatole France afirmaba que el sentimiento religioso
es la función de un órgano especial del cuerpo
humano, hasta ahora ignorado y se podría
decir también, entonces,
que, en el momento exacto en que un tal órgano funciona plenamente,
tan puro de malicia está el creyente,
que se diría casi un vegetal. ¡Oh alma! ¡Oh pensamiento!
¡Oh Marx!
¡Oh Feüerbach!
80
AÑOS
2407
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 204, 2 de junio de 2003
No. acumulado de la serie: 463
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
La NASA ha cancelado la misión SPIDR
(Spectroscopy and Photometry of IGM’s Diffuse
Radiation),
actualmente
en
desarrollo,
perteneciente al programa Small Explorer. El
satélite debía haber volado en 2005, para
diversos objetivos de astrofísica espacial, pero su
instrumento principal no habría alcanzado la
sensibilidad para la cual fue aprobado.
La sonda marciana japonesa Nozomi efectuará
su última asistencia gravitatoria junto a la Tierra
el próximo 19 de junio. Lanzada en 1998, tuvo
problemas técnicos durante una maniobra
semejante en diciembre del mismo año. Con
menos combustible disponible del esperado, los
técnicos japoneses tuvieron que idear una nueva
ruta de acercamiento al Planeta Rojo más lenta,
reduciendo así las necesidades de propulsión
durante la entrada en órbita. Ello supuso un
considerable retraso en su llegada a Marte, que
ahora coincidirá, si todo va bien, con la misión
de la europea Mars Express y las americanas
MER. La nueva trayectoria elegida ha supuesto
una asistencia gravitatoria sobre la Tierra el
pasado mes de diciembre, completada con éxito,
y otra más el próximo 19 de junio, que dejará a
la sonda en la ruta precisa para una llegada a
nuestro vecino planetario a mediados de
diciembre o principios de enero de 2004.
El Hijo de El Cronopio No. 204/463
El silicio llegó para quedarse
Por: Juan Manuel Méndez Acevedo
Fuente: Cibersivo
Enviado al Hijo de El Cronopio por
Juan José Jaramillo y Dr. Felipe Rábago Bernal
Hay adicciones que producen grandes fortunas para quienes las explotan.
Un ejemplo de ello es la insaciable y urgente necesidad que tienen los grandes productores de
software (y algunos cibernautas) de contar con ordenadores dotados de una cada vez mayor
capacidad de procesamiento: más velocidad, más memoria, parecen ser los estimulantes de tales
compañías. Detrás de estos estimulantes está el silicio y su aparente capacidad para permitir que
una ley se mantenga como tal.
Prácticamente todos los usuarios de computadoras personales han sido testigos de la manera
como la famosa Ley de Moore se cumple al pie de la letra.
La velocidad de operación de los procesadores se ha incrementado de 4.77 megahertz en un chip
conocido como “8088”, hasta 2.2 gigahertz en los microprocesadores que se encuentran en la
última generación de computadoras personales; lo que significa que los procesadores actuales
son algo así como cinco mil veces más rápidos.
La Ley de Moore, en su versión original, establecía que el número de elementos activos que se
pueden instalar en un centímetro cuadrado de circuitos integrados se duplicaría cada 12 meses.
Esto ha implicado que la velocidad con la que se apagan -o se prenden- los transistores que
componen los circuitos integrados se ha duplicado en un lapso de entre 18 y 24 meses, a partir de
que Gordon Moore enunciara su postulado, poco tiempo antes de fundar Intel.
No está mal para alguien cuyos ingresos dependen principalmente de que tal predicción se
mantenga como ley. A pesar de que Moore es doctor en Físico-Química, esta es claramente una
ley de tipo económico: básicamente, si los fabricantes de circuitos integrados no se apegan al
enunciado y no aumentan a ese ritmo la capacidad de sus productos, se pueden ir despidiendo de
sus ganancia s.
Hay quien afirma que este proceso de mejoras continuas está cerca de desacelerarse e incluso que
está por detenerse. El mismo Moore rectificó su “Ley” en 1975 y predijo que se necesitarían dos
años en lugar de uno para duplicar el número de transitores por unidad de superficie.
Evidentemente el tamaño de los transistores no puede hacerse indefinidamente pequeño, tiene un
límite: no pueden ser más pequeños que un par de átomos. Existen dudas acerca de si estará
disponible la tecnología para reducir aun más las dimensiones de los elementos activos, pero
también había dudas sobre la posibilidad de lograr elementos del tamaño que actualmente tienen
los transistores en un chip: casi una diezmilésima de milímetro.
Aun así, suponiendo que se cumpla la Ley de Moore modificada y que el mínimo es el tamaño de
dos átomos de silicio, se calcula que para el año 2025 ya no podremos poner más transistores en
un área determinada.
¿Qué pasará entonces? ¿dispondremos de computadoras que operen a frecuencias cada vez
mayores? Probablemente sí, para regocijo de Moore y otros involucrados en la industria de la
computación.
El hacer cada vez más pequeños los dispositivos es una forma de que los microprocesadores
trabajen más de prisa, sin embargo no es la única.
Para que un transistor cambie de estado, por ejemplo de prendido a apagado, es preciso que los
electrones se trasladen en su interior de un sitio a otro. El tiempo que les toma realizar dicho
desplazamiento depende, obviamente, de la distancia entre estos sitios y de qué tan rápido se
80
AÑOS
2409
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
puedan mover.
La rapidez de los portadores de carga, es decir, de los electrones, depende del voltaje aplicado y
de las propiedades intrínsecas del material del cual está hecho el transistor. El voltaje aplicado no
se puede aumentar arbitrariamente porque, como pasa con cualquier aparato eléctrico, el
transistor se quema si el voltaje es muy alto.
De hecho, se trata de minimizar el voltaje para evitar que la oblea sobre la que están hechos los
circuitos se caliente demasiado. Así, se está buscando desarrollar alternativas con base en
materiales en los que los portadores de carga puedan desplazarse con mayor velocidad.
Ciertamente existen varias sustancias distintas al silicio --material del cual están hechos la
mayoría de los circuitos impresos-- en las cuales la movilidad de los electrones es mayor.
Ejemplo de ellas son el arseniuro de galio y el fosfuro de indio. Lamentablemente, no se han
podido integrar en microprocesadores que puedan sustituir a los que usan las computadoras
personales por diversas razones; entre ellas el costo de obtener tales compuestos.
A diferencia del silicio, que es el segundo elemento más abundante en la corteza terrestre, el
galio y el indio son elementos relativamente raros y difíciles de purificar. Asimismo, el arsénico
y el fósforo conllevan no pocos factores de riesgo para la salud.
Así que estos materiales han encontrado aplicaciones en utensilios cuyo mercado permite utilizar
chips más caros, pero no han podido ser usados en las unidades de procesamiento y memoria que
componen la arquitectura de las computadoras personales.
Sin embargo, recientemente se ha desarrollado una tecnología basada en el silicio para lograr
chips más rápidos sin necesidad de hacerlos más pequeños. Esta tecnología hace uso de lo que se
conoce como silicio estirado (strained silicon).
Como es sabido, cuando uno estira un material en cierta dirección los átomos que lo conforman
se alejan ligeramente uno de otro a lo largo de dicha dirección. Curiosamente, cuando los átomos
de silicio están más separados los electrones viajan con mayor velocidad de uno a otro.
Esto se puede entender hasta cierto punto comparando a los átomos con obstáculos al paso de los
portadores de carga: entre menos bultos tengan que evadir, irán más rápido. Si el canal en que
viajan los electrones dentro de un transistor está hecho de átomos de silicio, más separados unos
de otros que en un cristal normal, el transistor podrá cambiar de estado a una frecuencia mayor.
Como consecuencia, los chips fabricados con esta clase de dispositivos serán más poderosos.
Para estirar al silicio, o más bien dicho, para aumentar la separación entre sus átomos, no se
usaron unas pinzas diminutas. Más bien se echó mano del hecho de que los átomos que llegan a
una superficie tratan de alinearse con los que la conforman.
De esta manera, se depositaron átomos de silicio sobre un cristal hecho de átomos de mayor
tamaño, y cuya distancia interatómica es relativamente grande. Al tratar de alinearse con los de
abajo, la distancia entre átomos de silicio se hizo mayor a la común y corriente, obteniendo así
una red atómica que parecía haber sido estirada. Y, en efecto, al probar tales microartefactos,
éstos funcionaron más rápido.
A quienes esperan vivir mucho y seguir usando computadoras, a la mejor puede ocurrírseles la
pregunta: ¿y qué pasará cuando no podamos reducir más el tamaño de los transistores hechos de
silicio estirado o una de sus variantes?
Para entonces la computación óptica será, esperamos, una realidad. Esta técnica de computación
estará basada en la luz y no en la corriente eléctrica, para procesar y transportar la información,
lo que la hará mucho más rápida.
La luz viajará por fibras ópticas hechas, como hasta ahora, de dióxido de silicio. De manera que,
en cuanto a computación: el silicio llegó para quedarse.
80
AÑOS
2410
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
Noticias de la Ciencia y la Tecnología
La Tierra desde Marte
Aprovechando un fenómeno de alineación planetaria que colocó a Júpiter y a nuestro planeta en el mismo
campo de visión, los controladores de la sonda Mars Global Surveyor, en órbita alrededor de Marte,
ordenaron a su cámara la obtención de una instantánea histórica. Es también la primera vez que una
máquina fotografía la Tierra desde el Planeta Rojo.
La imagen se obtuvo el 8 de mayo y es en realidad la unión de dos fotografías tomadas consecutivamente,
con exposiciones distintas, formando un mosaico. En ella se aprecian nuestro planeta y Júpiter, el mayor
cuerpo del Sistema Solar después del Sol, tal y como podrían contemplarse con un pequeño telescopio
desde la superficie de Marte.
Este interesante retrato se ha hecho gracias a la cámara que la MGS transporta a bordo y que hasta ahora se
había utilizado principalmente para observar la superficie marciana. Muestra a nuestro planeta iluminado
sólo parcialmente por el Sol, y también a la Luna, su satélite natural. La imagen tiene suficiente resolución
como para delatar algunas áreas oscuras que corresponden a América Central y el Golfo de México, y otras
más brillantes que no son sino las nubes que cubren el resto del continente americano.
En cuanto a Júpiter, la imagen lo muestra junto a tres de sus satélites galileanos (Calisto, Ganímedes y
Europa). El cuarto, Ío, se hallaba en ese momento oculto detrás del planeta, lo mismo que la famosa Gran
Mancha Roja.
La fotografía ha sido procesada posteriormente en la Tierra, ya que la cámara de la MGS sólo capta
imágenes en gamas de grises. Los colores añadidos se han basado en observaciones realizadas en el pasado
por instrumentos instalados en otras sondas interplanetarias, telescopios y satélites de teledetección.
También se ha compensado el excesivo brillo de Júpiter, que enmascararía la presencia de sus satélites.
La Mars Global Surveyor se encuentra alrededor de Marte desde septiembre de 1997 y ha superado con
creces su misión principal. Durante este tiempo ha examinado completamente la superficie marciana, en
repetidas ocasiones, aportando muchos datos sobre su topografía, su atmósfera y su interior. Esta
información está siendo vital para identificar los puntos de aterrizaje que utilizarán las futuras sondas
marcianas, incluyendo los dos robots móviles que partirán hacia el Planeta Rojo dentro de unas semanas.
Información adicional en: http://www.jpl.nasa.gov/releases/2003/75.cfm
Simulando terremotos
Gracias a nuevas y avanzadas herramientas por ordenador que están desarrollando científicos americanos,
pronto sabremos mucho más sobre la compleja y misteriosa física que da forma a los terremotos. Los
expertos esperan que ello ayude a que algún día podamos predecirlos, evitando en gran medida el daño que
ocasionan. Nos estamos refiriendo a un grupo de herramientas de simulación llamadas conjuntamente
QuakeSim, desarrolladas por especialistas de varias universidades y de la NASA y que podrían estar listas
en 2004.
Los programas de QuakeSim se basan en las tecnologías más actuales. Por ejemplo, el análisis de
elementos finitos, que permite resolver problemas complejos dividiéndolos en otros más pequeños. En
QuakeSim, los elementos finitos son decenas o cientos de miles de mediciones realizadas sobre las
deformaciones que afectan a la corteza terrestre cuando se mueven las placas tectónicas. Los datos se
recogen mediante técnicas basadas en tierra o en el espacio, incluyendo el radar interferométrico de
apertura sintética y el sistema GPS.
Andrea Donnellan, responsable principal de QuakeSim, espera que la iniciativa sea un paso fundamental
hacia la predicción de los terremotos. La deformación de la corteza terrestre y la interacción entre las fallas
sísmicas es un complejo proceso tridimensional que ocurre en escalas de tiempo que van de minutos a
miles de años. Su estudio requiere modelos de simulación sofisticados y superordenadores de alto
rendimiento.
QuakeSim posee tres herramientas de simulación principales: Park, Virtual California y Geophysical
Finite Element Simulation Tool (Geofest). El primer programa simula la evolución de un terremoto en una
falla única inestable, a lo largo del tiempo. Con él se espera determinar la naturaleza y posibilidad de
detección de las señales de aviso que nos proporciona un terremoto. Virtual California, por su parte,
80
AÑOS
2411
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
simulará cómo interactúan los cientos de segmentos de fallas que encontramos en California, y ayudará a
determinar los patrones de actividad que pueden ser utilizados para predecir el peligro sísmico de los
terremotos superiores a la sexta magnitud. Por último, Geofest creará modelos en 2 y 3 dimensiones de la
tensión que presentan la corteza y el manto superior de la Tierra en una región geológica compleja donde
existen muchos sistemas de fallas interactuando entre sí. Mostrará cómo se deformará el suelo en respuesta
al terremoto, cómo cambiará la deformación a lo largo del tiempo y los efectos finales s
Información adicional en: http://www.jpl.nasa.gov/releases/2003/74.cfm
Revelado el secreto de la resistencia a los antibióticos
Los científicos tratan de ganar la carrera que nos enfrenta a muchos tipos de bacterias, desarrollando
nuevos antibióticos que permitan su eliminación. Sin embargo, algunas de ellas son resistentes a estas
sustancias, una capacidad que los investigadores acaban de analizar con detalle.
El secreto de esta resistencia se halla en un complejo de proteína muy especial, el cual ha podido ser
fotografiado por primera vez. Las imágenes, publicadas en la revista Science, ofrecen nuevas pistas sobre
cómo las bacterias sobreviven a los taques de diferentes antibióticos, un problema creciente de salud
pública. Los investigadores han comprobado que tan robusta defensa se basa en la destacable habilidad del
complejo de proteína de capturar y bombear una amplia variedad de compuestos estructuralmente
distintos. Gracias a esta información, podremos desarrollar fármacos que eviten o inhiban este mecanismo,
permitiendo su penetración en el interior de la célula bacteriana para matarla.
El equipo de científicos se ha centrado en una proteína llamada AcrB. Reside en la membrana interna de la
célula de la bacteria Escherichia coli y trabaja en concierto con otras dos proteínas para liberarla de toxinas
externas. La AcrB dispone de una gran cavidad capaz de unirse a un amplio rango de antibióticos y otras
moléculas. Pero cómo esta cavidad consigue acomodar tantas formas y tamaños aún permanecía en la
oscuridad. Para resolver el misterio, los investigadores del Lawrence Berkeley National Laboratory y de la
University of California en Berkeley han cristalizado la proteína en presencia de varias moléculas, entre
ellas un antibiótico, un tinte y un desinfectante. Después, utilizaron el sistema ALS (Advanced Light
Source) del Berkeley Lab para exponer los cristales a rayos-X extremadamente brillantes, revelando la
estructura molecular de la proteína y cómo las moléculas se unen a su cavidad.
En efecto, cada molécula se adhiere a un lugar distinto de la cavidad, y cada unión utiliza un grupo
diferente de residuos de aminoácido, lo que sugiere que el complejo es tremendamente hábil en su tarea de
“secuestrar” moléculas.
Las imágenes obtenidas tienen una resolución de 3,5 a 3,8 Ángstroms, y por tanto proporcionan la visión
más próxima de un fenómeno común a todas las células vivas: la habilidad de expulsar una gran cantidad
de toxinas diversas utilizando una única “bomba”. Estos complejos de bombeo son muy importantes para
la salud. Por ejemplo, en personas sanas encontramos el complejo P-glicoproteína, que evita la entrada de
moléculas tóxicas a través de la superficie de mucosa del tracto intestinal. Sin embargo, cuando esta
proteína se ve sobre -expresada, hace que las células cancerosas sean resistentes a una amplia variedad de
fármacos de quimioterapia.
La E. coli tiene una función positiva en los intestinos animales. Pero una forma mutada causa el
envenenamiento de alimentos. Cuando hay que luchar contra ella, su complejo AcrB nos obliga a atacarla
con diversos antibióticos, debido a su gran resistencia.
Información adicional en: http://www.lbl.gov/Science-Articles/Archive/PBD-drug-resistance.html
Haciendo mapas del hielo de Groenladia
La capa de hielo que cubre la isla de Groenlandia, la mayor del mundo, ejerce una influencia decisiva en el
clima mundial. Posee la segunda masa de agua dulce más grande de la Tierra, y el hielo y nieve que
contiene cubren el 85 por ciento de su superficie. Suficientes argumentos para que los científicos presten
mucha atención a este territorio.
Se han realizado exploraciones aéreas de forma continuada desde 1992, utilizando aviones equipados con
láseres y radares. En mayo de 2003, investigadores del Goddard SFC y de varias universidades regresan a
la región para obtener un “retrato” de las grandes áreas de glaciares, las cuales han mostrado grandes
cambios durante los últimos años, causados quizá por el calentamiento global. Según Bill Krabill,
responsable de las misiones, algunos modelos de ordenador muestran que el aumento de las temperaturas
80
AÑOS
2412
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
fundirá parcialmente los casquetes polares, incluyendo las placas de Groenlandia, elevando el nivel de los
océanos. Otros modelos, en cambio, indican que la subida de temperaturas causará mayores precipitaciones
de nieve y una expansión del tamaño de las placas de hielo.
Las mediciones realizadas durante los últimos 11 años han demostrado que los glaciares de la costa en el
sudeste de Groenlandia han reducido su tamaño. Se cree que el hielo que se funde desciende bajo los
glaciares hacia la roca, actuando como lubricante. De este modo, el glaciar fluye más rápidamente hacia el
océano. Por otro lado, se ha notado un incremento del tamaño de la placa de hielo en la porción central de
la isla.
Pero 11 años es poco tiempo comparado con los miles de años de antigüedad de la propia is la y de su capa
de hielo. No sabemos pues si estamos ante un ciclo normal o ante un signo claro de cambios permanentes,
que afectarán al nivel del mar.
Se ha calculado que una disminución de 25 cm en la altura media de la capa de hielo que cubre a la
Groenlandia central significará un incremento de 1 mm en el nivel de los océanos mundiales.
Los científicos continuarán sus estudios aéreos sobre la isla hasta principios de junio. El avión permite
obtener una visión más completa, una imagen más amplia del territorio en menos tiempo. Gracias al
sistema de posicionamiento global por satélite GPS, las rutas de investigación se repiten exactamente año
tras año, permitiendo comparaciones precisas y el estudio de los posibles cambios.
Información adicional en: http://www.gsfc.nasa.gov/news-release/releases/2003/03-53.htm
Carotenoides a partir de microalgas
Los carotenoides, pigmentos biológicos con propiedades antioxidantes, están siendo cada vez más
demandados por la industria. Un grupo de Investigación del Instituto de Bioquímica Vegetal y Fotosíntesis
ha desarrollado y contrastado en sus instalaciones un sencillo y eficaz procedimiento para generar el
carotenoide luteína mediante cultivos de microalgas. Con una producción considerable y aparentemente
rentable, los investigadores se plantean aumentar la escala de producción.
La demanda de carotenoides naturales por sectores como la piscicultura o la avicultura, que los utilizan
como suplemento alimenticio, se está incrementando exponencialmente. La luteína, uno de los más
utilizados, es además una sustancia de interés farmacológico, ya que existen estudios clínicos indicativos
de un papel protector frente a aterosclerosis y enfermedades oculares degenerativas como la degeneración
macular o las cataratas.
El grupo de Biotecnología de Microalgas, del Instituto de Bioquímica Vegetal y Fotosíntesis (centro mixto
CSIC-Universidad de Sevilla), dirigido por Miguel García Guerrero, trabaja en la producción de diversas
sustancias de interés a partir de cultivos de microalgas y cianobacterias. Entre sus trabajos más recientes se
encuentra el desarrollo de un sistema de producción del alga verde Muriellopsis para la obtención de
luteína, que ofrece un rendimiento, de acuerdo con los ensayos realizados hasta ahora, superior a los
métodos convencionales, como la síntesis química o la extracción del pigmento a partir de pétalos de
Tajetes erecta (caléndula, marigold). Los sistemas de producción tienen la apariencia de simp les estanques
conteniendo un líquido de color verdoso, cuyo aspecto se debe a la microalga Muriellopsis sp., cuyas
células tienen un tamaño que oscila entre 5 y 30 micrómetros. Pero el sistema tiene algo más. “Cada
estanque dispone de un mecanismo consistente en una rueda con tres paletas giratorias para agitar el
líquido, de forma que circule la suspensión (células más medio de cultivo), posibilitando que los nutrientes
y la luz solar lleguen a todas las células. De otra forma, las microalgas se depositarían en el fondo y
paredes, impidiéndose su desarrollo”, explica José Moreno Fernández, miembro del grupo que trabaja en el
proyecto, como también lo hacen el investigador Joaquín Rivas Florido y un joven doctorando, Antonio
Martínez Blanco. Dado que el crecimiento de las microalgas depende estrictamente de la luz y que, entre
otros nutrientes, necesita dióxido de carbono (CO2 ) para su desarrollo, el sistema está dotado de un sensor
que controla el suministro de CO2 a la suspensión de células y lo detiene automáticamente cuando llega la
oscuridad.
El sistema de producción funciona, además, en régimen abierto y semicontinuo. “Cada dos o tres días,
cuando la biomasa ha aumentado hasta alcanzar una concentración suficiente”, detalla Moreno, “se extrae
parte de la suspensión celular y se repone el volumen correspondiente de agua con sales minerales (medio
de cultivo), iniciándose nuevamente el crecimiento activo a partir de la fracción de suspensión celular que
ha permanecido en el estanque”.
Con diferentes concentraciones de células (densidad celular), en distintos periodos del año y a lo largo del
ciclo solar diario, se consiguen diferentes valores de productividad. Los investigadores han analizado el
80
AÑOS
2413
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
efecto de cada uno de estos factores y su combinación, hasta conseguir el modelo optimizado para cada
estación.
A lo largo del ciclo solar, señala Moreno, “el contenido en luteína de Muriellopsis se incrementa con la
irradiancia durante las primeras horas del día, registrándose el nivel máximo a mediodía, y decreciendo
lentamente por la tarde. Del mismo modo, la biomasa se incrementa especialmente cuando el nivel de
irradiancia alcanza los valores máximos”. Estos resultados, puntualiza Moreno, confirman que “la luteína
podría jugar un papel en la protección de las células de la microalga frente a los efectos nocivos causados
por el exceso de luz”. De hecho, se conoce que algunos carotenoides funcionan como pigmentos
accesorios en la fotosíntesis, estando también implicados en la protección de las células frente a daños
fotooxidativos.
Por su naturaleza biológica, la luteína de Muriellopsis representa una alternativa considerablemente más
atractiva para su consumo por humanos o animales que la luteína artificial, obtenida por la vía de síntesis
química, que además tiene un alto precio de mercado (alrededor de 10.000 euros por kg). Por otro lado, la
comparación con la vía biológica alternativa, a partir de pétalos de Tajetes, resulta también favorable para
el sistema de microalgas, ya que la producción de luteína por unidad de superficie es notablemente
superior, permitiendo además un control más exhaustivo del proceso de producción y de la calidad del
producto. Por otra parte, el procedimiento desarrollado en Sevilla permitiría la fabricación de luteína
marcada con diferentes isótopos estables, posibilitando la realización de estudios en humanos que permitan
aclarar la metabolización de este compuesto y las bases de sus efectos fisiológicos. (R+D CSIC)
Información adicional en: http://www.ibvf.csic.es/
Edificación cósmica
Las imágenes proporcionadas por el Chandra X-ray Observatory revelan dos distantes zonas del Universo
donde reina una gran actividad. El descubrimiento muestra cómo los agujeros negros supermasivos son
capaces de controlar el crecimiento de las grandes galaxias lejanas.
El potente telescopio espacial ha captado los rayos-X emitidos por las enormes nubes de partículas de alta
energía que rodean a las galaxias 3C294 y 4C41.17, situadas a 10.000 y 12.000 millones de años-luz de la
Tierra, respectivamente. Estas partículas energéticas son los restos de acontecimientos explosivos
anteriores, acaecidos debido a la existencia de un agujero negro supermasivo en el centro de cada una de
las galaxias.
En esta fase de su evolución, las galaxias contemplan cómo los agujeros negros transfieren una
considerable cantidad de energía hacia el gas que las rodea, señala Andrew Fabian, de la Cambridge
University. Esta situación es crucial para explicar algunas de las más extrañas propiedades de las galaxias
actuales, y en especial de aquellas que se agrupan para formar grandes cúmulos.
Estamos seguramente ante un gran ciclo cósmico. Una región densa de gas intergaláctico se enfría para
formar varias galaxias pequeñas, que a su vez se unen para dar forma a otra mayor con un agujero negro
supermasivo en su centro. La galaxia y este agujero negro central continúan creciendo hasta que la energía
generada por los chorros (jets) que surgen de sus cercanías impide la caída de más materia. Millones de
años después de que la actividad de los chorros se ha calmado, la materia vuelve a caer en el agujero negro,
y el ciclo se reinicia.
Tanto 3C294 como 4C41.17 se hallan en zonas del espacio donde encontramos un altísimo número de
galaxias. El gas y las galaxias que las rodean finalmente formarán cúmulos de galaxias, alguno de los
objetos más masivos que existen en el Universo.
Todo parece indicar que 3C294 y 4C41.17 continuarán creciendo y acumulando materia, formando cientos
de miles de millones de estrellas. Pero su tamaño tendrá un límite, explica Caleb Scharf, de la Columbia
University, ya que la actividad de los chorros de energía, producidos por los agujeros negros, regulará su
crecimiento.
4C41.17 posee nubes de polvo donde se forman estrellas, constituyendo la más potente fuente de radiación
infrarroja jamás detectada. Pero estas nubes se hallan incrustadas dentro de nubes aún mayores, cuya
temperatura alcanza los 10.000 grados. Están hechas con el material que sobró de la formación de la
galaxia, un material que debería haberse enfriado rápidamente por radiación en ausencia de una fuente de
calor. Sin embargo, las partículas de alta energía proporcionan la energía necesaria para que brillen como
lo hacen.
La mayor parte de los rayos-X que proceden de 4C41.17 y 3C294 tienen su origen en las colisiones de los
electrones energéticos con los fotones del fondo cósmico, estos últimos producidos en el caliente Universo
80
AÑOS
2414
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
temprano. Dado que estas galaxias están muy lejos, la radiación observada se originó cuando el Universo
era más joven y el fondo cósmico más intenso. Este efecto potencia la radiación X y ayuda a los
astrónomos a estudiar galaxias extremadamente distantes.
Información adicional en: http://www1.msfc.nasa.gov/NEWSROOM/news/releases/2003/03-079.html
Consecuencias de un impacto catastrófico
Si un asteroide en ruta de colisión alcanzara la Tierra en el futuro, el impacto se produciría muy
probablemente en el océano, ya que los mares cubren la superficie de nuestro planeta en un 70 por ciento.
Científicos de la University of California, en Santa Cruz, han calculado cuáles serían las consecuencias de
un acontecimiento como éste, y han descubierto que podría ocasionar tsunamis (ola gigante) de más de 100
metros de alto.
La simulación por ordenador que han elaborado Steven Ward y Erik Asphaug se ha basado en datos reales.
Más en concreto, en las características de un asteroide llamado 1950 DA, cuya trayectoria podría llevarlo a
chocar contra la Tierra el 16 de marzo de 2880.
El citado cuerpo es una gran roca de aproximadamente un kilómetro de diámetro. En el estudio, se ha
estimado que podría caer sobre el océano Atlántico a una velocidad de casi 61.000 km/h.
En realidad, la probabilidad de que este asteroide impacte contra nuestro planeta es muy reducida (apenas
un 0,3 por ciento), ya que dentro de más de 8 siglos su trayectoria habrá sido seguramente perturbada por
la influencia gravitatoria de otros cuerpos del sistema solar, desviándolo. Pero también es obvio que, en el
pasado, otros asteroides de aspecto y tamaño similares han percutido periódicamente contra la Tierra,
como ocurrió por ejemplo hace 65 millones de años, cuando un fenómeno semejante propició la
desaparición de los dinosaurios.
En la actualidad, las probabilidades de que algo así suceda son muy pequeñas, pero también es cierto que,
de ocurrir, las consecuencias serían enormes. Por eso los científicos se preocupan por el problema y tratan
de encontrar formas que les ayuden a valorar mejor los posibles efectos de un acontecimiento de estas
características.
Para la simulación, Ward y Asphaug eligieron el Atlántico como punto de impacto porque han calculado
cuál será la orientación de nuestro planeta a la hora prevista del encuentro. El lugar exacto sería a unos 600
km de la costa este estadounidense.
Los resultados sugieren que la caída del asteroide provocaría un estallido equivalente a una explosión de
60.000 megatones. Crearía una cavidad (un vacío) en el océano de casi 20 km de diámetro y 5 km de
profundidad, llegando hasta el mismo fondo marino y excavando incluso parte de este último. El agua se
precipitaría entonces rápidamente en la cavidad, llenándola, y un anillo de olas se extendería en todas
direcciones. El impacto produciría olas tsunami de todas las frecuencias y longitudes de onda, con un
máximo semejante al diámetro de la cavidad. Debido a que las ondas de baja frecuencia viajan más rápido
que las de frecuencia más alta, el impulso inicial se distribuiría en una serie de olas consecutivas. En las
películas se suele presentar una única gran ola, pero en realidad tendríamos docenas de ellas, las primeras
bastante pequeñas y las siguientes cada vez más grandes, llegando a la costa a intervalos de 3 ó 4 minutos.
Dado que pierden fuerza a medida que viajan, las zonas más próximas al lugar del impacto recibirían las
mayores olas. Dos horas después del choque, olas de más de 100 metros de altura alcanzarían las playas de
Cape Cod a Cape Hatteras. Cuatro horas después del suceso, toda la costa este estadounidense habría ya
experimentado olas de más de 70 metros. Por otro lado, serían necesarias 8 horas para su llegada a Europa,
donde alcanzarían alturas de 10 a 20 metros, aproximadamente.
Una de las consecuencias adicionales es que la furia del agua avanzando removería el fondo marino,
erosionando los sedimentos. Incluso podrían producirse deslizamientos de tierras, que a su vez
ocasionarían tsunamis secundarios. Por ejemplo, el colapso de una ladera volcánica inestable en las islas
Canarias podría provocar un tsunami que alcanzaría la costa este americana.
Por ahora, los científicos se encuentran a medio camino de su objetivo de catalogar al menos el 90 por
ciento de los asteroides que cruzan la órbita de la Tierra, mayores de 1 km de diámetro (parecidos a 1950
DA). Se espera que este trabajo esté listo en 2008.
Información adicional en: http://www.ucsc.edu/news_events/press_releases/text.asp?pid=355
80
AÑOS
2415
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
Cuando un metal deja de comportarse como tal
La revista Science informa sobre el sorprendente comportamiento de los agrupamientos de átomos de
niobio (un metal), de tamaño nanométrico, cuando éstos son enfriados por debajo de los 20 grados Kelvin.
Según los científicos, se producen en ellos cambios en las cargas eléctricas que implican la creación de
estructuras llamadas dipolos, algo que un metal no debería poder hacer.
Walter de Heer, del Georgia Institute of Technology, confirma que los agrupamientos se polarizan de
forma espontánea, con los electrones moviéndose de un lado a otro sin razón aparente. Un extremo del
agrupamiento se carga negativamente, mientras que el otro lo hace positivamente. Después, permanecen de
esta forma.
Este fenómeno ferromagnético se ha observado en agrupamientos de niobio, vanadio y tántalo, tres metales
de transición que en mayores cantidades se convierten en superconductores a aproximadamente la misma
temperatura que permite a los agrupamientos de tamaño nanométrico crear dipolos. De Heer cree que este
descubrimiento abre un nuevo campo de investigación, y que proporciona pistas sobre el misterio de la
superconductividad.
En los metales en bruto, e incluso en los diminutos agrupamientos de niobio a temperatura ambiente, la
carga eléctrica se distribuye normalmente a través de la muestra a menos que se aplique un campo
eléctrico. Pero en los agrupamientos de hasta 200 átomos de niobio creados por de Heer y sus colegas
Ramiro Moro, Xiaoshan Xu y Shuangye Yin, esto cambia cuando las partículas se enfrían a menos de 20
grados kelvin.
Esta “rotura espontánea de la simetría” fue descubierta mientras buscaban signos de superconductividad en
los agrupamientos de tamaño nanométrico. Surgiendo de forma inesperada, de Heer no tiene aún
explicación para este comportamiento. Cuando ello ocurre, estas partículas que están hechas de átomos
metálicos dejan de comportarse como metales. Algo transforma tales partículas en alguna cosa distinta.
La intensidad del efecto bipolar varía mucho en función del tamaño del agrupamiento. Los que tienen 14
átomos demuestran un efecto mayor, mientras que los que tienen más de 15 átomos apenas lo muestran.
Por encima de los 30 átomos, los agrupamientos con un número par presentan un efecto mayor que
aquellos que tienen un número impar de átomos.
De Heer opina que el fenómeno está relacionado con la superconductividad de estos metales, pero no
puede probarlo todavía. Información adicional en: http://gtresearchnews.gatech.edu/newsrelease/niobium.htm
Coche solar a punto
El Solar Car Team de la University of Michigan es probablemente el equipo de ingenieros y estudiantes
con más éxito en el novedoso campo de las carreras de prototipos de coches movidos por energía solar.
Como cada año, el SCT se prepara para la American Solar Challenge, donde busca su cuarta victoria.
El nuevo coche se llama SpectruM y, a diferencia de su antecesor, el M-Pulse, tendrá dos tripulantes.
Como siempre, forma parte de un esfuerzo mundial por desarrollar tecnología que permita utilizar energías
alternativas y construir automóviles que funcionen sólo con la luz solar. El SpectruM es la séptima
participación del equipo de la U-M desde 1989. Durante el último ciclo, el M-Pulse ganó la American
Solar Challenge y quedó en tercer lugar en la World Solar Challenge, celebrada en Australia.
El vehículo de este año se parece al M-Pulse, aunque es más grande y ancho que este último. Siguiendo las
reglas de la competición, la inclusión de un pasajero junto al piloto permite instalar paneles solares más
grandes. De esta forma, y gracias a su uso ultra-eficiente de la energía, el SpectruM pesará un tercio más
que el M-Pulse, hasta llegar a unos 400 kg, e incrementará el número de células solares de 4.000 a 5.000,
manteniendo sus posibilidades de éxito. Se esperan una velocidad punta de 120 km/h, una capacidad de
aceleración de 0 a 100 km/h en 15 segundos y, por supuesto, ningún tipo de emisiones contaminantes. El
piloto y el pasajero viajarán espalda contra espalda, siendo este último quien mire hacia atrás.
El proyecto del coche solar es una de las iniciativas estudiantiles más complejas de la University of
Michigan, ya que participan en él hasta 150 estudiantes de diversas ramas, desde ingenieros a artistas,
diseñadores o futuros empresarios. El equipo dedica el año a diseñar y construir el coche, a buscar el
dinero y la logística necesarios, y a examinar las futuras oportunidades de negocio. El promedio de edad de
los participantes es de 20 años, y su mérito radica en que competirán con otros equipos mucho más
experimentados que ellos, profesionales, que además disponen de una financiación superior. La American
Solar Car Challenge se celebrará el próximo mes de julio. En octubre esperan llevar su retoño a Australia,
80
AÑOS
2416
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
para la World Solar Challenge, que supondrá una carrera de 3.000 km entre Darwin y Adelaide.
Información adicional en: http://www.engin.umich.edu/solarcar/
Realidad virtual romana
Los romanos también gustaban de sentirse envueltos por imágenes lo más realistas posible, y por ello
pintaban en las paredes de sus villas escenas espléndidas en perspectiva que parecen una versión primitiva
de nuestra realidad virtual. Muchas de ellas, casi intactas, han sido encontradas en los restos de la ciudad
de Pompeya. Ahora, investigadores de la University of Warwick utilizan tecnología de nuestro siglo para
transformarlas en verdaderas imágenes tridimensionales.
Muchas de las pinturas descubiertas representan el escenario de antiguos y hermosos teatros romanos. Su
plasmación en perspectiva (estructuras arquitectónicas en 3D situadas en superficies 2D) proporciona un
gran realismo, siendo ésta una técnica desarrollada en el siglo V a.C., en el teatro griego. Los romanos
adaptaron su uso para decorar sus hogares.
El proyecto llevado a cabo por el “e-lab” de la University of Warwick, con la ayuda de los profesores
Richard Beacham y Dr Hugh Dernard, de la School of Theatre Studies, de la misma universidad, combina
las pinturas murales romanas y el modelado por ordenador de última generación, en busca de una mejor
comprensión de los escenarios en los teatros romanos. Los modelos recrean las ornamentaciones, la
estructura y las escenas representadas, de manera que los investigadores puedan explorarlos en tres
dimensionales y obtener información que sería imposible a partir de diagramas planos o libros.
La experiencia es interesante porque permite incluso situar actores virtuales en los escenarios recreados por
el ordenador. Formaremos parte, en cierto modo, de la audiencia que asistía a una representación teatral en
dichos escenarios.
Los investigadores han utilizado como punto de partida pinturas murales procedentes de Pompeya y
Herculano. También han usado fotografías de restos arqueológicos, textos antiguos, dibujos de frescos
deteriorados o ya perdidos, etc. Los escenarios teatrales así obtenidos son más perfectos, históricamente
hablando. Algunas pinturas, sin embargo, muestran escenarios de aspecto imposible, desde el punto de
vista arquitectónico, ideados sólo para hacer más bella una pared. El modelado 3D ayuda a identificar
cuáles podían ser reales y cuáles no. Información adicional en:
http://www.newsandevents.warwick.ac.uk/index.cfm?page=pressrelease&id=1051
Breves del Mundo de la Ciencia
EL TÉ COMBATE EL MAL ALIENTO: Una serie de compuestos encontrados en las infusiones de té
pueden detener el crecimiento de las bacterias que causan el mal aliento, según han descubierto científicos
de la University of Illinois en Chicago.
SISTEMAS DE CONTENCIÓN BIOLÓGICA PARA MICROORGANISMOS TRANSGÉNICOS: Un
equipo de investigadores ha resuelto la estructura de uno de los complejos toxina/antitoxina (T/A) de un
tipo de bacterias, lo que permitirá comprender cómo estas bacterias desencadenan su muerte programada.
CONTABILIZANDO ESPECIES: Una de las barreras que existen para garantizar una protección efectiva
de la biodiversidad es que no hay formas adecuadas de averiguar cuántas especies existen en grandes áreas.
Sin embargo, un nuevo método podría hacerlo posible.
COMO PUDO HABER FLUIDO EL AGUA EN EL VIEJO MARTE: Científicos de la NASA han
descubierto cómo una complicada red marciana de corrientes, ríos y lagos pudo haber transportado agua a
través de la superficie del Planeta Rojo.
LA MONOGAMIA ANIMAL ES CONTRAPRODUCENTE: Nuevas investigaciones revelan que la
monogamia es un sorprendente factor que puede influir en la extinción de una especie. Los grandes
mamíferos machos que viven en pareja o poseen pequeños harenes tienen mayores posibilidades de
desaparecer que aquellos que tienen un mayor número de compañeras.
SUPERADO CÁNCER RESISTENTE A DROGAS: A pesar de que la droga Gleevec ha sido elogiada en
algunos círculos como el arma milagrosa contra algunas formas de leucemia, puede fallar en pacientes que
desarrollan mutaciones que hacen que la droga pierda eficacia.
OPORTUNIDAD PARA LA GEOCIENCIA: La Presa de los Tres Cañones, la mayor del mundo, ha sido
presentada por los ecologistas como un desastre ambiental de primera magnitud. Su construcción, en
80
AÑOS
2417
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
China, finalizará a finales de este año. A pesar de todo, algunos científicos chinos y americanos opinan que
también servirá para aprender muchas cosas sobre los efectos de la fragmentación de los hábitats.
MEMORIA MUSICAL: Los músicos que oyen la música que interpretan, mientras tratan de aprender una
nueva pieza, se acordarán mejor de ella más adelante. Sin embargo, después de que la hayan memorizado,
escuchar la música mientras la tocan no mejorará la precisión de su interpretación.
UN SIGLO XXI MÁS CALIENTE: Por primera vez, los científicos han incorporado múltiples factores
humanos y naturales en un modelo de proyección climática. Predicen que la presencia superior de dióxido
de carbono en la atmósfera, debido a cambios en el ciclo del carbono, combinada con una disminución de
la producción humana de sulfatos, causará una aceleración del calentamiento global durante este siglo.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
MAQUINAS PENSANTES
Desde tiempos remotos los hombres intentan explicarse su naturaleza y su origen, así
como su relación con el universo y con las otras criaturas que habitan la Tierra. En
ocasiones el hombre opta por la "macrocosmización" -proceso así llamado por algunos
autores como E. Becker en La lucha contra el mal- que consiste en identificar su cuerpo,
o partes de sí mismo con el cosmos; es decir, el hombre se considera un reflejo del cielo.
Otras veces, en un movimiento complementario, el hombre se mueve hacia la
"microcosmización" consistente en humanizar el cosmos, proyectando todas las cosas
terrenales hacia el cielo; así, el cielo sería un reflejo del hombre y de la sociedad.
En todo caso, en esta tensión entre el individuo y el cosmos aparece la conciencia
humana, no se sabe si como un don precioso o como un castigo de los dioses, que empuja
a los hombres a peregrinar por la vida en busca de explicaciones sobre su destino. En este
andar interrogándose, los hombres crean la cultura con su cúmulo de artefactos, mediante
los cuales interaccionan con el mundo y con los otros hombres. Así se crea el lenguaje,
las religiones, la filosofía, las artes, la ciencia y la tecnología, creaciones sociales que a su
vez recrean al hombre. Dicen los especialistas que en el origen mismo de la cultura se
encuentra el deseo irrefrenable del hombre por conquistar la naturaleza y por vencer a la
muerte.
Surge así en el hombre la obsesión por volverse él mismo un creador de vida, por crear
seres con cualidades humanas cuyo destino esté regido no por designios divinos, sino por
la voluntad del ser humano creyendo, tal vez, que con ello triunfa sobre la muerte. De ahí
nacen las leyendas del Golem, el cuento del doctor Frankenstein y últimamente la
vertiente de investigación científica que pretende -a partir de la biología molecular, la
electrónica, la ingeniería genética, las matemáticas, la inteligencia artificial y la robóticacrear "vida artificial". Uno de los objetivos específicos de esta empresa científica es
construir máquinas, o robots, pensantes, inteligentes; es decir que puedan comportarse y
pensar tal como lo hacemos los seres humanos.
Pero ¿qué es pensar? Pensar es un proceso mental que se manifiesta como un discurso
interno que se realiza en el campo de la conciencia. Es decir, pensar es un
encadenamiento de expresiones lingüísticas que pueden o no estar concatenadas
lógicamente. En este sentido hay pensamientos lógicamente correctos, incorrectos,
contradictorios, coherentes, incoherentes, etcétera.
80
AÑOS
2418
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
Desde este punto de vista pensar no es idéntico a razonar deductivamente; razonar
deductivamente es una forma del pensamiento, pero éste no se agota en razonar. El
pensamiento en su forma más general se enlaza con imágenes, recuerdos, pulsiones
instintivas, sensaciones y emociones que lo tiñen, le dan dirección, lo motivan, lo
interrumpen...También hay que reconocer que una parte del pensar responde directamente
a la interacción del hombre con su medio, y que lo que denominamos inteligencia es un
complejo proceso que rebasa la capacidad de pensar o razonar, incluyendo el aprendizaje
y la adaptación. Sintetizando: los procesos inteligentes incluyen ciertas formas del pensar,
como el razonamiento deductivo, pero no se reducen a éstos; pensar es un proceso más
amplio que el razonar lógico, y la razón lógica tiene mucha variantes, ninguna de las
cuales engloba otras formas del pensar como el pensamiento especulativo, la creación
poética, el "sentido común", etcétera.
Hay expertos en inteligencia artificial que sostienen que si bien puede hablarse de
cierto tipo de inteligencia en los animales, la inteligencia humana tiene la peculiaridad de
ser inseparable de la conciencia; es decir, no hay inteligencia -en el hombre- sin
conciencia. Y es en este punto donde se desata la polémica sobre si es posible o no lograr
que una máquina o robot manifieste inteligencia parecida a la humana, con todo lo que
conlleva: conciencia, capacidad de pensar, de razonar, de crear y de aprender. Hasta el
momento, aún las máquinas más complejas que se han desarrollado apenas muestran
algún asomo de razonamiento y elementos primitivos de aprendizaje y adaptación a
medios cambiantes.
Los seguidores de la llamada "inteligencia artificial dura" consideran que todo es
cuestión de tiempo, que llegará el momento -cuando las máquinas tengan mayor
capacidad de procesamiento, más memoria y nuevas formas de procesar datos en
paralelo- en que a causa de la creciente complejidad computacional emergerá la
inteligencia.
Pero no hay que llamarse a engaño, así como el hombre en diversas épocas proyecta el
cosmos en su interior, o bien proyecta sus cualidades hacia el universo, en la época
moderna el hombre se proyecta en sus creaciones tecnológicas y, complementariamente,
se identifica con ellas. En los albores de la Revolución Industrial, con el desarrollo de los
modelos y de las máquinas mecánicas, el hombre se pensó a sí mismo como un máquina
mecánica, creando autómatas mecánicos de diversa índole. Hoy día, era de las
computadoras, la electrónica y las telecomunicaciones, el hombre crea complejos
autómatas y proyecta en estas máquinas su imagen, tratando a la vez de explicarse a sí
mismo como una máquina tal.
Lo falaz de esta postura lo discute con profundidad y amplitud, Roger Penrose,
connotado matemático quien ha incursionando en la elaboración de las más avanzadas
teorías cosmológicas, en la mecánica cuántica, en las matemáticas y en la inteligencia
artificial. Penrose advierte que los procesos que dan lugar a la inteligencia humana y al
surgimiento de la conciencia son de naturaleza distinta de la que corresponde a los
procesos que tienen lugar en las computadoras; sin con ello inferir que sean de origen
sobrenatural o ininteligibles, sino que su comprensión científica se nos escapa por el
momento.
Para adentrarse en los misterios de la inteligencia artificial y la posibilidad de
construir máquinas o robots pensantes es recomendable la lectura de La nueva mente del
emperador, de R. Penrose, publicado por Grijalbo-Mondadori en versión castellana.
80
AÑOS
2419
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
Nos. 205-207, 9 a 23 de junio de 2003
No. acumulado de la serie: 464-466
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
NÚMERO ESPECIAL DE ANIVERSARIO
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
PRIMER LUSTRO DEL BOLETÍN
Quinto Aniversario
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Décimo Aniversario
de la serie
El Hijo de El Cronopio No. 204/463
Premian a revista mexicana de ciencia
Fundada en diciembre de 1998, la revista de divulgación de la ciencia ¿Cómo ves? recibió el Premio
Latinoamericano de Popularización de la Ciencia y la Tecnología
Por ANTIMIO CRUZ /
Grupo Reforma
La revista mexicana de divulgación de la ciencia ¿Cómo ves? recibió el Premio
Latinoamericano de Popularización de la Ciencia y la Tecnología, que consiste en 3 mil
dólares y un pergamino de reconocimiento.
El galardón, que desde hace ocho años entregan 70 organizaciones de la región,
agrupadas en la Red de Popularización de la Ciencia y la Tecnología en América Latina
y el Caribe, y la Oficina Regional de Ciencia y Tecnología de la UNESCO, fue dado a
conocer este miércoles en el Museo Universitario de Ciencias Universum.
"La divulgación de la ciencia es un modo de contrarrestar a las pseudociencias. Además
es uno de los modos de llevar el nuevo conocimiento a las personas más jóvenes y a
quienes han concluido su formación académica formal", afirmó Julieta Fierro, titular de
la Dirección General de Divulgación de la Ciencia de la UNAM, de la cual depende la
revista.
Fundada en diciembre de 1998, ¿Cómo ves? edita mensualmente 17 mil ejemplares que
se distribuyen en México, Estados Unidos, Centro y Sudamérica.
"Además, dentro de nuestros proyectos en marcha están la edición de un CD-ROM con
nuestra colección de números anteriores, así como la modernización de nuestra página de
internet y algunos cambios al diseño y contenido de la edición impresa", afirmó Estrella
Burgos, editora de la publicación.
El premio referido fue compartido este año con el Museo Maloka de Colombia, mientras
que el Premio Individual por divulgación de la ciencia en América Latina y el Caribe
correspondió al brasileño Ernst Hamburger, director de la Estación de la Ciencia, en San
Pablo, Brasil.
Noticias de la Ciencia y la Tecnología
Chip electro-biológico
Experimentos realizados en la University of California, Berkeley, han permitido a un grupo de científicos
acceder a las señales eléctricas que definen la muerte celular, abriendo las puertas a la creación de un chip
que pueda usarse como alarma ante un ataque bioquímico o para probar la toxicidad de sustancias en
tejidos humanos.
Los investigadores han usado un microchip que determina eléctricamente la viabilidad celular mediante la
detección de cambios en la resistencia eléctrica de la membrana celular, unos milisegundos después de ser
expuesta a un agente tóxico. Han descubierto que después de que una célula es expuesta a una toxina, su
resistencia eléctrica experimenta un rápido pico antes de descender dramáticamente debido a la muerte.
Según Boris Rubinsky, bioingeniero, el dispositivo MEMS (micro-electromecánico) será muy útil en la
detección de ataques bioquímicos porque en estos casos no se dispone de tiempo para realizar análisis. Se
trata de una nueva tecnología que actuará como si tuviéramos “el canario” en un chip, en referencia al
pájaro que los mineros utilizaban para detectar escapes de gas grisú.
Hace tres años, Rubinsky y su compañero Yong Huang inventaron un chip biónico que mezclaba una
célula biológica viva con un circuito electrónico. Ahora, se utiliza el mismo concepto, pero adaptado para
que nuestro conocimiento de si la célula está viva o muerta determine de forma inmediata la existencia o
80
AÑOS
2421
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
no de un agente tóxico. Sensores de este tipo podrían ser llevados por los soldados en el campo de batalla,
en su placa de identificación, o ser colocados de forma autónoma en el frente, como centinelas que
informarían a las tropas sobre cualquier ataque biológico o químico. Gracias a que la tecnología está
basada en un sistema MEMS, podrá ser miniaturizado.
El actual chip biónico contiene una célula que vive en un cultivo rico en nutrientes, entre dos electrodos
sobre una oblea de silicio, Los electrodos sondean constantemente la membrana celular y controlan la
cantidad de corriente eléctrica que puede pasar a través de ella. Una membrana intacta no permitirá que
pasen iones, excepto en condiciones muy restringidas.
Cuando una célula muere debido a un agente tóxico, su membrana se rompe y deja pasar iones, cerrando
un circuito que se puede medir fácilmente. El proceso de muerte celular puede así ser vigilado en tiempo
real. Información adicional en: http://www.berkeley.edu/news/media/releases/2003/06/09_toxic.shtml
Comida contaminada
Son varios los factores que hacen que la comida contaminada por bacterias haga enfermar a los humanos.
Una mejor comprensión del proceso de infección podría ayudarnos a evitar que dichas enfermedades se
produzcan. Científicos de la Purdue University han completado recientemente un completo estudio sobre
la virulencia de la Listeria monocytogenes, y han descubierto diversos aspectos interesantes de su
comportamiento.
Por ejemplo, lo bien que la bacteria se une a las células no determina por sí solo la gravedad de la
enfermedad. Los factores que realmente determinan si enfermaremos o no, y si lo haremos con mayor o
menor gravedad, son diversos, e incluyen: el nivel de unión con las células intestinales, el grado de
penetración en las paredes celulares y su capacidad de movimiento hacia otros órganos.
Arun Bhunia y Ziad Jaradat, científicos de Purdue, explican que la Listeria es una de las bacterias que se
instalan en la comida más peligrosas, con un grado de mortalidad que alcanza el 20 por ciento. Sólo en los
Estados Unidos, 2.500 personas sufren la enfermedad que provocan. Una cifra que se incrementa
sustancialmente en los países del tercer mundo, donde las condiciones sanitarias son muy inferiores.
Cuando comemos algo que ha sido infectado por estas bacterias, el primer lugar en el que éstas
reaccionarán con células vivas es en el tracto intestinal. La comprensión de esta interacción primaria es
fundamental. Si podemos evitar que la Listeria se una a nuestras células intestinales, habremos impedido la
infección.
Como se ha dicho, la Listeria entra en el cuerpo cuando consumimos comida contaminada. Tras pasar por
el estómago, se une a las células intestinales, pero sólo penetrará a través de sus paredes si pertenece a una
variedad infecciosa. Una vez lo haya conseguido, las células infectadas se moverán hacia otro órgano,
normalmente el bazo o el hígado. Las variedades más potentes pueden llegar a producir encefalitis
(inflamación del cerebro).
Bhunia y su colega han estudiado 25 variedades de Listeria. Las introdujeron en un laboratorio junto a
células intestinales humanas y en ratones, para averiguar cómo se unen a las células, lo rápidamente que
las invaden y hacia qué órganos se extienden.
Los científicos no han encontrado una relación directa entre adhesión e invasión. La primera es necesaria,
pero no es un indicador de la infección. Por tanto, los dos factores deben ser evaluados por separado para
cada tipo de Listeria.
Los investigadores están estudiando ahora proteínas individuales que podrían jugar un papel en la unión de
la Listeria con las células. Si conociéramos qué proteínas son, podríamos utilizar versiones modificadas
genéticamente para impedir el proceso de infección.
Información adicional en: http://news.uns.purdue.edu/html4ever/030609.Bhunia.infection.html
Un segundo Tunguska
El 24 de septiembre de 2002, un enorme bólido caía sobre Vitim, en la región de Irkutsk, Siberia. Después
de un largo viaje, una expedición científica ha alcanzado el punto teórico del impacto y ha descubierto los
efectos que el objeto tuvo en el entorno.
Como ocurrió durante el fenómeno Tunguska a principios del siglo pasado (de mucha mayor potencia), el
nuevo cuerpo procedente del espacio se quemó casi en su totalidad en la zona baja de la atmósfera. El
proceso de su desintegración creó una serie de explosiones y una ola de calor que afectaron a un área de
80
AÑOS
2422
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
unos 100 km cuadrados, donde los árboles aparecen quemados. Los científicos han hallado algunos
fragmentos del meteorito, situados a unos 60 km de la población de Mama.
Los habitantes de la región notaron claramente el fenómeno, ya que se produjeron temblores no demasiado
distintos a los de un terremoto. También se observaron resplandores sobre la zona de impacto, situada
entre el pueblo de Balakhninsky y la ciudad de Bodaibo, ambos próximos al río Vitim.
Los estudios más recientes sugieren que el bólido explotó a una altitud de unos 30 km, a las 16:50 UTC del
24 de septiembre de 2002. La potencia explosiva no es bien conocida, pero se considera a este meteorito el
segundo más grande caído sobre Rusia, después del de Tunguska.
Se han examinado las mediciones efectuadas por diversos observatorios sísmicos y por barógrafos
colocados a diferentes distancias del punto de impacto. Los resultados sugieren que se generó una onda de
infrasonido que avanzó a una velocidad de unos 200 m/s.
Información adicional en: http://www.itogi.ru/paper2002.nsf/Article/Itogi_2002_11_05_12_0018.html
Nace la sociedad española de exobiología
El pasado martes, 10 de junio, nació en Valencia la Sociedad Española de Exobiología, dedicada a la
investigación y difusión de las ciencias de la vida y del espacio. Creada y sostenida exclusivamente por
ciudadanos particulares y entidades privadas, se trata de la primera sociedad científica de estas
características que se ha constituido en nuestro país durante el presente siglo.
Entre sus objetivos básicos se encuentra la apertura de un centro de difusión capaz de acortar la brecha
entre ciencia y sociedad, poniendo especial énfasis en alcanzar a aquellas personas que, por razones
económicas, sociales o culturales, no pueden acceder normalmente a estos conocimientos.
“Vamos a demostrar que aquí se puede hacer ciencia con el apoyo de la ciudadanía de a pie, que se ha
acabado el ‘¡que inventen ellos!’”, afirmaba Antonio Cantó, presidente de la Sociedad, durante el acto
fundacional. Recordó que tanto el submarino como el helicóptero se inventaron en España, pero nunca se
llegaron a fabricar por la falta de interés público y privado, para advertir sobre las consecuencias que se
derivan de la escasez de compromiso con la ciencia: “Pese a todo el progreso que hemos vivido en los
últimos 25 años, la inversión nacional en I+D es del 0’89 por ciento, la tercera parte que en Francia,
Alemania o Suecia. Con unos modelos económicos cada vez más basados en el progreso y la supremacía
tecnológica, esto nos coloca de nuevo a la cola de los países desarrollados. En el mundo que se nos viene
encima, las sociedades que no potencien su aspecto científico languidecerán y terminarán por constituir un
‘Segundo Mundo’ sin actividad, sin riqueza, sin expectativas y sin futuro, muy similar al N
La Sociedad Española de Exobiología pretende, por tanto, mejorar la formación científica de la población
para ayudar a construir una sociedad más culta, más rica y más capaz de competir en las complejas
economías del siglo XXI, promover el debate ético y social sobre cuestiones que afecten a toda la
comunidad e incluso asegurar una alternativa de ocio cultural para todo el mundo.
Pero el proyecto estrella de la Sociedad Española de Exobiología es la construcción de un radiotelescopio
para investigación astronómica y búsqueda científica de civilizaciones extraterrestres (SETI),
“exactamente igual que en otros países desarrollados como Estados Unidos, el Reino Unido, Japón,
Taiwán y hasta Sudáfrica”, en palabras de su presidente. Este proyecto se llevará a cabo en tres fases, y
está abierto a la participación de cualquier persona o entidad que desee colaborar en él. “La investigación
SETI tiene varias virtudes: es multidisciplinar, así que desarrolla muchos campos de la ciencia y la técnica,
desde las telecomunicaciones y la informática hasta la química o la medicina; cautiva la imaginación de
millones de personas, fomentando su interés por aprender y formarse; y cuando se consiga un contacto,
significará una revolución tan grande como el descubrimiento de la electricidad. Simplemente no podemos
quedarnos fuera”, dijo Cantó.
Aunque mucha gente lo desconoce, centenares de inventos de uso común en la actualidad -desde las
compresas superabsorbentes hasta el cristal orgánico de las gafas, los ordenadores, el TAC o incluso
ciertas técnicas para detectar el cáncer de mama- se derivan de la investigación espacial. Además de su
evidente utilidad social, estos avances han representado billones de euros y millones de puestos de trabajo
durante varias generaciones para los países que los desarrollaron. Sin embargo, la comunidad científica
está convencida de que si lográramos establecer contacto con una civilización extraterrestre, todos estos
progresos empalidecerían frente a lo que podríamos aprender.
A un nivel más terrenal, la Sociedad Española de Exobiología va a lanzar también el programa “Con los
ojos en el cielo y el corazón en la Tierra”, destinado a proteger y garantizar la educación de niños y
80
AÑOS
2423
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
adolescentes con valía en el ámbito científico-técnico, pero que no puedan desarrollar sus habilidades
debido a condicionantes económicos, sociales o culturales.
El radiotelescopio que proyecta construir la Sociedad Española de Exobiología lleva el nombre del más
grande de los astrónomos españoles, el cordobés Abu Ishaq Ibrahim ibn Yahya ibn al Naqqas (1028-1100),
llamado al-Zarqalluh o Azarquiel por los cristianos. Describió el movimiento elíptico de los planetas, en
conflicto con las teorías de Aristóteles y Ptolomeo, que inspiraría a Kepler sus tres leyes sobre el
movimiento de los cuerpos celestes; creó en Toledo el principal centro astronómico del Medioevo; redactó
las Tablas Toledanas para definir la posición de estrellas y planetas, y fue el fundador de la Astrofísica.
Este instrumento, que se pretende ubicar en alguna localidad con bajos niveles de contaminación
radioeléctrica, se iniciará mediante la instalación de un conjunto de antenas Argos, cuyo coste es muy
reducido pero son capaces de detectar un teléfono móvil en la órbita de Marte. En una segunda etapa, AlZarqalluh se transformará en un radiointerferómetro similar a la instalación Allen del Instituto SETI de la
NASA, a escala reducida, para finalizar convirtiéndose en un complejo radioastronómico de primera línea
en un plazo de diez a doce años. (SEE) Información adicional en: http://webs.ono.com/usr047/se2x/
Ladrillos inteligentes
Científicos de la University of Illinois en Urbana-Champaign han desarrollado un “ladrillo inteligente” que
podría vigilar constantemente la salud de los edificios y salvar así muchas vidas. Estamos seguramente
ante una auténtica revolución en la construcción de grandes estructuras.
Como explica Chang Liu, profesor de ingeniería eléctrica e informática, cada vez convivimos con una
mayor cantidad de elementos electrónicos inteligentes, pero sin embargo, aún seguimos viviendo en
edificios poco sofisticados. Haciéndolos más listos, ganaremos en confort y seguridad.
Liu y el estudiante Jon Engel han combinado diversos avances en sensores, procesamiento de señales,
tecnología inalámbrica y material de construcción básico para obtener un sistema que permite informar a
un operador remoto sobre las condiciones de un edificio.
El ladrillo inteligente posee un sensor de temperatura, un acelerómetro, un multiplexador, un transmisor,
una antena, una batería y otros elementos que han sido situados dentro de él. Una vez incorporado a una
pared convencional, el ladrillo vigila constantemente la temperatura del edificio, las vibraciones y los
movimientos. Dicha información podría ser esencial para los bomberos que traten de apagar un incendio
en la estructura, o para el personal de emergencias que intente rescatar a los heridos tras un terremoto.
Pero el ladrillo inteligente es sólo una aplicación de la tecnología empleada. De hecho, podrían utilizarse
otros materiales de construcción, como bloques de hormigón, vigas laminadas, acero, etc.
Para prolongar la vida útil de la batería, el ladrillo podría transmitir a intervalos regulares, en vez de operar
de forma constante. Sin embargo, la batería podría ser recargada a través del propio ladrillo, como se hace
con algunas bombas cardíacas artificiales.
Por ahora, los componentes utilizados por Liu y Engel son convencionales. Con un desarrollo superior se
podría miniaturizar el conjunto y conseguir que todo se encuentre en un único chip. El sensor podría ser
también flexible, para hacerlo más resistente a la tensión que soportan ciertas estructuras en los edificios.
Ya existen estos sensores flexibles, llamados por Liu y Engel “piel inteligente”, ya que pueden ser
enrollados alrededor de la superficie que nos interese, incluido el dedo de un robot.
La tecnología podría usarse asimismo en la industria de la juguetería. El sensor detectaría si una muñeca es
tratada con cariño por el niño, o si por el contrario está siendo golpeada. Ello provocaría una reacción más
realista por parte del juguete.
Información adicional en: http://www.news.uiuc.edu/scitips/03/0612smartbricks.html
Solo tres tipos de células detectan luz en el ojo
Después de años de controversia, un equipo internacional de investigadores, liderado por científicos de la
Johns Hopkins School of Medicine, ha descubierto que la función de detección de luz en el ojo es llevada a
cabo, seguramente, por sólo tres tipos distintos de células.
Según un artículo publicado en la revista Nature el pasado 15 de junio, los conos, bastones y un tipo
especial de células de la retina que fabrican una proteína llamada melanopsina, son los que, conjuntamente,
reaccionan ante los diversos niveles de luz (al menos en el ojo de los ratones). Otros científicos habían
propuesto un papel semejante para otro tipo de células que fabrican unas proteínas llamadas criptocromos,
80
AÑOS
2424
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
pero no parece que intervengan en el ojo de los ratones (y probablemente tampoco en el del Hombre).
King-Wai Yau, uno de los científicos que han participado en el trabajo, confirma que el sistema
cono/bastón y el sistema de la melanopsina son los dos únicos que intervendrían en la detección de los
niveles de luz en el ojo de los mamíferos. Por el momento no hay evidencias de la existencia de un tercer
sistema.
La producción de imágenes visuales es la función más reconocida del ojo, pero la detección y la reacción
frente a los diversos niveles de luz también son esenciales para el bienestar del individuo. Gracias a esta
habilidad, el ojo mantiene el reloj interno del cuerpo, la capacidad de la pupila de reaccionar ante la luz, y
la motivación de permanecer activo durante la fracción apropiada del día. Sin las señales proporcionadas
por los tres tipos de células, los ratones pierden estas habilidades.
Para demostrarlo, Yau y sus compañeros han eliminado los genes de tres proteínas esenciales, cada una de
las cuales transmite la información lumínica procedente de los bastones, conos y las células productoras de
melanopsina.
Apareando entre sí estos ratones modificados genéticamente se producen crías que carecen de las tres
proteínas, otras que mantienen una “dosis media” de tales proteínas, y aún un grupo más con diversas
combinaciones de niveles de presencia. Los experimentos realizados con estos animales demuestran que
los que carecen de las tres proteínas no pueden ajustar sus pupilas en respuesta a la luz, y tampoco pueden
ajustar sus niveles de actividad cuando son expuestos a una fuente luminosa.
En las personas ciegas, donde los conos y los bastones no funcionan, la presencia de células productoras de
melanopsina basta para que el cuerpo obtenga suficiente información para mantener en marcha el reloj
circadiano. La pérdida de los ojos, por ejemplo en un accidente, puede en cambio significar la aparición de
perturbaciones en el ritmo circadiano.
Información adicional en: http://www.hopkinsmedicine.org/press/2003/June/030615.htm
Detector de salinidad
Para entender mejor cómo se forman las tormentas tropicales y cómo se intensifican hasta convertirse en
huracanes, los científicos de la University of Houston han construido un detector que permite medir la
concentración de sal presente en la lluvia y en el vapor de agua de los ciclones tropicales. El instrumento
podría sería ser instalado a bordo de un avión en agosto.
El principal artífice del nuevo sensor es James Lawrence, geocientífico que ha estudiado los huracanes
durante años, desde el suelo y también desde el cielo. El investigador cree que uno de los elementos
esenciales que propulsan a un huracán es la forma en que el calor es transferido desde la superficie del
océano hasta el aire.
Conocer los mecanismos de la transferencia de calor nos ayudará a obtener mejores modelos de la
formación de los huracanes, así como de la forma en que crecen de intensidad, información muy valiosa
para interpretar su futura peligrosidad.
El viento, removiendo el océano y lanzando gotas de agua pulverizada hacia el aire, es uno de los
mecanismos mediante los cuales se puede transferir calor. Midiendo el contenido de sal (salinidad) de la
lluvia, los científicos deberían poder inferir qué está ocurriendo en la superficie marina.
A finales de los años 90, Lawrence embarcó un colector de lluvia en el fuselaje de un avión. Cuando
penetraron en el huracán que estaban investigando, la primera lluvia recogida resultó ser muy salada. A
medida que se alejaban de la tormenta, la salinidad se redujo. Los resultados parecían extraños, algo había
ido mal. No habían tenido en cuenta un factor crítico: la suciedad que cubría el fuselaje del aeroplano. El
vehículo había permanecido aparcado en Tampa, no lejos del Golfo, y estaba cubierto de sal. Cuando
penetraron en el huracán, dicha sal fue barrida y cayó en el colector, enmascarando los datos.
Lawrence inició entonces el diseño de otro detector. Junto a Hans Hofmeister, ideó un dispositivo que
quedaría montado en el morro del avión, donde evitará verse contaminado por agua que previamente haya
tocado el fuselaje.
El aparato es más sensible que el anterior y ya ha pasado diversas pruebas en tierra. Ha sido instalado en la
parte delantera de una camioneta y ensayado a gran velocidad por una autovía. También se ha probado en
un túnel de viento. El detector tiene aspecto cilíndrico, plano en la zona delantera y con la forma adecuada
en la trasera para adaptarse al morro del avión.
Normalmente, para detectar la salinidad del agua se introducen dos electrodos en un contenedor con una
solución y se mide la cantidad de corriente que fluye entre los cables. Pero si queremos medir los niveles
de sal de forma instantánea, no se puede esperar a recoger agua de lluvia en un recipiente mientras se vuela
80
AÑOS
2425
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
a través de una tormenta. En el diseño del nuevo detector, los hilos eléctricos quedan expuestos al aire.
Así, la lluvia se acumula en el entramado de hilos a medida que el avión pasa a través de ella y las nubes.
Cuanta más sal contiene el agua, más fácil le resulta a la corriente fluir entre ellos. El detector de salinidad
mide el voltaje.
El sistema debe ser capaz de resistir descargas importantes. Mientras el avión vuela en el aire, se genera
electricidad estática que se descarga en forma de chispas de alto voltaje. Así, si bien el aparato puede medir
diferencias de voltaje de hasta una millonésima de voltio, no se ve afectado por una descarga de 15.000
voltios. Información adicional en: http://www.uh.edu/admin/media/nr/2003/062003/salinity060903.html
Producción de hidrógeno a pequeña escala
Un grupo especial de materiales óxidos que aceptan y entregan átomos de oxígeno fácilmente ante cambios
de temperatura podría ser la base alrededor de la cual tendríamos un sistema de producción de hidrógeno a
pequeña escala, adecuado para alimentar células de combustible de uso doméstico y para vehículos.
Los científicos saben desde hace tiempo que los óxidos de elementos raros como el cerio, el terbio y el
praseodimio pueden producir hidrógeno a partir de vapor de agua y metano en ciclos continuos de
“inhalación y exhalación”. Dopando los óxidos con átomo s de hierro, los investigadores del Georgia
Institute of Technology han reducido las temperaturas bajo las cuales estos materiales producen hidrógeno,
abriendo la puerta a que el proceso pueda ser alimentado mediante energía solar.
Según Zhong L. Wang, exp erto en materiales de la School of Materials Science and Engineering, el nuevo
método de producción de hidrógeno tiene numerosas ventajas, algunas de las cuales permiten aplicaciones
más realistas de la tecnología de las células de combustible en el hogar. Estos dispositivos proporcionan
electricidad como subproducto de una reacción química en la que el hidrógeno se combina con el oxígeno
para obtener agua. Se espera que sean pronto utilizados en diferentes ámbitos de la industria, e incluso para
mover los motores eléctricos de los automóviles del futuro. El gran problema con el que nos enfrentamos
es la obtención del hidrógeno necesario, es decir, su producción mediante un método seguro y barato.
En la actualidad el hidrógeno se obtiene a partir de hidrocarburos como el metano, pero implica el uso de
catalizadores metálicos y temperaturas de más de 800 grados Celsius. A escala industrial el método es
apropiado, pero no lo es tanto para aplicaciones en las que se necesita sólo una producción reducida (para
células de combustible domésticas y para mover vehículos).
El método de la Georgia Tech, al trabajar a más bajas temperaturas, proporciona una alternativa de bajo
coste que usa menos energía y menos agua para operar.
Los óxidos propuestos tienen una estructura cristalina única, que permite que hasta el 20 por ciento de los
átomos de oxígeno que contiene puedan salir sin provocar un daño estructural. Esto posibilitaría iniciar un
secuencia cíclica en la que los átomos de oxígeno saldrían y entrarían de la estructura a través de una serie
de procesos de oxidación y reducción, los cuales producirían hidrógeno, primero a partir del metano y
después del vapor de agua. Añadiendo un suministro de oxígeno externo, el sistema podría reducir la
cantidad de agua requerida para la producción de hidrógeno.
En primer lugar, se usan temperaturas de unos 700 grados Celsius para extraer el oxígeno del material, que
actúa oxidando el carbono del metano para formar óxidos de carbono e hidrógeno libre. Después, se
emplean temperaturas de hasta 375 grados Celsius para reducir el vapor de agua, sacando oxígeno del agua
para devolvérselo a la estructura cristalina, produciendo más hidrógeno en el proceso.
Aumentando y disminuyendo la temperatura en un ciclo continuo, en presencia de metano o agua,
podemos producir hidrógeno de forma constante.
Si se redujera la temperatura de reacción hasta unos 350 grados, se podría emplear energía solar para
proporcionar al menos parte del calor necesario. Emplear una fuente de energía renovable haría el proceso
más atractivo para los usuarios domésticos.
Información adicional en: http://gtresearchnews.gatech.edu/newsrelease/oxygenpump.htm
El efecto domino de los esteroides
Los corticoesteroides, drogas que simultáneamente pueden proporcionar un poderoso efecto terapéutico y
severos efectos secundarios, causan asimismo un complejo “efecto dominó” de cambios genómicos, según
indica un estudio realizado por farmacéuticos de la State University of New York en Buffalo. Conocer
80
AÑOS
2426
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
cómo actúan exactamente los corticoesteroides en el cuerpo permitirá diseñar tratamientos más
personalizados para los pacientes.
William J. Jusko y su equipo de expertos han examinado más de 8.000 genes para comprobar qué
consecuencias provocan estos fármacos sobre ellos, es decir, cómo alteran su función genética.
Con esta información, los especialistas podrán adaptar su uso a las necesidades de cada persona,
maximizando sus efectos positivos y reduciendo en lo posible los negativos.
El trabajo de los investigadores de la UB se distingue de otros porque se centra en la farmacodinámica, o
lo que es lo mismo, los efectos de las drogas en función del tiempo, sobre múltiples genes y productos
genéticos.
Los esteroides pueden llegar a actuar muy negativamente. Pacientes como los que han sido objeto de un
transplante son más vulnerables que otros, ya que deben tomarlos durante toda la vida para contener a su
sistema inmunológico, que de otro modo podría rechazar el nuevo órgano recibido. Los corticoesteroides
son recetados también para las personas que sufren artritis reumatoide, asma, lupus, inflamaciones
intestinales, etc. Muchos de estos pacientes desarrollan después diabetes de tipo 2, atrofia muscular,
arteriosclerosis y osteoporosis. Los investigadores han investigado los cambios genéticos que se producen
en los hígados de ratas de laboratorio que han sido tratadas con una de estas sustancias. El hígado es una
gran fábrica de funciones metabólicas y expresa probablemente más genes que cualquier otro tejido. Los
resultados indican que los cambios genómicos provocados por los esteroides dependen mucho del tiempo.
Así, se examinaron 8.000 genes en 17 momentos distintos, a lo largo de 72 horas. En ese período, al menos
200 genes experimentaron cambios significativos como resultado del “efecto dominó” activado por los
esteroides. Información adicional en:
http://www.buffalo.edu/news/fast-execute.cgi/article-page.html?article=62930009
La velocidad de la gravedad
Es muy posible que Albert Einstein tuviera razón cuando dijo que la gravedad viaja a la misma velocidad
que la luz, pero, en contra de lo que se anunció a principios de este año, esta afirmación no ha sido aún
probada. Stuart Samuel, un científico del Lawrence Berkeley National Laboratory, cree que la
proclamación efectuada por dos colegas el pasado mes de enero fue incorrecta.
Según Samuel, el experimento realizado no confirma ni refuta la teoría de Einstein, porque sólo midió los
efectos asociados con la propagación de la luz, no la velocidad de la gravedad.
Según la Teoría General de la Relatividad, la luz y la gravedad viajarían a la misma velocidad, unos
300.000 km/s. La mayoría de los físicos creen que esta afirmación es cierta, pero se supone que sólo podrá
probarse cuando se detecten ondas gravitatorias (un hito aún no conseguido). Sin embargo, Sergei
Kopeikin, de la University of Missouri, y Edward Fomalont, del National Radio Astronomy Observatory
(NRAO), creyeron que exis tía una alternativa.
El 8 de septiembre de 2002, el planeta Júpiter debía pasar casi directamente por delante de las radio-ondas
procedentes de un cuásar, un objeto situado en el centro de una galaxia localizada a miles de millones de
años-luz de distancia. Cuando ello ocurriera, la gravedad de Júpiter desviaría las ondas del cuásar,
causando un ligero retraso en su llegada a la Tierra. Kopeikin creía que el tiempo de retraso dependería de
la velocidad a la que la gravedad se propaga desde Júpiter. Así pues, creó un sistema interferométrico
utilizando el Very Long Baseline Array, un grupo de diez radiotelescopios de 25 metros de diámetro
distribuidos entre Estados Unidos, Hawai y las Islas Vírgenes, y el radiotelescopio alemán de Effelsberg,
de 100 metros de diámetro, y esperó medir el mencionado retraso. Una vez completada la observación, los
cálculos parecieron mostrar que la velocidad a la que la gravedad se estaba propagando desde Júpiter
coincidía con la de la luz con una precisión del 20 por ciento.
Pero Stuart Samuel no está de acuerdo con que este trabajo demuestre que la velocidad de la gravedad es
igual a la de la luz. Opina que Kopeikin se equivocó cuando basó sus cálculos en la posición de Júpiter en
el momento en que las radio-ondas del cuásar llegaban a la Tierra, en vez de usar la posición del planeta
gaseoso cuando estas ondas pasaron junto a él.
Teniendo en cuenta esto, Samuel obtuvo una fórmula más exacta que nos indica que los efectos del
movimiento de Júpiter sobre el retraso de la señal del cuásar son mucho más pequeños de lo que creíamos
(de 100 a 1.000 veces menos de lo que el interferómetro utilizado podría medir).
Así, aunque este tipo de mediciones podrían ser útiles en el futuro para definir la velocidad de la gravedad,
la tecnología actual todavía no lo permite.
Información adicional en: http://www.lbl.gov/Science-Articles/Archive/Phys-speed-of-gravity.html
80
AÑOS
2427
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
Mejora de imágenes
Los ingenieros del Marshall Space Flight Center han des arrollado un sistema de mejora de imágenes de
video que posee múltiples aplicaciones, sobre todo en la lucha contra el crimen. Su origen: una
herramienta de ayuda para el estudio del Sol y la meteorología terrestre.
La tecnología se llama VISAR (Video Image Stabilization and Registration) y básicamente es capaz de
transformar imágenes oscuras y que “tiemblan”, obtenidas con videos caseros, sistemas de seguridad o
cámaras montadas en vehículos policiales, en otras mucho más claras y estables.
David Hathaway y Paul Meyer inventaron el VISAR cuando estudiaban las explosiones violentas del Sol y
examinaban las condiciones meteorológicas más peligrosas que se producen en nuestro planeta. Ahora, han
licenciado su tecnología para que la compañía Intergraph la incorpore a Video Analyst, una estación de
trabajo que puede estabilizar y mejorar imágenes de video, aclarar aquellas que se ven oscuras, y ampliar
secciones pequeñas que pueden aportar pistas importantes para resolver un caso criminal.
VISAR ya ha sido utilizado en una docena de casos investigados por la policía y el FBI. Su más notable
participación es el análisis del video relacionado con la bomba que estalló en el Centennial Park de
Atlanta, durante los Juegos Olímpicos de verano de 1996.
También se usó en el análisis de las imágenes que mostraban a Saddam Hussein el 20 de marzo, cuando se
quiso comprobar si había sobrevivido a los ataques aéreos americanos realizados el día anterior o si en el
video sólo aparecía un doble. Con Video Analyst y VISAR, en 90 minutos se comprobó, con un 99 por
ciento de seguridad, que efectivamente era Hussein.
VISAR ha recibido varios premios en el ámbito de las invenciones comerciales.
Información adicional en: http://www1.msfc.nasa.gov/NEWSROOM/news/releases/2003/03-091.html
Mas hielo en la luna
Los astrónomos creen que nuestro satélite natural contiene hielo de agua en su superficie, un interesante
recurso para sus futuros exploradores humanos. Sin embargo, este hielo sólo se encontraría en aquellos
lugares donde reina una sombra perpetua, ya que de lo contrario los rayos solares ya lo habrían evaporado.
Un nuevo estudio sugiere que la Luna podría tener más hielo del que pensábamos.
Según la información enviada por sondas como la Clementine o la Lunar Prospector, el hielo de agua, si
existe, se encontraría en los polos del satélite. No obstante, es difícil cuantificar la cantidad de hielo que
estaría presente sobre la superficie porque hay cráteres algo alejados de los polos geográficos que también
podrían estar permanentemente en sombras.
El científico Ben Bussey, del Johns Hopkins University Applied Physics Lab, y sus colegas de la
University of Hawaii y la Northwestern University, han utilizado simulaciones por ordenador que modelan
la iluminación de los cráteres lunares, para ver cómo evolucionan las sombras a lo largo del tiempo. Los
cráteres estudiados tienen menos de 20 km de diámetro. Como resultado de esta investigación, se han
identificado 7.500 kilómetros cuadrados alrededor del polo norte, y otros 6.500 kilómetros cuadrados
alrededor del polo sur donde existiría una mínima cantidad de sombra permanente, cifras bastante
superiores a las que se barajaban hasta ahora.
El eje de rotación de la Luna es casi perpendicular al plano de su órbita alrededor del Sol (que recorre junto
a la Tierra), de modo que nuestra estrella siempre permanece baja en el horizonte en los polos. A
consecuencia de esto, arroja largas sombras desde los bordes de los cráteres y otros puntos altos.
En una determinada latitud, los cráteres más grandes tienen más sombra permanente que los cráteres más
pequeños. Ello es debido a que los primeros poseen bordes más altos.
Una vez identificados los cráteres que presentan sombras perpetuas, es posible considerarlos candidatos a
poseer hielo de agua en su interior. Por ejemplo, se han detectado 832 cráteres simples de este tipo en el
polo norte, que suponen una superficie de 12.500 kilómetros cuadrados. La cantidad de sombra
permanente en ellos alcanza la ya citada cifra de 7.500 kilómetros cuadrados. En el polo sur, son 547 los
cráteres identificados (totalizando 11.200 kilómetros cuadrados, de los cuales 6.500 kilómetros se
encuentran en sombras).
En realidad estas cifras podrían aumentar, ya que se refieren sólo a cráteres simples. Otros de aspecto más
complejo podrían contener también sombras perpetuas en algunas zonas de su interior.
La temperatura en la sombra polar no excede nunca los -230 grados C. Por tanto, son áreas que actúan
como trampas para las moléculas de agua, que no poseen la energía térmica para escapar de la gravedad
80
AÑOS
2428
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
lunar. El agua procedería de los impactos de cometas que chocaron contra el satélite (y la Tierra), hace
miles de millones de años.
Los científicos opinan que el hielo se halla mezclado con el suelo (la regolita), y que podría ser extraído
mediante equipos adecuados. El agua podría usarse para el consumo humano, y también como fuente de
oxígeno y combustible (tras su descomposición en sus componentes químicos, oxígeno e hidrógeno).
Información adicional en: http://www.psrd.hawaii.edu/June03/lunarShadows.html
Bio-nano litografia
Investigadores del Ames Research Center han inventado un método biológico para crear estructuras
ultramicroscópicas aplicable a la producción de aparatos electrónicos de 10 a 100 veces menores que
aquéllos existentes.
Uno de los componentes importantes de este sistema, los microbios “extremófilos”, capaces de sobrevivir
a las condiciones extremas observables en manantiales termales con temperaturas cercanas a los 100
grados C y pHs bajísimos, contienen proteínas que una vez modificadas en el laboratorio se asocian
formando redes ultramicroscópicas.
"Nuestro método se sirve de la propiedad intrínseca de las proteínas de organizarse en superestructuras
ordenadas. Utilizando las herramientas que nos proporciona la ingeniería genética, engañamos a la madre
naturaleza poniendo a estas proteínas a nuestro servicio", dijo Jonathan Trent, investigador principal del
proyecto para la producción de aparatos nano-electrónicos del Ames. Un nanómetro es una unidad métrica
que se utiliza para medir estructuras 100.000 veces más pequeñas que el grosor de un cabello humano.
Las proteínas son elementos básicos que forman parte de todos los seres vivos. Los avances en la
ingeniería genética permiten modificar de formas diversas la estructura de las proteínas por medio de
alteraciones del ácido desoxirribonucleico que contiene la “receta” para la fabricación de todas las proteína
existentes.
"Extrajimos el material genético del organismo unicelular, el Sulfolobus shibatae, que habita en un fango
ácido a altas temperaturas, y alteramos un gen en particular de forma que codificara para una proteína que
tiene la propiedad de adherirse a las partículas de oro y a materiales semiconductores", dijo Andrew
McMillan, investigador adjunto en el Ames. "El aspecto más novedoso de nuestro método es que la
proteína se asocia formando una red bi-dimensional capaz de atrapar en su superficie partículas metálicas y
elementos semiconductores en regiones localizadas".
"Clonamos, es decir, introdujimos un fragmento del gen que habíamos anteriormente modificado en el
laboratorio en una cepa inocua de la bacteria E. coli. Esta cepa se reproduce con mucha rapidez de modo
que nos permitió obtener la nueva proteína en abundancia", dijo Chad Paavola, también del Ames,
colaborador en el proyecto. E. coli se cultiva en el laboratorio en cubas, en un medio nutritivo acuoso. Los
agregados cilíndricos de la nueva proteína al principio miden apenas unos nanómetros. A medida que la
reacción progresa estas semillas crecen formando una red organizada o patrón.
Una de los motivos por los que se optó por clonar una proteína procedente de un medio con temperaturas
extremas es que esta proteína es mucho más estable a altas temperaturas que las proteínas nativas de E.
coli. El producto se cristaliza espontáneamente formando redes bidimensionales capaces de atrapar en su
superficie a nano-partículas en regiones específicas de la red con la que forman un complejo microscópico.
Estas redes contienen filamentos 5.000 veces menores que el grosor de un cabello humano. El diámetro
promedio de los anillos que forman los filamentos es de 20 nanómetros.
"Aplicamos los cristales a un sustrato determinado, como un disco de silicio, y añadimos una mezcla de
partículas de oro y de un material semiconductor, por ejemplo seleniuro de cadmio o sulfuro de zinc", dijo
McMillan, “que se pegarán al sustrato". El material que se adhiere son “puntos cuánticos” (quantum dots)
con un diámetro de 1 a 10 nanómetros.
"Se espera que en un futuro no lejano una matriz de nanopartículas pueda usarse como sensor, memoria de
computadora u otro sistema lógico capaz de ejecutar cálculos complejos", dijo McMillan.
Información adicional en: http://amesnews.arc.nasa.gov/spanish/2002/02_122AR-span.html
Escritura cuneiforme en internet
Mientras siguen las estimaciones de las pérdidas ocasionadas por los robos a los museos iraquíes, expertos
de la University of California en Berkeley han decidido escanear una colección de frágiles y antiguas
80
AÑOS
2429
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
tabletas mesopotámicas que contienen caracteres cuneiformes, para que sus contenidos puedan ser
apreciados en todo el mundo a través de Internet.
La llamada Cuneiform Digital Library Initiative es un proyecto en marcha que ayudará a la investigación
académica y al mismo tiempo permitirá un acceso más amplio del público a las colecciones museísticas
como la mencionada.
El equipo encabezado por Niek Veldhuis resalta la importancia de la iniciativa para asegurar la
conservación de la información histórica contenida en las tabletas. No menos de 170.000 fueron destruidas
y robadas del Museo Nacional Iraquí, si bien la Biblioteca Nacional de Bagdad también resultó afectada.
Las más de 1.000 tabletas de arcilla con inscripciones cuneiformes guardadas en el Hearst Museum
documentan la historia de los sumerios, los babilonios y los asirios, que vivieron en un período que va del
2600 al 450 antes de Cristo. La colección contiene inscripciones reales, notas administrativas, algunas
piezas literarias y textos que fueron copiados por escolares para aprender a escribir.
Las tabletas fueron en su mayoría compradas a anticuarios, y después donadas al museo durante la primera
mitad del siglo pasado. En aquella época, decenas de miles de tabletas de este tipo aparecieron en los
diversos yacimientos arqueológicos que estaban siendo excavados. Muchas fueron robadas y luego
vendidas en el mercado negro, acabando en colecciones privadas y en museos de todo el mundo.
Para los estudiosos, que el material esté tan distribuido es un problema considerable. Especialmente para el
análisis del período que va del 2100 al 2000 a.C., el llamado Ur III, el más prolífico. Se produjeron
entonces entre 60.000 y 100.000 tabletas que contienen una enorme cantidad de datos sobre la vida diaria,
el gobierno y las prácticas religiosas de la época.
Durante el último siglo los expertos han publicado reproducciones y dibujos de un buen número de
tabletas, pero se trata de una tarea ingente e incompleta. De hecho, su publicación en libros y artículos no
ha hecho sino esparcir los datos de nuevo, dificultando su estudio.
La Cuneiform Digital Library Initiative trata de solucionar este problema, ya que pretende reunir en una
sola página web las imágenes y transcripciones de todas las tabletas conocidas del período Ur III. En dicha
página se han publicado ya las colecciones de Berlín, París y ahora Berkeley.
Cada tableta es mostrada mediante seis imágenes con una resolución de 600 puntos, frontalmente, por
detrás, y desde cada uno de los lados.
Información adicional en: http://www.berkeley.edu/news/media/releases/2003/05/06_tablet.shtml
El coche de aire comprimido avanza
Recientemente se ha firmado en Niza la licencia de fabricación de coches con motor de aire comprimido
MDI para los países de Colombia, Perú, Ecuador y Panamá. La empresa firmante, MDI Andina S.A., está
compuesta por distintos empresarios de nacionalidad colombiana vinculados a entidades públicas y
gubernamentales del país.
Después de una exhaustiva verificación, tanto de los aspectos técnicos como financieros del negocio, los
nuevos asociados realizaron un viaje previo por España para conocer personalmente a todos los asociados
españoles que han firmado ya licencias de fabricación MDI. Una vez realizadas todas sus comprobaciones,
los componentes de MDI Andina S.A. negociaron en Barcelona los términos del contrato con los
representantes oficiales de la marca, quienes les acompañaron a Francia para la firma del acuerdo.
Con ésta son ya 50 las licencias de fabricación contratadas en todo el mundo, de un total de 400
disponibles. Algunos de los países que ya han firmado acuerdos son Francia, Israel, España, Portugal,
Italia, Nueva Zelanda, República Sudafricana, México etc. La cesión de derechos por países para la
fabricación y venta de los coches es la única fuente de financiación para el inventor Sr. Guy Nègre. Por esa
razón este nuevo contrato, de casi 10 millones de Euros, permite dar un gran paso adelante en la puesta en
el mercado mundial del vehículo no contaminante MDI.
Sin duda la pregunta más recibida por los promotores es: "¿Cuándo estará el coche en la calle?" En los
medios de comunicación se anunciaron unas fechas que MDI no ha podido cumplir. Pero no están las
cosas fáciles para iniciar una fabricación de coches en serie, proponiendo un cambio tecnológico tan
grande, sin más apoyos económicos que el de la propia financiación.
Hasta la fecha ninguna de las instituciones a quienes se les ha presentado el proyecto ha querido invertir en
la fase inicial, si bien todas se muestran dispuestas a hacerlo cuando el coche esté en la calle. La ausencia
de ayuda es ya de por sí la mayor traba. Esta falta de apoyo económico por parte de las instituciones
públicas ha obligado a MDI a recurrir a la inversión privada, lo que ha provocado retrasos en el desarrollo
de su tecnología.
80
AÑOS
2430
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
Pero mientras tanto el proyecto ha seguido avanzando. Comercialmente hablando, el coche se ha
presentado en Londres, con la asistencia del Ministro de Medio Ambiente inglés, en Sao Paulo, con más de
600 asistentes, y se han abierto negociaciones con numerosos inversores de los 5 continentes. Por otra
parte, en Niza, ya se han terminado las obras de construcción de la primera fábrica de coches en serie,
mientras que Sr. Guy Nègre ha vuelto a sorprender con su nuevo modelo, el "MiniCAT's", y la aplicación
de su tecnología al transporte público y de mercancías.
En efecto, en la pasada edición del Salon Mondial d'Automobile Paris 2002, Guy Nègre presentó su nuevo
prototipo, el MiniCAT's. Este modelo tiene las mismas características de consumo y ecológicas que sus
anteriores modelos, es decir 200 km. recorridos por ciudad con un consumo de 2 Euros y emitiendo por su
tubo de escape aire limpio a -20 Grados. Pero su principal innovación es que, con solo 2,65 metros de
largo, tiene tres plazas (la del conductor en el centro) y un maletero tan grande como una berlina
convencional.
Al mismo tiempo el Sr. Nègre ha concebido un vehículo bi-energía para grandes trayectos. Preparado para
funcionar sólo con aire comprimido en ciudad y con aire-gasolina en carretera, el RoadCAT`s consigue
una autonomía de más de 2.000 km. con 100 m3 de aire y 50 litros de gasolina. De esta forma el coche
MDI deja de ser un vehículo exclusivamente urbano y puede utilizarse igualmente para grandes trayectos.
Otras aplicaciones de la tecnología MDI son la co-generación, la náutica, los grupos electrógenos, y todas
aquellas en las que pueda aplicarse el aire comprimido como sistema de acumulación de energía.
La concepción del MultiCAT’s como vehículo de transporte urbano contaminación-cero incluye también
importantes ventajas económicas. Consistente en un módulo de pilotaje y varios módulos de transporte, a
modo de tren con ruedas neumáticas, consigue transportar hasta 135 personas con un coste energético de
2,5 Euros cada 100 km. por módulo, lo que podría permitir a los ayuntamientos ofrecer transporte
prácticamente gratuito a sus ciudadanos. En estos momentos se está negociando la venta de la primera
licencia de fabricación del MultiCAT’s, que será adquirida para España y Portugal por un grupo
compuesto por los futuros fabricantes de coches españoles y otras empresas del sector del transporte y la
energía. (MDI) Información adicional en: http://www.motordeaire.com/
Nuestro jardín, aún mas verde
El cambio climático está teniendo efectos en el crecimiento de las plantas. Durante los últimos años, el
calentamiento global y el crecimiento de la presencia de CO2 en la atmósfera están facilitando su
expansión, de manera que hoy en día, a pesar de todo, existe una mayor masa vegetal en la Tierra que hace
dos décadas.
El estudio, realizado por Ramakrishna Nemani, de la University of Montana, y otros colegas, publicado en
la revista Science, señala que los cambios climáticos han proporcionado dosis extra de agua, calor y luz
solar en áreas donde antes uno o más de estos ingredientes era escaso o faltaba. Bajo las nuevas
condiciones, las plantas han podido crecer allí donde previamente sólo podían hacerlo de forma limitada.
El aumento del CO2 también ha contribuido al fenómeno, pero en menor medida de lo esperado. Entre
1980 y 2000, los cambios en el clima global han incluido tres eventos “El Niño” (en 1982/83, 1997/87 y
1997/98), cambios en la dinámica de los monzones y la generación de nubes en los trópicos, y un
incremento en un 9,3 por ciento del dióxido de carbono atmosférico.
Sin embargo, nadie sabe si estos impactos positivos se deben a ciclos climáticos a corto plazo o a cambios
globales a más largo plazo. Otro dato interesante es que en el mismo período la población mundial se ha
incrementado en un 36 por ciento, de 4.450 millones a 6.080 millones de personas.
Nemani y sus colegas construyeron un mapa global referido a la producción primaria neta (NPP) de las
plantas a partir de datos climáticos, de absorción de radiación solar, etc. La NPP es la diferencia entre el
CO2 absorbido por las plantas durante la fotosíntesis y el CO2 perdido por éstas durante la respiración. La
NPP es la base para los alimentos, las fibras y el combustible derivados de las plantas, sin los cuales la
vida en la Tierra podría no existir. Los humanos nos apoderamos de aproximadamente el 50 por ciento de
la NPP.
Según los datos, la NPP creció en promedio un seis por ciento de 1982 a 1999. Los ecosistemas tropicales
y las latitudes altas en el hemisferio norte fueron los responsables del 80 por ciento de dicho incremento.
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0530earthgreen.html
80
AÑOS
2431
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
Calor electrónico
Los ordenadores de sobremesa pueden generar suficiente calor como para, en casos extremos, llegar a
incendiarse. Los ingenieros conocen bastante bien cómo controlar las cargas eléctricas en los circuitos,
pero tienen grandes dificultades a la hora de librarse del calor producido por los electrones al circular. Lo
que desconocemos casi completamente es cómo generan calor los electrones individuales.
Un nuevo dispositivo desarrollado por Robert Blick, de la University of Wisconsin-Madison, podría
resolver esta cuestión, además de proporcionarnos información sobre la aplicación del mundo cuántico en
comunicaciones y computación.
Blick, junto a sus colegas Eva Hoehberger y Werner Wegscheider, ha desarrollado algo parecido a un
trampolín increíblemente pequeño para que los electrones solos reboten en él. Opera como un átomo
artificial, o una membrana, suspendido sobre una cavidad semiconductora.
La herramienta permitirá, por primera vez, estudiar con detalle la influencia de la disipación del calor en el
transporte de electrones individuales en transistores. El dispositivo mide sólo 100 nanómetros de ancho y
actúa, de alguna forma, como lo haría una pequeñísima guitarra. La cuerda de una guitarra convencional
vibra a varios miles de ciclos por segundo. Si redujéramos su tamaño hasta varios centenares de
nanómetros, vibraría a una velocidad que se halla en el régimen de los gigahercios (alrededor de los mil
millones de ciclos por segundo).
A esta escala, el movimiento en la cuerda (o la membrana suspendida, en el caso de este nuevo aparato) es
increíblemente pequeño. Blick dice que los efectos de la disipación del calor aparecerán como vibraciones
de los átomos artificiales en suspensión. El movimiento causará un cambio en el voltaje que los
investigadores podrán medir.
El método permite estudiar una gran variedad de sistemas electrónicos, comenzando con el flujo
bidimensional de electrones, común en muchos transistores de hoy en día. Dicho flujo será reducido en
primer lugar a un canal donde los electrones fluirán en una única dirección, y finalmente, se ajustará el
dispositivo hasta alcanzar un estado de dimensión cero (transistor de un único electrón). Podremos
entonces hacer rebotar estos electrones individuales, de forma muy controlada, y ver cómo envían energía
sobre estas membranas tan delgadas.
Los resultados permitirán optimizar la tecnología utilizada actualmente, limitada por la disipación del
calor. A más largo plazo, podría revelarnos importantes secretos que posibiliten explotar el potencial de la
computación y las comunicaciones cuánticas.
En un ordenador convencional, la existencia de un grupo de electrones nos aparece como una carga
negativa, que representa el estado “cero” de la lógica binaria (bit). Cuando dicha carga no está presente,
obtenemos el estado “uno”. En un ordenador cuántico, sin embargo, interviene la mecánica cuántica de los
electrones, que puede utilizarse para definir los llamados bits cuánticos o “qubits”. A diferencia de los bits,
los qubits pueden existir simultáneamente en más de un estado. Esto permite a los ordenadores cuánticos
calcular a un tiempo todas las posibles soluciones de un problema complejo, en vez de hacerlo de forma
secuencial, como los ordenadores convencionales. Pero para poder desarrollar computadoras cuánticas,
necesitamos comprender bien qué representa información y cómo sacarla del aparato.
El sistema de Blick, ajustado al estado de dimensión cero, nos ayudará a profundizar en esta comprensión,
porque permitirá observar un electrón individual cerca del nivel qubit, a medida que se aproxima a lo que
se llama “principio de incertidumbre de Heisenberg”, la ley de la naturaleza que indica que tan pronto
como intentamos determinar las características de una partícula cuántica, dejamos de saber dónde va, dado
que nuestra acción provoca un cambio en su condición.
Información adicional en: http://www.news.wisc.edu/releases/view.html?id=8710
Marcas de sellos de la india antigua
Excavando en la vieja ciudad de Gilund, en la India, uno de los mayores asentamientos de la poco
conocida cultura Ahar-Banas, un grupo de arqueólogos ha descubierto un recipiente lleno de más de 100
marcas de sellos del período 2100 a 1700 antes de nuestra era.
La existencia de los sellos (y sus estilos particulares), ofrece una nueva y sorprendente evidencia de la
aparente complejidad de esta cultura, que se desarrolló entre los años 3000 y 1500 antes de Cristo.
Gregory Possehl, del University of Pennsylvania Museum, y Vasant Shinde, del Deccan College, junto a
un amplio equipo de profesionales y estudiantes, han estado realizando excavaciones en la zona durante las
80
AÑOS
2432
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
últimas cuatro temperadas, desde 1999. El grupo trabaja en la comprensión de la vida social, la historia y
los desarrollos agrícolas de las gentes de esta región de la India, separadas por más de 320 km de zonas
montañosas y casi desérticas. El recipiente con las marcas de sellos se obtuvo durante la temporada 20022003, que finalizó el pasado mes de febrero.
Lo encontraron en un gran edificio que no ha sido del todo excavado pero del cual se conocen algunas
características, como la presencia de paredes paralelas hechas con ladrillos secados al Sol. Su estructura
sugiere que se trataba de un edificio “público”, con muros gruesos y espacios entre ellos. El recipiente se
halló en uno de estos espacios, probablemente dedicados a almacenar cosas, como productos animales o
agrícolas, y objetos valiosos, como aceite o tejidos.
La arcilla, muy abundante, se ha usado durante milenios para mantener cerrados diversos tipos de
contenedores. Los sellos, por otro lado, decorados frecuentemente con símbolos para señalar la identidad
de una persona o personas, se usaban para dejar una marca que certificara la propiedad de los contenidos
en los recipientes, lo que sugiere la existencia de una sociedad estratificada.
No se han hallado sellos en Gilund, pero sí una colección de un centenar de marcas diversas que un día
debieron identificar a alguno de los recipientes o a sus propietarios. Al mantener las marcas juntas y
protegidas, se estaría evitando su duplicación y por tanto falsificación. Podrían haber pertenecido a
ciudadanos de elite con un elevado grado de presencia social.
El diseño de los sellos solía ser circular y rectilíneo, generalmente simple. Algunos procedían de territorios
situados a casi 1.000 km de Gilund, como Chanhu-daro, Pirak, Kot Diji y Nindowari. Se han encontrado
también marcas de sellos que procederían de más de 1.600 km de distancia, del complejo arqueológico de
Bactria-Margiana.
Las gentes de Gilund, pues, tenían una sociedad bastante estratificada y muchos contactos con sus vecinos
de la India oriental, Pakistán, Afganistán y Asia Central. Poco después, sin embargo, su civilización entró
en declive, se abandonaron las grandes ciudades, se simplificó el sistema socio-cultural, se perdió buena
parte de su virtuosismo tecnológico y desapareció su sistema de escritura y mediciones.
Información adicional en: http://www.museum.upenn.edu/new/research/possehl/ahar-banas.shtml
Molécula caminante
Gracias a un sistema de visualización extremadamente preciso, ideado para observar el interior de la
maquinaria celular, científicos de la University of Illinois en Urbana-Champaign han descubierto que las
moléculas de miosina se desplazan de una forma semejante a como lo haría un ser humano.
La zancada de la miosina, sin embargo, es mucho más pequeña que la nuestra, apenas 74 nanómetros, o lo
que es lo mismo, 10 millones de veces inferior, explica Paul Selvin, autor del artículo publicado en la
revista Science.
La miosina, que tiene muchas variantes, es lo que se llama un motor molecular, encargado de convertir la
energía química en mo vimiento mecánico. Por ejemplo, la miosina II es la proteína principal que se ocupa
de las contracciones musculares. Selvin y sus colaboradores, por su parte, han estudiado la miosina V,
cuya función es actuar como sistema de transporte en nuestras células, moviendo su carga (hasta mil veces
su propio peso) a lo largo de los filamentos de actina.
Podemos encontrar miosina V en los nervios. Debido a ello, las mutaciones en esta proteína pueden
provocar problemas neurológicos. Las imágenes obtenidas muestran a esta miosina equipada con dos
“piernas” unidas a un “cuerpo”. Hasta ahora, la forma en que la molécula se desplaza había sido un
misterio. Existían dos modelos: el “mano sobre mano” (o pie sobre pie), en el que los dos pies se alternan
en el avance; y el modelo “gusano”, en el que uno de los pies siempre se encuentra por delante del otro.
Gracias a la buenísima resolución del sistema desarrollado por Selvin y sus colegas, necesaria para medir
el “paso”, los científicos han podido demostrar que el primer modelo es el correcto. La técnica es capaz de
localizar la posición de un tinte fluorescente con una precisión de 1,5 nanómetros.
En primer lugar, se aplica el tinte en uno de los “pies” de la molécula y se efectúa una fotografía con una
cámara digital unida al microscopio. Ello permite localizar su posición. Después se alimenta a la miosina
con ATP (adenosina trifosfato) para que efectúe un paso. Entonces se realiza otra fotografía y se mide la
longitud de éste. Mediante este dato se puede decir si la proteína camina como un gusano o como una
persona, ya que en este último caso, el pie trasero recorre el doble de distancia. La técnica también ha
permitido medir varios pasos consecutivos (cada uno dura unos 3 segundos).
Información adicional en: http://www.news.uiuc.edu/scitips/03/0605selvin.html
80
AÑOS
2433
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
El vuelo del Altair
Los ingenieros del Dryden Flight Research Center han situado por fin en el aire a su nuevo vehículo aéreo
no tripulado (UAV), el Altair, un avión con sistemas de vuelo y aviónica triplemente redundantes,
preparado para recorrer grandes distancias a considerable altitud.
Su primer vuelo se llevó a cabo el 9 de junio, desde la pista de General Atomics Aeronautical Systems' Inc.
(GA-ASI), en El Mirage, California. El objetivo de la misión consistía en la evaluación de sus condiciones
básicas de vuelo, así como sus controles. Después de la exitosa prueba, el Altair planeó hasta aterrizar de
nuevo en la pista. En esta ocasión, todo el vuelo se llevó a cabo a baja altitud, dentro de los márgenes
relativamente reducidos del polígono El Mirage.
Glenn Hamilton, responsable principal del proyecto, opina que ahora podrán empezar a trabajar para
incorporar el aparato al espacio aéreo nacional, donde realizará investigaciones diversas.
El Altair es una versión de ala extendida del UAV militar MQ-9 Predator B, y ha sido construido para
aplicaciones civiles y científicas. Después de varios vuelos de prueba, durante los cuales demostrará todas
sus cualidades, el vehículo actuará como banco de ensayos de la aviónica electrónica que se empleará en la
versión definitiva. Su primera tarea una vez en servicio activo será evaluar nuevas tecnologías de control
de comunicaciones, anti-colisión y otras necesarias para hacer segura la operación de los UAV en el
espacio aéreo.
Más adelante, el Altair podrá usarse para misiones científicas diversas, como la observación de volcanes,
vigilancia de incendios forestales o toma de muestras de la atmósfera. Será especialmente indicado para
misiones demasiado peligrosas, difíciles o largas para aviones tripulados.
Será también el primer UAV certificado para operar desde aeropuertos convencionales, donde
habitualmente se hallan un gran número de aviones pilotados. Además de la aviónica triplemente
redundante, posee un sistema de control de vuelo de arquitectura dual, tolerante a los fallos. Estará
equipado con un sistema automático para evitar las colisiones y un sistema de comunicaciones que
permitirá a los controladores de tráfico aéreo hablar con los pilotos en tierra del UAV, a través del propio
vehículo.
Tanto la telemetría como los datos científicos obtenidos serán transmitidos mediante un enlace por satélite,
garantizando un contacto continuo y a tiempo real.
El Altair ha sido diseñado para volar durante mucho tiempo, hasta 32 horas seguidas. Puede alcanzar una
altitud de 52.000 pies y tiene un alcance de casi 7.000 km.
Información adicional en: http://www.dfrc.nasa.gov/Newsroom/NewsReleases/2003/03-26.html
Breves del Mundo de la Ciencia
LOS HUMANOS MODERNOS MAS ANTIGUOS: Paleontólogos de la University of California en
Berkeley han encontrado los cráneos fosilizados de dos adultos y un niño en Etiopía, cuya antigüedad es de
unos 160.000 años. Se trata de los fósiles más antiguos de Homo sapiens (humanos modernos) conocidos
hasta la fecha.
AUMENTO DEL NÚMERO DE ESPECIES AMENAZADAS: Si la población humana mundial continúa
creciendo al ritmo actual, el planeta verá incrementado el número de especies amenazadas en al menos un
7 por ciento durante los próximos 20 años, alcanzándose el doble de esta cifra hacia el 2050.
DESCENSO EN EL MERCURIO ATMOSFÉRICO: La cantidad de mercurio gaseoso presente en la
atmósfera se ha reducido drásticamente desde su pico en los años 80, manteniéndose relativamente
constante desde mediados de los 90.
AUTO-REPARACIÓN DENTAL: Los dentistas tendrán menos trabajo cuando los dientes sean capaces de
repararse por sí solos. Y no se trata de una utopía.
MIDIENDO LA HUMEDAD DEL SUELO: Investigadores de la National Chiao Tung University, de
Taiwán, han desarrollado un método robusto y más preciso de medir el contenido de agua en el suelo.
EL UNIVERSO, UN POCO MAS SENCILLO: Utilizando imágenes obtenidas con el Telescopio Espacial
“Hubble”, un equipo de astrónomos ha concluido que dos de los tipos más comunes de galaxias son
diferentes versiones del mismo grupo de objetos.
CAMBIOS EN EL CICLO DEL NITROGENO: La mayor disponibilidad de alimentos para las personas
mejora su salud, pero los medios empleados para producirlos pueden perjudicarla de forma sustancial.
80
AÑOS
2434
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
DE ASTRONAUTA A ACUANAUTA: Por primera vez, un astronauta con meses de experiencia en el
espacio, podrá compararla con una permanencia prolongada bajo el agua. Peggy Whitson, veterana
ocupante de la estación espacial internacional (ISS), pasará dos semanas en las profundidades del océano
junto a varios colegas de la NASA.
UN METEORO CAUSÓ UNA DE LAS EXTINCIONES MASIVAS: Hace 380 millones de años, Bruce
Willis no estaba disponible para rechazar la amenaza de un objeto peligroso procedente del espacio. El
meteoro chocó contra la Tierra y provocó una extinción masiva de especies vivas.
PEQUEÑA BOMBA, GRAN RENDIMIENTO: En un plazo de tres a cinco años, los diabéticos del mundo
podrían ver incrementada su calidad de vida gracias al uso de una diminuta bomba del tamaño de un chip.
SEMILLAS DE SOJA DESARROLLADAS EN EL ESPACIO: En una investigación sin precedentes, los
científicos de DuPont han descubierto que las semillas de soja desarrolladas en el espacio son similares a
las cultivadas en la Tierra. Este hecho abre la posibilidad de contar con un abastecimiento continuado que
permitirá la presencia humana en el espacio durante largos periodos de tiempo. La soja es uno de los
cultivos más demandados en el mundo.
EL POLEN ANTIGUO NOS HABLA DE LA BIODIVERSIDAD: Analizando la información
proporcionada por muestras de polen extraídas de los sedimentos de antiguos lagos, los ecólogos han
mejorado nuestros conocimientos sobre cómo los bosques pueden mantener una cierta diversidad de
especies.
DEFECTO GENÉTICO CAUSA UN TRASTORNO SEMEJANTE AL LUPUS: Investigadores del
Instituto Médico Howard Hughes (HHMI) han descubierto un nuevo tipo de defecto genético que causa
una enfermedad autoinmune en ratones, que es semejante al lupus eritematoso sistémico de los seres
humanos.
PÁJAROS Y BEBES: La manera en que los niños pequeños responden al tacto y a la sonrisa de su madre
influye en su desarrollo de una manera muy parecida a lo que experimentan los pájaros jóvenes cuando
aprenden a cantar.
MESOAMERICA EN LLAMAS: La opulenta diversidad de vida silvestre en el sur de México y América
Central está en peligro. Las agencias gubernamentales y organizaciones nacionales y locales están usando
satélites para controlar un vasto sistema de corredores de tierras protegidas.
COMETAS DESCABEZADOS JUNTO AL SOL: El Solar and Heliospheric Observatory (SOHO),
satélite europeo y estadounidense, ha observado el acercamiento a nuestra estrella de dos cometas que, a
pesar de perder sus núcleos, sobrevivieron en parte a este dramático episodio.
TERRORISMO DEL AGUA: Expertos en salud pública afirman que el sistema sanitario, incluso en los
países más modernos, no está preparado para identificar y controlar un gran estallido de enfermedades
debidas a la contaminación del agua potable, incluidas aquellas que son resultado de un ataque terrorista.
MECANISMO DE TOQUE Y HUIDA: Las neuronas transmiten señales químicas en un efímero proceso
de “toque y huida”, que en gran parte determina la velocidad de descarga de las neuronas, según indican
nuevos estudios de investigadores del Instituto Médico Howard Hughes.
CROMOSOMA DEL ARROZ SECUENCIADO: El cromosoma más pequeño del arroz posee casi el
doble de genes de lo que el borrador de la secuencia del ADN de esta planta había predicho.
TOLERANCIA AL RIESGO: Los investigadores de la University of Warwick han creado un nuevo
método que sirve para estimar de forma precisa la tolerancia al riesgo del consumidor. La tecnología puede
usarse para ayudar a que las opciones financieras y los consumidores vayan de la mano, mejorando la
salud de los mercados internacionales.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
LA RESPONSABILIDAD DEL INVESTIGADOR
EN LA DIVULGACION DE LA CIENCIA
Si aceptamos que el conocimiento científico y sus derivados tecnológicos son un
producto eminentemente social, entonces es fácil reconocer la importancia que adquieren
80
AÑOS
2435
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
las tareas de difusión y divulgación de la ciencia. Algunos especialistas en el tema suelen
distinguir entre difusión y divulgación. Difundir el conocimiento científico sería hacerlo
llegar a ciertos grupos o sectores sociales para su aprovechamiento directo, en tanto que
divulgar la ciencia sería hacer accesibles las teorías y métodos de las diversas ciencias,
así como sus aplicaciones concretas, a un público muy extenso. Para los fines de esta
exposición usaremos el término divulgación para referirnos a ambas formas de
comunicación de la ciencia.
Para un investigador activo en cualesquiera de las disciplinas científicas, o para un
ingeniero trabajando en el desarrollo de tecnologías, el plantearse tareas de difusión y/o
divulgación de la ciencia lo enfrenta a un delicado compromiso, pues tiene que comenzar
por preguntarse acerca de la naturaleza de su quehacer y la forma en que éste se articula
con su entorno social. Es decir, si el científico no asimila la dimensión social de su
propia disciplina o de la ciencia en general, difícilmente podrá hacerse cargo de resaltar
el valor de su trabajo en cuanto a su potencial económico, tecnológico, educativo o en
cuanto a su vinculación con otras áreas del saber y la cultura.
Obviamente, la comprensión de la forma en que se inserta la práctica científica en una
sociedad específica rebasa el ámbito académico o puramente profesional y requiere que
el investigador se asuma concientemente como sujeto social; esto es, que reconozca
plenamente el punto de partida de sus reflexiones no sólo en cuanto científico sino
también como integrante de una familia y de una clase social, como ciudadano con
derechos y deberes, con conocimientos, prejuicios y valores producto de la educación
formal y del adoctrinamiento ideológico al que toda sociedad somete a sus miembros;
igualmente debe reconocerse en su integridad de hombre concreto con sentimientos,
deseos y emociones y -sin evasión alguna- aceptar que ante todo, el hombre es -como
expresa E. Becker- un animal que se mueve en un planeta iluminado por el sol, con la
necesidad impostergable de alimentarse y defecar, conciente de su finitud y de su muerte.
En palabras un poco más técnicas: el científico debe reconocerse como un miembro de la
especie humana, con una historia de evolución biológica y también con una historia
social, cultural tras de sí. (El hombre es el mundo del hombre; C. Marx).
Creo que sería tarea imposible establecer una especie de decálogo sobre la
responsabilidad de los investigadores ante las tareas de divulgación de la ciencia. Los
senderos que conducen a las tareas de divulgación son múltiples y cada investigador
parte de sus propias vivencias y sus motivaciones personales. Así que abordaré el tema a
partir de mi propia experiencia y de mi propia ideología, sin pretender que se esté de
acuerdo con todo lo que aquí se asiente.
En los años dorados, es decir cuando yo era joven e indocumentado y me iniciaba en
los misterios de la física, el país atravesaba por un sacudimiento social: el movimiento
estudiantil de 1968 con todas sus secuelas. En 1970, muchos de los jóvenes de mi
generación despertábamos a "lo político", nos iniciábamos en un proceso de
concientización de la dimensión social y surgía en nosotros el deseo, la voluntad, de
participar en la transformación de la sociedad en que vivíamos; transformación que
implicaba una subversión del orden establecido en las dimensiones económica, política,
social y cultural. Considerábamos que no era tan difícil si había la conciencia y la
voluntad necesarias para ello. Por tanto, fuimos activos participantes en el movimiento
estudiantil y otros movimientos sociales de la época.
80
AÑOS
2436
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
Las escuelas de ciencias eran pequeñas, los recursos bastante escasos, la planta
académica reducida y en su mayoría sin formación de posgrado. Los libros de texto, las
revistas especializadas y de divulgación provenían principalmente del extranjero y
resultaba costoso tener acceso a estas publicaciones, sin fotocopias baratas y ni soñar con
internet. En estas condiciones, de preocupaciones sociales por una parte y la elección
vocacional de una carrera científica por la otra, nos preguntábamos cómo conciliar estas
dos dimensiones de nuestra experiencia vital. La respuesta se nos presentaba con mucha
claridad: el conocimiento científico permite conocer la realidad -ya sea ésta física,
biológica o social- en forma objetiva, es decir, conducente a la verdad. Por tanto, el
conocimiento científico tiene un alto potencial revolucionario y habrá que llevarlo al
pueblo. (Nada es más revolucionario que la verdad: V.I. Lenin). En consecuencia,
siguiendo nuestros propios argumentos, la educación científica estaba por los suelos
debido a que el gobierno no quería que el pueblo conociera las verdaderas causas de su
situación de explotación y miseria. Entonces, las condiciones de atraso y dependencia de
los países latinoamericanos serían superadas si se aceleraba el desarrollo científico y
tecnológico, para lo que era necesario fortalecer la formación de cuadros científicos en
todas las disciplinas, y crear conciencia sobre el valor social de la ciencia. De ahí nos
dimos a la tarea de hacer divulgación tanto de la física y las matemáticas como de la
biología, las ciencias sociales y la filosofía, organizando conferencias públicas,
elaborando un periódico mural y un periódico impreso que tuvo una vida efímera en su
primera época, y que años más tarde resurgió en aquella misma añorada escuela como
una revista de divulgación y sobrevive aún con el mismo nombre de entonces: El
Cronopio.
Nos iniciamos como estudiantes en la divulgación científica por un compromiso,
porque considerábamos esta tarea como esencial para nuestras futuras carreras como
investigadores, nos preocupaban las condiciones en que se ejercía la investigación en
aquel tiempo y tratábamos de contribuir a su mejora en un mediano plazo, y con ello
contribuir a la transformación social que anhelábamos. No se piense que estas ideas nos
caían del cielo. En todo el mundo se daba, en aquellos años, una tremenda discusión
sobre el valor social de la ciencia, había grupos bastante radicales como por ejemplo
Science for the People en Inglaterra, que pregonaban la fundación de una ciencia
proletaria, misma que según ellos se basaría en principios epistemológicos y lógicos
distintos a los de la ciencia burguesa. Junto a esta tendencia surgían otras que, en una
vuelta al romanticismo, renegaban de la ciencia y la tecnología y proclamaban el regreso
a la naturaleza. Desde luego tenía preeminencia la corriente que defendía el valor
positivo del conocimiento científico y la naturaleza, suscrita principalmente por los
sectores académicos oficiales de la Unión Soviética y los otros países socialistas, así
como por académicos neopositivistas en los Estados Unidos y los países de Europa
Occidental. Nosotros adoptábamos, a nuestro modo, las que considerábamos más
apropiadas. Debo mencionar que nos agrupamos en el círculo de estudios Henri
Poincaré, lo cual da una idea de nuestra simpatía hacia las ideas del científico francés,
particularmente aquellas expresadas en su obra El Valor de la Ciencia.
Ahora, si bien es cierto que mis propias ideas sobre la ciencia y su valor social han
cambiado al paso del tiempo, que de 1970 a la fecha se han dado cambios notables en el
tamaño y la orientación de lo que puede llamarse el Sistema Científico Nacional, y que el
mundo se ha movido hacia la denominada globalización que ubica a México en una
80
AÑOS
2437
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
posición de mayor subordinación y dependencia política y económica que en aquel
entonces, sigo convencido de la necesidad de practicar y promover la divulgación y la
difusión de la ciencia como una de tantas formas de socializar el conocimiento.
Antes de continuar permítaseme enfatizar lo siguiente: la responsabilidad del
investigador ante las tareas de divulgación y difusión de la ciencia no puede imponerse
como una obligación laboral, ni alcanzarse mediante la equívoca política de estímulos a
la productividad académica; lejos de ello, el compromiso del investigador ante estas
tareas surge de la confrontación directa de su práctica científica con la realidad social. Si
la divulgación científica se aborda desde la exclusiva y excluyente asepsia de cubículos y
laboratorios no tiene muchas posibilidades de éxito en cuanto a cumplir con su función
central: contribuir a la socialización del conocimiento.
¿Y qué significado le damos a esta socialización del conocimiento? Primero, partimos
del hecho de que el conocimiento científico, en todas sus variantes, es un producto
social; que si bien lo van construyendo individuos concretos, en las condiciones de hoy
día el trabajo científico no puede lograrse aisladamente, requiere de amplios recursos,
infraestructura y planeación que sólo pueden darse por acuerdo de la sociedad. En ese
sentido la ciencia es un bien social: todos, con el pago de impuestos, patrocinamos el
trabajo científico, por tanto sus resultados nos pertenecen. Ahora bien, para que
realmente la sociedad en su conjunto se apropie del conocimiento científico es menester
socializarlo, hacerlo llegar a todos los grupos y sectores sociales ¿Mas, cómo lograrlo?
Mediante la educación formal e informal en primer término, segundo a través de la
difusión y la divulgación por los medios de comunicación masiva, esto es: radio,
televisión, cine, periódicos, revistas, libros, conferencias, internet. Claramente este
proceso de difundir el conocimiento tecnocientífico en forma efectiva no depende
exclusivamente de la voluntad de los investigadores. (Recordemos que hay periodistas,
cineastas, escritores, productores de radio y televisión que son excelentes divulgadores
aunque no necesariamente cuenten con una carrera científica.) Para realmente lograr la
socialización del conocimiento es necesario, ante todo un proyecto de país. Por tanto,
debemos entonces preguntar:¿qué país queremos?
Echemos una mirada al México actual: 70 millones de pobres, 40 de ellos en la
pobreza extrema; cerca del 10% de la población mayor de quince años es analfabeta; el
promedio de escolaridad es de 7.4 años; el salario real de los trabajadores disminuyó en
20% de 1994 a la fecha; el 83 por ciento de los jóvenes en edades de 19 a 24 años no
tiene acceso a la educación superior; de 1982 a la fecha la inversión en ciencia y
tecnología bajó de 0.6 a 0.35 por ciento del PIB; el número de investigadores por cada 10
mil habitantes en México era de 2.0 en 1982, ahora es de 1.4, en el mejor de los casos; la
deuda externa e interna asciende a cerca de un millón de millones de pesos; la
transnacional Monsanto, dedicada a la biotecnología, invirtió más en desarrollo científico
y tecnológico en un año (5 mil millones de pesos) que México en todas las áreas
científicas y tecnológicas (4,623 millones de pesos en 1999); más del 75 por ciento de la
población tiene a la televisión comercial como su principal fuente de información...
A la situación real de nuestro país, reflejada en los indicadores arriba señalados,
derivada de la perenne sujeción de México a los intereses de los grandes capitales, hay
que agregar que en los últimos 18 años se ha hecho entrega de casi toda la riqueza del
país, incluyendo la fuerza de trabajo nacional, a las corporaciones transnacionales
principalmente a través de los acuerdos del Tratado de Libre Comercio de América del
80
AÑOS
2438
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
Norte. La citricultura en Veracruz está en crisis y tomamos jugos envasados en Florida.
La cafeticultura en México está por los suelos pero se importa café colombiano. Los
ingenios están quebrados por la introducción de fructuosa estadounidense y por la
negativa de Estados Unidos a comprar los excedentes de azúcar mexicana. La educación
superior avanza a pasos acelerados hacia la privatización, que significa sobre todo
suplantar el derecho a la educación por un servicio comercial, y las corporaciones ya se
ocupan de patentar recursos y bienes naturales gracias al TLC y las leyes y reglamentos
derivados de éste. Igualmente se está caminando hacia el abandono del conocimiento
como un bien social a través de la subordinación de la investigación científica y
tecnológica a los intereses privados de las corporaciones (véanse el TLC, la Ley Federal
de Educación, la Ley de Fomento y Protección de la Propiedad y la Ley Para el Fomento
de la Investigación Científica y Tecnológica).
En este contexto ¿qué sentido tiene la divulgación de la ciencia? ¿quiénes son los
receptores de la comunicación científica? ¿en caso dado, hacia dónde orientar el trabajo
de difusión y divulgación?
Si bien la difusión y la divulgación de la ciencia pueden clasificarse en diversas
categorías según el público a quien están dirigidas, el nivel de profundidad técnica, o
según su temática, aquí, con el objeto de ir resumiendo mis propias conclusiones
propongo una clasificación de la divulgación en dos categorías: (1) la divulgación que
llamaré aséptica, orientada solamente a proporcionar información en un lenguaje no
técnico; esta forma de divulgar la ciencia asume que el sujeto que la produce debe
esconderse lo más que pueda tras los "hechos" científicos o técnicos que pretende
comunicar, haciendo a un lado sus propias valoraciones, sus prejuicios y su ideología; (2)
la divulgación comprometida, en la cual la comunicación científica no se limita a relatar
o a describir "hechos" sino que está matizada por las opiniones, las valoraciones, la
ideología de quien la emite, apareciendo el sujeto en una posición comprometida, puesto
que todo juicio que rebase los criterios lógicos y metodológicos de la ciencia será objeto
de debate extracientífico.
La divulgación del tipo (1) parte del supuesto de que la ciencia es una práctica
universal y abstracta, objetiva, en la cual la valoración de los científicos no son de mucha
importancia y que no depende del contexto social o del momento histórico en que se
produce. Sólo mencionaré que la fragilidad de este supuesto ha quedado expuesta ya
desde hace tiempo por numerosos autores, tan diversos como Marx, Bachelard, Holton,
Morin, Wallerstein, Prigogine, Penrose, Feyerabend, Lakatos, Zemelman, etc. Este tipo
de divulgación ha alcanzado cierto desarrollo en México; existen publicaciones -libros y
revistas- dedicadas a este tipo de divulgación desde hace algún tiempo y, me parece, que
es en este tipo de comunicación en el que se piensa cuando se habla de divulgación y
difusión de la ciencia. Aunque incipiente, también encontramos esta forma de
divulgación en la radio y la televisión y en notas periodísticas. En mi opinión, este tipo
de divulgación y difusión tiene un efecto limitado, sobre todo porque su público es
sumamente restringido. De las cifras que nos dan una radiografía del país, arriba citadas,
podemos inferir que son pocas las personas que leen libros o revistas de este tipo y
también es escaso el numero de personas que escuchan y/o vean este tipo de programas
de radio o televisión en los canales comerciales, que son los que dominan el espacio
mexicano. En todo caso deberían hacerse sondeos para ver que tipo de público tienen
80
AÑOS
2439
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
estos medios, cual es su efecto en la educación y, cosa por cierto muy plausible, si es que
algunos libros y revistas realmente llegan a alguien.
La divulgación del tipo (2) es menos frecuente en nuestro país y considero que sería
la más importante en el momento presente. Porque la difusión y divulgación de los
procesos y de los resultados de la investigación científica y tecnológica deben darse
envueltas en consideraciones sobre su potencialidad social, es decir dar señas sobre el
alcance de su impacto en lo económico, lo político, lo social y lo cultural, y también para
que la sociedad tenga elementos para tomar decisiones sobre asuntos que impactan a
todos. Piénsese en los efectos contaminantes y destructivos del medio ambiente de
industrias diversas, del efecto de herbicidas y pesticidas, de la producción y consumo de
productos transgénicos. Y también el público, la sociedad, tiene el derecho y la necesidad
de tomar en sus manos la decisión acerca de que tipo de conocimientos y tecnologías
deben buscarse, y como aplicarse, además de tener dominio sobre los recursos científicos
y técnicos del país, lo que implica, en primer lugar, apropiarse del conocimiento y no
permitir su privatización.
Considero que la ciencia y la técnica, no reducidas a la versión instrumentalista,
tienen un gran potencial liberador para el hombre en lo individual y para la sociedad,
primeramente porque nos ayudan a entender nuestra posición en el mundo, a acercarnos
a la comprensión de la naturaleza, de la historia, de las formaciones sociales, de la
génesis de la cultura y también a comprender mejor nuestro propio ser -Becker.
Adicionalmente, los recursos tecnológicos, orientados por el interés público y no por el
interés privado, pueden contribuir a mejorar la calidad de vida de todos los mexicanos.
Entonces es obvio que considero necesario fomentar la divulgación y la difusión de la
ciencia en su versión comprometida, lo que no implica que considere al otro tipo de
comunicación -la aséptica- cómo superflua o innecesaria. Cabe aclarar que la distinción
que hago entre estas dos formas de comunicación de la ciencia no implica que una sea de
mejor calidad que la otra; hay divulgación científica de buena y mala calidad en las dos
modalidades.
El tipo (2) de divulgación nos permite reflexionar ampliamente sobre las formas en
que la ciencia y la técnica pueden articularse en un proyecto de transformaciones
sociales, es decir, en el diseño de otro país, distinto al país sombrío en el que hoy
vivimos, lleno de hambre, de carencias enormes en lo material, lo social y lo cultural, en
el cual se pretende reducir la ciencia, el arte y a los hombres mismos en mercancías
intercambiables y desechables. También nos acerca a la complejidad de la investigación
científica y nos brinda una oportunidad de pensar la articulación de la ciencia con otros
niveles de la realidad humana. En este sentido me atrevo a sugerir una forma de
desarrollar este tipo de comunicación, ya sea en medios escritos, audiovisuales o
electrónicos: independientemente del tema específico que se aborde, por ejemplo la física
cuántica, la teoría de la evolución, la ingeniería genética, el psicoanálisis o la teoría del
caos, el tratamiento puede enfocarse desde uno o de alguna combinación de los
siguientes ejes temáticos:
*la historia de la ciencia
*la historia de las sociedades
*las implicaciones tecnológicas
*la epistemología
*la sociología de las ciencias
80
AÑOS
2440
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 204/463
*la relación con otras disciplinas
*la institucionalización de la ciencia
*el impacto cultural
*la relación con la educación
*la filosofía
*la religión
y lo que se acumule en la semana; todo ello sin demérito del estilo propio del
comunicador. Queda el problema de cómo formar divulgadores, cómo motivar -no
obligar ni chantajear- a los investigadores para que practiquen la divulgación, cómo
atraer estudiantes de ciencias a que se interesen en esta fascinante actividad. Soy
escéptico en cuanto al establecimiento de planes y programas para lograr esto, pues casi
siempre conducen a la burocratización de la actividad y eventualmente a su liquidación.
Confío más en que se genere la formación de divulgadores alrededor de quienes
espontáneamente lo han empezado a hacer, ya sea por gusto o por sentir un compromiso
con la sociedad en general, con los jóvenes estudiantes, o con la comunidad de la que se
es integrante. Lo importante aquí sería la creación de espacios como talleres, foros de
discusión, cine clubs, etc., independientes de los monstruos burocráticos; es decir
espacios abiertos, públicos, en los cuáles no se pague a los asistentes en especie, dinero o
diplomas. Espacios a donde se acuda por gusto, por interés, por curiosidad y donde
puedan expresarse y discutirse libremente toda clase de ideas. Espacios donde la mirada
pueda escudriñar el futuro posible, el futuro que se gesta en el potencial de nuestra
sociedad para buscar y construir un país con libertad, democracia y justicia para todos y.
desde luego, con ciencia y tecnología para todos también.
El Cabuche (crónicas de la Facultad de Ciencias)/ De aniversario
Cinco años han pasado desde que inició esta aventura de editar un boletín de información
científica y tecnológica, matizado con secciones de otra índole que le daban la posibilidad
de ampliar el abanico de temas en ese intrincado espectro cultural. Con su inicio, en
realidad se continuaba la labor de informar acerca de los avances científicos y
tecnológicos que suceden en nuestro mundo. Este conjunto de actividades, que iniciará
con aquélla serie de charlas La Ciencia en San Luis que se transformó en noticiero
radiofónico y posteriormente en este boletín, acumula diez años. Nos congratulamos por
el hecho. Aunque siguen postergadas secciones del boletín y proyectos de comunicación
local seguiremos en el empeño y en la medida que se incorporen interesados en colaborar
con el boletín, iremos cubriendo cada uno de los asuntos en suspenso. Por lo pronto
prepararemos para el mes de septiembre una serie de eventos de aniversario que
anunciaremos en su oportunidad. Esta sección ha tenido un largo receso que pretendió ser
breve y reiniciará al igual que el boletín en el mes de agosto. Suspenderemos por un rato
su edición. La sección se ha caracterizado por tener como base a la canción, que ha tenido
como aliada la propia historia de la escuela-facultad a lo largo de sus, ya, cuarenta y siete
años. En este contexto resuenan las notas de Silvio Rodríguez en su himno a la canción.
La canción, compañera, virginal y ramera; la canción
80
AÑOS
2441
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 208, 27 de junio de 2003
No. acumulado de la serie: 467
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Bolet ín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Número Especial
XXI FIS-MAT
UASLP CIMAT UAZ
UGTO APDC
UNISON
Miguel Ángel Herrera Andrade
El Hijo de El Cronopio No. 208/467
LOS CONCURSOS REGIONALES DE FÍSICA Y MATEMÁTICAS
El pasado 6 y 7 de junio se celebró la veinte edición del Concurso Regional de Física y
Matemáticas. En este concurso participan estudiantes de primaria, secundaria y
preparatoria, es abierto a nivel nacional y se realiza simultáneamente en las plazas de
Guanajuato, Gto., Zacatecas, Zac., Saltillo, Coah., Cd. Valles, S.L.P., Rioverde, S.L.P.,
Matehuala, S.L.P. y San Luis Potosí, S.L.P. En esta ocasión también se efectuó en
Hermosillo, Sonora con el apoyo del Departamento de Física de la Universidad de
Sonora. El concurso es organizado por el Centro de Investigación en Matemáticas de
Guanajuato, la Facultad de Matemáticas de la Universidad de Guanajuato, la Escuela
Secundaria de la Universidad Autónoma de Zacatecas, la Academia Potosina de
Divulgación de la Ciencia y es coordinado por la Universidad Autónoma de San Luis
Potosí, a través de la Facultad de Ciencias. La Escuela Preparatoria de Matehuala
dependiente de la UASLP, la Unidad Zona Media y la Unidad Zona Huasteca de la
UASLP, fungen como sedes y entidades organizadoras en el interior del Estado.
Cronología
1974 Reunión de estudiantes de la escuela de física de la UASLP y Linus Pauling
Premio Nobel de Química para organizar y establecer un concurso de física y
matemáticas como medio de promoción de la física y la matemática como
disciplinas
1975 Se realiza el I Concurso de Física y Matemáticas para Escuelas Secundarias del
Estado de San Luis Potosí, participan 600 estudiantes
1976 Se realiza el II Concurso para secundarias y el I Concurso de Física y
Matemáticas para Escuelas Preparatorias del Estado de San Luis Potosí
1977 Y hasta 1982 se realizan el III y IV Concurso para secundarias y el II, III, IV, V y
VI para preparatorias
1987 Inicia la segunda etapa de los concursos celebrándose el VII Concurso de Física y
Matemáticas en el Estado de San Luis Potosí
1989 Se regionaliza el concurso y se adhieren a la organización el Centro de
Investigación en Matemáticas de Guanajuato, la Escuela Secundaria de la
Universidad Autónoma de Zacatecas, realizándose por primera vez en forma
simultánea en los estados de Guanajuato, Zacatecas, Coahuila y San Luis Potosí.
En este concurso participan estudiantes de secundaria y preparatoria de los
estados referidos. El Concurso Regional es coordinado por la UASLP.
1995 Se abre el concurso a nivel primaria
1998 A partir del XVI FIS-MAT se dedican los concursos a personalidades que han
contribuido al desarrollo de las instituciones organizadoras como un
reconocimiento a su contribución. En la edición XVI le fueron puestos los
nombres de Marianne Cook Berkhoff y Manuel Núñez Flores
1999 El Concurso llevó el nombre de Joel U. Cisneros Parra y Helga Fetter
Nathansky
2000 Concurso dedicado a Dr. Gustavo del Castillo y Gama, fundador de la Escuela de
Física de la UASLP
80
AÑOS
2443
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
2001 Se realiza el evento paralelo Encuentro Juvenil de la Ciencia con actividades de
divulgación consistentes en platicas, conferencias, visitas guiadas, experimentos,
charlas con investigadores. Participan alrededor de 1500 estudiantes. Este
encuentro es coordinado por estudiantes de física de la Facultad de Ciencias de la
UASLP.
2001 Concurso dedicado al CIMAT
2002 Concurso dedicado a Francisco Mejía Lira
2003 Concurso dedicado a Miguel Angel Herrera Andrade
La participación promedio es de 700 estudiantes
Estados que han participado con estudiantes de primaria, secundaria y
preparatoria
Zacatecas
Guanajuato
Coahuila
Veracruz
Durango
Querétaro
Aguascalientes
Distrito Federal
Jalisco
Colima
Sonora
San Luis Potosí
Crónica
Esta serie de concursos se inició en la Universidad Autónoma de San Luis Potosí en el
año de 1975, cuando se celebró el I Concurso de Física y Matemáticas para Escuelas
Secundarias del Estado de San Luis Potosí. El objetivo principal es el de motivar a la
juventud estudiosa y a quienes tienen inclinación por el estudio de las ciencias exactas.
La baja población de las carreras científicas, motiva a realizar actividades y emprender
estrategias para interesar a jóvenes estudiantes a estudiar una carrera científica.
En el año de 1974, en la entonces Escuela de Física de la UASLP, un grupo de
estudiantes preparaba un Encuentro Nacional de Escuelas e Institutos de Física y
Matemáticas; para tal efecto se llevaron a cabo reuniones previas en diferentes puntos de
la República. En San Luis Potosí se efectuó la mayoría de estas reuniones. Para la
reunión nacional se tenía prevista la asistencia del Dr. Linus Pauling, premio Nobel de
Química. En comunicaciones con Pauling, se platicó sobre la baja población de las
escuelas de Física y Matemáticas y las posibles estrategias para aumentar su matrícula.
De estas conversaciones surgió la idea de realizar un concurso de Física y Matemáticas,
que se efectuaría en San Luis Potosí durante el encuentro, apadrinado por el propio Linus
Pauling, quien presidiría la ceremonia de premiación. En este sentido, los compañeros de
la Universidad de Sonora tenían un par de años realizando concursos de Física y a nivel
80
AÑOS
2444
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
internacional existían las Olimpiadas de Matemáticas y las Olimpiadas de Física. Se
decidió hacerlo primeramente para estudiantes del ultimo año de las escuelas secundarias
y para la organización nos encargamos, en 1974, cuatro alumnos del primer año de la
Escuela de Física de la UASLP. La tarea resultó bastante ardua pues fue necesario
recorrer, uno a uno, prácticamente todos los grupos de tercero de secundaria de todo el
estado de San Luis Potosí. El resultado no podía ser menor: 600 estudiantes de todo el
estado se presentaron en la Escuela de Física a participar en el concurso. El encuentro de
escuelas no se llevó a cabo y la visita de Linus Pauling se tuvo que suspender; sin
embargo, el concurso se efectuó y a partir de entonces se realiza anualmente. Para 1976
se efectuó el II Concurso de Física y Matemáticas para Escuelas Secundarias y el I
Concurso de Física y Matemáticas para Escuelas Preparatorias del Estado de San Luis
Potosí. Los concursos se realizaron ininterrumpidamente hasta el año de 1978. En este
período se efectuaba separadamente el concurso de secundaria y de preparatoria. Durante
el período de 1980 a 1986 se efectuaron solamente dos concursos más. El balance en
estos primeros concursos puede considerarse positivo, pues la mayoría de los estudiantes
que ingresaron a la Escuela de Física de la UASLP, entre 1977 y 1982, lo hicieron
después de interesarse mediante su participación en los concursos, ya que antes de ello
no tenían pensado estudiar Física. En 1989 reinician los concursos celebrándose el VII
Concurso de Física y Matemáticas para Escuelas Secundarias y Preparatorias del
Estado de San Luis Potosí, que se efectuó durante la Semana de Física, donde se celebró
el 34 aniversario de la fundación de la ahora Facultad de Ciencias de la UASLP. Este
concurso fue organizado por el naciente Programa Estatal de Divulgación de la Ciencia,
programa que nace en torno a los concursos de Física y Matemáticas y que contempla
diversas actividades de divulgación científica dirigidas al público en general, con énfasis
en el infantil y adolescente. En 1990 el concurso se efectuó a nivel regional y estuvo
abierta la participación a cualquier estudiante de secundaria o preparatoria del país. En
esa ocasión se celebró el VIII Concurso Regional de Física y Matemáticas, que partir de
este momento se celebra simultáneamente en los estados de Guanajuato, Zacatecas,
Coahuila y San Luis Potosí y se suman en la organización instituciones de investigación
y estudios superiores de estos estados, que son las que se mencionan anteriormente. En
los Concursos Regionales han participado, además de estudiantes de los estados
mencionados, estudiantes de los estados de Veracruz, Querétaro, Aguascalientes,
Durango, Nuevo León y Colima. Los objetivos siguen siendo los mismos y se consideran
como una forma de divulgar la ciencia con actividades extraescolares como apoyo al
sistema educativo formal. El número de participantes promedio en estos Concursos
Regionales es de 550 estudiantes.
Otros concursos a nivel nacional son las Olimpiadas Mexicanas de Matemáticas que
iniciaron en el año de 1987, organizadas por la Sociedad Matemática Mexicana, y las
Olimpiadas Nacionales de Física, las cuales iniciaron en el año de 1990 y son
organizadas por la Sociedad Mexicana de Física.
En la actualidad abundan certámenes de Física y Matemáticas a tal grado que podrían
considerarse una moda y no dudamos que aparezcan más concursos; sin embargo, los
Concursos Regionales encierran una tradición muy importante y se han consolidado
como eventos de calidad con una frescura que sólo la da la organización independiente.
Sus características únicas, en comparación con otros certámenes, lo son el que
simultáneamente estudiantes de varios estados, sin necesidad de trasladarse a un solo
80
AÑOS
2445
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
lugar, concursan al mismo tiempo por lo que los ganadores no requieren presentarse a
varias etapas. Esta mecánica garantiza evaluar las habilidades y conocimientos de
estudiantes de varios estados al mismo tiempo y por lo tanto bajo las mismas
condiciones.
Los Concursos Regionales no pretenden ser un parámetro para evaluar la calidad de las
instituciones a las que pertenecen los estudiantes que participan en el Concurso. La
participación no es institucional, es individual y abierta, en la lista de resultados se
mencionan a las instituciones solamente como referencia. Los exámenes son diseñados
de tal forma que de ellos se pueda obtener información sobre puntos particulares en la
enseñanza de estas disciplinas. En nuestros archivos existe una valiosa información que
estadísticamente nos permite hacer estudios sobre la problemática en la enseñanza de la
Física y la Matemática en los diversos niveles educativos. De hecho el trabajo
desarrollado en la organización de los Concursos Regionales nos ha impulsado a
organizar otros eventos relacionados con la enseñanza de las ciencias como son los
Congresos Regionales de Enseñanza de Física y Matemáticas, que a la fecha se han
realizado en dos ocasiones, en 1990 y en 1993. Por lo anterior, los Concursos Regionales
de Física y Matemáticas no son simplemente un certamen aislado donde compiten
estudiantes para ver quién es mejor. Forman parte medular de un ambicioso programa de
divulgación y enseñanza de las ciencias. El nivel de competencia ha propiciado que,
tanto a nivel personal e institucional, exista una preparación especial incidiendo así en el
nivel de educación; ha propiciado además, que exista una reflexión sobre los contenidos
de estas materias en secundaria y preparatoria y la forma en que son abordados los
diversos temas.
En los primeros concursos los participantes se enfrentaban a un examen tanto de Física
como de Matemáticas; a partir de la octava edición, a la fecha, se realizan separadamente
los exámenes de Física y Matemáticas; es decir, existen dos concursos para cada una de
las categorías (secundaria y preparatoria): el Concurso de Física y el Concurso de
Matemáticas. Estos se llevan a cabo en fechas diferentes por lo que un estudiante, de
secundaria o preparatoria, puede concursar en Física o en Matemáticas y si así lo desea
puede concursar tanto en Física como en Matemáticas. En la actualidad existen tres
categorías: Primaria, Secundaria y Preparatoria. En la categoría de primaria existe un
sólo concurso: Ciencias Naturales y Matemáticas, en esta categoría pueden concursar
exclusivamente estudiantes del sexto año. En las categorías de secundaria y preparatoria
existen dos concursos: Física y Matemáticas y pueden concursar estudiantes de cualquier
grado de secundaria y preparatoria, aunque el examen está dirigido a estudiantes del
último año de secundaria y preparatoria. Existen varios casos de estudiantes de segundo
y primero de secundaria que han obtenido primeros lugares en estos certámenes. Si bien
los exámenes se basan en los programas oficiales no es un compromiso, por parte del
Jurado Calificador, restringirse totalmente al estilo de evaluar estas materias en la
mayoría de las escuelas. El Jurado Calificador puede elaborar algunos problemas con un
nivel un poco más elevado a fin de detectar estudiantes con habilidades extraordinarias
en el manejo de conceptos de Física y Matemáticas.
Una manera de premiar el esfuerzo realizado por los estudiantes que logran sobresalir en
el concurso es el de ofrecer un reconocimiento público a los jóvenes que obtienen los
primeros lugares y entregarles un premio económico que se obtiene parcialmente de los
fondos que los propios estudiantes aportan con su cuota de inscripción. Un dato
80
AÑOS
2446
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
importante es que en la lista de ganadores en los diez primeros lugares de cada categoría
aparecen estudiantes de todos los estados participantes, lo que refleja, el alto grado de
competencia logrado.
En el último concurso se abrió la participación a estudiantes del sexto año de primaria,
donde hubo una abundante participación. Con la mecánica presentada en estos concursos
regionales se permite a un estudiante participar sucesivamente desde primaria hasta
preparatoria. Desde este espacio invitamos a todos los estudiantes a participar y a los
maestros interesados a presentar y sugerir problemas y actividades para los concursos.
Miguel Angel Herrera Andrade
El Universo sin Límites, es el título de uno de los diez y seis libros de divulgación
científica que llegó a escribir Miguel Ángel Herrera Andrade, antes de que la muerte lo
sorprendiera en compañía de su esposa. Para él el Universo llegó a su límite, lo que no
tuvo límites fue su gran capacidad para disertar ante el más variado público temas
diversos de astronomía. Su primera interacción con público de San Luis fue a principios
de los ochenta en una serie de conferencias que organizó el Instituto de Astronomía de la
UNAM para promocionar la disciplina, en varias universidades del país. En particular se
programó a la Escuela de Física de la UASLP como una de sus sedes y una de dichas
conferencias la impartió Miguel Ángel. A partir de ese momento iniciaba una continua
interacción con la escuela-facultad y Miguel Ángel rápidamente se convirtió en el
conferencista de lujo. Participó en nuestro programa de Domingos en la Ciencia en San
Luis Potosí y engalanó la platica del tercer aniversario del programa, con una charla que
duró cinco horas y en la cual el público no abandonaba el recinto y simplemente no lo
dejaban terminar; sus platicas eran un buen éxito garantizado. Participó en el ciclo ¿Qué
sucedió el día del eclipse total de sol? Teniendo como magnifico escenario la capilla de
Aranzazu, también organizado por la escuela-facultad. Para no variar tuvo a su cargo la
platica del quinto aniversario del noticiero científico La Ciencia en San Luis antecesor
del presente Boletín. Sus intervenciones en las semanas de física se volvieron rutinarias.
Sus platicas motivaron muchas veces vocaciones y ejemplos sobran de estudiantes que
decidieron ingresar a la escuela-facultad después de haber presenciado varias platicas de
Miguel Ángel, sobradas son sus virtudes como comunicador con el gran público, sus
charlas mas que amenas e interesantes encerraban sus oportunas y adecuadas puntadas;
era común mostrarse en diapositiva al lado de ET como prueba fehaciente de la
existencia de extraterrestres, despertando apasionadas discusiones con los autollamados
“investigadores” del fenómeno OVNI, que no escaseaban en todas y cada una de sus
charlas. Pero sus escenarios no se restringieron a la escuela-facultad y eventos
organizados por la misma, su presencia fue común en el planetario del Parque
Tangamanga, del cual por cierto ahora nos olvidamos de su existencia por la carencia de
actividades. En dicho Planetario protagonizó todo un drama familiar; una joven
estudiante de secundaria, llegó a salirse por la ventana de su casa y saltarse la barda por
no perderse una de sus platicas, fue reprendido por la madre al enterarse de la acción y se
convirtió en una de sus anécdotas como divulgador; la joven en cuestión ingresó
posteriormente a la facultad de ciencias a estudiar física y posteriormente participó con
Miguel Ángel en el Programa Universitario de Investigación y Desarrollo Espacial de la
80
AÑOS
2447
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
UNAM, mejor conocido como el PUIDE, del cual fue secretario técnico. Su
participación propició una magnífica amistad con el grupo de divulgadores potosinos y
en particular con nuestra escuela-facultad. Su deceso nos llena de tristeza. Hemos
perdido a un excelente comunicador y un mejor amigo.
Sociedad Mexicana para la Divulgación de la Ciencia y la Técnica A.C.
Miguel Ángel Herrera Andrade
1944-2002
Nació en la Ciudad de México en 1944. Obtuvo la Licenciatura en
Física, la Maestría en Ciencias y el Doctorado en Ciencias (Física, con
especialidad en Astrofísica), en la Facultad de Ciencias de la UNAM.
Fue Investigador Titular de Tiempo Completo en el Instituto de
Astronomía de la UNAM.
Fue Secretario Técnico del Programa Universitario de Investigación y
Desarrollo Espacial (PUIDE), desde su fundación hasta su
desaparición. Estaba comisionado como Director de Vinculación de la
Dirección General de Divulgación de la Ciencia de la UNAM, donde fue
responsable de la edición de libros y de la revista “¿Cómo Ves?”, de la
elaboración de programas de radio y del programa “Jóvenes hacia la
investigación” y de cursos y talleres de ciencia a maestros y público
en general.
Trabajó en campos tan diversos como supernovas, formación de
moléculas interestelares, cosmología, sistemas binarios, estrellas
ráfaga y colisiones de asteroides contra la Tierra.
Publicó más de 20 artículos de investigación en revistas especializadas
nacionales e internacionales y más de 40 artículos de divulgación
científica.
Fue autor o coautor de 16 libros de divulgación de la astronomía y
física entre los que pueden mencionarse “La familia del Sol”, “Universo
sin límites”, “Materia oscura en el Universo” y los más recientes “Vida
extraterrestre” y “El origen del Universo”.
También fue autor de un texto para la carrera de Física titulado
“Biofísica, Geofísica y Astrofísica, para qué sirve la Física”. Dictó
desde 1985 más de 500 conferencias de divulgación sobre diversos
temas de astronomía, y participó como invitado o conductor en más
de 150 programas de radio y televisión.
Perteneció a la Planetary Society, a la Sociedad Mexicana para
Divulgación de la Ciencia y la Técnica A.C., a la Unión Astronómica
Internacional y la Sociedad Mexicana de Física.
Recibió la Medalla Gabino Barreda al Mérito Universitario. Fue
Catedrático Honorario de la Universidad Tecnológica de Tulancingo y
perteneció al Sistema Nacional de Investigadores.
80
AÑOS
2448
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
Falleció en un lamentable accidente en carretera el 28 de julio del
2002, junto con su esposa, la Dra. Carmen Salinas de Herrera.
La quinta interacción
Miguel Ángel Herrera
Artículo publicado en El Muégano Divulgador
Boletín de la Dirección General de Divulgación de la Ciencia. UNAM
Número 4. Noviembre del 2000
Nunca he entendido por qué los charlatanes y los seudocientíficos se obstinan en
demostrar que la teoría de la relatividad está equivocada. Docenas de ellos han llegado a
mi cubículo en el Instituto de Astronomía, plagados de argumentos y cálculos que
demuestran, según ellos, que la velocidad de la luz no es la máxima a la que puede viajar
la información en el universo. Por supuesto, sus pruebas siempre han sido más malas que
pegarle a dios por la espalda y en semana santa, y he luchado una y otra vez a brazo
partido para convencerlos de sus errores restregándoles en las narices las sacrosantas
leyes de la física.
Sin embargo, tras apenas unos meses en la dgdc, me he convencido de que, aunque sus
demostraciones sean malas, su conclusión no lo es. Aunque me pese reconocerlo, he
comprobado que la velocidad de la luz definitivamente no es la máxima velocidad a la
que viaja la información en el universo. Hay algo que viaja mucho más rápido: los
chismes.
Hasta ahora se daba por hecho que sólo existen cuatro tipos de interacciones físicas: la
fuerte, la débil, la electromagnética y la gravitatoria. Todas ellas se propagan con
velocidades menores o iguales a la de la luz. El descubrimiento de un nuevo tipo de
interacción, que se propaga más rápido que la luz, abre un nuevo campo fértil para la
investigación científica. Ha sido, pues, inevitable, dada mi obligación profesional y
moral de físico teórico, el dedicar parte de mi tiempo a investigar este asombroso
fenómeno. Los resultados han sido tan interesantes que considero mi deber darlos a
conocer en beneficio de la comunidad degedecera (y, también, para ver si me gano el
premio Nobel).
Para empezar, es claro que, como todo en la naturaleza, los chismes tienen que estar
cuantizados, es decir, deben ser transportados del emisor al receptor por partículas
elementales. Por razones evidentes llamaré a estas partículas chismeones (aunque suene a
pleonasmo). Obviamente, una primera característica del chismeón es que viaja más
rápido que la luz, lo que significa que su masa debe ser negativa (en realidad, debe ser
imaginaria, pero para no entrar en complicaciones me quedo sólo con la parte negativa).
Esto hace que sea relativamente sencillo identificar a los individuos que son más dados a
emitirlos, ya que en poco tiempo debe observarse un aumento significativo de su masa.
Quienes los reciben, en cambio, disminuyen su masa, así que deben presentar un
80
AÑOS
2449
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
adelgazamiento sistemático. La utilidad de esta propiedad como método fácil, barato y
sencillo de perder peso es evidente.
Una segunda propiedad de los chismeones, tal vez la más interesante, es que pueden
viajar tan rápido que llegan al receptor antes de ser creados por algún emisor. En un
experimento no intentado y, por tanto, no controlado, he constatado al menos un caso en
que se ha revelado el contenido de una conversación telefónica ¡aún no llevada a cabo!
Como veremos en lo que sigue, estas dos son, tal vez, las únicas propiedades benéficas
de los chismeones.
Una tercera característica que he logrado inferir es que los chismeones pueden adoptar
diversos estados (correspondientes, probablemente, a diferentes grados de excitación).
Los experimentos indican que suelen pasar de uno a otro sin control externo, de manera
que una información inofensiva originalmente puede cambiar de estado durante su
camino hacia algún receptor y llegar convertida en algo más bien ofensivo, totalmente
diferente a lo que era cuando se emitió. Esto puede ser muy peligroso, y exhorto al lector
a que lo tome en cuenta cuando reciba un buen chisme, ya que éste puede ser totalmente
distinto al que inició el viaje hacia él.
Otra característica peligrosa de los chismeones es que pueden crearse espontáneamente,
de la nada, más o menos caóticamente. He sabido de chismes bien intencionados en que
la palabra “plaza” llega al receptor convertida en “plaza académica”, debido a la creación
de un grupo de chismeones interpretables como “académica” durante el vuelo del chisme
de emisor a receptor. La inconveniencia de esta propiedad es evidente.
Su carga eléctrica es aún desconocida, pero parecería ser que sí la tienen, pues en
algunos casos los receptores muestran signos evidentes de estar bajo el efecto de varios
“toques”.
En cuanto a su espín, éste parece ser relativamente alto, tal vez, 3 o 4, pues quienes
reciben grandes cantidades de ellos parecen desarrollar una tendencia a girar −a veces la
cabeza, a veces todo el cuerpo− cuando ven aproximarse al individuo objeto del chisme
recibido.
No obstante todo lo anterior, es evidente que la física del chismeón está aún en pañales.
No sabemos nada de sus propiedades magnéticas, sus interacciones con otras partículas,
si es estable o inestable, cómo se reflejan o refractan, etcétera. Lo que sí es claro es que
en grandes cantidades pueden provocar intoxicaciones graves. Esta característica es
particularmente peligrosa, pues si su número en el medio que nos rodea llegara a rebasar
a un cierto umbral -aún desconocido-, todos sufriríamos sus efectos intoxicantes, y la
convivencia se haría imposible. La solución evidente a este problema es buscar, aislar y
controlar al antichismeón, pues ello nos permitiría anular sus efectos nocivos donde y
cuando apareciesen. Que lo logremos o no depende sólo de nuestra preparación, nuestro
ingenio y nuestra capacidad de trabajar en equipo. ¿No es maravilloso vivir en esta época
y constatar cuánto nos falta aún por descubrir en la naturaleza (humana)?
80
AÑOS
2450
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
XXI FIS-MAT
UASLP CIMAT UNISON
UGTO APDC
Miguel Angel Herrera Andrade
Primaria
Lugar
1.
2.
3.
3.
4.
5.
5.
6.
6.
6.
6.
6.
7.
7.
7.
7.
7.
Nombre
Elizabeth Rubí Dávila Sánchez
Arturo Gallegos Loredo
Anaiza Vázquez Robledo
Andrés Sánchez Pájaro
Bernardo Fernández López
Juan Carlos Medina Serrano
Juan Carlos González Torres
Jaime Abel Velásquez Durán
Edlin Rodríguez Maldonado
Mariana Zamarrón González
Juan Carlos Lucio Godinez
José Guadalupe Badillo Torres
Ricardo Castillo Crotes
Karen Paola Morales Reyes
Mariana Elizabeth Coutiño Taboada
Ana Sofía Domínguez Arriaga
Gabriela Alejandra Martínez Jothar
Escuela
Col. Naciones Unidas
Col. Sembradores de Amistad
Col. Hispano Inglés
Col. San Francisco Javier
Instituto Cervantes
Instituto Cervantes
Instituto La Paz Rioverde
Col. San Francisco Javier
Instituto Cervantes
Instituto La Paz Rioverde
Instituto Cervantes
Heroico C. Militar Rioverde
Instituto Cervantes
Colegio Hidalgo, León
Juan. B. Diosdado
Instituto Cervantes
Instituto Cervantes
Estado
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
GTO.
GTO.
S.L.P.
S.L.P.
Escuela
Estado
COBACH 28
Preparatoria Oficial de Silao
COBACH 28
COBACH 28
Preparatoria Oficial de Silao
COBACH 28
Preparatoria Rioverde
COBACH 01
COBACH 28
COBACH 28
COBACH 28
S.L.P.
GTO
S.L.P.
S.L.P.
GTO
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
Preparatoria
Física
Lugar
1.
2.
2.
2.
3.
3.
3.
4.
5.
6.
7.
8.
80
AÑOS
Nombre
Desierto
Alberto Escoto Mendoza
Nestor Enrique Valadez Pérez
Erick Israel Vázquez Oviedo
Jorge Arturo Soto Puente
Luis Efraín Mireles Vázquez
Rodrigo Romero Moctezuma
Jorge Isaac González Torres
José Carlos Varela Alemán
Víctor Adrián Robledo Rodríguez
Cynthia Denisse García Beltrán
Agustín Martínez Escobar
2451
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
8.
9.
10.
10.
10.
Pablo Fernando Zubieta Rico
Ana Lilia Murguía Moreno
Diana Isela Alvarez Avalos
Fernando Morales González
Aarón J. Villaseñor Granados
COBACH 28
COBACH 28
COBACH 28
COBACH 28
Preparatoria Oficial de Silao
S.L.P.
S.L.P.
S.L.P.
S.L.P.
GTO
Escuela
Preparatoria Oficial de Silao
Prep. Universidad de Celaya
COBACH 03, Cedral
COBACH 28
COBACH 28
COBACH 33 Axtla
COBACH 27 San Martín
COBACH 28
Preparatoria Oficial de Silao
COBACH 33 Axtla
COBACH 22 Tamuín
COBACH 28
Prep. Universidad de Celaya
Estado
GTO
GTO
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
GTO
S.L.P.
S.L.P.
S.L.P.
GTO
Preparatoria
Matemáticas
Lugar
1.
2.
3.
4.
5.
6.
7.
8.
9.
9.
10.
10.
10.
Nombre
Nestor Enrique Valadez Pérez
Jesús Miguel Zárate Reyes
Daniel A. Morales Leija
Pablo Fernando Zubieta Rico
Yazmin Elizabeth Mireles Sánchez
Irinieo Domingo Sánchez
Adrian Manuel Antonio
Diana Isela Alvarez Avalos
Luis Efraín Mireles Vázquez
Eduardo Martínez García
Ximena Borbolla Oliveros
Ana Lilia Murguía Moreno
Ivonne Gallegos Sánchez
Secundaria
Física
Lugar
1.
1.
2.
3.
4.
5.
5.
5.
6.
6.
6.
6.
6.
7.
7.
7.
80
AÑOS
Nombre
José Leonardo Flores Romero
Hildegardo Santana Bejarano
Luis Daniel Rivera Rodríguez
Ana Paulina Ponce Tadeo
Ramsés Ortiz Castro
Ma. Guadalupe Ávila Fabián
Leivy Escamilla Ortiz
Dulce Carolina de la Cruz Clemente
Yolanda E, Moreno Aguilar
Boris Manfred Museler Nava
Noemí Arvizu Rodríguez
Juan Manuel Martínez C.
Salvador Ruíz Cerrillo
Mónica Lizbeth Barrios Uribe
María de Jesús Chávez Silva
Juan Ricardo Méndez Arteaga
Escuela
Instituto La Paz
L. Donaldo Colosio 6, Hermosillo
Instituto Carlos Gómez
Col. Sembradores de Amistad
Gustavo F A. Beltrán, Hermosillo
Sec. Técnica No. 2, Cd. Fernández
Luis Basurto Guzmán, Nogales
Sec Fed. R. Flores Magón, Irapuato
Instituto La Paz, Rioverde
Instituto La Paz, Rioverde
Instituto La Paz, Rioverde
Gustavo F. A. Beltrán, Hermosillo
Complejo Educ Hispanoamericano
Complejo Educ Hispanoamericano
Telesecundaria 186, S. Pedro Saucillo
Instituto La Paz, Rioverde
2452
Estado
S.L.P.
SON
S.L.P.
S.L.P.
SON
S.L.P.
SON
GTO
S.L.P.
S.L.P.
S.L.P.
SON
GTO
GTO
SON
S.L.P.
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 208/467
7.
8.
8.
8.
8.
9.
9.
9.
9.
9.
9.
10.
10.
Gerardo de Jesús Loza Angulo
Sarai Camarena Martínez
Francisco. Javier Martínez Segura
Frederick Medina Díaz
Ma. Del Coral Regules Martínez
Vicente Germán Zamarrón González
Jorge Eduardo Martínez Chavarría
Luis Alberto Mejía Albarrán
Mercedes Hernández Acuña
Alfonso Gama Izar
Gabriela Gómez Soldevilla
Jaime Guzmán Cerda
Mariana Vega Cervera
Esc. Sec. Técnica No. 43, León
Sec. Fed. R. Flores Magón, Irapuato
Esc. Amado Nervo, Matehuala
Instituto La Paz, Rioverde
Instituto La Paz, Rioverde
Esc. Promoción Social Integral
Instituto La Paz, Rioverde
Instituto Carlos Gómez
Esc. Amado Nervo, Matehuala
Instituto La Paz, Rioverde
Instituto La Paz, Rioverde
Instituto La Paz, Rioverde
Sec. Fed. R. Flores Magón, Irapuato
GTO
GTO
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
GTO
Secundaria
Matemáticas
Lugar
1.
2.
3.
3.
4.
5.
5.
5.
5.
6.
6.
6.
6.
7.
7.
8.
8.
8.
8.
8.
80
AÑOS
Nombre
Francisco Javier Martínez García
Hortencia Elizabeth Mendoza Lara
Ana Paulina Ponce Tadeo
Luis Daniel Rivera Rodríguez
Jesús Lugo Calles
Fátima Judith Luján Castro
Ernesto H. Escobedo Hernández
Jesael Eliécer Alvarez Reyna
Josué Charbel López Martínez
Iván Emmanuel Quintero Alcacio
Vicente Germán Zamarrón González
José Alonso Estala Rivera
Rafael Eduardo López Arteaga
Omar Venegas Rueda
José Leonardo Flores Romero
Rogelio Arturo Quintero González
Norma Fabiola Fuerte Rojas
Carlos Eduardo Zubieta Rico
Edgar Fernando Reyna Palomo
Luz Quetzalli Téllez Rascón
Escuela
Esc. Amado Nervo, Matehuala
Col. Sembradores de Amistad
Col. Sembradores de Amistad
Instituto Carlos Gómez
Instituto Carlos Gómez
Instituto Lizardi
Instituto Carlos Gómez
Instituto Lizardi
Instituto Lizardi
Esc. Sec. Técnica No. 41, Irapuato
Esc. Promoción Social Integral
Esc. Promoción Social Integral
Col. Sembradores de Amistad
Instituto Carlos Gómez
Instituto La Paz
Colegio Irapuatense, Irapuato
Sec. Téc. No. 32, Irapuato
Sec. José Ciriaco Cruz
Instituto Carlos Gómez
Instituto Paideia
2453
Estado
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
GTO
S.L.P.
S.L.P.
S.L.P.
S.L.P.
S.L.P.
GTO
GTO
S.L.P.
S.L.P.
S.L.P.
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 209, 15 de septiembre de 2003
No. acumulado de la serie: 468
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
NÚMERO DEDICADO A
FRANCISCO MEJÍA LIRA
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Doce Aniversario
Luctuoso
El Hijo de El Cronopio No. 209/468
¡Atención físicos!
 del área de superficies o de la nanotecnología
 se ha
descubierto un nuevo tipo de fricción que podría ayudarles a estudiar el
comportamiento a nivel cuántico de átomos en superficies o a incursionar en el
diseño de “frenos” para nanocarros.
Fricción sin contacto∗
LA FRICCIÓN SIN CONTACTO puede ser realzada artificialmente. Generalmente para que
dos cuerpos en movimiento relativo sientan la fricción, los átomos superficiales
respectivos han de estar en contacto. Hay un tipo de fricción, sin embargo, que puede
actuar entre dos superficies realmente sin contacto. Esta fricción diluida se atribuye a la
fuerza de van der Waals, una fuerza atractiva común pero débil que se presenta cuando
un átomo o una molécula desarrolla espontáneamente un momento dipolar (es decir,
aunque el átomo o molécula es neutral, puede desarrollar una pequeña región de carga
neta negativa, desplazada levemente de una región comparable con carga positiva)
debido a una fluctuación térmica (relacionada con el movimiento al azar de los
electrones y iones) o a una fluctuación cuántica (las mismas posiciones de las partículas
varían de un instante a otro debido a las relaciones de incertidumbre de la mecánica
cuántica). Esta polaridad de breve duración puede a su vez inducir un momento dipolar
en un átomo o una molécula vecina, a una cierta distancia. Un nuevo estudio de la
fricción de van der Waals por Alexander Volokitin y Bo Persson del Institute für
Festkorperforschung (Jülich, Alemania) considera experimentos recientes de fricción
impar conducidos con las puntas de prueba del STM. La teoría sostiene que la fricción de
van der Waals se puede realzar considerablemente (por hasta un factor de diez millones a
una separación de 10 angstroms en comparación con el caso de buenos conductores con
superficies limpias) fijando por adsorción ciertas moléculas sobre una o ambas
superficies. Esto aumenta la fuerza electromagnética resonante (que se puede ver como
el tunelamiento de fotones) entre los objetos, especialmente si se hacen del mismo
material. Los átomos del adsorbato se pueden pensar como antenas minúsculas, una que
actúa como emisor y una como receptor; cuando las dos antenas están en consonancia la
interacción electromagnética entre ellas será realzada grandemente (véase la figura).
La fuerza de van der Waals, una fuerza débil que funciona entre dos átomos polares o
moléculas (es decir, los objetos pueden poseer una polaridad), se puede amplificar en
algunas configuraciones. Así átomos o moléculas fijados por adsorción sobre una
superficie sólida pueden actuar como una antena miniatura dipolar que alternadamente
atraiga un átomo similar fijado por adsorción en otra superficie. De esta manera la fuerza
sin contacto de van der Waals entre las superficiesde hecho, la fricción entre las
superficiespuede ser amplificada grandemente.
Una comprensión mejor de esta clase de fricción sin contacto, a nivel fundamental,
ayudará a los físicos a estudiar el comportamiento cuántico de átomos en superficies y,
en el nivel de aplicaciones, preparará "frenos" para los micromáquinas donde no se
necesita una fricción grande. (Volokitin y Persson, Phys. Rev. Letter, 5 de septiembre de
2003)
∗
Del Physics News Update, traducido por José M. Cabrera
80
AÑOS
2455
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
Reportado por: Volokitin y Persson, Phys. Rev. Letter, 5 de septiembre de 2003
El silicio llegó para quedarse
Por: Juan Manuel Méndez Acevedo
Fuente: Cibersivo
Enviado al Hijo de El Cronopio por
Juan José Jaramillo y Dr. Felipe Rábago Bernal
Hay adicciones que producen grandes fortunas para quienes las explotan.
Un ejemplo de ello es la insaciable y urgente necesidad que tienen los grandes productores de
software (y algunos cibernautas) de contar con ordenadores dotados de una cada vez mayor
capacidad de procesamiento: más velocidad, más memoria, parecen ser los estimulantes de tales
compañías. Detrás de estos estimulantes está el silicio y su aparente capacidad para permitir que
una ley se mantenga como tal.
Prácticamente todos los usuarios de computadoras personales han sido testigos de la manera
como la famosa Ley de Moore se cumple al pie de la letra.
La velocidad de operación de los procesadores se ha incrementado de 4.77 megahertz en un chip
conocido como “8088”, hasta 2.2 gigahertz en los microprocesadores que se encuentran en la
última generación de computadoras personales; lo que significa que los procesadores actuales
son algo así como cinco mil veces más rápidos.
La Ley de Moore, en su versión original, establecía que el número de elementos activos que se
pueden instalar en un centímetro cuadrado de circuitos integrados se duplicaría cada 12 meses.
Esto ha implicado que la velocidad con la que se apagan -o se prenden- los transistores que
componen los circuitos integrados se ha duplicado en un lapso de entre 18 y 24 meses, a partir de
que Gordon Moore enunciara su postulado, poco tiempo antes de fundar Intel.
No está mal para alguien cuyos ingresos dependen principalmente de que tal predicción se
mantenga como ley. A pesar de que Moore es doctor en Físico-Química, esta es claramente una
ley de tipo económico: básicamente, si los fabricantes de circuitos integrados no se apegan al
enunciado y no aumentan a ese ritmo la capacidad de sus productos, se pueden ir despidiendo de
sus ganancia s.
Hay quien afirma que este proceso de mejoras continuas está cerca de desacelerarse e incluso que
está por detenerse. El mismo Moore rectificó su “Ley” en 1975 y predijo que se necesitarían dos
años en lugar de uno para duplicar el número de transitores por unidad de superficie.
80
AÑOS
2456
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
años en lugar de uno para duplicar el número de transitores por unidad de superficie.
Evidentemente el tamaño de los transistores no puede hacerse indefinidamente pequeño, tiene un
límite: no pueden ser más pequeños que un par de átomos. Existen dudas acerca de si estará
disponible la tecnología para reducir aun más las dimensiones de los elementos activos, pero
también había dudas sobre la posibilidad de lograr elementos del tamaño que actualmente tienen
los transistores en un chip: casi una diezmilésima de milímetro.
Aun así, suponiendo que se cumpla la Ley de Moore modificada y que el mínimo es el tamaño de
dos átomos de silicio, se calcula que para el año 2025 ya no podremos poner más transistores en
un área determinada.
¿Qué pasará entonces? ¿dispondremos de computadoras que operen a frecuencias cada vez
mayores? Probablemente sí, para regocijo de Moore y otros involucrados en la industria de la
computación.
El hacer cada vez más pequeños los dispositivos es una forma de que los microprocesadores
trabajen más de prisa, sin embargo no es la única.
Para que un transistor cambie de estado, por ejemplo de prendido a apagado, es preciso que los
electrones se trasladen en su interior de un sitio a otro. El tiempo que les toma realizar dicho
desplazamiento depende, obviamente, de la distancia entre estos sitios y de qué tan rápido se
puedan mover.
La rapidez de los portadores de carga, es decir, de los electrones, depende del voltaje aplicado y
de las propiedades intrínsecas del material del cual está hecho el transistor. El voltaje aplicado no
se puede aumentar arbitrariamente porque, como pasa con cualquier aparato eléctrico, el
transistor se quema si el voltaje es muy alto.
De hecho, se trata de minimizar el voltaje para evitar que la oblea sobre la que están hechos los
circuitos se caliente demasiado. Así, se está buscando desarrollar alternativas con base en
materiales en los que los portadores de carga puedan desplazarse con mayor velocidad.
Ciertamente existen varias sustancias distintas al silicio --material del cual están hechos la
mayoría de los circuitos impresos-- en las cuales la movilidad de los electrones es mayor.
Ejemplo de ellas son el arseniuro de galio y el fosfuro de indio. Lamentablemente, no se han
podido integrar en microprocesadores que puedan sustituir a los que usan las computadoras
personales por diversas razones; entre ellas el costo de obtener tales compuestos.
A diferencia del silicio, que es el segundo elemento más abundante en la corteza terrestre, el
galio y el indio son elementos relativamente raros y difíciles de purificar. Asimismo, el arsénico
y el fósforo conllevan no pocos factores de riesgo para la salud.
Así que estos materiales han encontrado aplicaciones en utensilios cuyo mercado permite utilizar
chips más caros, pero no han podido ser usados en las unidades de procesamiento y memoria que
componen la arquitectura de las computadoras personales.
Sin embargo, recientemente se ha desarrollado una tecnología basada en el silicio para lograr
chips más rápidos sin necesidad de hacerlos más pequeños. Esta tecnología hace uso de lo que se
conoce como silicio estirado (strained silicon).
Como es sabido, cuando uno estira un material en cierta dirección los átomos que lo conforman
se alejan ligeramente uno de otro a lo largo de dicha dirección. Curiosamente, cuando los átomos
de silicio están más separados los electrones viajan con mayor velocidad de uno a otro.
Esto se puede entender hasta cierto punto comparando a los átomos con obstáculos al paso de los
portadores de carga: entre menos bultos tengan que evadir, irán más rápido. Si el canal en que
viajan los electrones dentro de un transistor está hecho de átomos de silicio, más separados unos
de otros que en un cristal normal, el transistor podrá cambiar de estado a una frecuencia mayor.
Como consecuencia, los chips fabricados con esta clase de dispositivos serán más poderosos.
Para estirar al silicio, o más bien dicho, para aumentar la separación entre sus átomos, no se
usaron unas pinzas diminutas. Más bien se echó mano del hecho de que los átomos que llegan a
una superficie tratan de alinearse con los que la conforman.
De esta manera, se depositaron átomos de silicio sobre un cristal hecho de átomos de mayor
80
AÑOS
2457
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
tamaño, y cuya distancia interatómica es relativamente grande. Al tratar de alinearse con los de
abajo, la distancia entre átomos de silicio se hizo mayor a la común y corriente, obteniendo así
una red atómica que parecía haber sido estirada. Y, en efecto, al probar tales microartefactos,
éstos funcionaron más rápido.
A quienes esperan vivir mucho y seguir usando computadoras, a la mejor puede ocurrírseles la
pregunta: ¿y qué pasará cuando no podamos reducir más el tamaño de los transistores hechos de
silicio estirado o una de sus variantes?
Para entonces la computación óptica será, esperamos, una realidad. Esta técnica de computación
estará basada en la luz y no en la corriente eléctrica, para procesar y transportar la información,
lo que la hará mucho más rápida.
La luz viajará por fibras ópticas hechas, como hasta ahora, de dióxido de silicio. De manera que,
en cuanto a computación: el silicio llegó para quedarse.
Noticias de la Ciencia y la Tecnología
Hierro descontaminante
Los científicos estudian el uso de un polvo ultrafino hecho de hierro, uno de los metales más abundantes de
la Tierra, como herramienta efectiva para tratar suelos y aguas subterráneas contaminadas. Las partículas
pueden fluir en el subsuelo y destruir los compuestos tóxicos allí donde se encuentren.
El problema es mucho más grave de lo que podría parecer, pues tiene un impacto de billones de dólares.
Sólo en los Estados Unidos se pueden encontrar más de 150.000 fugas en tanques de almacenamiento
subterráneos, y multitud de minas abandonadas, vertederos y zonas industriales. Todos estos lugares han
visto contaminado su suelo, haciendo de su limpieza una auténtica prioridad nacional.
Para ayudar a conseguirlo, el ingeniero Wei-xian Zhang, de la Lehigh University, ha trabajado durante
ocho años estudiando las propiedades del hierro como sustancia anticontaminante. Su poder de limpieza
reside en el simple hecho de que el hierro se oxida. Normalmente ello implica la formación de una pátina
de óxido de hierro rojiza, pero cuando el hierro metálico se oxida en presencia de contaminantes como los
PCBs, las dioxinas, etc., estas moléculas orgánicas quedan atrapadas en las reacciones y se descomponen
en compuestos del carbono más simples y mucho menos tóxicos.
Lo mismo ocurre con metales pesados peligrosos, como el plomo, el mercurio e incluso el uranio. El hierro
en oxidación reducirá tales metales convirtiéndolos en una forma insoluble que tiende a quedarse encerrada
en el suelo, en vez de a extenderse a través de la cadena alimentaria.
El hierro no tiene efectos tóxicos por sí mismo. Es casi omnipresente: se halla en rocas, suelo y agua. Hay
algunas industrias que ya lo utilizan para purificar sus desechos antes de liberarlos al entorno. Pero para
eliminar los contaminantes que ya se encuentran en el suelo o en el agua, es necesario utilizar el hierro en
forma de partículas muy pequeñas (a escala nanométrica). Con estas dimensiones, son entre 10 y 1.000
veces más reactivas que el polvo de hierro convencional, porque su diminuto tamaño les proporciona
colectivamente una mayor área de superficie, y además pueden ser inyectadas directamente en el lugar
apropiado. Una vez allí, fluirán dentro del agua subterránea, trabajando in-situ, una opción mucho más
barata que excavar el suelo y tratarlo paletada a paletada. En este sentido, este tipo de partículas de hierro
funciona como los tratamientos biológicos que usan bacterias especializadas para metabolizar toxinas. Pero
a diferencia de las bacterias, no se ven afectadas por la acidez del suelo, la temperatura o los niveles de
nutrientes. Además, gracias a su pequeño tamaño (de 1 a 100 nanómetros de diámetro), entre 10 y 1.000
veces inferior al de la mayoría de bacterias, los cristales de hierro pueden deslizarse entre las partículas del
suelo y evitar resultar atrapados. Los experimentos de laboratorio realizados hasta ahora demuestran su
efectividad disminuyendo los niveles de contaminación apenas transcurridos uno o dos días desde la
inyección de las partículas. En algunas semanas más, los contaminantes habrán sido eliminados hasta
alcanzar un grado aceptable por la legislación vigente. Su efectividad continuará durante 6 u 8 semanas, o
hasta que las partículas se disuelvan por completo en las aguas subterráneas. En la actualidad el coste de
fabricación de las partículas ultrafinas de hierro sería de unos 40 ó 50 dólares por kilogramo, mucho menos
que los 500 dólares de 1995. Para descontaminar un área de 100 metros cuadrados basta una inyección de
11,2 kg. Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0394.htm
80
AÑOS
2458
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
Caminando sobre el agua
Investigadores del MIT han conseguido comprender por fin cómo ciertos insectos pueden deslizarse sin
esfuerzo sobre la superficie de estanques y océanos. Para demostrarlo, han creado el Robostrider, un
zancudo mecánico que utiliza el mismo concepto de dinámica de fluidos que sus contrapartidas naturales.
Los insectos zancudos, pertenecientes a familias como la Gerridae y otras, utilizan un método
hidrodinámico para desplazarse sobre el agua que hasta ahora era casi desconocido. John W.M. Bush, un
matemático del MIT, y sus colegas, creen haber encontrado una explicación a este comportamiento, y
quizá también al de otras criaturas parecidas.
El estudio realizado por Bush se inició en 1993, cuando intentaba resolver la llamada Paradoja de Denny.
Se creía que los insectos zancudos acuáticos se movían creando unas pequeñas ondas de oleaje que les
propulsaban hacia delante. Pero el biólogo marino Mark W. Denny, de la Stanford University, señaló que,
basándose en dicha teoría, los zancudos más jóvenes no podrían nadar porque sus patas serían demasiado
lentas para crear suficiente agitación en el agua. En cambio, los zancudos recién nacidos pueden ser vistos
desplazándose a través de la superficie acuosa exactamente igual que los adultos.
Sospechando que la explicación sería distinta, Bush utilizó matemáticas, fotografía de alta velocidad y
varias técnicas de visualización de flujo para descubrir la verdad de los movimientos de los insectos
zancudos.
Cuando el insecto permanece quieto en la superficie, la punta de sus delgadas patas forma un minúsculo
valle. Entonces, mueve el par de patas que se halla en medio de su cuerpo, como si fueran remos, causando
que el agua situada tras ellas lo impulse hacia delante, a medida que la superficie de cada valle rebota
como un trampolín.
Aunque el movimiento crea pequeñas ondas, éstas no juegan un papel importante en la transferencia de
momento necesaria para la propulsión. La transferencia de momento tiene principalmente la forma de
vórtices bajo la superficie.
Los zancudos, que viven en estanques, ríos y a mar abierto, pueden propulsarse a velocidades de unos 150
cm por segundo. Sus patas están cubiertas con finos pelos que les mantienen a flote.
Los investigadores han diseñado un zancudo mecánico llamado Robostrider, fabricado con una lata de
Seven-up y cable de acero inoxidable para las patas. Una banda elástica mueve una polea en sus “patas” del
medio, permitiendo que avance. Como su contrapartida natural, utiliza los vórtices que se crean bajo la
sección que “rema” para conseguir transferir el momento necesario para el movimiento.
Información adicional en: http://web.mit.edu/newsoffice/nr/2003/robostrider.html
Nuevas pistas sobre los primeros pobladores americanos
La hipótesis que sugiere un origen distinto para los primeros colonizadores del continente americano
(paleoamericanos) y los grupos amerindios modernos vuelve a cobrar protagonismo en el estudio realizado
por investigadores españoles de la Universidad de Barcelona.
El artículo ha sido publicado en el ejemplar del 4 de septiembre de la revista Nature, por los científicos
Rolando González-José y Miquel Hernández. Describe el uso de una metodología de morfometría clásica y
geométrica para analizar un total de 33 cráneos del grupo etnográfico Pericú, depositados en el Museo
Regional de La Paz y en el Museo Nacional de Antropología e Historia (México).
Los Pericú fueron una población de cazadores-recolectores del Holoceno tardío (datación inferior a 2.700
años), distribuidos en grupos aislados de baja densidad demográfica y localizados en diferentes puntos de
la península de Baja California.
Una de las hipótesis tradicionales sobre los primeros asentamientos en el continente americano apunta que
los primeros colonizadores fueron grupos mongoloides originarios de Asia, los cuales atravesaron el
estrecho de Bering hace unos 13.000 años. Sin embargo, trabajos más recientes sugieren un origen
alternativo para algunos grupos. Los resultados del estudio publicado ahora en Nature constatan una mayor
afinidad morfométrica de las muestras con los rasgos paleoamericanos que con las características
mongoloides, observadas en la mayoría de los grupos amerindios actuales.
Según esto, paleoamericanos y australianos podrían compartir un ancestro común, probablemente
originario del sudeste asiático, el cual llegó a Australia hace unos 40.000 años y más tarde al continente
americano (hace 13.500 años). Los amerindios modernos, un grupo morfológicamente diferenciado de los
paleoamericanos, serían descendientes de los mongoloides. Estos últimos serían una población más
80
AÑOS
2459
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
especializada, adaptada al frío. Los cambios climáticos durante el Holoceno medio podrían haber causado
un aislamiento del continente, creando una barrera geográfica y restringiendo el intercambio genético entre
grupos, manteniendo la continuidad temporal del patrón morfológico paleoamericano hasta la actualidad.
El mantenimiento de los rasgos arcaicos es un fenómeno que también se observa en otros grupos de seres
vivos, como los reptiles. Información adicional en:
http://www2.ub.edu/comunicacions/cgi/principal.pl?fitxer=noticies/noticia001541.htm
Fósiles del sistema solar
Utilizando el telescopio espacial Hubble, un grupo de astrónomos ha descubierto tres de los objetos menos
brillantes y más pequeños detectados jamás más allá de Neptuno. Podrían haber permanecido inalterados
desde la propia formación del Sistema Solar.
Cada uno de los cuerpos es poco más que una masa de roca y hielo de escaso tamaño, orbitando en la
región llamada “cinturón de Kuiper”, entre las órbitas de Neptuno y Plutón. Los integrantes de esta
población son considerados planetésimos, los restos de la materia prima con la que fueron construidos los
restantes cuerpos del Sistema Solar, hace 4.500 millones de años.
La gran sorpresa del estudio, exp lica Gary Bernstein, de la University of Pennsylvania, el líder del grupo
de astrónomos que ha participado en el trabajo, radica precisamente en que durante las observaciones se
descubriera tan escaso número de miembros desconocidos del cinturón de Kuiper. Gracias a la potencia del
telescopio espacial Hubble, se esperaba localizar al menos unos 60 cuerpos de hasta 16 km de diámetro,
pero sólo fueron localizados tres.
Si hay pocos objetos de ese tamaño en el cinturón de Kuiper, entonces se nos hace mucho más difícil
explicar de dónde vienen muchos de los cometas que penetran hacia el interior del sistema planetario, ya
que muchos de ellos parecían tener su origen precisamente en esa región. Una posible explicación sería
que muchos de los planetésimos más pequeños han acabado convirtiéndose en polvo tras colisionar entre sí
durante los últimos miles de millones de años.
El Hubble es capaz de encontrar planetésimos mucho más pequeños y débiles que los que se pueden ver
mediante telescopios situados en tierra. La cámara ACS del Hubble fue dirigida hacia una región de la
constelación de Virgo, durante un período de 15 días entre enero y febrero. Después, un banco de 10
ordenadores se encargó de trabajar durante seis meses para localizar cualquier punto escasamente brillante
que se hubiera movido entre las sucesivas fotografías obtenidas.
Los únicos tres objetos descubiertos se llaman 2003 BF91, 2003 BG91 y 2003 BH91, y tienen un tamaño
que va de 24 a 45 km de diámetro. Son los más pequeños encontrados hasta ahora más allá de Neptuno. En
sus actuales posiciones, son mil millones de veces más débiles que el menos brillante de los cuerpos
visibles a simple vista en el cielo. Cuando un cuerpo de hielo de este tamaño se escapa de su órbita y
avanza hacia el interior del sistema planetario, se hace visible cerca de la Tierra como un gran cometa.
Información adicional en: http://hubblesite.org/newscenter/archive/2003/25/
Vuelo supersónico más silencioso
Los estampidos sónicos protagonizados por las aeronaves que cruzan la barrera del sonido causan un cierto
malestar en tierra. Los expertos trabajan para reducir este fenómeno, y creen que es posible conseguirlo
modificando la forma de los aviones. Las pruebas realizadas hasta ahora son muy prometedoras.
Paradójicamente, los ensayos se están llevando a cabo en el mismo lugar que, 56 años atrás, contempló la
hazaña de Chuck Yeager, el primer piloto que superó la barrera del sonido a los mandos de su X-1. Desde
entonces, cada vez que un aparato cruza dicha barrera, ya sea acelerando o reduciendo su velocidad,
produce un estampido sónico que se deja oír en una amplia zona, provocando incluso la vibración de los
cristales en los edificios.
Desde hace tiempo se sabe que si cambiáramos la forma de un avión supersónico, también estaríamos
modificando la potencia de sus desagradables estampidos. En teoría, de esta forma podríamos reducirlos,
pero los aviones no se construyen para hacer menos ruido, sino para volar mejor, más rápido y más alto,
por lo que esta hipótesis no había sido nunca demostrada en vuelo.
La Defense Advanced Research Projects Agency ha querido llenar este vacío de conocimiento con su
programa SSBD (Shaped Sonic Boom Demonstration), un trabajo conjunto entre el Langley Research
Center, el Dryden Flight Research Center y la compañía Northrop Grumman Corporation que ha costado
80
AÑOS
2460
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
unos 7 millones de dólares. Hace 40 años, ingenieros visionarios encontraron la forma en que debían
diseñarse los aviones supersónicos para que su vuelo no perturbara a las personas en tierra. El programa
SSBD ha puesto en práctica tales ideas e investiga para hacerlas realidad, abriendo las puertas para que
sean aplicadas en una futura generación de aparatos.
Un avión viajando a través de la atmósfera produce continuamente ondas de aire a presión, parecidas a las
que ocurren en la proa de un barco. Cuando el aeroplano supera la velocidad del sonido (unos 1.200 km/h
al nivel del mar), las ondas de presión se comprimen formando ondas de choque, que son escuchadas como
un estampido sónico al alcanzar el suelo. Si se diseña el avión con una forma particular, se puede evitar la
formación de estas ondas de choque, con lo que el estampido sónico es mucho menos potente.
Para demostrarlo, los ingenieros modificaron un caza F-5E, al que se añadió una especie de “guante” para
el morro, así como una subestructura de aluminio y una superficie de material compuesto bajo el fuselaje.
Durante el experimento, el F-5E voló a través del polígono de la Edwards Air Force Base, en California, a
velocidades supersónicas. Un F-15B y otros sensores en tierra midieron la forma y la magnitud de su
estampido sónico. Después, otro F-5E sin modificar repitió la trayectoria de su compañero, y los
ingenieros pudieron comparar los datos de uno y otro intento. Como se esperaba, la forma modificada del
avión de pruebas alteró el estampido sónico, haciéndolo más benigno.
Información adicional en: http:/www.dfrc.nasa.gov
El reloj atómico de bolsillo
Los científicos de la Office of Naval Research han dado a conocer su última creación en el ámbito de la
medición precisa del tiempo. Se trata de un reloj atómico del tamaño de una caja de cerillas, que sólo
pierde un segundo cada 10.000 años.
Nuestro reloj de cocina, o el de pulsera, no tienen ese extraordinario grado de precisión. No lo necesitamos
para llegar al trabajo de forma puntual. Pero para otras aplicaciones, como la navegación de los barcos y
aviones, para las comunicaciones o el guiado de un misil, la exactitud en la medición del tiempo es vital.
La Office of Naval Research pondrá pronto en servicio un nuevo reloj atómico de rubidio, llamado más
exactamente Ultra-miniature Rubidium (Rb) Atomic Clock , que sólo ocupa 40 centímetros cúbicos de
volumen y que apenas gasta 1 vatio de energía. Su peso tampoco es muy superior al de una caja de cerillas.
No es el reloj atómico más preciso que existe, pero sus otras características lo hacen ideal para diversas
aplicaciones.
Como explica John Kim, de la ONR, ya existen en el mercado relojes atómicos comerciales, pero aún son
demasiado grandes y pesados. Un reloj atómico de cesio, por ejemplo, ocupa unos 4.800 centímetros
cúbicos (la mitad de una mochila grande) y consume unos 50 vatios de energía.
La empresa Kernco ganó el contrato en noviembre de 2000 para producir y fabricar el Ultra-miniature Rb
Atomic Clock. En octubre, la primera unidad de pruebas será entregada a la ONR para que se efectúen los
correspondientes ensayos. Su pequeño tamaño aportará flexibilidad a los diseños de numerosos sistemas,
especialmente en los aviones, que se beneficiarán también de su escaso peso y consumo.
El nuevo reloj es totalmente óptico. Utiliza una fuente de luz láser derivada de un avance tecnológico
llamado Vertical Cavity Surface Emitting Laser (VCSEL), desarrollado para las necesidades de la industria
de las comunicaciones por fibra óptica, que requiere láseres extremadamente compactos.
Pero la carrera no se detiene aquí. Kernco ya está trabajando en otro reloj atómico para la ONR que
ocupará sólo 10 centímetros cúbicos, y otras agencias piensan ir todavía más allá.
Información adicional en: http:/www.onr.navy.mil
En busca de fármacos en el mar
Investigadores de la Harbor Branch Oceanographic Institution han iniciado una expedición durante la cual
explorarán puntos a gran profundidad situados en el Golfo de México, incluyendo plataformas petrolíferas
abandonadas y un antiguo borde costero. Esperan encontrar organismos marinos que produzcan sustancias
aptas para combatir enfermedades humanas.
Tales sustancias podrían ser adecuadas para aliviar el dolor y la inflamación, o para luchar contra el cáncer
y las disfunciones provocadas por el SIDA. Junto a los científicos de la HBOI, participan personal de la
Office of Ocean Exploration (NOAA) y un profesor de Florida. Según John Reed, coordinador de la
misión en la HBOI, la zona del Golfo de México ha sido poco explorada en cuanto a su potencial
80
AÑOS
2461
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
biomédico. El objetivo inmediato, pues, es examinar una amplia variedad de hábitats, en busca de nuevos
organismos que nos permitan documentar la biodiversidad de la región y profundizar en su interés
farmacéutico.
Los científicos utilizarán un minisubmarino que les permitirá explorar el fondo marino. Especialmente
interesantes son las “construcciones” del coral Lophelia, que en algunos puntos alcanzan los 500 pies de
altura, o los lugares en los que las filtraciones de petróleo y gas actúan como hábitat para microorganismos
únicos. Hay otras zonas atractivas, y la mayoría están situadas a lo largo de un antiguo saliente de piedra
caliza, que evoluciona paralelo a la costa oeste de Florida y que hace 15.000 años constituía la propia línea
costera, antes de que el nivel del mar se elevara hasta su actual posición. Las viejas plataformas
petrolíferas, ya sin uso, son asimismo escenario peculiar para una serie de organismos que los científicos
desean estudiar. Durante la misión, los investigadores esperan catalogar la diversidad biológica de al
menos un par de estas grandes estructuras, hasta profundidades de 1.000 pies. Las compañías petroleras
deben retirar dichas plataformas al finalizar su explotación.
Se recogerán muestras de una gran cantidad de organismos. Se extraerán sustancias de cada una de ellas y
se experimentará su habilidad de combatir ciertas bacterias y hongos para comprobar su potencial
terapéutico.
En el pasado se han efectuado importantes descubrimientos procedentes de áreas en el Atlántico y en el
Caribe, como un agente anticancerígeno y otro antiinflamatorio. Ambos proceden de esponjas marinas.
La expedición, iniciada el 9 de septiembre, utiliza el navío oceanográfico Ronald H. Brown, y un
submarino robótico, operado por control remoto, llamado Innovator. Este último vehículo fue diseñado
originalmente para realizar trabajos relacionados con la industria del petróleo, y puede descender hasta los
10.000 pies. Posee cámaras de video y fotográficas de alta tecnología.
Información adicional en: http://www.hboi.edu/index_01.html
Los océanos absorben el calor
El nuevo y mejorado modelo climático de la NASA, que permite simular y proyectar en el futuro cómo
variará el clima terrestre, sugiere que los océanos han estado absorbiendo calor de la atmósfera desde 1951
y que continuarán haciéndolo durante los próximos 50 años.
Los océanos actúan como una esponja que absorbe el calor excesivo que se halla en la atmósfera. Pero
aunque su actividad puede contener el calentamiento atmosférico, el calor adicional almacenado en ellos
tendrá la capacidad de cambiar los patrones climáticos regionales.
Shan Sun y James Hansen, del Goddard Institute for Space Studies, utilizaron el modelo GCM (Global
Climate Model) para simular pasados y potenciales cambios climáticos. El GCM había sido mejorado con
“modelos oceánicos” adicionales que permiten simular de forma más precisa cómo absorben los océanos el
calor y cómo responderán ante un clima global más cálido.
En uno de los últimos informes sobre el cambio climático, realizado en 2001, se sugería que entre los años
1990 y 2100 la temperatura media mundial aumentará entre 0,6 y 2,5 grados Celsius. Según el modelo
GCM, la temperatura media global subirá entre 0,4 y 1,2 grados C hasta el año 2050, debido al incremento
de la presencia de los gases invernadero.
Los científicos miden el almacenamiento de calor en el océano en vatios por metro cuadrado. El modelo
mejorado GCM muestra que los océanos del mundo estaban almacenando calor a un ritmo de unos 0,2
vatios por metro cuadrado en 1951. Durante los últimos 50 años, a medida que las temperaturas
atmosféricas aumentaban, el ritmo de almacenamiento se incrementó hasta los 0,76 vatios por metro
cuadrado. Es decir, han estado capturando más calor de la atmósfera. Este aumento claramente demuestra
que el planeta sufre un desequilibrio energético. Y ello implica que la atmósfera y los océanos van a
continuar calentándose en un próximo futuro. Es muy importante conocer con exactitud cuánto calor están
almacenando los océanos, porque esta información nos advierte sobre el citado desequilibrio energético y
nos proporciona pistas sobre cómo podrían aumentar las temperaturas globales. Al mismo tiempo, nos
ayudará a predecir los cambios climáticos que se producirán regionalmente. Los expertos esperan que un
mayor almacenamiento de calor en los océanos imp lique cambios en las precipitaciones y en las corrientes.
Una temperatura del agua más alta también puede tener consecuencias drásticas sobre la vida marina.
El modelo predice una mayor precipitación y evaporación sobre el Atlántico Norte, lo que incrementará la
cantidad de agua dulce en la región. Esto podría debilitar el habitual transporte de calor hacia el norte que
realiza este océano. Como consecuencia de ello, Europa se enfriará, a pesar de que el mundo se esté
calentando. Información adicional en: http://www.gsfc.nasa.gov
80
AÑOS
2462
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
Súper-ratón
Un ratón modificado genéticamente, al que le falta un gen clave, y que ya era conocido por ser inmune a
las ramificaciones del aumento de peso debido a una dieta con gran cantidad de grasas y calorías, parece
también ser capaz de resistir el comienzo de una delicada enfermedad como es la diabetes.
El ratón había sido desprovisto del gen SCD-1, para servir como modelo para averiguar cuál es la función
de este último. Según James Ntambi, de la University of Wisconsin-Madison, el animal está aportando
mucha información genética y bioquímica sobre la dieta, la obesidad y la diabetes, una enfermedad que
afecta a un porcentaje sustancial de la población.
La diabetes de tipo II, que supone aproximadamente el 90 por ciento de las incidencias de esta enfermedad
en los Estados Unidos, es una disfunción crónica causada por un problema en la forma en que el cuerpo
fabrica o utiliza la insulina, una hormona producida por el páncreas que, bajo circunstancias normales,
juega un papel esencial en el transporte de la glucosa de la sangre a las células, donde se consumirá su
energía.
Muchas veces, la obesidad y la diabetes van cogidas de la mano. Entre el 75 y el 80 por ciento de la gente
con diabetes de tipo II es también obesa, aunque la enfermedad puede desarrollarse en personas delgadas,
sobre todo ancianos. El descubrimiento de un gen que parece ejercer una influencia significativa tanto en el
aumento de peso como en la regulación de la glucosa promete profundizar en ambas condiciones y su
relación. El gen produce la enzima llamada SCD. Afecta a la producción de los ácidos grasos, y dado que
los humanos tenemos genes equivalentes al SCD-1, el nuevo hallazgo ayuda a explicar por qué ciertas
personas, que podrían carecer de dicho gen, permanecen delgados y libres de la diabetes a pesar de que
consumen una dieta rica en grasas.
Estamos empezando a sospechar que los individuos obesos tienen una expresión incrementada de la
enzima correspondiente. Si reducimos dicha expresión, disminuiremos la aparición de grasa en el músculo.
Quizá podremos disponer en el futuro de fármacos que, teniendo en cuenta esta información, prevengan la
obesidad y la diabetes. Información adicional en: http://www.news.wisc.edu/releases/view.html?id=8852
Breves del Mundo de la Ciencia
BIBLIOTECA DE COMPUESTOS: Brent R. Stockwell y sus colegas del Whitehead Institute for
Biomedical Research han reunido una biblioteca de aproximadamente 2.000 moléculas (o compuestos) que
han demostrado algún tipo de actividad biológica. Ayudará a acelerar el descubrimiento de nuevos
fármacos.
COSECHANDO EN MARTE: Un científico patrocinado por la NASA está aprendiendo a utilizar el
dióxido de carbono, el gas principal en la atmósfera de Marte, para obtener agua y combustible para
cohetes del Planeta Rojo.
DETECCIÓN DE LA TOXICIDAD DEL COBRE: Químicos y biólogos de la Northwestern University
han encontrado nueva información sobre cómo una proteína especializada, que actúa como sistema de
alerta inmediata, puede detectar pequeñas cantidades de ciertos metales tóxicos dentro de las células.
ENCUENTROS DE OTRO TIPO: El descubrimiento reciente de un gran asteroide que avanza por el
Sistema Solar ha aumentado el interés de la Agencia Espacial Europea por el estudio de éstos y de otros
objetos celestes errantes.
REMOLINOS PEQUEÑOS PERO POTENTES: Los investigadores que estudian los procesos físicos y
químicos que se desarrollan a una escala inferior al grosor de un cabello humano, han descubierto que un
fluido circulando en un remolino microscópico puede alcanzar una aceleración radial de más de un millón
de veces la de la gravedad.
LA ACTIVIDAD CEREBRAL INFLUYE EN LA FUNCIÓN INMUNOLÓGICA: Mantener una buena
salud no depende sólo de lavarse bien las manos o mantener una actitud positiva. Según un estudio de la
University of Wisconsin-Madison, también puede ser necesario un patrón particular de actividad cerebral.
LA SALVIA MEJORA LA MEMORIA: Confirmando teorías que se han arrastrado desde hace siglos, los
científicos han demostrado que, efectivamente, la salvia, una hierba, puede mejorar nuestra memoria.
MARTE SE DERRITE: La capa de hielo del Polo Sur de Marte se está desvaneciendo (más
apropiadamente, sublimándose), dejando al descubierto montañas escarchadas, grietas e inquietantes
enclaves negros.
80
AÑOS
2463
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
PRUDENCIA EN EL ESTUDIO DE LAS CÉLULAS MADRE ADULTAS: En el futuro desarrollaremos
sistemas para inducir cambios en las células sin manipularlas fuera del cuerpo. El Dr. Felipe Prósper, de la
Universidad de Navarra, es sin embargo partidario de "no transmitir esperanzas exageradas por el bien de
los enfermos".
POR QUÉ LAS CÉLULAS CANCEROSAS NO SE SUICIDAN: Los expertos del Wake Forest
University Baptist Medical Center están emprendiendo un acercamiento innovador al estudio de uno de los
aspectos fundamentales sobre cómo se desarrolla el cáncer.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
EL PODER DE LOS SÍMBOLOS
Llego al banco y tomo una ficha del aparato que las dispensa, me corresponde el turno 226. Veo
que el tablero muestra el número 153, a cuyo lado aparece otro número, el 6, que señala al cajero
que atenderá al cliente en turno. Observo que cada una de las cajas tiene un número que la
identifica, del 1 al 14. Cada cierto tiempo cambian los números en el tablero; en cada ocasión veo
a alguna persona desplazándose hacia la caja indicada. Cuando llega mi turno, el 226, acudo a la
caja 4 y soy servido por un diligente cajero. Supongamos que algún ingenuo ser extraterrestre -al
que llamaremos "Iti"- está observando el mismo proceso que se desarrolla un día cualquiera en
algún banco xalapeño. No sería difícil para este ser, ignorante de nuestros terrenales usos y
costumbres, concluir que existe una relación entre el número de la ficha, los números en el
tablero y los números asociados a las cajas. Mas aún, Iti observará que existe una correlación
entre la sucesión de números y las acciones de los terrícolas en el banco. Si las matemáticas
extraterrestres fueran muy avanzadas, realmente "de otro mundo", Iti podría predecir, en el
momento que yo tomo la ficha, el número del cajero que me atenderá y el tiempo que tendré que
esperar a ser atendido. Si Iti pudiera hacer esto, sería la indicación de una matemática
extraordinaria, a años luz de distancia de la matemática terrestre de principios del siglo XXI.
Pero si la matemática de Iti fuera muy rudimentaria comparada con la nuestra, entonces todo lo
que podría afirmar nuestro hipotético visitante sería que hay cierta correspondencia entre los
signos numéricos -de los cuales ignora su significado- y el comportamiento de los usuarios y los
cajeros del banco. Si la construcción del conocimiento de Iti estuviese anclada en esquemas
explicativos mágicos, tal vez concluiría que los signos en el tablero, en las cajas y en las fichas,
gobiernan el comportamiento terrícola; llegaría al extremo de creer que existe una relación
necesaria, causal, entre la serie de números y la regular conducta de los habitantes del
microcosmos bancario. Nunca ha visto que el cajero atienda al poseedor de la ficha 220 cuando
es el turno 182; ni que un cliente, con la ficha 226, se acerque a la ventanilla cuando el tablero
muestra el turno 145. En todo caso, estos eventos suceden tan raramente que Iti puede lanzarlos
sin remordimiento al cajón de los eventos "no típicos", como hacen los científicos terrícolas.
A estas alturas, Iti buscaría el origen de esa aparente cadena causal que enlaza símbolos y
conductas, y no sería remoto que lo atribuyera al "poder" de la máquina emisora de fichas, ya que
una vez que el aparato asigna un número al cliente, el destino de éste -en el microuniverso
bancario- queda fatalmente determinado. La máquina sería para Iti el dios del lobby bancario.
Seamos benévolos con nuestro visitante extraterrestre y consideremos lo que sucede con nuestra
propia lógica. Afirmo lo siguiente: "Si x es hombre, entonces x es mortal". Enseguida veo venir a
Sócrates y compruebo: "Sócrates es un hombre"; de ahí concluyo sin mayor trámite: "Sócrates es
mortal". Notemos que cada frase entrecomillada es una sucesión de símbolos incomprensibles, ya
no digamos para Iti, sino para cualquier terrícola que no lea español. Cuando me avisen de la
muerte de Sócrates, diré: "Lo sabía". Es decir, enlazando cadenas de símbolos pude hacer la
80
AÑOS
2464
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 209/468
predicción de un evento -la muerte de Sócrates- en el mundo real. Existe una relación entre
operaciones lógicas, realizadas sobre cadenas simbólicas, y hechos en el mundo concreto fuera
del dominio simbólico.
De las dos siguientes premisas: "A" y "Si A, entonces B", se deduce, aplicando la regla de
inferencia lógica modus ponens, "B" (el ejemplo de Sócrates es un caso particular del
argumento). Este poderoso esquema de inferencia opera exclusivamente en el dominio sintáctico
de la lógica, es decir el argumento es válido sin que importe lo que A y B signifiquen o puedan
ser. La regla es válida y su aplicación consecuente no conduce a contradicción alguna dentro del
sistema en que se opera. Ahora, la magia aparece en cuanto les damos contenido a esas formas como en el caso de Sócrates- y entonces puede afirmarse que si "A" es una proposición
verdadera y "Si A, entonces B" también lo es, entonces "B" es necesariamente una proposición
verdadera. Ejecutamos un salto mortal al pasar del dominio sintáctico (validez del argumento) al
dominio semántico (verdad empírica). ¿De dónde surge la enigmática relación? Quien más se ha
acercado a la dilucidación de este problema -¡serio problema, maravilloso problema!- ha sido J.
Piaget, quien propuso que la validez de las reglas de inferencia y su impactante traducción en
verdades empíricas, proviene de que estas reglas se forman en la mente humana a partir de la la
interacción del sujeto con el mundo y que reflejan formas muy generales de relaciones causales
en la naturaleza. (Esta no es la única interpretación -Chomsky ha dicho otra cosas-, pero la teoría
de Piaget es la que embona mejor si deseamos evadir la metafísica; no acepto que existan formas
categóricas a priori en la mente humana ajenas a la experiencia, pues desembocamos en un
problema peor: ¿de dónde salen esas formas?)
Los sistemas lógicos contemporáneos se desenvuelven en tres dimensiones, distinguibles entre sí
pero inseparables: la dimensión sintáctica (lo puramente formal), que se ocupa solamente de las
operaciones combinatorias sobre los símbolos sin atender a su significado (los números y la regla
de sucesión que los gobierna en el tablero y en la fic ha del banco); la dimensión semántica (el
significado), en la que se definen las reglas de correspondencia entre los signos y un dominio de
la realidad (la relación entre los números en las fichas, tableros y cajas y el comportamiento de
clientes y cajeros); y la dimensión pragmática (el uso), el para qué del sistema simbólico (a fin
de cuentas el sistema en el banco es para dar un servicio eficiente a los clientes).
Todo sistema simbólico empleado en las ciencias se despliega en esas tres dimensiones. Si
reflexionamos un poco caeremos en la cuenta de que todo sistema que pretenda articular el
conocimiento se define dentro de esas dimensiones esenciales. Ya se trate de la sabiduría
alquímica, de rituales mágicos, o de los sistemas míticos de nuestros antepasados, todos estos
sistemas tienen el mismo objetivo que la lógica y la matemática contemporáneas: representar el
mundo mediante sistemas simbólicos tan potentes que operando con ellos sea posible mover al
mundo.
El grado de éxito de un sistema simbólico dado no puede medirse en una escala absoluta, para
evaluar su éxito hay que remitirse a la cultura que lo produce y dentro de la cual se definen las
mediaciones entre símbolo y mundo; es dentro de este contexto donde se despliega el poder,
grande o pequeño, de las representaciones simbólicas.
Es verdad, y recientemente se ha encontrado una explicación "científica" de ello, que danzando
continuamente por varios días -la danza es una expresión corporal simbólica con reglas
establecidas- puede invocarse la lluvia; tan verdadero como que los números en el tablero del
banco controlan mi conducta, o como que, a partir de largas series de ecuaciones y diagramas garabatos estampados en papel-, puede construirse un vehículo que vuele de la Tierra hasta más
allá del sistema solar en busca del hogar de Iti, quien se nos ha extraviado -embebido en sus
meditaciones- a la salida de un banco xalapeño.
80
AÑOS
2465
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 210, 22 de septiembre de 2003
No. acumulado de la serie: 469
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
UNA NUEVA VENTANA A LA CIENCIA
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Qüid
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
Sociedad, Ciencia y Tecnología
Publicación periódica de la Facultad de
Ciencias de la UASLP (FC-UASLP) y de
la Sociedad Potosina de Física (SPF)
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
PERIÓDICO PULSO
Último miércoles de cada mes
Búscala en la Sección Actualidad
El Hijo de El Cronopio No. 210/469
Adiós a la Galileo
El próximo 21 de septiembre, la sonda Galileo, hasta ahora en órbita alrededor de
Júpiter, finalizará su misión penetrando en las capas altas de la atmósfera del planeta.
Después de ocho años enviándonos espléndidas imágenes y valiosísimos datos de Júpiter
y sus satélites, la Galileo realizará este descenso controlado para evitar que en el futuro,
ya perdido el contacto con la Tierra, pueda caer y contaminar el satélite Europa, donde
los astrobiólogos estiman puede existir vida en el océano de agua líquida que parece se
encuentra debajo de su costra helada. La Galileo ha superado con creces su vida útil
prevista y sus sistemas se han deteriorado lo suficiente, debido al alto nivel de radiación
ambiental existente en los alrededores del planeta, como para que los técnicos
pronostiquen un fallo total irrecuperable en los próximos meses. Además, sus reservas de
combustible se han prácticamente agotado, impidiendo próximas maniobras de
orientación para apuntar su antena hacia la Tierra.
http://galileo.jpl.nasa.gov
NOCIONES DE ESTADÍSTICA
Irma Georgina Gómez Vega.
Isaac Campos Cantón.
Existe un método más sencillo para obtener datos estadísticos o de probabilidad
empleando un programa llamado MATLAB y puede ser de gran utilidad. Esta es una
herramienta empleada para cómputos numéricos de matrices y vectores, y también se
puede obtener información gráfica de los mismos; en esta sección y las posteriores se
ilustrará el uso de esta herramienta en estadística, por ejemplo en la obtención de la
media, la mediana, la desviación estándar entre otras. En esta parte se dará la
introducción a los conceptos estadísticos fundamentales. La siguiente semana se
continuará con otros conceptos y finalmente en la tercer semana veremos las aplicaciones
en MATLAB a un conjunto de datos.
¿QUÉ ES LA ESTADÍSTICA?
La estadística es una rama del conocimiento en el campo de las matemáticas aplicadas,
que utiliza sus propios símbolos, términos, contenido, teoremas y técnicas.
Las estadísticas son cantidades que han sido calculadas con datos de muestreo.
DOS CLASES DE ESTADÍSTICAS
Hay 2 clases de estadísticas: la descriptiva y la inferencial.
La primera se refiere a operaciones como la clasificación de datos; el trazo de los
histogramas que corresponden a las distribuciones a una población; la representación de
los datos por medio de otra clase de gráficas, tales como las lineales, las gráficas en
barras, los pictogramas; el cómputo de medias muestrales, medianas o modos; el
cómputo de variancias, las medias de las desviaciones absolutas y de las gamas.
80
AÑOS
2467
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 210/469
La segunda se refiere al empleo de la técnica de muestreo para llegar a determinadas
conclusiones acerca de la población de la cual se han obtenido las muestras o ejemplos.
Esas muestras generalmente son tomadas al azar, y lo llamaremos muestreo al azar, en el
que cada elemento escogido de la población tiene la misma oportunidad de ser
seleccionado, y en el que la selección de cualquier elemento no afecta que se pueda
seleccionar a cualquier otro.
Noticias de la Ciencia y la Tecnología
Amor animal
El cuidado paternal, característico en la especie humana, podría ser un rasgo primitivo presente en todos
los primates. Un estudio sobre el comportamiento de los babuinos sugiere que éstos se preocupan y cuidan
de sus hijos, incluso en las disputas que puedan protagonizar entre ellos.
Los científicos habían seleccionado a los babuinos para un estudio de tres años porque, en comparación a
otros primates, las relaciones de los machos con las hembras y con sus crías suelen considerarse poco
profundas. De hecho, machos y hembras suelen poseer múltiples parejas, y no desarrollan conexiones
permanentes entre ellos. Por la misma razón, los padres babuinos deberían tener escasa certeza sobre si una
cría es suya o no.
Se analizaron cinco grupos de babuinos que viven a los pies del monte Kilimanjaro, en Kenya. Tras un
prolongado seguimiento, los zoólogos constataron que los padres tomaban rápidamente partido por sus
pequeños cuando éstos se enzarzaban en peleas y disputas, poniendo de manifiesto un sentimiento de
cuidado paternal fuertemente arraigado. Si este sentimiento está presente en los babuinos, es muy posible
que lo estuviera ya en especies de primates muy antiguas.
Para llegar a esta conclusión, Susan Alberts y Jason Buchan, de la Duke University, Joan B. Silk, de la
University of California en Los Angeles, y Jeanne Altmann, de la Princeton University, trabajaron duro
para determinar con exactitud la paternidad de muchas crías, algo que tuvo que hacerse sin perturbar a la
población. Se recogieron heces y se analizó su ADN para realizar comparativas.
Hasta ahora, los candidatos a “Padre del Año”, solían ser especies de primates muy organizadas
socialmente, con relaciones a largo plazo entre parejas. Pero si los babuinos, que son más promiscuos,
también muestran un comportamiento de amor y cuidado por sus crías, entonces este rasgo distintivo no
debe estar conectado con la organización social sino que podría ser un elemento fundamental de las
estrategias reproductivas entre los primates en general.
Durante el seguimiento, se recogieron datos de 75 crías de babuino con padres claramente identificados. La
mitad de ellos compartían grupos sociales con ellos. Los observadores también identificaron 15 machos
adultos viviendo en grupos que incluían a su propia descendencia y a crías que no lo eran. Excepto tres de
los babuinos machos, todos prestaban más atención a sus crías que a las demás.
Entre julio de 1999 y julio de 2002, se presenciaron 73 disputas en las que un macho intervino entre dos
crías. Una de ellas era suya y la otra era desconocida. En 69 de tales conflictos, los padres tomaron partido
por su descendencia. Los científicos no saben cómo los babuinos padres son capaces de identificar a los
pequeños como propios. Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr0395.htm
Receptor de radio digital
Las radios de emergencia se colapsan cuando más las necesitan. Es difícil encontrar un canal libre entre el
ruido de todas las demás señales y de los sistemas que no son compatibles. Para solucionar esto, los
ingenieros de telecomunicaciones están desarrollando nuevos receptores totalmente digitales.
La impulsora de esta iniciativa de claro interés militar, la Office of Naval Research, quiere hacer realidad
un receptor con una alta velocidad de procesamiento que permita manejar múltiples señales
simultáneamente a lo largo de anchos de banda muy amplios.
La encargada de construir el nuevo receptor digital es la empresa HYPRES Inc. Ya está en marcha la
construcción de un receptor de demostración que “digitalizará” todas las señales de las bandas de
80
AÑOS
2468
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 210/469
comunicaciones militares más críticas (HF y VHF), y que dispondrá de un software de filtrado digital para
seleccionar determinadas señales y enviarlas a la salida para su escucha.
Dicho software de control es la innovación fundamental que debería hacer posible el programa JTRS (joint
tactical radio system) del Departamento de Defensa, ya en marcha. Este programa busca desarrollar un
servicio de radio común para todos los servicios militares (Marina, Fuerza Aérea, Ejército). Las radios
tácticas, usadas a bordo de navíos, aviones o en las unidades tierra, no pueden comunicarse entre sí porque
utilizan técnicas específicas y propietarias. Para comunicarse con otras radios, deben ser modificadas, un
proceso que es caro y complejo.
Está prevista la adquisición de miles de nuevas radios tácticas JTRS cada año. Ello simplificará
grandemente las operaciones conjuntas y el apoyo logístico. Se necesitarán sólo pequeños cambios para
que una radio pueda cubrir todo el registro JTRS (de 2 MHz a 2 GHz), e incluso el recientemente
anunciado de 2 MHz a 55 GHz.
Las nuevas radios también reemplazarán a los viejos componentes analógicos por tecnología digital,
reduciendo su complejidad y coste. Información adicional en: http:://www.onr.navy.mil
Cero absoluto
Investigadores del Massachusetts Institute of Technology (MIT) han enfriado una masa gaseosa de sodio
hasta la temperatura más baja jamás registrada, a tan sólo medio nanokelvin sobre el cero absoluto. Cero
grados Kelvin (unos -273 grados Celsius), es la temperatura más baja posible en la naturaleza.
La temperatura alcanzada es seis veces más baja que en el anterior récord. Recordemos que 1 nanokelvin
es equivalente a una milmillonésima de grado Kelvin por encima del cero absoluto. Según los físicos, una
vez alcanzado este cero absoluto se detienen todos los movimientos, a excepción de diminutas vibraciones
atómicas, ya que el proceso de enfriamiento ha extraído toda la energía de las partículas.
Mejorando día a día sus métodos de enfriamiento, los científicos siguen acercándose al cero absoluto.
Wolfgang Ketterle, físico del MIT, cree que traspasar la barrera del nanokelvin es algo así como correr una
milla por debajo de los 4 minutos, todo un acontecimiento en su campo.
El objetivo de estas pruebas no es sólo experimental, sino también práctico. Los gases a temperaturas ultrabajas nos llevarán hacia grandes mejoras en las mediciones de precisión, ya que permitirán obtener mejores
relojes atómicos y sensores para la gravedad y la rotación.
En 1995, un grupo de la University of Colorado y otro del MIT enfriaron gases atómicos por debajo de 1
microkelvin (una millonésima de grado por encima del cero absoluto). Al hacerlo, descubrieron una nueva
forma de materia, llamada condensado de Bose-Einstein, donde las partículas muestran un comportamiento
distinto al habitual. Ello les valió el premio Nobel de física de 2001. Desde entonces, muchos grupos han
alcanzado temperaturas en la región de los nanokelvins. El récord estaba en los 3 nanokelvins. Ahora éste
queda situado en 0,5 nanokelvins (ó 500 picokelvins).
A tales temperaturas, los átomos no pueden ser mantenidos en contenedores físicos porque se pegarían a
sus paredes. Tampoco existe ningún contenedor conocido que pueda enfriarse tanto. Por eso se utilizan
imanes, cuyos campos magnéticos permiten contener la nube gaseosa sin tocarla. En el caso que nos
ocupa, además de los campos magnéticos se aprovecharon además las fuerzas gravitatorias.
Información adicional en: http://www.nasa.gov/vision/earth/technologies/biggest_chill.html
Luz y asteroides
La luz solar, según un nuevo estudio efectuado por investigadores del Southwest Research Institute
americano y de la Charles University de Praga, tiene sustanciales efectos sobre el giro de los pequeños
asteroides que existen en el Sistema Solar. Hasta ahora se creía que eran las colisiones quienes
determinaban la rapidez de rotación de estos objetos.
El estudio realizado por David Vokrouhlicky (Charles University), David Nesvorny y William Bottke
(SwRI, Space Studies Department) indica que la luz solar absorbida y reemitida por los asteroides a lo
largo de millones o miles de millones de años puede hacer que algunos giren lo bastante rápido como para
llegar a desmembrarse poco a poco. En otros casos, puede detener por completo su rotación.
El equipo de astrónomo s también ha averiguado que los efectos de la luz solar, combinados con los tirones
gravitatorios efectuados por los planetas, pueden forzar lentamente a los polos de rotación de los asteroides
a apuntar hacia la misma dirección. Hasta ahora, los científicos creían que sólo los impactos gobernaban la
80
AÑOS
2469
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 210/469
velocidad de rotación y dirección de los asteroides más pequeños que orbitan el Sol. Pero la observación
del extraño giro de 10 asteroides por parte de Stephen Slivan, de la Massachusetts Institute of Technology,
puso en duda esta teoría.
Los asteroides examinados por Slivan pertenecen a la familia Koronis, un grupo de restos resultado de una
colisión altamente energética ocurrida hace miles de millones de años. Se encontró que cuatro de estos
asteroides giran a la misma velocidad, y que sus ejes de rotación apuntan hacia la misma dirección, un
hecho que no puede ser una casualidad. Slivan no pudo averiguar las razones de este comportamiento
particular, pero ahora los astrónomos de la Southwest Research Institute y de la Charles University creen
haber hallado la solución, asignando a la luz solar el principal papel moldeador de sus movimientos.
Los otros 6 asteroides estudiados por Slivan poseen un índice de giro extremadamente lento, más que la
manecilla horaria de un reloj, o muy rápido, cerca del límite previo a la pérdida de cualquier posible
material superficial que estuviera suelto.
Para explicar estos índices de rotación, Vokrouhlicky, Nesvorny y Bottke investigaron cómo estos
asteroides reflejan y absorben la luz solar, liberándola de nuevo en forma de calor. Comprobaron que,
aunque la fuerza de retroceso producida por la radiación de la luz solar es pequeña, aún puede tener un
efecto sustancial en el ritmo de rotación y en la dirección de los polos, suponiendo que tenga suficiente
tiempo para actuar. Las simulaciones por ordenador realizadas confirman que la luz solar ha estado
incrementando y reduciendo lentamente los índices de rotación de los asteroides de la familia Koronis,
desde que se formaron hace entre 2.000 y 3.000 millones de años.
Información adicional en: http://www.swri.org/9what/releases/astspin.htm
Huracán Isabel
Los meteorólogos siguen con atención el desarrollo del poderoso huracán Isabel. Desplegando vientos de
hasta 240 km/h, se dirige hacia la costa este de los Estados Unidos, procedente del Atlántico. Un par de
observadores privilegiados nos han enviado espectaculares imágenes de su furia.
En efecto, los satélites artificiales automáticos no son los únicos que mantienen sus ojos electrónicos sobre
la tormenta. Ed Lu y Yuri Malenchenko, los dos astronautas que en estos momentos se encuentran
trabajando a bordo de la estación espacial internacional (ISS), han sobrevolado varias veces la región en la
que se encuentra el huracán, y nos han enviado imágenes fotográficas y video sobre su comportamiento.
Durante uno de los sobrevuelos, el complejo orbital pasó a apenas 386 km por encima de Isabel, que
ofreció así su aspecto más amenazador. Los comentarios de los astronautas no dejan lugar a dudas: es
mucho mejor en estos momentos encontrarse en el espacio que estar cerca del huracán.
La NASA y otras agencias van a continuar haciendo un seguimiento constante de Isabel a medida que se
aproxime al continente. La National Oceanic and Atmospheric Administration (NOAA) utiliza la
información proporcionada por los satélites y otros medios de medición para pronosticar sus futuros
movimientos y predecir las zonas donde se van a producir precipitaciones, así como su gravedad.
Toda esta información acumulada es esencial para los investigadores que siguen trabajando para entender
mejor cómo se desarrollan estas peligrosas tormentas, y cómo pueden afectar a las personas y sus
propiedades, tanto en el mar como en tierra.
Información adicional en: http://www.nasa.gov/home/hqnews/2003/sep/HQ_N03093_isabel.html
Asentamientos prehistóricos bajo el mar del norte
Un grupo de expertos de la University of Newcastle upon Tyne ha descubierto las primeras evidencias de la
existencia de asentamientos de la Edad de Piedra bajo las aguas británicas del Mar del Norte, con una
antigüedad de hasta 10.000 años. Podría ser el yacimiento arqueológico submarino más antiguo de este
país.
El hallazgo se produjo por accidente. Entre los artefactos de piedra encontrados se hallan varias
herramientas y puntas de flecha. Su disposición sugiere la existencia de dos yacimientos sumergidos frente
a la costa de Tynemouth, cerca de Newcastle upon Tyne, en el noroeste de Inglaterra. Ambos podrían
pertenecer a la época Mesolítica. Sus habitantes debieron ser cazadores-recolectores que vivieron en el
intervalo temporal que se encuentra entre el final de la última era glacial, hace 10.000 años, y el comienzo
de la revolución agrícola, 5.000 años atrás. Uno de los yacimientos pertenecería al final del período
mesolítico (hace entre 8.500 y 5.000 años), mientras que el otro es más antiguo, de hace 8.500 a 10.000
80
AÑOS
2470
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 210/469
años. Los dos habían estado situados sobre tierra firme, pero poco a poco quedaron sumergidos debido al
aumento del nivel del mar que se produjo al finalizar la última era glacial.
Los artefactos pétreos encontrados se hallan bajo unos 8 metros de agua. Los científicos ya sospechaban de
la existencia de yacimientos de este tipo situados bajo el Mar del Norte, porque a principios del siglo XX
un barco de pesca de arrastre recogió un arpón mesolítico. Sin embargo, hasta ahora nadie había
encontrado evidencias de la presencia de los asentamientos.
Es probable que Tynemouth fuera un buen lugar para los antiguos pobladores de las islas británicas.
Disponían de abundantes recursos costeros y además tenían cerca al río Tyne. También es posible que
existan otros asentamientos parecidos en zonas adyacentes. Sin embargo, la situación exacta de los
primeros se mantiene en secreto para evitar la expoliación.
Los científicos querrían seguir investigando bajo el mismo suelo del fondo marino, pero para ello
necesitarán más financiación. En un yacimiento sumergido danés, también en el Mar del Norte, se
encontraron artefactos hechos de madera, hueso y pieles, incluyendo canoas y restos de estructuras de
casas. El mar conservó bien estos materiales gracias a la falta de oxígeno.
En la era prehistórica, cuando el nivel del agua del mar era más bajo, una superficie de tierra con unas
dimensiones semejantes a las de la actual Gran Bretaña mantenía a este territorio unido con el continente.
Animales y hombres circulaban sin dificultades por esta región ahora sumergida.
Información adicional en: http://www.ncl.ac.uk/press.office/press.release/content.phtml?ref=1063355267
La Luna vista por el Chandra
Las observaciones realizadas por el observatorio espacial de rayos-X Chandra han permitido detectar
oxígeno, magnesio, aluminio y silicio a lo largo de una amplia región de la superficie de nuestro satélite.
La abundancia y distribución de estos elementos nos ayudarán a determinar cómo se formó la Luna.
El telescopio Chandra no ha sido diseñado sólo para observar objetos muy lejanos, sino que también puede
utilizarse para fotografiar otros más próximos, como nuestro vecino o la propia Tierra. En el caso de la
Luna, el observatorio puede detectar los rayos-X procedentes de su superficie, causados por fluorescencia.
Cuando los rayos solares bombardean el suelo lunar, arrancan algunos electrones de las zonas internas de
los átomos, colocándolos en un estado altamente inestable. Casi inmediatamente, otros electrones acuden
para cubrir los huecos, y en el proceso convierten su energía en rayos-X fluorescentes que pueden ser
vistos por el Chandra.
La información que aportan es complementaria a la obtenida durante los años del programa Apolo, cuando
se recogieron numerosas muestras de la superficie (polvo y rocas) y éstas fueron llevadas a la Tierra para
su estudio químico. La ventaja del Chandra es que obtiene datos de un área mucho mayor que la cubierta
por las expediciones Apolo, explica Jeremy Drake, del Harvard-Smithsonian Center for Astrophysics
(CfA).
La teoría más popular sobre la formación de la Luna indica que un cuerpo del tamaño de Marte chocó
contra la Tierra hace 4.500 millones de años. El impacto arrancó escombros fundidos del manto terrestre y
del manto del otro planeta. Estos restos quedaron en órbita alrededor de la Tierra y, en el transcurso de
decenas de millones de años, acabaron uniéndose entre sí para formar la Luna. Midiendo la cantidad de
aluminio y de otros elementos sobre una amplia área lunar, y comparando las cifras con las del manto
terrestre, Drake y sus colegas esperan ayudar a probar la hipótesis del impacto.
La exploración del Chandra también ha ayudado a resolver el misterio de los rayos-X procedentes de la
cara oculta de la Luna, detectados por primera vez en 1990 por el satélite ROSAT. Se creía que estos
rayos-X correspondían a electrones energéticos procedentes del Sol que chocaban contra el suelo lunar.
Chandra, sin embargo, ha establecido que dichos rayos-X no proceden de nuestra estrella, y que ni siquiera
lo hacen desde la cara oculta de Selene, sino de la capa más externa de la atmósfera terrestre. Las
colisiones entre iones pesados de carbono, oxígeno y neón presentes en el viento solar, con los átomos de
hidrógeno atmosféricos, ocasionan estos rayos-X.
Información adicional en: http://www1.msfc.nasa.gov/NEWSROOM/news/releases/2003/03-160.html
Nanohilos de plata como detector de explosivos
Químicos de la University of California en Berkeley han demostrado que una serie de minúsculos hilos de
apenas unos nanómetros de diámetro pueden servir como componentes electrónicos muy versátiles. En
80
AÑOS
2471
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 210/469
concreto, utilizaron nanohilos de plata como elementos esenciales de un detector de explosivos muy
sensible.
Los investigadores fabricaron 1 billón de nanohilos de plata, con el aspecto de agujas nanoscópicas, y los
reunieron para formar con ellos una fina capa en la cual todas las agujas apuntaban en la misma dirección.
La capa ordenada de nanohilos resulta un lugar ideal para que diversas sustancias se unan a ella y así
puedan ser detectadas mediante una técnica muy sensible llamada espectroscopia de Raman.
Esta técnica nos proporciona básicamente una firma química, una huella, explican Peidong Yang y sus
colegas de la UC Berkeley. La monocapa de nanohilos de plata actúa como un sustrato muy sensible en el
que detectar moléculas como el DNT (dinitrotolueno, un pariente cercano del TNT), utilizado para fabricar
prácticamente todos los explosivos, incluyendo las minas. Estos explosivos liberan vapor de DNT, el cual
nos permite detectarlos desde el aire.
Los nanohilos de plata “empaquetados” son una mejor superficie para la espectroscopia de Raman
mejorada que una simp le delgada capa de plata porque la superficie de nanohilos está más ordenada y
proporciona una señal más claramente definida, facilitando la interpretación del espectro vibratorio de
Raman que se obtenga. Los nanohilos de plata son uniformes y son aptos para su uso en el aire o en un
líquido.
Yang espera poder miniaturizar el láser y los otros componentes necesarios para la espectroscopia Raman,
de manera que sea posible crear un sensor microscópico en un chip.
Las capas de nanohilos tienen otros usos potenciales. Las monocapas pueden ser transferidas a cualquier
superficie, incluido el silicio, el cristal o los polímeros plásticos flexibles, proporcionando una mayor área
en la que realizar procesos químicos. Podrían utilizarse en varios dispositivos, como las células solares
flexibles o los diodos emisores de luz.
El laboratorio de Yang ha creado capas de nanohilos semiconductores, hechos de silicio, que podrían ser
muy útiles en la construcción de dispositivos electrónicos flexibles.
Información adicional en: http://www.berkeley.edu/news/media/releases/2003/09/11_silver.shtml
El papel del CO2 en la atmósfera primitiva
Nuestro conocimiento de que el dióxido de carbono tiene un efecto de calentamiento global en la atmósfera
es relativamente reciente. Sin emb argo, los científicos creen que este gas invernadero ha estado haciendo
lo mismo durante miles de millones de años.
Jay Kaufman, de la University of Maryland, y Shuhai Xiao, del Virginia Polytechnic Institute, ambos
geólogos, han obtenido pruebas de la edad del ciclo de Calvin, el ciclo fotosintético por el cual las plantas
convierten la luz solar y el CO2 en tejidos celulares.
Utilizando muestran obtenidas de fósiles individuales de un antiguo pariente de las algas, los dos
científicos han conseguido las primeras estimaciones de la concentración de CO2 en la atmósfera hace unos
1.400 millones de años. Su estudio demuestra que dicha concentración era entre 10 y 200 veces superior a
los niveles actuales. El gas, por tanto, jugaba un papel crucial en el mantenimiento de una temperatura alta
en la Tierra, y probablemente dominaba sobre otro gas invernadero, el metano, después de que la
atmósfera y los océanos se oxigenaran hace entre 2.000 y 2.200 millones de años.
En aquella época, el Sol no era tan luminoso como ahora, así que proporcionaba mucha menos luz y calor.
Para evitar que los océanos se congelaran, y para lograr que la Tierra se mantuviera lo bastante caliente,
era necesario más gas invernadero que ahora.
El período de tiempo examinado por Kaufman y Xiao, el Proterozoico, se inició hace 2.500 millones de
años y finalizó hace 543 millones de años. Los investigadores creen que los sucesos más importantes de la
historia evolutiva de nuestro planeta ocurrieron en esta época, incluyendo la aparición de abundantes
organismos vivos (probablemente uni y multicelulares) y el aumento de la presencia de oxígeno en la
atmósfera.
La Dictyosphaera delicata era una planta microscópica que vivía en aquellos océanos, a finales del período
Proterozoico, y no era mucho mayor que el punto de una letra “i”. Para estimar los niveles del CO2
atmosférico, Kaufman y Xiao midieron la proporción de dos diferentes isótopos de carbono presentes en
los microfósiles de dicha planta. Utilizaron para ello espectrómetro muy preciso.
Información adicional en: http://www.nsf.gov/od/lpa/news/03/pr03101.htm
80
AÑOS
2472
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 210/469
Mejores comunicaciones por fibra óptica
Utilizando moléculas que se parecen a balones de fútbol de 60 caras, un equipo formado por personal de la
University of Toronto y de la Carleton University ha creado un nuevo material para el procesamiento
óptimo de información a través de la luz.
Ted Sargent, de la UT, y Wayne Wang, de la CU, junto a su equipo, han desarrollado un material que
combina las partículas esféricas microscópicas conocidas como “esferas de Bucky” (Buckyballs) con
poliuretano, el polímero que se emplea en automóviles y muebles. Las esferas o bolas de Bucky reciben el
nombre químico de C60, ya que son agrupaciones de 60 átomos de carbono de apenas unos nanómetros de
diámetro. Cuando se emplea la mezcla de poliuretano y esferas de Bucky en una delgada película sobre
una superficie plana, las partículas de luz que viajan a través del material adoptan con facilidad los
patrones de las demás. Así pues, este material tiene la capacidad de aumentar la eficiencia del transporte y
procesado de información en las comunicaciones por fibra óptica.
Según Sargent, en las películas de alta calidad óptica producidas por su grupo la luz interactúa entre 10 y
100 veces más intensamente con ella misma, para todas las longitudes de onda utilizadas en las
comunicaciones por fibra óptica. Además, tienen un rendimiento óptimo en los 1.550 nanómetros, la
longitud de onda usada para comunicar información a largas distancias. Las partículas de luz llamadas
fotones se emplean en las redes de fibra óptica para comunicar billones de bits de información por
segundo, entre puntos muy alejados del globo. No siempre es sencillo controlar de forma efectiva este
enorme caudal.
El trabajo realizado demuestra una vez más que las moléculas “de diseño”, sintetizadas mediante la
nanotecnología, tendrán una amplia aplicación en las futuras generaciones de redes informáticas y de
comunicaciones. Información adicional en: http://www.newsandevents.utoronto.ca/bin5/030912a.asp
Breves del Mundo de la Ciencia
ESPECIES AMENAZADAS SIN PROTECCIÓN: Un reciente estudio de Conservation International
indica que más de 700 especies en peligro de extinción permanecen sin ningún tipo de protección.
TABACO Y ALCOHOL, LAS DROGAS MAS DAÑINAS: El Dr. Norberto Aguirre, de la Universidad de
Navarra, cree que la drogadicción "es un problema de salud pública y no de tráfico ilícito".
ESTALLIDOS GAMMA DEMASIADO RÁPIDOS: Casi dos tercios de todos los estallidos gamma que se
detectan en el cielo parecen no dejar rastro. La explicación a este misterio es que los astrónomos no los
observan lo bastante rápido.
LA DIFÍCIL SUPERVIVENCIA DE LAS LENGUAS: A pesar de que se hablan miles de lenguas
diferentes en el mundo, el 90 por ciento de ellas están muriendo y se espera que desaparezcan en el
transcurso de las próximas décadas.
SE NECESITA UN MEJOR SOFTWARE DE BIOLOGÍA MOLECULAR: Los biólogos moleculares
explotan los equipos científicos más avanzados para llevar a cabo su trabajo. Su objetivo es descubrir los
secretos de la vida y las enfermedades en la era post-genómica. Sin embargo, estos profesionales se quejan
de que las herramientas informáticas de las que disponen no son adecuadas para ello.
EL SOL, UN LABORATORIO ÚNICO PARA LA ASTROFÍSICA: La revista especializada Physical
Review Letters ha publicado los resultados de investigadores del IAC sobre un nuevo efecto físico, hasta
ahora desconocido, que permite inferir la presencia de campos magnéticos extremadamente débiles en el
Universo.
LA CAFEÍNA CALMA EL DOLOR DURANTE EL EJERCICIO: Una taza de café por la mañana
contribuye a algo más que despertarnos. También puede ayudarnos a sentir menos dolor durante el trabajo
físico matutino.
NUEVO CONVERSOR FOTOVOLTAICO: Ingenieros eléctricos de la Princeton University han
inventado una técnica para la fabricación de células solares que, combinada con otros avances recientes,
permitirá promocionar a esta forma de energía económica, ampliando su uso de forma exponencial.
CONTROL MEDIANTE LA VOZ: Dentro de una década, el uso de números de teléfono, controles
remotos y teclados de ordenador parecerá algo totalmente pasado de moda. Los científicos están
transformando poco a poco el habla humana en órdenes cada vez más comprensibles para los dispositivos
electrónicos.
80
AÑOS
2473
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 210/469
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
OBSESIONES, ORQUESTAS E INVESTIGACIÓN CIENTÍFICA
La biología molecular, es sin duda alguna, una de las áreas de investigación más
apasionantes de nuestro tiempo. Los investigadores en la materia están tratando de
entender los mecanismos básicos de la vida: la reproducción, la evolución, la
autorregulación, el origen de múltiples enfermedades, etcétera. La clave para obtener este
entendimiento, se cree, reside en la estructura de dos tipos de biomoléculas: los ácidos
nucleicos, asiento del código genético y las proteínas, cuya función es regular
innumerables funciones internas en los seres vivos. El problema es de tal magnitud que,
como tantos otros de la ciencia contemporánea, para realizar investigación en este
campo, se hace necesaria la integración de equipos de trabajo transdisciplinarios.
En Obsesiones naturales (Natural Obsessions, The Search for the Oncogene, Houghton
Mifflin Co., 1988), la periodista Natalie Angier relata, en forma a la vez amena e
instructiva, la gran aventura que ha sido la búsqueda de los “oncogenes”, aquellos genes
cuya mutación desencadena la formación de tumores, la aparición de temidos cánceres.
La acción se desarrolla principalmente en el laboratorio dirigido por el afamado Robert
Weinberg en el Instituto Whitehaead de Investigaciones Biomédicas, sito en Cambridge,
Massachusetts, donde la periodista pasó muchos meses siguiendo las investigaciones ahí
realizadas. Angier no sólo nos instruye sobre los aspectos técnicos científicos del asunto
y las dificultades metodológicas del trabajo, sino además expone el lado humano de la
investigación: el entusiasmo y las amarguras de los investigadores, sus conflictos
personales, las envidias, la competencia furibunda entre diversos grupos por obtener
resultados primero; en fin, el drama real, las obsesiones que impulsan toda investigación
verdaderamente apasionada, comprometida.
La investigación científica moderna ya no se lleva a cabo por individuos retraídos y
solitarios al estilo de Kepler o Newton; la investigación científica se desarrolla ahora por
equipos multidisciplinarios, cuya organización y actuación nos recuerdan a las de una
orquesta sinfónica. Una orquesta sinfónica incorpora instrumentos musicales de lo más
variado: cuerdas, alientos, percusiones, etc., cuya intervención, en cada obra, debe ser
precisa y programada. Cada ejecutante tiene una responsabilidad definida dentro del
conjunto, y su participación está claramente señalada en la partitura. No puede integrarse
una orquesta solamente con directores, o sólo violinistas o percusionistas. El resultado de
esas ejecuciones musicales, armónicamente articuladas, son los maravillosos conciertos
sinfónicos.
De la misma manera, un equipo de investigación reúne, usualmente especialistas en
diversas materias, trabajando en torno a un problema común: por ejemplo, los grupos que
trabajan en biología molecular, generalmente incluyen biólogos, bioquímicos, genetistas,
matemáticos, físicos, computólogos y una variedad de técnicos y auxiliares. Cada
miembro de este equipo tiene asignadas tareas claramente definidas, y todos los
integrantes del grupo conocen el desarrollo general del proyecto, conocimiento que
obtienen en seminarios y juntas de trabajo. La responsabilidad del director o coordinador
del equipo es llevar la batuta, como lo hace un director de orquesta, es decir, concertar
80
AÑOS
2474
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 210/469
las diversas actividades alrededor de un objetivo común al igual que en las sinfónicas, de
cuando en cuando hacen aparición los solistas dentro de un grupo de investigadores.
Una diferencia sustancial entre un concierto y las actividades de un equipo de
investigación es que, en este último caso, la partitura se va estructurando en la medida
que se obtienen resultados, y en ocasiones hay que recomponerla completamente (las
famosas revoluciones científicas).
La creación musical y la creación científica deben buscarse porque sí, por el gusto y la
emoción de hacerlo. Orientarlas hacia objetivos puramente utilitarios es drenarlas de su
esencia y de su sentido y valor para el hombre. En el prefacio a Obsesiones naturales,
Lewis Thomas nos advierte sobre este excesivo utilitarismo:
Hacer investigación en problemas biológicos “duros” tiene que ser una gran diversión o
no podrá realizarse en absoluto […] la competencia actual (entre científicos, por
recursos y premios) ha alcanzado tal punto de ferocidad intelectual que me parece un
síntoma grave […] que puede conducir a los investigadores jóvenes a considerar el
“éxito” como una cuestión de vida o muerte.
La investigación científica, sin duda, rinde frutos que, eventualmente, pueden aplicarse
con fines tecnológicos; pero al momento de obtener resultados, es casi imposible decir
cómo y cuándo éstos habrán de aplicarse. En el caso de la búsqueda de los “oncogenes”,
se han obtenido resultados impresionantes; ha sido posible identificar el lugar preciso en
que ocurren las mutaciones que desencadenan los procesos cancerígenos y, aún así, está
todavía muy lejano el día en que estos resultados se traduzcan en una cura eficaz para el
cáncer. No obstante, se sigue apoyando decididamente este tipo de investigación básica.
Insistir en la exigencia de que la investigación básica provea resultados aplicables
inmediatamente y con redituabilidad económica, es producto de la miopía de quienes
nunca han disfrutado de las obsesiones naturales.
El Cabuche (crónicas de la Facultad de Ciencias)/ Ventana a la ciencia
El 27 de agosto del 2003, en principio una fecha como cualquier otra, representa para la
escuela-facultad, el inicio de una nueva publicación que se suma al conjunto de
actividades de difusión que se realizan desde hace varias décadas. En conjunto con la
Sociedad Potosina de Física y el Periódico Pulso diario de San Luis se publica Qüid
Sociedad, Ciencia y Tecnología con una periodicidad mensual. La publicación referida
aparecerá el último miércoles de cada mes en la sección Actualidad del periódico Pulso.
El titulo de la publicación es un término figurativo basado en la sustancia que Santo
Tomas de Aquino le llamó quid; basado en este término se construye el termino qüid que
intenta relacionar, como se hacia en la filosofía, la ciencia, la técnica y la tecnología con
los temas sociales. El reto, llegar a amplios sectores de la sociedad con un lenguaje llano
que permita una adecuada comunicación entre científicos, sociedad y comunicadores
científicos para contribuir a que la investigación científica no siga siendo una actividad
aislada y desconocida por la sociedad, que es la que, a pesar de ol s gobernantes que
padecemos, finalmente permite que exista esta clase de actividades, pues la mayor parte
de los proyectos de investigación se realizan a través del pago de sus impuestos. La
sección es coordinada por Salvador Palomares y J. R. Martínez, comentarios o
contribuciones al correo electrónico: [email protected].
Poco a poco, me voy acercando a ti/Poco a poco, la distancia se va haciendo menos
80
AÑOS
2475
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
Nos. 211-212, 6 de octubre de 2003
No. acumulado de la serie: 470-471
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicació n semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
La Ciencia desde el
Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
MARGINADOS
La causa y raíz única de casi todos los males de las
ciencias es ésta: que mientras admiramos y
ensalzamos sin razón las fuerzas de la mente humana,
no les proporcionamos auxilios apropiados.
Francis Bacon (1561-1626)
La historia de las ciencias da testimonio del
gran valor, entrega y convicción que muchos
científicos, grandes y pequeños, han
mostrado cuando de afirmar y defender sus
ideas y vocación se trata. Algunos han sido
asesinados por sus propios contemporáneos
por haberse atrevido a desafiar nociones
ideológicas que justificaban sociedades
opresivas y decadentes; tales son los casos
de Giordano Bruno y Evariste Galois. Otros
han muerto a consecuencia del intenso
interés y dedicación que empeñaron en sus
tareas; se recuerda a Madame Curie, quien
murió de cáncer adquirido a causa de su
continuo
contacto
con
materiales
radioactivos. De Francis Bacon se dice que
cuando viajaba en un helado día, acuciado
por la curiosidad de comprobar el efecto de
la baja temperatura en el proceso de
putrefacción, bajó de su carruaje para
comprar una gallina muerta y rellenarla de
nieve; a consecuencia de esa brusca
exposición al frío murió días más tarde.
Continua en la página 2487
El Hijo de El Cronopio Nos. 211-212/470-471
NOCIONES DE ESTADÍSTICA
Sección 2
Irma Georgina Gómez Vega y Isaac Campos Cantón
DESCRIPCIÓN GRÁFICA DE LOS DATOS
INTRODUCCIÓN
Cuando se hace un muestreo y en donde cualquier elemento de la población tiene la
misma oportunidad de ser escogido como muestra, esto es a lo que se llama muestra
aleatoria. La palabra ‘aleatoria’ o ‘al azar’ nos señala que la muestra se escoge de tal
manera que se imposibilita la predicción de cuál miembro sea el escogido. Las técnicas
estadísticas se justifican y respaldan en la teoría estadística, la que, a su vez, se apoya en
la teoría de las probabilidades, por lo que es indispensable contar con muestras aleatorias
antes de aplicar la teoría de la probabilidad.
SELECCIÓN DE UNA MUESTRA ALEATORIA
Si la población de que se trata es pequeña, uno de los métodos más sencillos de obtenerla
es formular una lista de los integrantes y escoger la muestra de un recipiente.
Cuantas veces sea posible asignar un número entero a cada miembro de la población,
puede usarse una tabla de números al azar para obtener una muestra aleatoria. La tabla
en cuestión está formada por dígitos escogidos al azar. Cada miembro de la población
tiene su número correspondiente en la tabla de números al azar. Para lograr la muestra
aleatoria se comienzan a leer los números de la tabla en un lugar también escogido al
azar, y por cada número que así se seleccione, el miembro de la población a quien le
corresponde queda incluido en el muestreo.
CLASIFICACIÓN DE DATOS
El recurso de clasificar los datos se emplea para ‘condensar’ los mismos. La gama de las
observaciones se divide en cierto número de intervalos de clase o simplemente clases.
Así como el número de categorías y su amplitud son arbitrarios, también lo es el punto
inicial de la categoría más baja. Los números iniciales de cada categoría se conocen
como linderos de clase porque separan una categoría de otra.
Tanto la medición más pequeña como la más grande posible en cada categoría se conoce
como límite de categoría.
Cuando las categorías se definen en términos de límites de categoría, se entiende que
cada lindero está a medio camino entre el límite superior de clase de la categoría menor y
el límite inferior de clase de la categoría superior.
El punto intermedio de un intervalo de cada categoría en particular es el punto medio
entre los linderos de esa categoría, y se llama marca de categoría o de clase.
El número de observaciones en una clase o categoría determinada se llama frecuencia de
clase. La frecuencia de la clase o categoría i se conoce como f i (hay k categorías, de
manera que i puede ser cualquier número entero entre 1 y k).
DISTRIBUCIONES DE FRECUENCIA Y DISTRIBUCIONES DE FRECUENCIA ACUMULADA
La distribución de frecuencias acumuladas consiste en una tabla que incluye el número
de observaciones que son menores que ciertos valores especificados. Conviene tomar
80
AÑOS
2477
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
como esos valores los límites inferiores de clase (comenzando con la segunda clase). Al
hacerlo, las frecuencias acumuladas se convierten en la frecuencia de la primera clase, la
suma de las frecuencias de las dos primeras clases, y así sucesivamente.
REPRESENTACIÓN GRÁFICA DE DATOS
A continuación discutiremos tres tipos de gráficas que se usan para la presentación de
datos similares a los de distribución de frecuencias. Nos referimos al histograma, al
polígono de frecuencias y a la ojiva.
Histograma. El histograma es una gráfica a base de barras sin espacios intermedios. La
escala vertical o eje-y generalmente comienza en cero, mientras que la escala horizontal
o eje-x puede iniciarse con cualquier número adecuado que convenga como punto de
partida para iniciar clases. Los linderos de clases se marcan en el eje horizontal. La
diferencia en valor entre dos linderos de clases consecutivos queda representada por la
amplitud del intervalo. Para cada clase se forma un rectángulo cuya base tiene un ancho
equivalente a la amplitud del intervalo de clase y cuya altura está determinada por el
número de observaciones efectuadas.
A continuación se muestra la representación de un histograma (Figura 1):
Figura 1. Representación de un Histograma
Polígono de frecuencia. El polígono de frecuencia se forma colocando un punto sobre la
mitad de la cúspide de cada rectángulo del histograma y luego uniendo dichos puntos por
medio de una línea. Este polígono de frecuencia y el histograma se ilustran en la figura 2.
Figura 2. Polígono de frecuencia sobre un Histograma.
Ojiva. La gráfica de distribución acumulativa de frecuencia se llama ojiva. Muchas de
éstas tienen el aspecto de una S. La ojiva se dibuja sobre dos ejes perpendiculares de
igual manera que el histograma y el polígono de frecuencia. El eje horizontal representa
los valores de las observaciones y los verticales el número o proporción de las
observaciones. Se marcan puntos en frente de los números a la altura apropiada para
definir cuántas observaciones son menores a dichos valores. Una vez señalados los
puntos, se unen con un trazo y se completa la ojiva. En seguida se muestra un ejemplo.
Ver figura 3.
80
AÑOS
2478
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
Figura 3
CONSIDERAN ESTRATÉGICO COMUNICAR CIENCIA
Llaman a fortalecer vínculo entre científicos y periodistas
Por Arturo Barba/ Grupo Reforma
La ciencia y la tecnología influyen cada vez más en las estrategias nacionales de los
Estados y en las políticas industriales de las empresas, por lo cual el papel de la
comunicación de la ciencia es cada vez más importante en esta era del conocimiento,
afirmó Manuel Calvo Hernando, presidente de la Asociación Española de Periodismo
Científico.
Para ello, es necesario establecer una relación más estrecha entre el trabajo del
periodismo científico con la labor de investigación del científico, agregó el divulgador de
la ciencia durante su participación en el foro Periodismo, Comunicación y Ciencia,
organizado por la Academia Mexicana de Ciencias (AMC).
Si bien reconoció que entre ambos profesionistas existe una amplia diferencia en cuanto
a tiempo para la elaboración de noticias, consideró que existe cada vez mayor interés
entre ambos sectores para colaborar en la extensión del conocimiento en la sociedad
como un requisito democrático.
"La democracia requiere que todo ciudadano ilustrado conozca la ciencia", afirmó Calvo.
"Para ello, es necesario hacer que la mayoría acceda al conocimiento de la minoría (...) y
con base en ello opinar y tomar decisiones".
Calvo mencionó que los periodistas deben estar a la vanguardia en el uso de la tecnología
y que además de abrir los ojos hay que abrir la mente. "Los desafíos consisten en poner
la ciencia y la tecnología al servicio de la humanidad y del desarrollo".
Con la participación de expertos de México, España, Brasil y Reino Unido, la AMC
abrió por primera ocasión sus puertas a la discusión de este tema crucial para el avance
de la ciencia a través de este foro que ha despertado gran interés tanto de científicos
como de estudiantes de comunicación, periodismo y ciencia.
"En un mundo globalizado, donde los avances tecnológicos dirigen todos los actos de
nuestra vida cotidiana, donde la transferencia y creación de conocimientos se acelera
cada día más, la ciencia representa la punta de lanza del avance de las naciones",
mencionó José Antonio de la Peña, presidente de la AMC.
El matemático reiteró que en este siglo el interés que el ciudadano medio manifiesta por
la ciencia proporciona un indicador de las posibilidades que la ciencia tendrá de ser
apoyada en esa sociedad.
80
AÑOS
2479
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
"Hasta en las aplicaciones más sofisticadas y los avances más recientes, como las
telecomunicaciones y la biotecnología, es importante que el público comprenda de la
mejor manera el mundo en que vive", afirmó De la Peña.
Por su parte, Patricia Magaña, directora de la revista Ciencias, de la Facultad de Ciencias
de la UNAM, enfatizó la necesidad de establecer un nuevo contrato social de la ciencia
bajo el entendido de que tanto el conocimiento científico como el desarrollo tecnológico
son bienes públicos.
"La comunicación de la ciencia y su vínculo con la sociedad implican una relación de
múltiples direcciones y muy dinámica", mencionó a su vez Javier Flores, de la Unidad de
Estudios de Posgrado e Investigación, de al UNAM. "No se debe pedir permiso a los
medios para que brinden espacio a la información científica, hay que producir
información que permita interactuar con ellos".
Todos los expositores, durante el primer día de actividades del foro que termina hoy,
coincidieron en que el trabajo conjunto entre científicos y medios de comunicación es la
mejor forma de difundir y divulgar a la mayor parte del público la necesidad de
comprender pero también vigilar el avance de la ciencia y la tecnología.
Noticias de la Ciencia y la Tecnología
El Universo escondido
Los investigadores Antonio Marín Franch y Antonio Aparicio Juan, miembros del Grupo de Poblaciones
Estelares del Instituto de Astrofísica de Canarias (IAC), han detectado la presencia de 6.000 galaxias
extremadamente débiles en la imagen de Campo Profundo del Hubble (Hubble Deep Field o HDF), la
imagen más profunda del cielo obtenida con el telescopio espacial Hubble.
Estas 6.000 galaxias son tan débiles que resultan invisibles incluso en esta imagen. Sin embargo, un
análisis basado en la técnica de fluctuaciones de brillo superficial revela su presencia, más allá del límite
de detección del telescopio espacial. La revista Astrophysical Journal publica estos resultados en un
número de septiembre.
El Telescopio Espacial Hubble proporciona una visión del Universo sin precedentes. Sería capaz de ver
separados los faros de un coche que se encontrara a 6.000 km de distancia. Uno de los grandes proyectos
desarrollados con el Telescopio Espacial ha sido el llamado Hubble Deep Field o HDF. En diciembre de
1995, el telescopio fue apuntado a una región cercana al polo norte galáctico, donde no hay estrellas ni
galaxias próximas a nosotros. Es decir, una región completamente vacía de objetos brillantes. El objetivo
era estudiar en detalle los objetos muy débiles y, por tanto, probablemente muy lejanos, que se pudieran
encontrar en esa región. Se observó ininterrumpidamente durante 10 días y los datos obtenidos pasaron a
disposición de la comunidad científica internacional. Es te ambicioso proyecto proporcionó la visión más
profunda del Universo jamás obtenida: las imágenes HDF, en las que aparecen unas 2.500 galaxias. Se
trata de las galaxias más débiles que hemos sido capaces de observar hasta la fecha.
“Se puede tener una idea de la enorme densidad de galaxias en el HDF si se tiene en cuenta que el área del
cielo cubierta por el Telescopio Espacial es parecida a un cuadrado de sólo 2,5 minutos de arco de lado”,
comenta Antonio Aparicio. “Eso es equivalente al tamaño con el que se ve una moneda de un céntimo a 20
m de distancia o una pelota de tenis a 90 m. En un área tan reducida, en la imagen HDF del Hubble son
visibles 2.500 galaxias. Sin embargo, lo que aporta nuestro estudio es que, en realidad, son muchas más:
6.000 galaxias adicionales, que no son detectables con las técnicas de análisis habituales pero cuya
presencia se pone de manifiesto si se hace un análisis de las fluctuaciones de brillo superficial de las
imágenes”. Este hallazgo, resultado de la tesis doctoral presentada este año por Antonio Marín y dirigida
por Antonio Aparicio, supone extender el límite de detección hasta galaxias 10 veces más débiles que las
más débiles detectadas hasta ahora.
La técnica de las fluctuaciones de brillo superficial fue introducida hace 15 años por John Tonry y Donald
Schneider, investigadores del Massachusets Institute of Technology (Cambridge) y del Institute for
80
AÑOS
2480
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
Advanced Studies (Princeton), con el objetivo de medir distancias a galaxias. Sin embargo, la técnica se ha
revelado más flexible de lo que, en un principio, cabía esperar. La propuesta de los investigadores del IAC
es su aplicación, con algunas modificaciones, al análisis de regiones del cielo que, tal como las muestran
los telescopios más potentes, están vacías aparentemente. Sin embargo, estas regiones contienen la traza de
objetos extremadamente débiles, tanto que no pueden ser resueltos con los métodos habituales. “En esencia
-explica Antonio Marín-, la técnica de las fluctuaciones de brillo superficial no es muy diferente del
filtrado de sonidos que se realiza sobre una cinta de audio, en la que se escuchan multitud de señales y
ruidos de diferente origen superpuestos.
El Dr. Antonio Marín Franch es actualmente investigador en el grupo de Astronomía Infrarroja del
Departamento de Astronomía de la Universidad de Florida en Gainesville. Entre 1998 y 2003 ha trabajado
como astrofísico residente en el IAC, integrado en el grupo de Poblaciones Estelares en Galaxias. En 2003
ha obtenido el doctorado en Astrofísica por la Universidad de La Laguna con una tesis sobre la aplicación
de la técnica de fluctuaciones de brillo superficial a diferentes contextos astrofísicos, dirigida por el Dr.
Aparicio. El Dr. Antonio Aparicio Juan, por su parte, es profesor titular de la Universidad de La Laguna y
miembro del Instituto de Astrofísica de Canarias, donde lidera el grupo de Poblaciones Estelares en
Galaxias. Es Director del Departamento de Astrofísica de la Universidad de La Laguna y Coordinador del
Área de Enseñanza del IAC. (IAC) Información adicional en:
http://hubblesite.org/newscenter/archive/1996/01/image/a
Papel electrónico
Científicos de la compañía holandesa Phillips han presentado una tecnología novedosa para pantallas
reflectantes que se parecen en cierto sentido al papel. Es lo bastante rápida como para mostrar contenidos
de video y puede ser utilizada para construir una pantalla a todo color al menos dos veces más brillante que
lo posible con cualquier otra tecnología.
El concepto técnico sobre el que se basa consiste en el rápido control y manipulación de los movimientos
de un fluido a escala micrométrica. Más en concreto, la tecnología permite controlar la forma de una
interfaz de agua/aceite mediante la aplicación de un voltaje. Cuando no se aplica éste, el aceite coloreado
forma una película plana entre el agua y la cubierta aislante e hidrofóbica de un electrodo, lo que resulta en
un píxel de color. Cuando se aplica el voltaje entre el electrodo y el agua, la tensión interfacial entre el
agua y la cubierta cambia. El resultado es que el agua aparta al aceite, apareciendo un píxel parcialmente
transparente o incluso un píxel blanco. Debido al pequeño tamaño del píxel, el usuario sólo experimenta la
reflexión promedio, es decir, se obtiene un elemento de alto contraste y brillo que puede conectarse o
desconectarse, formando la base de una pantalla reflectante.
La técnica, bautizada en inglés como “electrowetting”, es interesante porque el cambio entre una reflexión
blanca y otra coloreada es lo bastante rápida como para permitir mostrar contenidos de video. Además,
precisa de poca energía y un bajo voltaje, permitiendo pantallas planas y delgadas. La reflectividad y el
contraste son mejores o iguales que las de otras pantallas reflectantes, y se aproximan a las del papel.
Los ingenieros creen que se ha abierto un campo para obtener pantallas cuatro veces más brillantes que los
LCDs reflectantes y dos más que otras tecnologías nuevas. Por tanto, será especialmente útil para
aplicaciones en las que busquemos una especie de “papel electrónico”, con capacidad de mostrar todos los
colores y con velocidades aptas para el video. Información adicional en:
http://www.research.philips.com/InformationCenter/Global/FNewPressRelease.asp?lArticleId=2820&lNo
deId=13
Dos más para Urano
Gracias al telescopio espacial Hubble, los astrónomos han descubierto dos nuevas lunas de Urano, situadas
entre las más pequeñas y débiles que posee este planeta. Su tamaño no supera los 12 a 16 km de diámetro.
Su escaso brillo hizo que no fueran observadas por la sonda Voyager-2, cuando ésta visitó el sistema de
Urano en 1986.
La Voyager descubrió 10 nuevos satélites pequeños, pero S/2003 U 1 y U2, como se les llama
provisionalmente, permanecieron ocultos a los ojos de los astrónomos hasta hoy. Según las observaciones
realizadas, ambos orbitan alrededor de Urano a una distancia menor que los cinco satélites principales del
planeta, todos ellos de varios cientos de kilómetros de diámetro. Por tanto, son las primeras lunas interiores
80
AÑOS
2481
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
de Urano descubiertas desde un telescopio terrestre en más de 50 años. El Hubble también ha ayudado a
confirmar el descubrimiento de otra pequeña luna que originalmente había aparecido en las fotografías de
la Voyager, pero cuya identidad arrojaba ciertas dudas.
Las imágenes del Hubble fueron tomadas el pasado 25 de agosto. U1 es la mayor de las dos lunas y mide
16 km. Se encuentra entre Puck, el mayor satélite encontrado por la Voyager, y Miranda, el más interior de
los grandes satélites de Urano. Hasta ahora se pensaba que esta región era un espacio vacío. U1 se halla a
unos 97.700 km del planeta, y completa una vuelta a su alrededor cada 22 horas y 9 minutos. U2, por su
parte, es la luna de Urano más pequeña conocida hasta ahora. Tiene 12 km de diámetro y se halla cerca de
Belinda, a 74.800 km del planeta. Recorre su órbita en 14 horas y 50 minutos.
Los astrónomos piensan que los satélites grandes de Urano están perturbando a los más pequeños e
interiores. La región está tan abarrotada, en términos astronómicos, que estas lunas deberían ser
gravitatoriamente inestables. Por eso, los científicos tratan de averiguar cómo consiguen coexistir entre
ellas. Una posibilidad es que sean jóvenes y que se hayan formado recientemente a través de colisiones con
cometas de paso. Futuras observaciones permitirán afinar un poco más sus órbitas.
Para encontrarlas, los astrónomos exprimieron al máximo las posibilidades de la cámara ACS del Hubble,
no en vano tienen un brillo 40 veces menor que Urano (magnitud 25 frente a magnitud 6). Son tan oscuras
como el asfalto, de modo que no reflejan demasiada luz. Con ellas, Urano pasa a tener 24 lunas conocidas,
situándose tercero en el ranking, tras Júpiter (38) y Saturno (30).
Información adicional en: http://hubblesite.org/newscenter/archive/2003/29/text
El agujero del ozono de este año se queda corto
El agujero en la capa del ozono situado sobre la Antártida se ha aproximado al récord, pero finalmente sólo
se ha convertido en el segundo más grande de la historia. El ozono bloquea la llegada de los peligrosos
rayos ultravioleta “B”, y su ausencia está relacionada con el cáncer de piel en humanos.
Según las mediciones realizadas recientemente, el máximo tamaño alcanzado por el agujero de la capa del
ozono sobre el polo sur ha sido de 10,9 millones de millas cuadradas, suceso que aconteció el 11 de
septiembre. Estas dimensiones son mayores que todo el continente norteamericano, pero inferiores al
récord registrado el 20 de septiembre de 2000, con 11,5 millones de millas cuadradas. El año pasado, el
agujero fue más pequeño, con apenas 8,1 millones de millas cuadradas.
La vigilancia realizada por los instrumentos espaciales Earth Probe Total Ozone Mapping Spectrometer y
Solar Backscatter Ultraviolet (NOAA-16), así como otros embarcados en globos sonda, es esencial para
conocer la estructura vertical del agujero del ozono.
Ciertas sustancias, como el cloro, se ocupan de destruir el ozono, pero las temperaturas bajas también son
factores a tener en cuenta, de aquí la variabilidad que se aprecia de un año a otro. Los gases que destruyen
el ozono ya están en declive, gracias a los esfuerzos internacionales, así que las variaciones de tamaño en
el agujero son básicamente debidas a los cambios de temperatura. En efecto, las condiciones
meteorológicas de estos dos últimos años han sido muy distintas.
Según Rich McPeters, de la NASA, las observaciones muestran que la cantidad de ozono desde la
superficie al espacio el 14 de septiembre fue de 106 Unidades Dobson, la cifra mínima de este año. Las
unidades Dobson miden el “grosor” de la capa protectora del ozono, no sus dimensiones en superficie.
Dicha magnitud varía entre las 100 y las 500 UD, lo que implica entre 1 y 5 milímetros de ozono.
Las sustancias prohibidas porque destruyen el ozono tienen una vida activa en la atmósfera muy
prolongada, de modo que, aunque su producción haya cesado, su presencia sigue haciéndose sentir. Los
especialistas creen que el agujero debería desaparecer dentro de unos 50 años.
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0925ozonehole.html
Energía eólica más barata
La popularidad del aprovechamiento de la energía del viento crece en todo el mundo. Debido a ello, los
ingenieros se esfuerzan por reducir el coste de su explotación, así como en el diseño de turbinas más
eficientes que produzcan más energía.
Las turbinas actuales ya son bastante rentables en los lugares considerados como ventosos. El objetivo
ahora es extender esta eficacia a otros sitios que no lo sean tanto. Para ello, es necesario hacer que el área
de barrido del rotor sea mayor, y que el ritmo de rotación disminuya.
80
AÑOS
2482
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
Esto no es fácil, pero los ingenieros ya están buscando formas de construir palas más fuertes, las cuales
podrían fabricarse con un híbrido de fibras de carbono-grafito y fibra de vidrio. El personal de los Sandia
National Laboratories, en el Wind Energy Technology Department, está trabajando desde hace tiempo en
esta área. Paul Veers, su director, afirma que esperan disponer de palas experimentales listas para ser
probadas el próximo verano. Serán más ligeras y rígidas que las utilizadas en la industria actualmente.
En el transcurso de los últimos 10 años, el coste de la producción de energía eólica ha descendido de
manera dramática. En los lugares más ventosos, ha alcanzado un precio de 2,5 a 5 centavos de dólar por
kW/h. Son cifras competitivas pero la rentabilidad baja mucho en los puntos donde el viento no sopla tan
fuerte. Por eso son aún necesarias reducciones de coste en algunos componentes. Indirectamente, este
esfuerzo deberá beneficiar a toda la industria eólica, sea cual sea su localización.
En Europa, la energía del viento es cada vez más popular y los fabricantes del Viejo Continente han
empezado a construir máquinas muy grandes. Se emplean a menudo frente a las costas, donde los vientos
son constantes y fuertes. Pero hacer más grandes las turbinas provoca un aumento de las cargas que debe
tenerse en cuenta desde el punto de vista de la ingeniería.
Las turbinas comerciales más utilizadas tienen palas de 35 metros, situadas sobre torres de 65 a 80 metros
de altura. Cada una produce unos 1,5 megavatios. Las palas se hacen sobre todo de fibra de vidrio, aunque
algún fabricante europeo emplea madera.
Los prototipos de palas con nuevos materiales se construirán en Sandia a “pequeña” escala (9 ó 10 metros),
para estudiar su comportamiento, el grado de hibridación más conveniente, aerodinámica, solidez
estructural, fiabilidad, etc. Si las pruebas resultan exitosas, las palas podrán alcanzar los 50 metros, y
montarse en torres de 100 metros de altura, para producir entre 2 y 5 megavatios.Información adicional en:
http://www.sandia.gov/news-center/news-releases/2003/renew-energy-batt/wind-turbines.html
El humano moderno europeo más antiguo
Erik Trinkaus, de la Washington University en St. Louis, y su equipo, han datado una mandíbula humana
encontrada en una cueva rumana donde hibernaban osos en unos 34.000 a 36.000 años. El fósil se ha
convertido en el humano moderno más antiguo conocido en el Viejo Continente.
Además de la mandíbula, se encontraron en la misma cueva otros huesos pertenecientes a un cráneo y que
aún se están analizando. Es probable que tengan la misma edad. La mandíbula fue hallada en febrero de
2002, en la “Cueva con Huesos” (Pestera cu Oase), al sudoeste de las montañas cárpatas, mientras que los
demás huesos lo fueron en junio de 2003.
Trinkaus y sus colegas están muy interesados en los resultados, pues nos muestran cómo eran los humanos
cuando se extendieron a través de Europa. En aquella época, aún había neandertales sobreviviendo en el
continente, y su llegada pudo influir en la desaparición de estos últimos.
Las características anatómicas de estos humanos “modernos” eran similares a las de otros humanos
modernos hallados en África, en Oriente Medio o en Europa (más tardíos). Algunas, sin embargo, como un
tamaño y proporciones molares inusuales, indican un origen humano arcaico y una posible conexión con
los neandertales.
Los investigadores creen que estos primeros humanos modernos mantenían algunas características
arcaicas, quizá debido a posibles cruces con neandertales. En efecto, sus huesos son compatibles con
mezclas entre las poblaciones humanas y neandertales, y no sólo por poseer una cara muy grande sino
también por las mandíbulas y los dientes, en particular la muela del juicio. En el registro fósil humano,
deberíamos retroceder medio millón de años para encontrar un espécimen con una muela del juicio mayor.
La cueva donde se encontraron los fósiles era usada principalmente por osos durante su hibernación. No se
sabe cómo fueron a parar los huesos a ella, pero es posible que los humanos la utilizaran como cueva
mortuoria. Algunos de los huesos de oso encontrados fueron movidos por humanos, lo que documenta las
pasadas actividades de éstos en la zona.
Información adicional en: http://news-info.wustl.edu/news/page/normal/427.html
Presión sanguínea y cognición
Investigadores del Duke University Medical Center han encontrado que, en contra de lo que afirma el
modelo clásico sobre el envejecimiento, una presión sanguínea más alta de lo normal no acelera el declive
relacionado con la edad de nuestra habilidad en llevar a cabo ciertas tareas mentales.
80
AÑOS
2483
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
De hecho, los sujetos de mediana edad con una presión alta pueden mostrar más lentitud en las pruebas de
rendimiento cognitivo que adultos más viejos también con hipertensión.
Los estudios anteriores habían sido de naturaleza epidemiológica, y sólo sugerían que los pacientes
hipertensos rendían peor que los individuos con la presión sanguínea normal en las pruebas de cognición
(velocidad de procesamiento mental, atención y memoria). Dichos estudios no habían conseguido
relacionar las tensiones arteriales con la edad, durante la realización de tareas cognitivas específicas.
El personal de Duke sí ha detectado una relación, pero, a pesar de todo, los científicos afirman que si bien
los cambios en el rendimiento cognitivo asociados a una elevada presión sanguínea, visibles en los
experimentos, son estadísticamente significativos, no tendrían que interferir en el funcionamiento mental
durante la vida diaria normal. David Madden, psicólogo, afirma sin embargo que, si estos cambios van
paralelos a otras enfermedades, sobre todo si son de naturaleza cardiovascular, entonces podrían tener una
importancia clínica notable.
En estudios anteriores, los ensayos se habían realizado sobre pacientes que podrían estar sufriendo otras
enfermedades, y haber estado tomando medicaciones. En Duke, se hizo hincapié en pacientes con alta
presión sanguínea que no estuvieran tomando fármacos. Y ninguno de los participantes sufría de
enfermedades cardiovasculares.
Se reclutaron 96 voluntarios adultos, 48 con presión alta sin medicar y 48 con presión normal. Además,
fueron divididos por grupos de edad (de 20 a 39 años, de 40 a 59 y de 60 a 79). Se controló su presión
sanguínea a intervalos regulares durante una serie de experimentos realizados con un ordenador personal.
Se medía la rapidez con la que contestaban correctamente en dos áreas: tareas visuales y memoria. Los
participantes intervinieron en 640 pruebas. Los resultados no apoyan la teoría clásica de que una presión
sanguínea alta, típica en personas de edad, acelera el declive en la realización de tareas de inteligencia.
Información adicional en: http://dukemednews.org/news/article.php?id=7052
Industria de la plata antes de los Incas
Los sedimentos encontrados en el fondo de un lago situado en los Andes bolivianos sugieren la existencia
de una activa industria de la plata en la región antes de lo que nadie había imaginado, antecediendo incluso
a los Incas.
Alexander Wolfe, de la University of Alberta, y Mark Abbott, de la University of Pittsburgh, tomaron las
muestras de los sedimentos depositados en un lago próximo al mayor depósito de plata de Cerro Rico de
Potosí, en Bolivia.
A partir de las concentraciones de metales asociados con la fundición, como el plomo, pudieron inferir la
historia de esta actividad en los yacimientos de la montaña. Probaron así la existencia de una industria
metalúrgica activa en la zona incluso antes de que los Incas descubrieran la montaña, sobre el siglo XI.
Wolfe explica que empezaron a ver niveles altos de plomo, un metal que al ser pesado y no moverse en los
sedimentos, se convierte en un buen marcador sobre la polución del aire y para vigilar la actividad
metalúrgica. Los Incas utilizaron un flujo que contenía plomo para extraer la plata y para regular la
temperatura de la fundición, por lo que la sustancia es un marcador fiable presente en los sedimentos del
fondo del lago.
El equipo pudo comparar las muestras de sedimento con los metales existentes en el entorno natural
durante miles de años, lo que permitió obtener una cronología que muestra cuándo se inició la fundición de
la plata. Hallaron de este modo una falta de correspondencia entre la cantidad de plata de la montaña
aparentemente fundida y las evidencias arqueológicas, en forma de artefactos de plata, que han sobrevivido
y que estuvieron presentes en la región.
Aunque es imposible determinar cuánta plata fue extraída de Cerro Rico, los datos implican que se
produjeron varias miles de toneladas con anterioridad a la llegada de los Incas. La falta de objetos de plata
fabricados en la era pre-incaica podría ser debida a que no han sido aún encontrados por los arqueólogos, o
que fueron robados por culturas posteriores. Esta última opción es la más probable: la plata debió ser
reciclada y transportada a otros lugares de América antes de la conquista, o quizá finalmente exportada por
los españoles. Los estudios ponen una vez más de manifiesto que las culturas andinas más antiguas
debieron enfrentarse a problemas modernos. Eran lo bastante avanzados tecnológicamente como para
polucionar de forma severa la atmósfera, como indican los niveles de plomo. Estas culturas también
permanecieron vulnerables a los cambios climáticos, como demuestra un declive en las fundiciones (años
1200 a 1400) durante un intervalo de sequía conocido. Información adicional en:
http://www.expressnews.ualberta.ca/expressnews/articles/news.cfm?p_ID=4999&s=e
80
AÑOS
2484
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
Aliento delator
Los láseres siguen ampliando su enorme paleta de aplicaciones. Investigadores de la australiana Macquarie
University han creado un láser capaz de “olfatear” enfermedades en el aliento de una persona. El resultado
puede ser comparado con una tabla de equivalencias y propiciar un posterior estudio más profundo del
paciente.
Durante algún tiempo, se ha pensado que el fino olfato de los perros podría ser entrenado para examinar el
aliento de los humanos en busca de enfermedades particulares, de un modo parecido a como hoy en día son
adiestrados para localizar drogas o alimentos entre los equipajes de los aeropuertos.
Pero los láseres podrían efectuar una tarea semejante de una manera más efectiva, fiable y sensible.
Procedimientos invasivos como las biopsias o las endoscopias aún serán imprescindibles para algunas
enfermedades, pero otras podrían ser detectadas analizando el aliento del paciente. Estamos hablando de
enfermedades en la sangre, hígado, pulmones, páncreas y estómago, las cuales pueden dejar un rastro
químico concreto. Un control rutinario de este tipo siempre podría hacerse de forma más cómoda que la
obtención de muestras tejidos.
La técnica láser que puede ser empleada para las pruebas médicas de aliento se llama CRDS (cavity
ringdown spectroscopy). Consiste en un láser ajustado a una frecuencia específica que rebota rápidamente
hacia delante y hacia atrás en una cavidad óptica formada por espejos con una alta capacidad de reflexión.
Esta cavidad también contiene una muestra de un gas, por ejemplo, el procedente del aliento de una
persona. Cuando el láser se apaga, el sistema, en esencia un espectroscopio, proporciona información sobre
la composición exacta del gas.
Dado que algunas enfermedades tienen un impacto directo en la composición del aliento (por ejemplo, las
relacionadas con el riñón llevan a un exceso de amoníaco), es posible determinar qué le ocurre al paciente.
Otras enfermedades pueden ser diagnosticadas proporcionando comida etiquetada con un isótopo (como el
carbono-13) al individuo. La cantidad de moléculas etiquetadas isotópicamente en el aliento expelido
mostrará el ritmo metabólico, e indicará la presencia de marcadores de enfermedad específicos, como el
organismo estomacal Helicobacter pylori, asociado con ciertas úlceras.
Los ingenieros han empezado a sustituir los láseres convencionales en los dispositivos CRDS. En su lugar
se colocan diminutos diodos láser del tamaño de un transistor. Esto está reduciendo el tamaño de los
aparatos, hasta el punto que se espera obtener un prototipo tan pequeño como una maleta.
El mismo sistema puede emplearse para otras aplicaciones, como el control de las emisiones en chimeneas,
la vigilancia de la eficiencia de la combustión en hornos y fundiciones, la verificación de la calidad del aire
en túneles, etc. Información adicional en: http://www.pr.mq.edu.au/macnews/showitem.asp?ItemID=232
Neuronas biónicas
Una nueva batería en miniatura es capaz de alimentar diminutos dispositivos implantables que podrían
ayudar a millones de personas que sufren de diversos problemas neurológicos, como la incontinencia
urinaria. Estos aparatos, llamados “neuronas biónicas” o Biones, se implantan para estimular nervios y
músculos cercanos.
La intensidad y frecuencia de la estimulación pueden ser programadas desde el exterior del cuerpo,
mientras que las baterías pueden ser recargadas sin cables, con la simple aplicación de un campo eléctrico.
La implantación de los biones se realiza con técnicas mínimamente invasivas. Otros métodos para
combatir estos tipos de deficiencias musculares necesitan baterías más grandes y una cirugía invasiva.
Ya se han iniciado las pruebas clínicas en pacientes que sufren de incontinencia urinaria, una necesidad
urgente y muy frecuente de evacuar. Este problema afecta principalmente a mujeres, que a menudo deben
sufrir fugas involuntarias durante el día.
El sistema bión está actualmente formado por tres partes integradas: la batería, que opera a la temperatura
normal del cuerpo y que ha sido desarrollada por la empresa Quallion LLC y por el Argonne National
Laboratory; un microestimu lador avanzado, diseñado por Advanced Bionics Corp.; y un sistema de
control, también desarrollado por Advanced Bionics Corp. y que permite la reprogramación remota del
dispositivo y la recarga de la batería.
La batería tiene sus propios méritos, pues se trata de la batería recargable cilíndrica más pequeña fabricada
hasta la fecha. Su vida operativa es muy larga, superando uno de los principales obstáculos a los que se
enfrenta la microelectrónica médica. Efectivamente, las baterías para estas aplicaciones suelen ser tan
80
AÑOS
2485
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
grandes y duran tan poco (no son recargables) que han frenado el desarrollo de dispositivos implantables
en el cuerpo, excepto los necesarios marcapasos. La clave del éxito de la nueva batería reside en la química
avanzada de ion-litio, que proporciona una más larga vida que las baterías de litio comerciales. En el
futuro, las baterías en miniatura de nueva generación durarán 10 años o quizá más.
Información adicional en: http://www.anl.gov/OPA/news03/news030919.htm
Breves del Mundo de la Ciencia
NO GASTE MÁS DE LA CUENTA: Los investigadores de la University of Pennsylvania han
desarrollado unas tarjetas de crédito “inteligentes” que, gracias a su microchip incorporado, pueden ser
programadas por nosotros mismos para evitar que gastemos más de lo previsto o en aquello que no
deberíamos.
PRONÓSTICO DE TERREMOTOS: En las alturas del espacio, allí donde las ondas sísmicas nunca
llegan, los satélites podrían ayudar a predecir terremotos antes de que golpeen.
CROMAGNONES Y NEANDERTALES CAZARON LO MISMO: El registro fósil de los mamíferos
consumidos por los humanos primitivos que vivieron en el sudoeste de Francia durante 50.000 años
sugiere que no había grandes diferencias entre las presas que cazaban los Neandertales y los hombres de
Cromagnon.
FORO DE PREVENCIÓN DE CATÁSTROFES: Los satélites juegan un papel cada vez mayor en la
prevención de catástrofes naturales. La Agencia Europea del Espacio (ESA) no solo cuenta con el más
avanzado satélite de observación de la Tierra jamás lanzado, Envisat, sino que lidera acciones para agilizar
al máximo el acceso de los usuarios a sus datos.
ORIGEN ALEATORIO PARA LAS ESPECIES: El origen de las especies podría haber sido tan casual
como tirar un dado. Utilizando la teoría de la probabilidad, un profesor de matemáticas de la Michigan
Technological University explica por qué los árboles de familia de muchos grupos de organismos están tan
desequilibrados.
CUIDADO CON EL CABECEO: Cabecear la pelota con fuerza, como suele hacerse en el fútbol, podría
traer consecuencias para quienes practican este deporte.
LA LUZ SOLAR MANDA EN LOS ECOSISTEMAS DEL NORTE: Estudiando sedimentos de un lago
de Alaska, los científicos de la University of Illinois en Urbana-Champaign han descubierto que las ligeras
variaciones de intensidad del Sol durante los últimos 12.000 años han afectado históricamente al clima
subpolar y a los ecosistemas.
“PELÍCULAS” PARA PREDECIR LOS INCENDIOS FORESTALES: El Rochester Institute of
Technology desarrollará una técnica para traducir los datos de teledetección obtenidos sobre incendios
forestales en “mini-películas” a tiempo real que permitan a los bomberos predecir el comportamiento del
fuego.
MÚSICA EN LA ESTACIÓN ESPACIAL: Un sorprendente número de astronautas son también músicos,
y les encanta tocar en el espacio.
ORIGEN NO GENÉTICO DE LAS SOCIEDADES: La bióloga Jennifer Fewell, de la Arizona State
University, cree que las estructuras sociales se forman a través de la dinámica de grupo, y no a través de
una selección de rasgos.
La Ciencia desde el Macuiltépetl
...... de la portada Marginados
En muchísimos otros casos, la situación no ha llegado al extremo de reclamar al
científico tan radical disposición, pero el apego al conocimiento verdadero ha conducido
a numerosos hombres de ciencia a sufrir persecución, cárcel, tortura y marginación.
Einstein fue perseguido, no tanto por cuestiones políticas, sino porque sus teorías
científicas contradecían la falsa visión del mundo sustentada por los nazis. Más cerca de
nosotros, tenemos el caso del eminente matemático uruguayo José Luis Massera, quien
80
AÑOS
2486
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio Nos. 211-212/470-471
fue liberado tras padecer más de ocho años de reclusión y tortura. Lo más reciente, de lo
que la comunidad científica mexicana no se repone aún, fue el injusto encarcelamiento, a
raíz de los acontecimientos de 1968, del notable filósofo e historiador Eli de Gortari. A
él, hoy excarcelado, se le ha perseguido no precisamente por su militancia política, sino
porque su trabajo científico, tratados de lógica, filosofía e historia de la ciencia se
enmarcan en el contexto del marxismo, vigorosa corriente del pensamiento
contemporáneo que los mandantes de nuestro país aún no alcanzan a digerir. Como estos
casos podrían citarse muchos, muchos otros.
Y no sólo la muerte imprevista, la persecución y la cárcel constituyen maneras de limitar
el ejercicio de la ciencia, esto sucede sólo en contados caos extremos. También hay
formas menos visibles públicamente de disuadir a los hombres de dedicarse a las tareas
de investigación científica. La marginación social y económica, la limitación de recursos,
la carencia de estímulos y, en no pocas ocasiones, la burla y el escarnio son también
instrumentos eficaces para inhibir el quehacer científico.
Hay que considerar, además, que para el real ejercicio de la ciencia es esencial una casi
absoluta libertad de pensamiento, es decir, el logro del conocimiento científico no puede
depender, ni puede constituirse, bajo la tutela de preceptos ajenos a la lógica del
desarrollo del conocimiento mismo. Pero esa libertad no es absoluta, como lo indica el
casi, ya que la ciencia no brota de la nada, pues es, ante todo, un producto históricosocial
y, por tanto, el hombre de ciencia para crear debe primero asimilar lo que sus
predecesores han realizado. En un sentido nada metafórico puede decirse que la ciencia
es producto de una mente colectiva.
Por esta razón, el saber científico es uno de los más nobles, sin menosprecio a otras
formas del saber y el vivir, logros del trabajo humano. En consecuencia, atentar contra
este saber, en las condiciones que sean y bajo la forma que sea, es agredir no sólo al
científico como individuo, sino mostrar una maligna disposición, por mala fe o
ignorancia, hacia el acervo de conocimientos que la humanidad ha acumulado a lo largo
de siglos de experiencia.
Por otro lado, hay que tener en cuenta la estrecha relación entre las condiciones concretas
de nuestro vivir (sistema productivo, relaciones económicas, organización políticosocial, educación, etc.) y la ciencia, ya que estos elementos influyen también en el
desarrollo y la orientación del trabajo científico. Pero no hay que caer en la ingenuidad
de creer que sólo mediante decretos, acuerdos y reglamentos se lograrían los objetivos
enunciados.
Actualmente, en nuestro país, preservar, difundir y acrecentar el conocimiento científico
es una tarea delicada; por eso resulta de suma gravedad constatar que el científico
mexicano se le mantiene marginado de los sistemas de planeación y desarrollo de la
ciencia. De un total aproximado de siete mil investigadores activos en todo el país, sólo
unos cuantos, menos de cien, se tienen en cuenta a la hora de elaborar planes para el
desarrollo de la ciencia y para instrumentar los programas de apoyo a la misma. Hay que
agregar que la mayoría de las personas que participa en el diseño de la política científica
está concentrada en el Distrito Federal, es decir, el científico en provincia sufre una doble
marginación. Así pues, se hace necesario trascender la demagogia y la palabrería, dar un
verdadero auxilio a la investigación científica y para ello, nada mejor que hacer
participar a los propios investigadores.
80
AÑOS
2487
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 213, 13 de octubre de 2003
No. acumulado de la serie: 472
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
El INEGI tiene un lugar para ti
CiberHábitat
Ciudad de la informática
www.ciberhabitat.gob.mx
Te invitamos a conocer tutoriales y
artículos sobre el uso, impacto y
trascendencia de la informática en
diferentes ámbitos del quehacer humano
Porque proporcionamos información
para todos ...
01 800 248 38 98
[email protected]
MÉXICO CUENTA CON EL INEGI
INEGI: www.inegi.gob.mx
El Hijo de El Cronopio No. 213/472
NOCIONES DE ESTADÍSTICA
Sección 3
Irma Georgina Gómez Vega
Isaac Campos Cantón
MEDIDAS DE LOCALIZACIÓN
INTRODUCCIÓN
En el estudio de las estadísticas hay solamente dos aspectos principales del muestreo que
interesan.
El primero es la localización de datos. ‘La localización de los datos’ se refiere al valor
típico de todas las observaciones del muestreo.
El segundo aspecto importante de los datos consiste en la dispersión de las
observaciones, o sea cómo quedan esparcidas las mismas.
A continuación, se tratarán cuatro medidas de localización en orden de importancia. La
media simple se usa rara vez y se incluye solamente con el fin de dar una exposición
completa. La moda tampoco es muy usada. La mediana y la media aritmética (o media)
se emplean constantemente. La media es la que más se usa, especialmente en el campo
de comprobación de hipótesis estadísticas.
LA MEDIA SIMPLE
La media simple es el valor intermedio entre la observación menor y la mayor.
LA MODA
La moda puede definirse como la observación en una muestra que ocurre con mayor
frecuencia. Si todas las observaciones se presentan en el mismo número de veces,
entonces no hay observación tipo (moda). Si dos o más ocurren el mismo número de
veces (y con mayor frecuencia que las demás observaciones) entonces existe más de una
moda y la muestra se puede considerar como polimodal. Si solamente hay una moda, la
muestra es unimodal.
LA MEDIANA
Si las observaciones en la muestra están dispuestas en orden creciente de menor a
mayor, la mediana puede definirse como la observación central si el número de las
observaciones es non, y como el valor intermedio entre las dos observaciones centrales si
el número de observaciones es par.
MEDIA ARITMÉTICA (MEDIA)
La medida de localización usada con mayor frecuencia es la media aritmética, que se
conoce simplemente como la media. Su definición es sencilla:
Generalmente, el número de las observaciones se designa por n. Asimismo, la primera
observación (no de acuerdo con su tamaño o magnitud, sino simplemente según el orden
80
AÑOS
2489
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
en el que están escritas) se designa como x 1 , la segunda como x 2 , la tercera como x 3 , y
así sucesivamente hasta x n . La media de la muestra se define como x . Por lo tanto, la
definición dada anteriormente puede escribirse como sigue:
x=
x1 + x2 + x 3 + L + x n
n
Teniendo en cuenta que se tiene una tabla (analisis.txt) de observaciones, (una matriz de
50 x 16)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
80
AÑOS
0.31
0.345
0.293
0.254
0.384
0.406
0.344
0.321
0.425
0.385
0.317
0.3 53
0.413
0.392
0.312
0.342
0.293
0.317
0.333
0.317
0.427
0.266
0.311
0.284
0.259
0.317
0.263
0.336
0.267
0.271
0.264
0.357
0.259
0.221
0.333
0.359
0.314
0.295
0.296
0.308
0.327
0.303
0.297
0.244
0.282
0.285
0.299
0.28
0.268
0.362
179.6
175.6
166.2
173.8
184.8
189.1
191.5
180.2
183.8
163.1
169.6
171.6
180
174.6
181.8
167.4
173
179.8
176.8
179.3
193.5
178.8
179.6
172.6
171.5
168.9
183.1
163.6
184.3
181
180.2
184.1
178.9
170
180.6
179
186.6
181.4
176.5
174
178.2
177.1
180
176.8
176.3
192.4
175.2
175.9
174.6
179
74.2
62.04
72.96
85.92
65.88
102.3
84.04
68.34
95.14
54.28
75.92
71.7
80.68
70.4
91.4
65.74
79.28
92.06
87.96
77.66
98.44
65.42
97.14
81.72
69.6
63.66
87.24
64.86
84.68
73.78
75.84
70.48
86.9
76.68
77.32
79.9
100.4
91.66
79
69.1
87.78
70.18
67.66
86.12
65
99.14
75.7
78.62
64.88
71
41.7
37.5
39.4
41.2
39.8
43.3
42.8
41.6
42.3
37.2
39.4
39.1
40.8
39.8
40.6
39.7
41.2
40
41.2
41.4
41.6
39.3
43.8
40.9
40.4
39.8
43.2
37.5
40.3
42.8
41.4
42
42.5
39.7
42.1
40.8
42.5
41.9
40.7
40.9
42.9
39.4
40.9
41.3
39
43.7
39.4
43.4
42.3
41.2
27.3
29.1
26.8
27.6
26.1
30.1
28.4
27.3
30.1
24.2
27.2
27
28.3
25.9
29.5
26.4
26.9
29.8
28.4
31.6
29.2
27.1
30.1
27.3
27.8
26.7
28.3
26.6
29
29.7
28.7
28.9
28.7
27.7
27.3
28.2
31.5
28.9
29.1
27
27.2
27.6
28.7
28.2
26
28.7
27.3
29.3
29.2
27.3
82.4
84.1
88.1
97.6
88.2
101.2
91
90.4
100.2
80.5
92
86.2
87.4
83.9
95.1
86
96.1
100.9
100.8
90.1
95.7
83
100.8
91.5
87.7
83.9
95.7
84
93.2
90.3
88.1
81.3
95
93.6
89.5
90.3
100.3
96.6
86.5
88.1
100.3
85.5
86.1
92.7
83.3
96.1
90.8
90.7
82.6
85.6
19
5.5
22
19.5
14.5
22
18
5.5
13.5
7
16.5
25.5
17.5
16.5
32
13
11.5
15
20.5
9.5
21
16.5
22
22
15.5
6
11
15.5
8.5
8.5
13.5
14
16
15
16
26.5
27
25.5
20.5
18
16.5
16
15
12.5
7
20.5
19
18
3.5
16
64
88
100
64
80
60
64
74
80
84
65
68
73
104
92
80
72
60
76
58
54
88
100
74
70
68
88
64
64
56
76
84
54
50
88
80
62
68
60
92
72
72
76
76
88
64
56
64
72
68
2490
64
78
88
62
68
68
48
64
78
78
78
72
88
78
88
86
68
78
90
86
74
72
74
76
72
70
74
64
76
88
76
72
68
72
72
80
76
78
66
74
72
74
76
68
72
68
76
72
80
90
2
20
7
4
9
4
1
14
4
13
6
0
4
6
1
6
6
0
1
15
0
7
3
4
10
7
7
6
2
11
9
5
12
4
11
3
2
2
5
5
4
14
5
7
12
4
7
7
11
5
158
166
167
220
210
188
272
193
199
157
180
193
218
190
206
181
184
205
228
198
254
206
194
201
175
179
245
146
213
181
192
231
186
178
200
201
208
211
210
161
189
201
177
181
167
174
174
170
199
150
108
108
116
120
120
91
110
117
105
113
110
105
109
129
139
120
111
92
147
98
110
124
124
113
110
119
115
115
109
109
144
123
118
108
119
124
120
125
117
140
115
110
110
110
127
105
111
117
113
108
5.5
5.5
5.5
5.5
5.5
6
6
5.5
5.5
6
5
5.5
5
5
5
5.5
5.5
5
4
5.5
5.5
5.5
5
5.5
5.5
5.5
5.5
5
5.5
6
5.5
5.5
6
5.5
5.5
5.5
5.5
6
5.5
5
5.5
6
5.5
5.5
5.5
6
5.5
5.5
6
5.5
4
4
4
4
5
4
3
4
4
4
5
4
4.2
4
3.5
4
3.9
4
3.5
4.1
3.8
4
4
5.1
3
5
4
4.4
5
5
3.6
4.5
4
4.5
4.6
3.7
4.1
3
4.2
5.5
3.5
4.8
4.5
4
5
4
4.5
3.7
4.5
5
11.91
3.13
16.89
19.59
7.74
30.42
13.7
3.04
20.26
3.04
12.83
15.95
11.86
9.93
32.63
6.64
11.57
24.21
22.39
6.29
23.63
10.53
20.62
18.39
11.14
5.16
9.6
11.93
8.55
4.94
10.62
8.46
13.47
12.81
13.34
24.57
28.35
26.12
15.21
12.51
20.5
10.67
10.76
14.55
5.27
17.94
12.64
10.81
2.01
10
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
Con estos datos podremos calcular las variables mencionadas:
Para calcular la media en el programa antes mencionado, queda de la siguiente manera:
Se escribe:
» load ('analisis.txt');
» mean (analisis)
Y en seguida muestra los resultados
ans =
Columns 1 through 7
25.5000 0.3162 177.9060 78.3544 40.9520 28.1060 90.6200
Columns 8 through 14
16.1300 73.0800 74.6000 6.2800 193.3400 115.6000 5.4800
Columns 15 through 16
4.1740 13.7824
Para calcular la mediana; igual que en la función anterior, pero cambiando el término
mean (media) por median (mediana):
» load ('analisis.txt');
» median (analisis)
e inmediatamente se muestran los resultados
ans =
Columns 1 through 7
25.5000 0.3115 178.8500 77.0000 41.0500 28.2000 90.3000
Columns 8 through 14
16.0000 72.0000 74.0000 5.5000 192.5000 114.0000 5.5000
Columns 15 through 16
4.0000 12.2200
Se puede notar que es mucho más sencillo obtener estos cálculos empleando este
programa.
Noticias de la Ciencia y la Tecnología
La Cassini confirma la teoría de la relatividad
La sonda Cassini, actualmente en ruta hacia Saturno, participó en un experimento llevado a cabo por un
grupo de científicos italianos del cual se han dado a conocer ahora los resultados. La nave ha ayudado a
confirmar la teoría general de la relatividad con una precisión 50 veces mayor que cualquier medición
anterior.
El experimento se realizó en el verano de 2002, cuando la sonda y la Tierra se encontraban en lados
opuestos del Sol, separados por una distancia de más de 1.000 millones de kilómetros. Los investigadores
observaron el cambio de frecuencia de las ondas de radio que procedían de la Cassini mientras éstas
pasaban cerca de nuestra estrella. También midieron el tiempo de viaje de una señal desde que fue enviada
80
AÑOS
2491
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
por las estaciones de seguimiento hasta la sonda y desde ésta de nuevo hasta la Tierra. Dichas señales
avanzan a la velocidad de la luz.
Con estos datos, los científicos midieron con una enorme precisión cómo la gravedad solar puede llegar a
desviar un rayo electromagnético, en este caso una señal de radio. Según la teoría general de la relatividad
de Einstein, un objeto masivo como el Sol hace que el espacio-tiempo se curve en sus cercanías, por lo que
la luz o las ondas de radio que pasen cerca de él tendrán que viajar durante más tiempo debido a la
curvatura. La distancia extra que las señales tuvieron que recorrer procedentes de la Cassini, retrasó su
llegada. La cantidad de retraso proporciona una prueba sensible de las predicciones de la teoría de Einstein.
En ocasiones se esperan pequeñas desviaciones respecto a las predicciones de los modelos cosmológicos,
pero una vez más la teoría de la relatividad einsteniana demostró sus buenos fundamentos: los científicos
no encontraron ninguna desviación. La cuestión ahora ya no es si esta teoría es verdadera o falsa, sino a
partir de qué nivel de precisión deja de describir la gravedad de una forma realista. Anteriores pruebas
habían confirmado la predicción de Einstein con una precisión de una parte por cada mil. El experimento
de la Cassini la ha confirmado con una precisión de veinte partes por millón.
En condiciones normales, esta precisión no hubiera podido ser alcanzada debido al “ruido” introducido por
la corona solar. Sin embargo, la tecnología actual ha podido superar este obstáculo, dotando al sistema de
comunicaciones de la nave con múltiples enlaces a diferentes frecuencias. Esto ha permitido eliminar los
efectos del plasma solar e interplanetario en los resultados. También se redujo el ruido de la atmósfera
terrestre gracias a la instalación de equipos especiales en la antena de Goldstone de 34 metros utilizada
para el experimento.
La Cassini sigue su ruta hacia Saturno (llegará a él el 1 de julio de 2004), participando en éste y otros
experimentos, como la búsqueda de ondas gravitatorias de baja frecuencia.
Información adicional en: http://saturn.jpl.nasa.gov/news/press-releases-03/20031002-pr-a.cfm
Observando la fotosíntesis
Investigadores de la Purdue University han obtenido una imagen completa a escala molecular de cómo las
plantas convierten la luz solar en energía química. El trabajo podría aportar también nuevos conocimientos
sobre el metabolismo animal.
Los biólogos de Purdue han utilizado técnicas avanzadas de observación para determinar la estructura del
citocromo, un complejo proteico que gobierna la fotosíntesis en una bacteria verde-azul. La información no
tiene una aplicación industrial inmediata, pero sí que aporta pistas sobre un proceso químico fundamental
para toda la vida del planeta, además de hablarnos sobre cómo las células manipulan y distribuyen la
energía.
Según William Cramer, profesor en Purdue, hasta ahora sólo veíamos la punta del iceberg. A partir de este
momento ya podemos percibir el mecanismo completo de la fotosíntesis. Antes de que se descubriera
cómo cristalizar el citocromo, se poseía una idea general del proceso fotosintético, pero sólo una mínima
fracción de la información que ahora se tiene.
Junto a Cramer han participado Genji Kurisu, de la universidad japonesa de Osaka, y Huamin Zhang,
también de Purdue. En su trabajo han ofrecido una visión de los movimientos complejos de electrones y
protones a través de la membrana celular de la bacteria estudiada.
En este sentido, las membranas celulares de las plantas son como los dos polos de una batería. Son
positivas en el interior y negativas en el exterior, y se cargan cuando la energía solar excita los electrones
del hidrógeno que hay dentro de la célula. Los electrones viajan hacia la membrana a través de proteínas
que los conducen como si fueran cables eléctricos. Dado su alto nivel de energía, los electrones quieren
retroceder, liberando la energía que las plantas recogen para mantenerse vivas. Esta visión general del
mecanismo fotosintético era conocida desde hace décadas, pero no el movimiento complejo de los
electrones y protones en la membrana.
La célula que proporcionó las proteínas para el trabajo de los científicos era una cianobacteria, una
“planta” termófila unicelular que se encuentra habitualmente en géiseres de agua caliente.
Los animales no emplean la fotosíntesis, pero sus células usan proteínas similares para la respiración. Estas
similitudes podrían ayudarnos a entender nuestros propios procesos metabólicos.
Información adicional en: http://news.uns.purdue.edu/UNS/html4ever/031002.Cramer.photo.html
80
AÑOS
2492
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
Lagos de hidrocarburos en Titán
Gracias al mayor radiotelescopio del mundo, el observatorio de Arecibo, astrónomos de la Cornell
University han detectado evidencias de la presencia de lagos de hidrocarburos líquidos en la superficie de
Titán, la mayor luna de Saturno.
Los científicos han utilizado la antena de Arecibo para enviar señales de radar que permitan atravesar la
densa atmósfera que rodea al satélite. Según estas observaciones, se han detectado destellos especulares
con propiedades similares a las que tendría una superficie cubierta con lagos líquidos de hidrocarburos.
El astrónomo Donald Campbell advierte que no se descarta otra explicación para el fenómeno, como
reflexiones en superficies sólidas muy pulidas, pero apuesta por la presencia de los lagos.
El radiotelescopio de Arecibo, de 305 metros de diámetro, fue actualizado en 1997 con un sistema de radar
de sensibilidad muy mejorada. Durante más de dos décadas, los astrónomos habían especulado con que la
interacción de la radiación ultravioleta del Sol con el metano de la atmósfera superior de Titán podría estar
produciendo lluvias de hidrocarburos líquidos y sólidos sobre la frígida superficie de la luna (-179 grados
Celsius). Para comprobarlo, y teniendo en cuenta que las señales de radar arrancarían destellos de las
superficies líquidas de una manera similar a como lo hace la luz del Sol sobre el océano, Campbell y sus
colegas prepararon un programa de observaciones.
Los astrónomos piensan que la superficie física del satélite está cubierta en general por hielo de agua. Sin
embargo, la compleja química que se desarrolla en la atmósfera superior podría permitir que esta superficie
se cubra, al menos parcialmente, con etano líquido y metano y otros hidrocarburos sólidos.
Titán es aproximadamente un 50 por ciento mayor que nuestra Luna. Además, es el único satélite del
Sis tema Solar que posee una atmósfera. Es muy densa, pero transparente a las ondas de radio y radar, y
parcialmente transparente a las longitudes de onda del infrarrojo cercano. En cambio, es opaca a la luz
visible, por lo que no sabemos qué aspecto natural tiene su superficie.
Las observaciones con el radar de Arecibo se efectuaron en noviembre y diciembre de 2001 y también en
los mismos meses de 2002. Las señales de radar, funcionando en la frecuencia de los 2.380 MHz, tardan
2,25 horas en ir y volver. Se utiliza una potencia de transmisión de casi 1 megavatio. Para la recepción de
los ecos, muy débiles, se empleó el propio Arecibo y el radiotelescopio de 100 metros de diámetro Robert
C. Byrd Green Bank Telescope.
Toda esta información es interesante porque la sonda Cassini llegará a Saturno el próximo verano. Tras
unos meses en órbita, lanzará una subsonda europea llamada Huygens que penetrará en la atmósfera de
Titán para analizarla. Es muy posible que pueda aterrizar y funcionar durante un tiempo en la superficie.
Información adicional en: http://www.news.cornell.edu/releases/Oct03/Titan.Campbell.bpf.html
Pistas para una nueva teoría de la extinción de los dinosaurios
Gerta Keller, una paleontóloga de la Princeton University, ha obtenido nuevas evidencias que permiten
suponer que la historia de la desaparición de los dinosaurios es más complicada de lo que parece a simple
vista.
Keller y otros científicos creen que no podemos darle la culpa a un único suceso cósmico, en este caso el
impacto de un gran asteroide, hace 65 millones de años, para justificar la extinción de los dinosaurios y
muchas otras especies vivas, sino que la respuesta debe encontrarse en una secuencia más compleja, como
un intenso periodo de erupciones volcánicas y una serie de impactos de asteroides más o menos grandes
que habrían llevado al ecosistema mundial al borde del colapso.
Muy probablemente, un asteroide o cometa chocó contra la Tierra en el momento de la desaparición de los
dinosaurios, pero también es muy posible que fuera la gota que colmara el vaso, y no la única causa.
Keller también opina que ese impacto definitivo no es el que la mayoría de científicos creen. Durante más
de una década, la teoría predominante se ha centrado en un cráter de impacto situado en la península del
Yucatán, México, el llamado cráter de Chicxulub. Pero Keller ha acumulado evidencias que sugieren que
la aparición de este cráter no coincidiría exactamente con el supuesto momento del paso del Cretácico al
Terciario (el de la desaparición de los dinosaurios, también llamado frontera K/T), sino que, además de ser
un cráter más pequeño de lo que se creía, habría ocurrido 300.000 años antes de la extinción masiva. Es
posible que el impacto definitivo chocara en otro lugar y aún no ha sido descubierto.
Sus opiniones no han hecho a Keller precisamente popular en las reuniones de científicos, ya que circulan
contracorriente. Revivir la teoría del vulcanismo, que era la predominante antes de que se fomentara la del
80
AÑOS
2493
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
impacto, podría influir en la forma que tienen los investigadores de pensar en los muchos episodios de
calentamiento por efecto invernadero por los que ha pasado nuestro planeta en el pasado, ya que la mayoría
fueron causados por erupciones volcánicas.
Además, si se reducen las estimaciones sobre el daño que puede causar un solo asteroide, podrían variarse
la estrategia actual de seguimiento y catalogación de objetos que podrían impactar contra nosotros en el
futuro, y el desarrollo de técnicas de desviación o destrucción de tales cuerpos.
Keller ha obtenido sus pruebas estudiando organismos unicelulares llamados foraminíferos, que habitaban
los océanos y evolucionaron rápidamente a través de los períodos geológicos. Algunas especies existen
sólo durante un par de cientos de miles de años antes de ser reemplazadas por otras, de manera que los
fósiles de estas especies de tan corta vida constituyen una magnífica senda cronológica alrededor de la cual
se pueden datar muchas estructuras geológicas.
En sus viajes a México y otras partes del mundo, Keller ha vis to que ciertas poblaciones de foraminíferos
anteriores al borde K/T (la extinción) vivieron sobre la capa de rocas fundidas que llovieron debido al
impacto del asteroide, de manera que sus fósiles demuestran que este último se habría producido 300.000
años antes de la extinción masiva.
Sus estudios sobre el cráter Chicxulub, además, sugieren que tiene sólo 120 km de diámetro, y no 180 a
300 km, como se estimaba hasta ahora. Tanto Keller como sus colegas están ahora estudiando los efectos
de erupciones volcánicas muy poderosas que habrían empezado más de medio millón de años antes de la
frontera K/T, y que causaron un período de calentamiento global. Los resultados indican que es difícil
distinguir entre los efectos producidos por este vulcanismo sobre las especies vivas, y los ocasionados por
los impactos. Información adicional en: http://www.princeton.edu/pr/pwb/03/0922/
Rescatando las selvas tropicales
Si el idealismo en solitario no puede salvar la menguante cubierta selvática de la Tierra, los ecologistas y
científicos deberán pensar en otra cosa. Una pareja de biólogos cree haber hallado una posible solución,
apoyándose en un estudio realizado recientemente en Panamá.
El citado estudio ha durado cinco años y ha costado 3 millones de dólares. La principal conclusión del
trabajo es que las selvas pueden ser protegidas si la industria farmacéutica establece laboratorios en el
Tercer Mundo, contratando a investigadores locales para que busquen nuevas medicinas extraídas de las
plantas. Estas plantas evolucionaron produciendo defensas para luchar contra los insectos, y las sustancias
implicadas pueden ahora sernos muy útiles.
Hasta este momento, explica Tom Kursar, de la University of Utah, los esfuerzos para encontrar fármacos
en las selvas no han conseguido propiciar su conservación, porque nadie ha enfatizado esta necesaria
conexión. Los países en vías de desarrollo conservarán sus selvas si industrias como la bioprospección o el
ecoturismo proporcionan más beneficios económicos que su destrucción, debido a la explotación maderera
o a la conversión del suelo con objetivos agrícolas. El problema es que sólo una pequeña fracción de los
extractos de plantas, por ejemplo, llegan a ser aplicados como fármacos, y a menudo ello sólo produce
beneficios después de muchos años.
La solución a esto radica en buscar una manera de proporcionar beneficios inmediatos y garantizados. En
la actualidad, las inversiones mundiales en la investigación y desarrollo de fármacos, anualmente, alcanzan
cifras de 27.000 a 43.000 millones de dólares. Kursar y su esposa Phyllis Coley creen que un tercio de
estas investigaciones podrían realizarse en los países en vías de desarrollo, incluyendo la extracción de
sustancias de las plantas de la selva, la producción sintética de tales sustancias para su uso en medicinas,
las pruebas de laboratorio sobre su actividad para combatir las enfermedades, y los propios ensayos en
animales.
Si buena parte de estas inversiones se efectuara en el propio país de origen de las plantas, las naciones ricas
en biodiversidad tendrían un beneficio inmediato y un motivo claro para proteger a sus bosques.
Para demostrar esta teoría, se organizó un proyecto piloto en Panamá, el cual ha sido todo un éxito.
Durante los últimos 5 años, se establecieron seis laboratorios en el país, y se emplearon 10 científicos, 57
asistentes de investigación y 12 estudiantes voluntarios, todos ellos panameños. Gracias a su trabajo, ya se
han obtenido las primeras patentes de sustancias alcaloides extraídas de plantas locales.
Coley enfatiza que de este modo se desarrolla el país anfitrión y se crean empleos. El próximo paso es que
el gobierno implicado se dé cuenta de que estos empleos dependen de que se mantenga a la selva intacta.
Las grandes compañías farmacéuticas, que ya colaboran con científicos y firmas biotecnológicas pequeñas
del Tercer Mundo, probablemente reducirían sus costes si establecieran sus laboratorios en estas zonas.
80
AÑOS
2494
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
Ello también evitaría la llamada “biopiratería”, como cuando una compañía farmacéutica gana 200
millones de dólares comercializando una droga contra el cáncer que ha sido desarrollada a partir de una
planta única en Madagascar, sin que su país de origen reciba nada a cambio.
Información adicional en: http://www.utah.edu/unews/releases/03/sep/medplant.html
Manipular lo nanoscópico ya no es tan difícil
Ensamblar una máquina parece sencillo, pero ¿qué ocurre cuando sus componentes son nanoscópicos?
También parece fácil unir los extremos de dos cables, pero cuando éstos poseen un diámetro muchas veces
inferior al de un cabello humano, como ocurre con la fibra óptica, el procedimiento se convierte en todo un
reto. Los ingenieros buscan herramientas para hacerlo posible.
Aunque ya existen dispositivos en el mercado que lo intentan, son caros y tienen muchas limitaciones.
Utilizando un nuevo diseño, un equipo del MIT (Massachusetts Institute of Technology) ha inventado el
llamado HexFlex Nanomanipulator, que no sólo es económico sino que además tiene un rendimiento
superior a sus competidores en muchas áreas.
El HexFlex ha sido desarrollado por un grupo de ingenieros encabezado por Martin Culpepper. No costará
más de 3.000 dólares y es comparativamente pequeño. Su componente principal es una “estrella” de
aluminio plana de seis puntas. Tres de ellas están montadas en una base de aluminio, y el resto son en
realidad una especie de lengüetas que pueden ser movidas en seis direcciones diferentes gracias a un
sistema magnético. El nombre del dispositivo refleja su capacidad de moverse en seis ejes y su flexibilidad
estructural.
Manipulando las lengüetas se mueve la posición del “escenario” en el centro del aparato. Por ejemplo,
presionando hacia abajo las tres lengüetas se consigue que la plataforma se eleve. El dispositivo a
manipular, ya sea el extremo de un cable de fibra óptica o parte de una nanomáquina, se encuentra
descansando en la citada plataforma.
Los movimientos son muy suaves, y pueden hacerse en incrementos de sólo 3 nanómetros. Además, el
HexFlex es 300 veces mejor en cuanto a estabilidad térmica, lo que permite una precisión muy superior.
El mismo grupo está desarrollando ahora el MicroHexFlex, de tan sólo un milímetro de diámetro, el cual
ha sido diseñado para reducir la pérdida energética en los sistemas de fibra óptica, gracias a que
proporciona una mejor alineación entre componentes. Esto es importante porque, en el futuro, una gran
cantidad de la energía consumida en nuestro planeta será utilizada en sistemas de comunicaciones.
Información adicional en: http://web.mit.edu/newsoffice/nr/2003/hexflex.html
Nuevo tipo de cristal
Desarrollado gracias a la ayuda de un dispositivo de levitación único, los científicos de la empresa
Containerless Research Inc. han obtenido un nuevo tipo de cristal que estará disponible para numerosas
aplicaciones comerciales, incluyendo láseres y comunicaciones ópticas.
El doctor Richard Weber, director de la Glass Products Division de dicha empresa, afirma que el nuevo
cristal surgió de las investigaciones realizadas con el dispositivo llamado Electrostatic Levitator, un
sistema propiedad de la NASA donde se permite que esferas fundidas de material floten sin entrar en
contacto con las paredes del contenedor (evitando así que se contaminen). Este levitador puede ensayar
técnicas de obtención de otros materiales que después pueden aplicarse en los experimentos realizados a
bordo, por ejemplo, de la estación espacial internacional, en un ambiente de microgravedad.
El cristal se llama REAl Glass, acrónimo que da pistas sobre su composición (óxidos de tierras raras, óxido
de aluminio y pequeñas cantidades de dióxido de silicio). Sus cualidades son especialmente interesantes
para aplicaciones ópticas muy exigentes.
Uno de sus usos más prometedores se halla en los láseres. Tanto si se trata de un láser potente para cortar
metal como si consideramos un láser médico para intervenciones quirúrgicas, su “corazón” es el medio que
amplifica la luz. Y aquí es donde el REAl Glass puede utilizarse con ventaja respecto a otros cristales. La
mayoría de láseres quirúrgicos utilizan actualmente carísimos cristales individuales, que limitan el rango
utilizable de longitudes de onda a una banda muy estrecha. Con el REAl Glass, en cambio, podremos
ajustar sus propiedades y ampliar las longitudes de onda utilizables, aportando así un mayor control en las
operaciones que se deban llevar a cabo.
80
AÑOS
2495
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
REAl Glass también podrá usarse como medio para los dispositivos de comunicaciones ópticas de la
próxima generación, que deberán ser pequeños, de bajo coste y lo bastante potentes como para
proporcionar conexiones de fibra óptica domésticas, aptas para suministrar Internet de banda ancha.
Información adicional en: http://www1.msfc.nasa.gov/NEWSROOM/news/releases/2003/03-177.html
Oasis oceánicos para los pingüinos
Los investigadores han estudiado la biología de los puntos calientes situados en la costa de la Antártida,
lugares donde la vida se desarrolla más fácilmente y donde se establecen grandes colonias de animales,
como los pingüinos.
Tales oasis biológicos son aguas abiertas al océano, zonas en las que el plankton, en plena expansión, es
capaz de soportar la cadena alimenticia local. Durante las investigaciones, los expertos hallaron una fuerte
asociación entre el bienestar de algunas poblaciones de pingüinos (Adelie) y la productividad del plankton
en estas zonas , llamadas “polynyas”. Estas últimas son áreas relativamente libres de hielo, en puntos donde
se esperaría que lo hubiese. Se crean habitualmente debido a los fuertes vientos, que arrastran la cubierta
de hielo de la costa, dejando áreas abiertas, o a consecuencia de la aparición de aberturas en la superficie
oceánica, cuando el hielo flotante queda bloqueado por algún impedimento.
Las aguas antárticas son ricas en nutrientes. La falta de hielo, combinada con aguas costeras poco
profundas, deja listo un escenario donde las capas superiores reciben más luz solar, condiciones ideales
para que en las polynyas el plankton florezca.
El hielo alrededor de las polynyas es delgado a principios de la primavera, cuando empieza el largo día
austral, de modo que son las primeras áreas en recibir una fuerte iluminación solar. Las aguas abiertas
retienen más calor, adelgazando aún más la capa de hielo y llevando a un florecimiento temprano, intenso
pero corto, del plankton. Esto permite alimentar a pequeños animales llamados krill, que a su vez sirven de
alimento para los pingüinos Adelie, focas, aves marinas, ballenas y otros animales.
A pesar de su relativamente pequeña área, las polynyas costeras juegan un papel desproporcionadamente
importante en muchos procesos físicos y biológicos en las regiones polares. En la Antártida oriental, por
ejemplo, más del 90 por ciento de las colonias de pingüinos Adelie viven cerca de ellas. Por eso, la
productividad de las polynyas determina en gran medida el aumento o descenso de las poblaciones de
pingüinos.
Es la primera vez que los científicos han observado de forma concienzuda la biología de las polynyas,
explica Kevin Arrigo, de la Stanford University. El estudio utilizó datos enviados por satélites para estimar
los cambios interanuales en las polynyas, incluyendo dimensiones, abundancia de fitoplankton, etc. El área
polynya más grande analizada se halla en el mar de Ross, y tiene 396.500 kilómetros cuadrados. La más
pequeña tiene 1.040 kilómetros cuadrados y está en el mar occidental de Lazarev. Para obtener los datos se
han usado diversos sensores, como el Wide Field-of-view Sensor (SeaWiFS) y el Advanced Very High
Resolution Radiometer (AVHRR).
Información adicional en: http://www.gsfc.nasa.gov/topstory/2003/0930penguins.html
Automóviles más limpios
Gracias a la labor de varios investigadores del MIT, los ingenieros podrán desarrollar catalizadores más
avanzados, capaces de eliminar una buena parte de las emisiones venenosas procedentes de los motores de
los vehículos. En la actualidad, sustancias como el azufre reducen la efectividad de los catalizadores, y los
científicos han intentado averiguar por qué.
Dado que sería difícil y caro producir combustible sin azufre, la industria requerirá el desarrollo de
catalizadores que puedan resistir el ataque de esta sustancia, explica Bernhardt Trout, investigador
principal en este proyecto en el Masachussetts Institute of Technology.
Su trabajo está enfocado hacia un conversor catalítico muy prometedor, dotado de dos componentes: un
catalizador de platino que convierte el monóxido de carbono y los hidrocarburos del escape en dióxido de
carbono y agua, y una “trampa” de óxido de bario que captura los óxidos de nitrógeno. De este modo, el
conversor controla las emisiones que pueden dañar la salud humana y contribuir a la formación de lluvia
ácida y “smog”.
80
AÑOS
2496
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
El problema es que con una presencia excesiva de oxígeno, el dióxido de azufre de los gases de escape
reacciona en el catalizador de platino, formando trióxido de azufre. Este último recubre entonces la trampa
de óxido de bario, la cual no puede desempeñar su trabajo.
El objetivo del grupo de Trout consiste en detener las reacciones que convierten el dióxido de azufre en
trióxido de azufre, sin interferir en las reacciones que sí eliminan el monóxido de carbono y los
hidrocarburos. Pero esto es difícil, pues todas estas reacciones implican el mismo proceso, la adición de un
átomo de oxígeno a una molécula existente.
Utilizando los métodos experimentales actuales (prueba y error), alcanzar una “oxidación selectiva” sería
casi imposible. Por eso, los investigadores del MIT han utilizado cálculos de mecánica cuántica que les
están permitiendo determinar a un nivel atómico el proceso reactivo por el cual se forma el trióxido de
azufre. Calcular el comportamiento de todos los electrones durante las reacciones de interés es un
procedimiento muy intensivo desde el punto de vista informático, por lo que se han tenido que emplear
supercomputadores.
Gracias a estos cálculos, Trout y sus colaboradores esperan realizar simulaciones a mayor escala que
puedan predecir cómo se moverán, interactuarán y reaccionarán los átomos de azufre y oxígeno, formando
nuevas moléculas bajo condiciones realistas. La información ayudará a los experimentalistas a entender el
proceso y a encontrar modos de evitar la formación del trióxido de azufre.
Información adicional en: http://web.mit.edu/newsoffice/tt/2003/sep24/sulfur.html
La Niña actúa en los andes bolivianos
Los científicos que han estudiado los ríos Beni y Mamoré, cursos fluyendo desde los Andes bolivianos
hacia el río Madeira, han medido las concentraciones de diversas sustancias en el sedimento, y han hallado
que el fenómeno meteorológico llamado La Niña tiene un papel muy importante en la región.
Las lluvias estacionales anuales suelen arrastrar miles de millones de toneladas de roca y tierra procedentes
de los Andes, lo que deposita gran cantidad de sedimentos en las zonas bajas. Sin embargo, nuevas
evidencias sugieren que sólo una vez cada ocho años, cuando el fenómeno ecuatorial La Niña se halla en
su apogeo, las aguas crecen lo bastante rápido como para mover grandes cantidades de ese sedimento hasta
las llanuras de inundación.
Rolf Aalto, un geólogo de la University of Washington, ha utilizado un dispositivo en forma de tubo para
extraer muestras de los depósitos de sedimento a lo largo de las zonas inundables del norte de Bolivia,
algunas de ellas densamente arboladas y remotas. En estas muestras, mide la actividad del plomo -219, un
isótopo radiactivo producido por la desintegración del radón, una sustancia que se produce de forma
natural. El isótopo se deposita gracias al sedimento fresco traído por los ríos y por la lluvia, y puede ser
utilizado para datar sucesivas capas de sedimento, incluso tras haber transcurrido 100 años.
Las anomalías halladas en el río Beni, no obstante, picaron la curiosidad de Aalto. Podía verse mucho
plomo -210 en la superficie, seguido de un prolongado descenso de su actividad hasta un nivel sin cambios,
para aparecer después otra fase de gran disminución. Los científicos, en cambio, esperaban hallar una gran
multitud de finas capas y una actividad del plomo -210 declinando de forma gradual.
La razón es la presencia de algunas capas de sedimento gruesas, a intervalos determinados. Estas capas
fueron depositadas al mismo tiempo que el fenómeno La Niña se hallaba en su punto álgido en el océano
Pacífico (la fase fría de El Niño, el otro fenómeno meteorológico más conocido en esta zona).
Cuando las intensas lluvias de La Niña golpean a los Andes, grandes inundaciones arrastran enormes
cantidades de sedimento de las montañas. Los riachuelos crecen muy rápidamente y pueden crear grietas
en la ribera de los ríos. Los sedimentos tendrán entonces la oportunidad de ser llevados más lejos. En
general, La Niña gobierna, en episodios sucesivos, el movimiento y deposición de los sedimentos a través
del sistema fluvial. Información adicional en:
http://www.washington.edu/newsroom/news/2003archive/10-03archive/k100103a.html
Breves del Mundo de la Ciencia
FIBRA DE VIDRIO INOCENTE: Los aislantes de fibra de vidrio son fuertes y seguros. Pero para hacerlos
aún más fuertes se utiliza óxido de aluminio, que incrementa el riesgo de que causen cáncer de pulmón al
80
AÑOS
2497
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
ser inhalados. Sin embargo, un tipo particular de fibra de vidrio reforzada con óxido de aluminio no
persiste en los pulmones y los científicos ya saben por qué.
LA INVENTORA DEL KEVLAR ENTRA EN EL “HALL OF FAME”: La investigadora de DuPont
Stéphanie Kwolek, responsable de salvar la vida de cerca de 3.000 agentes del orden gracias a las
investigaciones que la llevaron a desarrollar la fibra aramida Kevlar, entró a formar parte del Hall of Fame
de mujeres el 4 de octubre.
SE QUIEN ESCRIBE: Investigadores del Technion-Israel Institute of Technology han des arrollado un
software que es capaz de identificar a los usuarios de un ordenador, con gran fiabilidad, por sus distintos
estilos de pulsación en el teclado.
SONIDOS DE UN AGUJERO NEGRO: Ondas sonoras 57 octavas más bajas que un Do-medio retumban
desde un agujero negro súper masivo, en el cúmulo de Perseo.
NEURONAS RESCATADAS: La vida o muerte de las neuronas motoras de pacientes que sufren de
esclerosis lateral amiotrófica (ELA) puede deberse a un grupo no tenido en cuenta de células de sostén que
ayuda a guiar, alimentar y eliminar toxinas de las neuronas.
CONGRESO CAJAL: Se celebró hasta el 3 de octubre el Congreso Cajal, que conmemora el 150
Aniversario del nacimiento de don Santiago Ramón y Cajal, insigne científico español.
NUEVOS TELESCOPIOS EN EL IAC: El 10 de octubre, en la isla de La Palma, se inauguraron los
telescopios MAGIC y MERCATOR, nuevos telescopios de alta tecnología que se encuentran instalados en
el Observatorio del Roque de los Muchachos, uno de los mejores del mundo.
BUSCANDO ERUPCIONES VOLCÁNICAS EN LA NIEVE ANTÁRTICA: Drew Budner y Jihong
Cole-Dai, químicos de la South Dakota State University, están examinando la composición química de
muestras de hielo traídas desde la Antártida para investigar erupciones volcánicas producidas durante los
últimos 1.500 años.
LUZ GUIA: Un nuevo tipo de lámina de vidrio que contiene gotas de cristal líquido puede guiar y
controlar haces de luz.
La Ciencia desde el Macuiltépetl
Ciencia, tecnología y sociedad
Por Manuel Martínez Morales
CARNICEROS PLATÓNICOS
Posiblemente por el desagrado que le causa comerciar con cadáveres animales, el
carnicero del barrio es un consumado practicante del platonismo, en verdad más
ferviente que cierto profesor de filosofía que conozco. Nuestro carnicero está
absolutamente convencido de que el mundo real de chuletas y bisteces no es más que el
pálido reflejo del mundo ideal en el que existen los arquetipos de las unidades de pesos y
medidas. Para este idealista tenaz, el kilogramo, su kilogramo, constituye una identidad
inmutable y sagrada que no tiene por qué corresponder fielmente a la cantidad de carne
que entrega al ama de casa. Virtuoso en el arte de operar mentalmente y a gran velocidad
con su versión platónica de la regla de tres, el comerciante en carnes coteja al final del
día dos filas de números: la cantidad de kilogramos vendidos versus las cantidades
pagadas por los inocentes clientes. Estas operaciones contables transcurren en el glacial
mundo de las ideas platónicas, puesto que el carnicero no compara un montón de carne
con un montón de dinero, ni compara números con chuletas: compara, simplemente,
números con números, conceptos con conceptos.
El carnicero, en su práctica cotidiana ajena a la filosofía, es más realista que el
experimentado hombre de ciencia que cree que sus teorías corresponden a la realidad. Se
presume en la práctica científica normal que, en sentido de Kuhn, puede medirse el grado
de veracidad de una teoría por el grado de correspondencia de ésta con la realidad. Pero
esta inocente suposición, que el carnicero astutamente elude, a su vez supone la oculta
80
AÑOS
2498
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 213/472
premisa de que ya se conoce la realidad por otros medios distintos de los métodos de
observación y medición asociados con la teoría en cuestión, pues de otra manera ¿cómo
se establece la comparación? (Porfirio Miranda dilucida magistralmente este punto en
Apelo a la razón, Teoría de la ciencia y crítica del positivismo. Premiá Ed., 1983).
Para los seguidores del positivismo ramplón que prevalece en ciertos círculos, resulta
inadmisible y risible la afirmación de que las teorías son bellas y complejas metáforas
que elaboramos para describir y medio entender el mundo. Les cuesta aceptar que la
tradición científica es una entre muchas otras tradiciones que brindan conocimientos
válidos sobre el mundo y sobre nosotros mismos. El arte en sus diversas formas, la
literatura, las religiones y el chamanismo son también modos de aproximarse al mundo,
distintos de, pero no incompatibles con, la perspectiva científica (La ciencia en una
sociedad libre, P. Feyerabend, Siglo XXI).
La teoría atómica es, quizás, una de las más bellas y enigmáticas metáforas que se han
propuesto para describir y explicar la estructura íntima de la materia. El átomo
representado como un sistema planetario en miniatura, modelo que violentaba las leyes
física conocidas hasta entonces, fue concebido hace sesenta años por el físico danés Niels
Bohr en un sueño, según su propia confesión. Los años de esfuerzo por compaginar las
diversas y contradictorias propiedades de los átomos se resumieron en un delirante
destello en el inconsciente de Bohr. Fue un revelador sueño el que dio ímpetu a la teoría
atómica moderna. Los libros de texto de secundaria y preparatoria aún muestran ese
anticuado modelo del átomo; no obstante, éste ilustra a la perfección la naturaleza
metafórica del conocimiento científico. Se emplean imágenes para representar a otras
imágenes.
Los grandes creadores de la física moderna, de Einstein a Hawking, proponen una
respuesta audaz al problema de la correspondencia entre teoría y realidad. La
representación es la cosa, ¿Berkeley? ¿Mach?, ¿qué es el electrón?, ¿una agitada pelotita
cargada eléctricamente que vibra al compás de las leyes cuánticas?, ¿o es el conjunto de
complicadas ecuaciones tras las que se desvanece toda idea de pelotita? El electrón es lo
que se muestra en su representación (Diálogos sobre física atómica, W. Heisenberg,
Colección Filosófica, UAP, 1988).
Sin saberlo, el carnicero de la esquina aplica rigurosamente estas ideas: la realidad no es
la cantidad de carne molida que entrega a la señora para las albóndigas, sino lo que su
fiel balanza, el único instrumento de medición de que dispone, le indica; balanza
debidamente inspeccionada y certificada por el Comité Nacional de Pesas y Medidas,
para garantizar la prevalencia de las ideas platónicas que tanto convienen a los
carniceros.
80
AÑOS
2499
AUTONOMÍA
UNIVERSITARIA
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No. 214, 13 de octubre de 2003
No. acumulado de la serie: 473
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe.
(http://www.amazings.com/ciencia).
La sección es un servicio de recopilación de
noticias
e
informaciones
científicas,
proporcionadas por los servicios de prensa de
universidades, centros de investigación y otras
publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor
correo electrónico: [email protected]
Premios Nobel
2003
Cobertura especial
El Boletín puede consultarse por Internet en
la página:
http://www.fc.uaslp.mx/divulgacion.html
Para recibir el Boletín por correo electrónico seguir las
instrucciones indicadas en la misma página
80
AÑOS
AUTONOMÍA
UNIVERSITARIA
Mayor información en
http://www.nobel.se/
El Hijo de El Cronopio No. 214/473
Historia de los Premios
AFP
Los premios Nobel fueron creados por iniciativa del sabio e industrial sueco Alfred Nobel (18331896), el inventor de la dinamita (1867), quien pidió en su testamento que se destinasen las
rentas de su inmensa fortuna a recompensar anualmente a las personas que durante el año
anterior hubieran prestado importantes servicios a la humanidad.
Como consecuencia de ello, 31. 5 millones de coronas suecas (lo que equivale actualmente a 165
millones de euros) fueron a parar a la creación de la Fundación Nobel, independiente de las
sociedades que todavía llevan el nombre Nobel en distintas partes del mundo.
El testamento, redactado en París un año antes de la muerte de Nobel, incluía el siguiente reparto
de galardones.
"Una parte para quien haga el descubrimiento o invención más importante en el campo de la
física; una para quien dé con el hallazgo o logre el progreso más destacado en química: una para
el descubrimiento más relevante en el ámbito de la fisiología o de la medicina; una para el que
produzca en el área literaria la obra más notoria de tendencia idealista; una para el que actúe más
o mejor por la fraternidad de los pueblos, la abolición o la reducción de los ejércitos
permanentes, así como por la formación y difusión de los congresos de la paz", según el texto.
Sin embargo, según la ley vigente en esa época, el testamento no contemplaba heredero para la
fortuna en sí, lo que desató una avalancha de críticas entre algunos miembros de la familia Nobel
cuando conocieron su contenido en enero de 1897.
Por otra parte, Nobel no consultó a las diversas instituciones para asegurarse de que asumirían la
responsabilidad de la atribución de los premios.
Se necesitaron tres años para resolver el caso. Se decidió nombrar como heredero a una
Fundación Nobel que administraría el capital de los premios, mientras que varios organismos
designados por el texto se encargarían de atribuir los galardones.
En 1968, con motivo de su tricentenario, el Banco Central de Suecia, en Riksbank, instituyó un
premio de Ciencias Económicas en memoria de Alfred Nobel, poniendo a disposición de la
Fundación Nobel una cantidad de dinero equivalente al monto de los otros premios.
¿Quiénes seleccionan a los premiados?
AFP
Las deliberaciones y los votos de las cuatro academias encargadas de atribuir los premios Nobel
son secretas y sus decisiones sin apelación.
Según el reglamento del premio Nobel, profesores, investigadores, miembros de sociedades de
literatura, parlamentarios expresamente designados por los comités Nobel, como también los
nuevos elegidos, someten sus nominaciones a seis comités antes del 1 de febrero, para decisión el
mismo año.
Cada comité cuenta con cinco miembros elegidos por 12 años. Después de la opinión de
expertos, entregan una lista de uno o varios nombres (tres como máximo) a sus instituciones
respectivas.
Son estas instituciones las que, en última instancia, designan a los laureados:
Física, Química y Economía: Academia Real de Ciencias
Creada en 1739 para "enriquecer y difundir los conocimientos de las matemáticas, las ciencias
naturales, la economía, el comercio y las artes aplicadas", reune a 350 miembros suecos (de los
80
AÑOS
2501
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 214/473
cuales 164 de menos de 65 años) y 164 extranje ros (que hayan ejercido por lo menos dos años en
Suecia), elegidos vitalicios.
Todos los académicos presentes el día de la votación están habilitados para pronunciarse. Así los
titulares de la cátedra de economía contribuyen a la designación del Nobel de química, y
viceversa.
El Premio Nobel de Economía, creado en 1968, está dotado por el Banco central de Suecia
(Riksbank).
Fisiología y Medicina: Asamblea Nobel del Instituto Karolinska
Reúne a 50 profesores del Instituto de medicina del mismo nombre. Una vez elegidos por sus
pares, los miembros de la asamblea conservan su cátedra hasta su retiro de la vida profesional.
Literatura: Academia Sueca
Los estatutos de la Academia Sueca, creada en 1786, tienen mucho de los de la Academia
Francesa. Escritores, poetas, ensayistas, profesores universitarios, los 18 académicos vitalicios sólo son 17 hasta el 20 de diciembre- garantes del idioma sueco, son elegidos por sus pares y sólo
son remplazados cuando mueren.
Paz: Comité Nobel Noruego en Oslo
El Nobel de la paz es atribuído por un comité de cinco personas nombradas por el parlamento
noruego (Storting), sin ser responsable ante él. Se supone que refleja el equilibrio de las fuerzas
políticas en el Parlamento. Para afirmar la independencia del comité, se decidió a partir de 1936
prohibir que un ministro en ejercicio forme parte del Comité, prohibición extendida a los
parlamentarios en 1977.
Polemizan por testamento de Alfred Nobel
AFP
La interpretación del testamento de Alfred Nobel, que estableció los premios que llevan su
nombre, suscita la polémica cada vez que se entregan estos galardones, que se han convertido en
unos de los más significativos del mundo en todas las áreas en que se conceden.
El Nobel de Literatura, otorgado a John Maxwell Coetzee y dotado con 10 millones de coronas
suecas (1,1 millón de euros), se entregará el 10 de diciembre en Estocolmo.
Los criterios para elegir a los premiados fueron vagamente establecidos por Nobel en su
testamento, en el que destinó su fortuna a premiar a aquellos que hubieran realizado trabajos que
"beneficiaran a la humanidad" en cinco campos diferentes, medicina, química, física, literatura y
búsqueda de la paz.
Todos los premios Nobel, menos uno, el de economía creado en 1968 a iniciativa del banco
central sueco, datan de hace un siglo.
En el terreno de la literatura, Nobel indicó en su testamento que el premio debía ser para aquel
que en el año precedente hubiera creado la "obra más destacada en una dirección ideal".
En medicina el galardonado debía ser alguie n que hubiera beneficiado a la humanidad con un
descubrimiento notable, mientras que en física y en química el testamento habla simplemente de
premiar un "descubrimiento o invención".
En todos los casos, se establece la condición de que el trabajo haya sido efectuado en "el año
precedente", lo que prácticamente no se ha cumplido jamás en parte debido a la dificultad de
calibrar las repercusiones de un descubrimiento o invento recién hecho y, en lo referente a la
literatura, por la tendencia a premiar la obra de toda la vida de un escritor.
80
AÑOS
2502
AUTONOMÍA
UNIVERSITARIA
El Hijo de El Cronopio No. 214/473
Barbara Mc Clintock, por ejemplo, recibió el Premio Nobel de Medicina y Fisiología en 1983 por
un estudio sobre genética realizado en 1944, cuya importancia sólo se vio cuando James Watson
y Francis Crick establecieron la estructura molecular del ADN.
Otro problema que se ha señalado recientemente es que el "beneficio para la humanidad" de un
descubrimiento puede convertirse con el tiempo en un perjuicio para la misma, según el uso que
se le dé a los nuevos conocimientos.
Tal fue el caso del descubrimiento del DDT, que le valió a Paul Hermann Müller el Nobel de
Medicina en 1948, puesto que éste insecticida permitió combatir con éxito el tifus y otras
enfermedades transmitidas por insectos y, según la Organización Mundial de la Salud, salvó
cerca de 25 millones de vidas.
Sin embargo, como lo advierten Jan Lindsten y Nils Rindgertz en un artículo que se publicó hace
dos años con motivo del centenario del premio, hoy el DDT está considerado como una sustancia
maldita por los efectos que su uso indiscriminado tiene en el medioambiente.
No obstante, pese a esos ejemplos problemáticos, los encargados de conceder los premios en
ciencias naturales han podido interpretar el testamento de Nobel siguiendo criterios más o menos
objetivos, como el aporte que representa un descubrimiento o un invento a la evolución de una
disciplina.
En literatura, en cambio, la situación fue desde el comienzo bastante más problemática puesto
que no hay un criterio universal para definir el valor de una obra literaria y, además, porque en su
testamento Nobel no aclaró qué significaba para él una obra destacada "en una dirección ideal".
Inicialmente, se tomó la palabra ideal como "idealista" con lo que, a comienzos de siglo, se
rechazaron las obras y los autores que tenían ecos del realismo y del naturalismo.
Posteriormente se fueron adoptando otras interpretaciones de la palabra "ideal" e incluso hubo un
momento, a partir de 1946, en el que se quiso hacer una analogía con los galardones en ciencias
naturales y se empezó a premiar a aquellos autores que eran especialmente innovadores y abrían
nuevos horizontes a la literatura.
Antes, en la década de los años 30, se había hecho énfasis en el "beneficio para la humanidad"
para lo que, según se creía, las obras premiadas debían llegar a un amplio público, lo que llevó a
la Academia a premiar a Pearl S. Buck y no a Virginia Wolff.
Otro criterio ha sido, a partir de 1978, el de aprovechar el renombre del premio para llamar la
atención "sobre literaturas y autores importantes que son poco tomados en cuenta" con lo se creó
una ley no escrita de rotación geográfica que sigue funcionando, aunque con excepciones, hasta
hoy.
El premio Nobel de la paz no se concede en Estocolmo, como todos los demás, sino en Oslo,
porque en el momento de la muerte de Nobel Noruega era más pacifista que Suecia.
La concesión de este premio, que debe honrar "a quien haya trabajado por la paz de los pueblos",
no causó problemas en los primeros años, pero cuando se empezó a distinguir a personalidades
políticas empezaron las polémicas que duran hasta hoy.
FÍSICA
Dan Nobel de Física por superconductores
Los investigadores recibirán el galardón por 'sus contribuciones pioneras a la teoría de
los superconductores y los superfluidos'. EFE
Estocolmo, Suecia (7 octubre 2003).- La Academia de Ciencias Sueca repartió su Nobel de
Descargar