Entre quarks e hipernovas

Anuncio
Número especial sobre EIROforum – Febrero de 2007
ISSN 1023-9006
Entre quarks e hipernovas
La aventura
de la materia
y la vida
CERN
•
EFDA
•
ILL
•
ESRF
•
EMBL
•
ESA
•
ESO
2
I+DT info especial EIROforum Febrero de 2007
Editorial
La cantidad de investigaciones de vanguardia
dirigidas actualmente por las siete grandes organizaciones europeas agrupadas en EIROforum da
testimonio de la vivacidad y la excelencia de la
ciencia, cuyas fronteras no dejan de ampliarse en
el Viejo Continente.
Las tierras del desconocimiento
Al mismo tiempo, faltos de una fotografía exacta
del Universo, los presentes artículos arrojan luz sobre
temas como la materia, la vida y la evolución.
Sin embargo, esta especie de entramado también
revela la envergadura de las lagunas del conocimiento
actual. Por ejemplo, ¿Nos hemos dado cuenta de
que todavía desconocemos lo esencial de la masa del
Universo? ¿Que nuestro espacio y tiempo parecen
estar inundados por una energía negra que nos irradia
sus efectos indirectos?
Como si se tratara de un agujero negro, la ciencia
engloba nuestros conocimientos y, al mismo tiempo,
I+DT info – especial EIROforum
INSTITUTO LAUE-LANGEVIN
10
4
“El EIROforum se ha convertido
en uno de los protagonistas
de la ciencia europea”
Entrevista a Bill Stirling, director general
de la ESRF y presidente de EIROforum.
5
La ciencia fuera del laboratorio
Más de 6.500 científicos de todos los
continentes, premios Nobel o jóvenes
investigadores, conviven en Ginebra, en el centro
de física de partículas más grande del mundo.
7
8
La ayuda de las cuerdas
Junto al modelo “estándar” de la física
de partículas, la ciencia se pregunta sobre
la nueva perspectiva que ha aportado
la teoría matemática de las cuerdas.
Aviso
Ni la Comisión Europea ni ninguna persona que la represente
son responsables del uso que pueda hacerse de la información que contiene esta publicación o de los errores eventuales
que puedan subsistir a pesar del esmero en la preparación de
estos textos.
© Comunidades europeas, 2007
Reproducción autorizada, con indicación de la fuente
Todas las miradas puestas
en ITER
13
Una apuesta estudiada
18
20
16
21
Sobre las neuronas
Los biólogos recurren cada vez más a los
haces de neutrones para descifrar la materia
viva. Un ejemplo: las moléculas de adhesión
de las células neuronales (o NCAM, en inglés).
JET, el banco de pruebas
precursor de ITER
Sin JET, ITER jamás habría visto la luz.
Y es en JET donde se evalúan la validez
y la factibilidad de múltiples opciones
científicas y tecnológicas analizadas para
el reactor de Cadarache.
El misterio del magnetismo
marciano
Los investigadores han podido demostrar
que las anomalías magnéticas descubiertas
por la sonda Mars Global Surveyor se debían
a la presencia de pirrotita.
La ambiciosa aventura de la fusión
¿El desafío de la fusión? Reproducir el Sol en
la Tierra, un proceso que exige temperaturas
próximas a los 150 millones de grados…
¿La energía equivale realmente
a “mc2”?
El espectro de rayos Gamma GAMS 4 del
ILL ha permitido verificar la ecuación
fundamental de Einstein con un margen
de error del 0,00004%.
Entrevista a David Ward, especialista en física
de plasmas vinculado a la preparación de ITER.
14
Los neutrones al servicio
de la ciencia
El Instituto Laue-Langevin de Grenoble
(Francia) representa una de las fuentes
de neutrones más importantes del mundo
y permite a los científicos entrar
en la estructura de la materia.
¿Podrá disponer la Humanidad de una nueva
fuente de energía ilimitada, limpia y controlable?
El reactor ITER, operativo en 2016, podría
dar la respuesta.
Y “se hicieron” las partículas
Las partículas elementales se remontan a una
época en la que el Universo era más pequeño
que una cabeza de alfiler… por Rolf Landua.
17
EFDA
12
CERN
Conociendo las últimas fronteras
de la materia
Las promesas del gran
colisionador
El acelerador de partículas más potente,
el LHC, se inaugurará en 2007 en el CERN
y permitirá sondear los secretos de la materia
desde sus orígenes.
Un gran plan para dos iniciativas de
EIROforum destinadas a los profesionales
de la docencia: la revista Science in School
y el festival “La Ciencia en Escena”.
6
pone de relieve la amplitud de nuestro desconocimiento.
Una “evidencia” que hay que recordar cuando son
muchos los que denuncian la incultura científica
del público. Recordemos la conocida frase: ¡Los
científicos son fundamentalmente ignorantes! Una
verdad ciertamente muy extendida en la sabiduría
popular sabiduría popular y derivada de aquella
conocida frase: “Sólo sé que no sé nada”. Pero sería
de interés para nuestra sociedad el basarse en esta
ignorancia para explorar las tierras del desconocimiento
estén donde estén.
INSTALACIÓN EUROPEA DE RADIACIÓN
SINCROTÓNICA
22
La era de las nuevas luces
En torno al sincrotrón de la Instalación Europea
de Radiación Sincrotónica, unas cuarenta
“líneas de luz” permiten la observación de
las muestras microscópicas indispensables
para los investigadores de distintas disciplinas.
La revista de información sobre la investigación europea I+DT
info se publica en inglés, francés, alemán y español,
por la Unidad de Comunicación de la DG de Investigación
de la Comisión Europea.
Editor responsable: Michel Claessens
Tel.: +32 2 295 9971
Fax: +32 2 295 8220
Correo electrónico: [email protected]
La tirada de este número ha sido de 102.000 ejemplares
Todas las ediciones de I+DT info se pueden consultar en línea
en la página Web de la DG de Investigación:
http://ec.europa.eu/research/rtdinfo/index_es.html
En portada:
couverture:
imagen
Mousson
de un au
cúmulo
Nigerde©galaxias
Thierry tomada
Lebel
por el VLT de la ESO en Chile.
(http://www.eso.org/outreach/press-relypr-1999/phot-16-99.html)
I+DT info especial EIROforum Febrero de 2007
23
Ver lo invisible
30
Las técnicas utilizadas en las líneas de luces
ofrecen la posibilidad de seguir las reacciones
químicas o biológicas en períodos de tiempo
muy cortos.
24
La vida bajo la mirada
del sincrotrón
Los biólogos utilizan cada vez más el
sincrotrón para comprender la vida. Las siete
líneas de luz de la ESRF, dedicadas a la
cristalografía de las proteínas, representan
cerca de un cuarto de su actividad científica.
26
32
Entrevista a Eric Karsenti, director de la unidad
de “biología celular y biofísica”.
33
28
El árbol de la vida según
la genómica
ES0
39
34
Las revoluciones
de la ciencia offshore
40
42
El mensaje de los estallidos
de rayos gamma
Muchos estallidos de rayos gamma provienen
de distancias superiores a 12.500 millones
de años luz. Son fenómenos de liberación
de energía de los más violentos en el Universo
después del Big Bang.
Los centinelas
del “Sistema Tierra”
Desde 2004, el programa Planeta vivo
de la ESA tiene por objetivo desarrollar
la capacidad global para comprender
el funcionamiento de la Tierra, predecir sus
cambios y limitar las agresiones que sufre.
La saga de los agujeros negros
Los enigmáticos agujeros negros revelan
cada vez más secretos sobre la naturaleza
y la evolución de las galaxias.
Entrevista a David Southwood,
director científico de la ESA.
36
La fascinación del cosmos
La ESO es la organización intergubernamental
más importante en el ámbito de la astronomía
y la astrofísica europea. Sus telescopios están
instalados en Chile.
El espacio europeo sin fronteras
La Agencia Espacial Europea (ESA) es un
ejemplo notable de cooperación internacional
que reúne a varios Estados miembros
de la Unión Europea, Suiza y Canadá.
En primera línea de las ciencias
de la vida en Europa
Independencia, interdisciplinariedad,
recepción de jóvenes investigadores, formación
de doctorandos y relaciones entre ciencia
y sociedad figuran en el programa de los cinco
laboratorios del EMBL.
Si el tema del agua provoca fascinación
por Marte, Venus llama la atención
por las condiciones “infernales” que reinan
en su superficie.
ESA
EMBL
27
Al principio existía la forma
Marte y Venus, nuestros vecinos
38
Un pequeño gusano marino, Platynereis, está
mucho más cerca del Homo Sapiens que
los insectos… Ahora lo sabemos gracias al
estudio de Urbilateria (600 millones de años).
Descifrar los orígenes
Muchos investigadores de disciplinas diversas,
utilizan los rayos X “duros”. Un ejemplo:
la paleontología.
¿Quién era Urbilateria?
3
44
A la caza de los exoplanetas
Un nuevo campo de investigación se abre
a los astrónomos: los exoplanetas,
de los cuales más de 200 han sido registrados
en los últimos años.
Formulario de suscripción gratuita a I+DT info
Puede suscribirse gratuitamente a la revista a través de la página Web
http://ec.europa.eu/research/mail-forms/rtd-adr_es.cfm
También puede rellenar este formulario con letra de imprenta
y enviarlo a la dirección siguiente:
I+DT info
ML DG1201
Apartado de correos 2201
L-1022 Luxemburgo
Nombre : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Organización:
.....................................
Versión(es) lingüística(s) que desea recibir (*):
Versiones: francesa 쏔 inglesa 쏔 alemana 쏔 española 쏔

Seis investigadores, liderados por Peer Bork,
acaban de publicar en Science un nuevo
“árbol de la vida” basándose en
los conocimientos sobre el genoma.
Un nuevo enfoque sobre nuestros orígenes.
Dirección: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
................................................
Código postal: . . . . . . . . . . . Ciudad: . . . . . . . . . . . . . . . . . . .
País: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(*) Si desea recibir varios ejemplares de una versión lingüística
determinada, puede enviar su formulario con su dirección
completa y una breve justificación:
- por Internet
http://ec.europa.eu/research/mail-forms/rtd-adr_es.cfm
- por fax (+32-2-295 82 20).
Si desea obtener uno o varios ejemplares de números anteriores
de I+DT info, envíe un mensaje por correo electrónico o por fax
4
I+DT info especial EIROforum Febrero de 2007
E N T R E V I STA
“El EIROforum se ha convertido
en uno de los protagonistas de la
ciencia europea”
Bill Stirling es Director General de la Instalación Europea
de Radiación Sincrotrónica (ESRF o European Synchrotron
Radiation Facility en inglés) desde 2001, periodo en el que
maduró la colaboración con el EIROforum. Hoy nos habla de
su experiencia como presidente de este grupo, de la historia
y de las perspectivas de futuro de la organización.
¿Qué importancia tiene EIROforum hoy en día?
El EIROforum representa una colaboración muy positiva entre siete
institutos que comparten su experiencia científica al más alto nivel. Uno
de nuestros objetivos es desarrollar las capacidades científicas de Europa
en el complejo entorno de la ciencia nacional, la ciencia financiada por
la Unión Europea, la ciencia intergubernamental como la nuestra y la
ciencia mundial.
Intentamos crear estrategias a largo plazo para estar en condiciones de
responder a las cuestiones científicas realmente importantes de cara al
futuro, motivar a nuestro personal, encontrar la financiación necesaria
y hacer que los programas internacionales de nuestros institutos estén
acordes con las necesidades nacionales de nuestros países miembros.
En varios de estos aspectos, concedemos cada vez más importancia a
nuestras relaciones con la Comisión Europea.
Personalmente, me sorprende que las cuestiones que considero
importantes sobre el uso de la radiación sincrotrónica en toda Europa
se asemejen, en muchos aspectos, a los problemas que tienen que
afrontar otras organizaciones de EIROforum, como por ejemplo, en el
desarrollo de la física de partículas o la ciencia espacial.
Las grandes infraestructuras europeas se han desarrollado fuera de la Unión
Europea y de su política de investigación. No obstante, la colaboración
con la Comisión Europea se ha reforzado con los años. ¿Cree que esta
tendencia va a seguir y que se reforzará?
En la actualidad, se están creando organizaciones como la Instalación
Europea de Radiación Sincrotrónica para satisfacer las necesidades
científicas de sus Estados miembros principalmente, aunque no de
manera exclusiva. Sin embargo, veo cómo la Comisión Europea se está
implicando cada vez más a través de las diferentes ayudas del 7PM, las
becas Marie Curie, etc. Está claro que una parte de nuestra ciencia,
como la física de partículas, sólo puede funcionar a nivel supranacional,
pero éste no es el caso de la ciencia llevada a cabo por los miembros del
EIROforum.
Evidentemente, hay programas que nos van a beneficiar. El plan de trabajo
fijado para el Foro Estratégico Europeo para las Infraestructuras de
Investigación (ESFRI, por sus siglas en inglés) supone una herramienta
con la cual Europa puede influir de forma directa en el futuro de los
miembros del EIROforum, puesto que algunos están implicados en
dicho plan. La creación del Consejo Europeo de Investigación (CEI)(1)
tiene una importancia vital para el futuro de una ciencia basada en la
excelencia en Europa, incluida la ciencia que llevan a cabo los socios
del EIROforum.
Bill Stirling (a la izda.) con el Comisario europeo de Ciencia e Investigación,
Janez Potočnik
¿Qué efecto tendrá el CEI en los institutos del EIROforum?
El Consejo Europeo de Investigación, si dispone del apoyo necesario,
representará un cambio fundamental en la financiación de la ciencia
en Europa. Al principio, las repercusiones en los miembros del EIRO
serán indirectas. Disponemos de infraestructuras de investigación que
proporcionan servicios científicos a los investigadores europeos en un amplio
abanico de campos. El CEI otorgará ayudas a los mejores investigadores
para que lleven a cabo su labor científica. Por lo tanto, las instalaciones
como, las de EIROforum serán útiles porque estos investigadores
podrán utilizarlos. Sin duda, esto impulsará la ciencia europea, pero existe
el riesgo de que una compensación a nivel nacional pueda debilitar los
efectos positivos del CEI. Espero que éste sea lo bastante fuerte como
para contrarrestar esa tendencia.
Usted preside EIROforum desde hace seis meses. ¿En qué ha cambiado
su visión de EIROforum desde que desempeña este cargo?
Me fascina ver lo variadas que son las actividades en las que participa
el EIROforum. Raro es el día en el que no recibamos un e-mail en el que
se invite al EIROforum a participar en una exposición o una conferencia
científica, un concurso oposición… y podría seguir dando ejemplos. El
EIROforum ha madurado hasta el punto de que actualmente se le
reconoce como uno de los protagonistas de la ciencia europea. Se le
considera un participante clave en los acontecimientos científicos más
destacados de Europa y, cada vez más, del mundo entero. En realidad
no hay de qué sorprenderse porque, al fin y al cabo, cada una de las
organizaciones del EIROforum es líder en su propio campo científico.
(1) En el 7PM, el CEI tiene el estatus de una nueva agencia de financiación,
a través de la cual, la comunidad científica europea eligió apoyar la investigación
fundamental en temas emergentes.
Para más información
http://www.eiroforum.org/
EIROforum
I+DT info especial EIROforum Febrero de 2007
5
Sacar la ciencia fuera
del laboratorio
La ciencia avanza más rápido que nunca: los descubrimientos importantes se
suceden. Sin embargo, mientras los profesores de las escuelas tienen dificultades
para estar al corriente de los últimos descubrimientos, muchos alumnos se
aburren en las clases de ciencias. Para responder a esta contradicción, el
EIROforum lanzó la revista Science in School en la primavera de 2006. Esta
es la primera publicación internacional multidisciplinaria que tiene como
objetivo una enseñanza innovadora de la ciencia.
a ciencia se está haciendo cada vez más internacional e interdisciplinaria” afirma Eleanor Hayes, editora de esta revista trimestral
basada en el EMBL (Laboratorio Europeo de Biología Molecular).
“Aunque los sistemas educativos puedan ser de ámbito nacional,
los niños de todo el mundo tienen el mismo tipo de inquietudes. El
acontecimiento más emocionante puede suceder en cualquier campo:
puede ser que de pronto los estudiantes quieran hablar sobre un
descubrimiento en Marte, un avance médico o una catástrofe natural”.
Por este motivo, Science in School no sólo trata la enseñanza de las
ciencias en toda Europa, sino también en todas las disciplinas.
Science in School, leída sobre todo por profesores de ciencias, investigadores y otros profesionales vinculados a la enseñanza de las ciencias,
recoge los últimos descubrimientos, materiales educativos, entrevistas
con profesores y científicos, evalúa los recursos disponibles, etc. Las
tres primeras ediciones trataron, entre otros temas de la química del
chocolate, las secuelas genéticas de Chernobyl, la contribución
musulmana a la ciencia occidental, cómo construir una hélice de ADN
utilizando botellas vacías y un análisis sobre lo que opinan realmente los
adolescentes de la ciencia.
“Los científicos europeos, entre ellos los que trabajan en los laboratorios
de EIROforum, realizan constantemente nuevos descubrimientos que
querrían explicar a los jóvenes, pero antes no existía ninguna vía para
hacerlo” destaca Bill Stirling, Director General de la Instalación Europea
de Radiación Sincrotrónica (o ESRF en inglés).
Uno de los objetivos fundamentales de la revista es fomentar la comunicación entre los científicos y las escuelas. Science in School,
consciente de que los verdaderos expertos son los que “están al pie del
cañón”, hace de nexo entre dos grupos de autores: los científicos que
llevan a cabo las investigaciones y los profesores que utilizan los materiales.
Así, varios profesores experimentados revisan los artículos y dan consejos
sobre cómo usar estos textos en las clases.
Este enfoque funciona: lectores de más de treinta países europeos han
respondido con tanto entusiasmo que EIROforum ha aumentado la
tirada de Science in School de 20.000 a 30.000 ejemplares. La revista,
en inglés, se envía gratuitamente a profesores de ciencia de toda
Europa.
Aunque la edición inglesa es muy popular, las clases se imparten en el
idioma del país. Así pues, el equipo de Science in School trabaja con
investigadores y profesores europeos para proponer traducciones de
estos textos en su sitio Web. “La petición más habitual de nuestros lectores ha sido que publiquemos en tantos idiomas como nos sea posible” prosigue Eleanor Hayes. “Gracias al gran número de voluntarios
que nos ayudan, ya tenemos en línea artículos en dieciséis lenguas
europeas. Pero ésta es una tarea constante, así que no nos vendría mal
un mayor número de voluntarios”.
L
“
Para más información Contacto
http://www.scienceinschool.org
[email protected]
La Ciencia en Escena
¿Cómo se puede transmitir a los jóvenes el entusiasmo por la investigación y el descubrimiento? ¿Cómo se puede garantizar el futuro
relevo de los científicos y los ingenieros, que cada vez son más necesarios para la sociedad? ¿Qué medios puede aportar Europa para
reforzar la enseñanza científica en los centros de educación primaria
y secundaria?
Estos grandes interrogantes se debatirán en el festival europeo
Science on Stage (la Ciencia en Escena), que tendrá lugar en
Grenoble (Francia) del 2 al 6 de abril de 2007. Este acontecimiento,
organizado por EIROforum y que cuenta con el apoyo de la Comisión
Europea, es una ocasión única para que 500 profesores de ciencias
de unos treinta países europeos se encuentren e intercambien sus
ideas sobre las mejores prácticas de enseñanza.
El programa “La Ciencia en Escena” está concebido como una especie
de laboratorio donde conviven las ideas más originales con las
experiencias pedagógicas más exigentes, combinando el enfoque
lúdico y distendido con la reflexión de fondo. A medio camino entre
la “feria de muestras”, en la que cada uno puede exponer su proyecto
ante colegas de otros países, y los talleres de formación, en los que los
profesores vuelven a la escuela para experimentar nuevas prácticas,
todas las opciones son posibles y reina la interdisciplinariedad. Los
profesores también tienen la posibilidad de conocer a los científicos
que trabajan en los institutos europeos de EIROforum.
Este programa siguió el modelo del primer Physics on Stage (la
Física en Escena) que tuvo lugar en el CERN en el año 2000. Se han
constituido comités nacionales en 29 países, que constituyen la
estructura de base del programa “la Ciencia en Escena”. Dicho
programa tiene como objetivo hacer más atractiva la enseñanza de
las ciencias, sacar el mayor partido de la curiosidad natural de los niños
y los adolescentes y mostrar que la investigación es una actividad
apasionante en constante evolución. Otra de sus misiones consiste
en trasladar al ámbito público los grandes interrogantes sobre el
futuro de la educación en Europa.
El 5 de abril de 2007, en Grenoble, los profesores de ciencias
podrán debatir directamente con los responsables políticos en una
mesa redonda sobre el tema Challenges to Europe: European science
education in the future (“Los retos para Europa: la enseñanza de las
ciencias en la Europa del futuro”) que estará presidida por Janez
Potočnik, Comisario Europeo de Ciencia e Investigación.
Para más información
http://www.scienceonstage.net
Contactos
Iris Mazuré
[email protected]
Contacto de prensa - Montserrat Capellas
[email protected]
6
I+DT info especial EIROforum Febrero de 2007
CERN
Conociendo las últimas fronteras
de la materia
El mayor centro de física de partículas del mundo es europeo
y está situado en la frontera franco-suiza, cerca de Ginebra.
El Centro Europeo de Investigación Nuclear (o CERN),
denominación que no hace referencia a la explotación de
la energía atómica sino a la ciencia de los “núcleos de la
materia”, reúne a más de 6.500 científicos, en su mayoría
físicos, procedentes de todos los rincones del planeta.
Científicos de gran reputación y jóvenes investigadores se
codean en este gran laboratorio políglota. El CERN pone a
su disposición potentes aceleradores de partículas para
estudiar los componentes últimos de la materia y las fuerzas
que hacen posible su cohesión.
sta ambiciosa empresa, embrión del Espacio Europeo de
Investigación, fue fundada en 1954 y cuenta con 20 Estados
miembros. Ha cumplido plenamente su objetivo inicial: crear en el
“viejo continente” una organización del más alto nivel mundial dedicada
a la investigación de la física fundamental.
Los éxitos del CERN se reflejan en las “máquinas” cada vez más
potentes construidas en el transcurso de medio siglo. Del primer
Sincrociclotrón (SC) de protones de 600 MeV (1957) al Gran
Colisionador de Hadrones o LHC (un acelerador de partículas que, a
partir de finales de 2007, hará posible un análisis pormenorizado de la
materia nunca antes logrado), este laboratorio paneuropeo está equipado
con herramientas que han permitido ampliar sus campos de investigación
y realizar descubrimientos fundamentales en el campo de la física.
En el CERN han trabajado numerosos Premios Nobel, entre ellos Carlo
Rubbia y Simon Van der Meer, Georges Charpak, Jack Steinberger, Sam
Ting y Burt Richter.
Allí las “cámaras proporcionales multifibras” de Charpak revolucionaron
el campo de la detección electrónica de partículas. Se descubrió que los
neutrinos podían interactuar con otra partícula sin dejar de ser neutrinos.
Se puso en marcha el primer colisionador protón-antiprotón. El descubrimiento histórico de los bosones W y Z confirmó la teoría electrodébil
que unifica la fuerza débil y la fuerza electromagnética. Y, en otro ámbito,
en el CERN, Tim Berners-Lee propuso un sistema de información
distribuido basado el hipertexto, que todos conocemos desde entonces
con el nombre de World-Wide Web.
E
Vista aérea del CERN con el trazado del túnel LEP y del futuro LHC.
© CERN
Sensibilizar a jóvenes y curiosos
El CERN es un laboratorio abierto al mundo y a la gente. La investigación
en él es transparente y los que la desarrollan desean compartir su
pasión. Esta institución siempre se ha esforzado por informar al público
en general sobre los avances de la física contemporánea. Así, a lo largo
de todo el año se organizan “visitas guiadas” en varias lenguas
([email protected]). Los “lunes del descubrimiento”, en una sesión
nocturna al mes, presentan un aspecto de las investigaciones llevadas
a cabo en los laboratorios. Del mismo modo, el sitio Web
(http://www.cern.ch) está destinado a todas las personas que sientan
curiosidad por la física o que tengan interés por conocer este gran centro
europeo de investigación. Por último, todo el mundo puede enviar sus
preguntas al correo electrónico: [email protected].
El CERN concede una importancia prioritaria a la sensibilización de las
generaciones futuras (semillero de los científicos del mañana) y de los
profesores que las educan. Para ello ha desarrollado una estrategia de
enseñanza (seminarios, información en línea, visitas escolares, material
didáctico virtual y multimedia, etc.) destinada a promover enfoques
pedagógicos innovadores. De ese modo se pone de manifiesto que la
ciencia es una aventura apasionante y que aprender física puede ser
divertido.
> http://www.cern.ch
CERN
I+DT info especial EIROforum Febrero de 2007
7
Y “se hicieron” las partículas
Rolf Landua durante una videoconferencia
sobre el tema de la fusión, organizada por
EIROforum y EFDA. Este acontecimiento,
en el que participaron estudiantes, tuvo
lugar en el Deutsches Museum de Múnich,
en 2006. © Hermann Heyer
La aparición de las partículas se remonta a una época
desconcertante para los físicos, en la cual las energías
existentes en el Universo eran tan grandes que los científicos no saben cómo describirlas. Sin embargo, es posible
concebir el nacimiento de los componentes básicos que
constituyen la materia y la energía. ¿De qué modo? Rolf
Landua, físico del CERN, nos ayuda a aclararlo.
¿
n qué marco aparecieron las partículas elementales? La cuestión
se remonta a una época en la que el Universo era aún más
pequeño que la cabeza de un alfiler. Como las partículas aún no
se encontraban allí, se puede concluir que era un espacio vacío. ¿Vacío?
¿Cómo puede ocurrir algo en un espacio vacío? Simplemente porque el
vacío de los físicos no es la ausencia de todo, como se define generalmente.
“El vacío es la estructura más complicada de la física”, explica Rolf
Landua, físico del CERN. En efecto, en la Naturaleza, el vacío perfecto no
existe. De la misma manera que una línea recta no es nunca exactamente
recta (sino una definición matemática sin realidad física), la energía
nunca es completamente igual a cero en cada lugar del espacio. Al igual
que definimos una superficie cubierta de trigo como un campo de trigo,
se habla de un campo de energía. “El vacío está lleno de toda clase de
campos, como, por ejemplo, campos electromagnéticos. Su energía
nunca es exactamente cero, sino que fluctúa sin cesar en el tiempo. En
cierto modo es como un síndrome de hiperactividad”(1).
a crear las siguientes generaciones de partículas. Los pares partículaantipartícula se aniquilan, produciendo haces de energía que, a su vez,
se transforman en otras partículas. En este singular “juego de billar” de
materias y antimaterias, las partículas más pesadas se desintegran para
dar lugar a congéneres más ligeras y más estables. Todo este mundillo
entrechoca a enormes velocidades para fabricar otras partículas, ya
sean pesadas o ligeras.
Inmediatamente después del Big Bang, a una escala de tiempo
inconcebible para nuestra percepción (apenas transcurrido un lapso
de 10-35 segundos) el Universo comenzó a expandirse. Debido a esta
expansión, del mismo modo que se puede diluir un jarabe en agua, la
energía y la materia del Universo se diluyen en un espacio cada vez mayor,
así que cada vez hay menos probabilidades de que las partículas vuelvan a
entrar en colisión. Sin embargo, cuando eso se produce, sus energías son
cada vez más débiles y se crean partículas cada vez más ligeras.
De la energía a la masa
Después de una millonésima de segundo, la materia que llena el Universo
es la que observamos hoy. Las partículas más pesadas se desintegraron.
Lo que sucedió antes sólo se puede estudiar con aceleradores que hacen
colisionar partículas a energias muy altas. “En cierta forma, los físicos
de partículas son como los arqueólogos. Intentan reproducir los niveles
de energía que había exactamente después del Big Bang con el fin de
reconstruir las partículas pesadas hoy en día desaparecidas, del mismo
modo que otros especialistas intentan encontrar dinosaurios”. Entre
otras, unas misteriosas partículas supersimétricas, cuyos ejemplares
más ligeros podrían constituir la materia negra del Universo (véase el
artículo siguiente).
De esta forma habrían aparecido las partículas en el Universo, surgidas
de la nada, como fantasmas... “Con esta explicación da la impresión de
que los físicos han cambiado un problema por otro: para explicar el origen
de las partículas, invocan la energía del vacío, pero entonces ¿cuál es el
origen de esta energía? He aquí otro gran misterio de la física moderna...”
E
La física arqueológica
¿Cómo se obtienen partículas a partir de estos campos? “La relatividad
restringida nos enseña que la energía también es masa. Éste es el significado de la famosa fórmula de Einstein: E=mc2. La energía puede
convertirse en partículas y las partículas en energía”. Ahora bien, los
físicos piensan que durante los primeros instantes del Universo, el vacío
estaba lleno de energías de carácter desconocido. Espontáneamente se
crearon algunos pares de partículas y antipartículas, gracias a las fluctuaciones de la energía del vacío. Esta dualidad es indispensable, ya que
una antipartícula tiene una carga eléctrica opuesta a la de su partícula.
De ese modo, la suma de las cargas eléctricas de las partículas que surgen
del vacío sigue siendo igual a cero, respetando la conservación de las
cargas eléctricas observada en la Naturaleza.
Luego, muy rápidamente, este proceso inicial cesa por razones que los
físicos no comprenden muy bien. Los pares de partículas así creados
durante el breve momento de las fluctuaciones de la energía del vacío
son muy energéticos. A través de múltiples procesos, comienzan (1) Todas las citas de los artículos relativos al CERN son de Rolf Landua.
8
I+DT info especial EIROforum Febrero de 2007
CERN
La ayuda de las cuerdas
Más allá de los mecanismos que determinan el nacimiento
de las partículas elementales, ¿cómo se puede describir la
naturaleza de dichas partículas? Junto al modelo calificado
como “estándar” de la física de partículas (fruto de los postulados de la mecánica cuántica) la ciencia contemporánea
tiene puestas sus esperanzas en la visión completamente
innovadora y unificadora ofrecida por la teoría matemática
de las cuerdas. Esta teoría abre nuevas perspectivas de
experimentación inéditas programadas por el CERN.
En busca de la unificación
Sin embargo, dicha partícula no se puede describir con el modelo estándar
(véase el cuadro). Además, en sus principios, el Universo era a la vez
extremadamente pequeño y extremadamente masivo (toda la energía y
la materia se concentraban en un volumen minúsculo). Así que, una vez
más, una teoría destinada a describir las partículas que imperaban en
aquella época no puede hacer caso omiso a la influencia de la gravedad.
Entonces, ¿cómo se puede integrar en este conjunto la teoría de la
relatividad general enunciada por Einstein a principios del siglo pasado,
cuyo eje principal está basado en la gravitación? “La unificación de la
mecánica cuántica y la teoría de la relatividad general se ha convertido en
l modelo estándar (la piedra angular de la física moderna establecida el “Santo Grial” de los físicos. Un gran número de científicos lo investigan.
paulatinamente a lo largo del siglo XX) considera las partículas La pista más prometedora parece ser la teoría de las cuerdas”.
elementales como puntos regulados por tres de las interacciones
fundamentales reconocidas entre las partículas: la fuerza electromagnética y las fuerzas de interacción fuerte y débil. Eso permite pro- Desde los puntos hasta las cuerdas
poner una descripción que concuerda a la perfección con lo que ocurre
en el mundo de lo infinitamente pequeño. No obstante, este modelo no ¿Qué nos enseña esta teoría sobre nuestro mundo? En primer lugar,
toma en consideración la cuarta interacción, la de la fuerza gravitacional. concibe las partículas no como puntos, sino como “elementos” similares
Ahora bien, en la concepción cuántica, del mismo modo que la luz se a pequeñísimas cuerdas, del orden de 10-35 metros de longitud (¡un 1
propaga a través de una partícula llamada “fotón”, la interacción gravita- precedido de 35 ceros!). Estas cuerdas se encuentran en estado de
cional debe transmitirse a través de otra partícula denominada “gravitón”. vibración y la manera en la que vibran corresponde a los distintos tipos
E
La “biodiversidad” de las partículas elementales
Por definición, las partículas elementales son indivisibles.
Existen dos tipos: los bosones y los fermiones.
De acuerdo con el modelo llamado “estándar”, la “familia de los
bosones” está compuesta por cuatro partículas que transportan
las cuatro interacciones de la naturaleza. De este modo, el fotón es
responsable de la propagación de la interacción electromagnética
de la que la luz o la electricidad son una consecuencia. El “gluón”
es el bosón responsable de la propagación de la interacción fuerte
que garantiza la cohesión del núcleo de los átomos. Los bosones
W+, Z0 y W- son responsables de la propagación de la interacción
débil que explica la radioactividad, por ejemplo. Todos estos
bosones han sido observados por los físicos de partículas, contrariamente al “gravitón”, responsable de la propagación de la interacción gravitacional y cuyo “hipotético” bosón de Higgs sería
responsable de la masa de las partículas.
La “familia de los fermiones” se divide en tres subfamilias. La primera
constituye la materia ordinaria y está formada por el electrón, el
“neutrino electrónico” y los quarks “abajo” y “arriba”. Estos
quarks son las partículas elementales que conforman los protones
y los neutrones, los cuales, a su vez, constituyen los núcleos de los
átomos. Cada una de las otras dos familias fermiónicas de partículas
elementales contiene a su vez cuatro partículas que existieron
solamente en el momento del Big Bang. Su existencia sólo puede
demostrarse hoy en radiaciones muy energéticas.
El modelo estándar contiene diecisiete partículas elementales.
Este número se duplica en la teoría de las cuerdas, ya que la
supersimetría asocia a cada bosón un fermión y viceversa. Para
nombrar a los compañeros supersimétricos de los bosones, los
físicos añaden generalmente el sufijo “-ino” al nombre de los
bosones del modelo estándar. De este modo, encontramos el
“fotino” o el “gravitino”, mientras que los supercompañeros de
los bosones W+ y W- se llaman charginos, por la carga que llevan.
Para los supersocios de los fermiones, se utiliza generalmente el
prefijo “s”. Así resultan los “squarks”, los “selectrones” y los
“sneutrinos”. El lenguaje de los físicos se renueva al mismo
tiempo que la ciencia...
Simulación de la desintegración de un bosón de Higgs con
dos chorros (centro) y dos electrones (abajo, a la izquierda)
en el detector CMS del LHC del CERN. Los rastros indican
las partículas que se produjeron como consecuencia de
la colisión de un par de protones de energía ultra alta.
Las energías depositadas por las partículas en el detector
aparecen en azul celeste. © CERN
CERN
I+DT info especial EIROforum Febrero de 2007
9
Todas estas características también las comparten las partículas supersimétricas más ligeras, por lo que se piensa que éstas podrían ser los
enigmáticos constituyentes de la materia negra, cuyos efectos fueron
observados por primera vez por el astrónomo suizo Fritz Zwicky en 1933.
Cuatro interacciones, resultado de una
interacción única
Simulación de la señal de un neutralino en un detector de partículas.
Las distintas curvas muestran los rastros de las partículas que acompañarán
la emisión del neutralino. Esta partícula supersimétrica podría constituir
la materia negra tan buscada por los astrónomos. © Norman Graff.
de partículas. Cuanto más vibra una cuerda, más energía tiene la partícula
correspondiente.
Una de las propiedades de la teoría de las cuerdas (y no solamente de
ésta), necesaria para su coherencia matemática, es la supersimetría. Para
comprender mejor de qué se trata, es necesaria una breve explicación
de la “zoología” de las partículas elementales. El universo corpuscular
cuántico se puede dividir en dos familias: por una parte, los fermiones,
partículas elementales de la materia a la cual pertenecen, entre otros,
los electrones y los quarks; por otra parte, los bosones, a cuya familia
pertenecen las partículas mediadoras de las interacciones fundamentales,
como el fotón que transporta la fuerza electromagnética, o el gravitón,
mencionado anteriormente, para la gravitación.
El desafío de la supersimetría
Otra cuestión que preocupa a los científicos se refiere a las cuatro famosas
interacciones fundamentales de la Naturaleza(1). ¿Por qué sus amplitudes
son tan diferentes las unas de las otras? Por ejemplo, la amplitud de la
interacción gravitacional es mucho más débil que la de la interacción
electromagnética. Como prueba de ello, el magnetismo de un simple
imán es suficiente para atraer una masa relativamente grande de metal,
mientras que haría falta un planeta entero para atraer la misma masa
por medio de la gravedad.
“Una respuesta a esta cuestión es que todas las interacciones fundamentales sólo habrían formado una sola interacción con las elevadísimas
energías existentes al principio del Universo. De la misma manera que
el agua se transforma en hielo por debajo de una temperatura de cero
grados, esta única interacción ocurrió tal como las concebimos hoy en
día, en cuatro interacciones diferentes, cuando la energía del Universo
era lo suficientemente baja y se dividió”. Esta unificación de las
interacciones fundamentales a energía elevada también la describe
la teoría de las cuerdas (aunque no es la única teoría que lo hace).
Siete dimensiones
Uno de los avances teóricos más espectaculares de las cuerdas es, sin
duda alguna, la existencia de dimensiones diferentes a nuestras tres
dimensiones del espacio (ancho, largo y profundidad) y tiempo. De
hecho, con el fin de garantizar su coherencia matemática, la teoría de
las cuerdas presupone la existencia de siete dimensiones adicionales
del espacio (como el concepto de superficie, que sólo puede ser coherente
matemáticamente con dos dimensiones de espacio). La materia y las
interacciones electromagnéticas, fuerte y débil, quedarían confinadas
a las tres dimensiones del espacio habituales. Sin embargo, estas interacciones, que son principalmente las que nos permiten comprender
el mundo (por ejemplo, la interacción electromagnética con la luz), no
nos permitirían percibir las otras siete dimensiones espaciales, que
seguirían siendo “invisibles”.
Así es la vida de las partículas. Surgidas del vacío cuántico presente en
las fases más energéticas del Universo, los físicos de hoy las describen
como minúsculas cuerdas vibrantes que abren el camino hacia la unificación de la relatividad general y la mecánica cuántica. Algunos de los
componentes de esta teoría, por ejemplo la existencia de partículas
supersimétricas, podrían comprobarse gracias al LHC en los próximos
años, lo cual daría más credibilidad a la teoría de las cuerdas, aun sin
validarla.
La supersimetría consiste en suponer que a cada partícula de la familia
de los fermiones debería corresponder una partícula que pertenezca a
la familia de los bosones y viceversa; de ahí la idea de simetría. Hasta
el momento no se ha descubierto ninguna partícula supersimétrica,
pero los físicos de partículas esperan observarlas en las colisiones a alta
energía que provocarán próximamente gracias al LHC, el nuevo acelerador
(1) La interacción electromagnética, la interacción gravitacional, las interacciones
de partículas del CERN (véase la página 10).
A no ser que los astrónomos, mientras tanto, hayan observado de forma fuerte y débil.
indirecta los efectos de estas misteriosas partículas... Porque la masa total
de las galaxias y las agrupaciones de galaxias parece ser mucho mayor
que la masa luminosa (estrellas, gas, etc.) percibida por los telescopios
de los astrónomos.
Se supone pues la existencia de una materia negra invisible que interactúa
con el resto de la materia solamente por su gravitación y que está
constituida por partículas muy estables y, en consecuencia, muy ligeras.
Para más información
http://superstringtheory.com/
http://en.wikipedia.org/wiki/Virtual_particle
http://en.wikipedia.org/wiki/Vacuum_energy
10
I+DT info especial EIROforum Febrero de 2007
CERN
En 2007, el acelerador de partículas más
potente que se ha construido hasta ahora, el
nuevo Gran Colisionador de Hadrones (LHC,
por sus siglas en inglés) del CERN permitirá
investigar los secretos de la materia en los
estados de energía que existían en los instantes
posteriores al Big Bang. Al producir la colisión
frontal de partículas a velocidades cercanas a
la de la luz, los físicos esperan poder investigar
la materia con todo detalle, gracias a la energía
producida por las colisiones.
Las promesas
del gran colisionador
Antimateria. Supersimetría. Bosón de Higgs. Plasma quark-gluón. Tantos misterios cuyos
orígenes se encuentran en las fases más energéticas del Universo, en la explosión del Big
Bang. Misterios que los investigadores esperan indagar a fondo gracias al LHC, la increíble
máquina que permitirá remontarse en el tiempo. Los primeros imanes del acelerador LHC están
instalados, pero no están conectados, en el túnel de 27 km de circunferencia. © CERN
Simulación de la colisión de dos
protones en el detector ATLAS.
© CERN
¿
El detector CMS justo antes de su
cierre. Las cinco ruedas del tambor
y los seis discos de los tapones
fueron deslizados unos contra otros
para proceder a las pruebas del imán
y a los ensayos del detector con
rayos cósmicos. © CERN
ué se espera de esta enorme inversión para la construcción del
LHC, aprobada por Europa? Este colisionador va a hacer girar, en
sentidos opuestos, dos haces de protones (partículas que
constituyen el núcleo de los átomos pertenecientes a la familia de los
hadrones) en un anillo subterráneo de veintisiete kilómetros de circunferencia situado en la frontera franco-suiza. Para acelerar estos
protones y mantenerlos confinados en haces estrechos, se requieren
campos magnéticos extremadamente intensos. Estos campos serán
producidos por superconductores, es decir, materiales capaces de
conducir la electricidad sin resistencia ni pérdida de energía, funcionando a muy baja temperatura y elaborados en colaboración con la
industria europea.
Las colisiones entre protones se producen a un ritmo de ochocientos
millones de veces por segundo a una energía colosal de 14 TeV. Para
comprender la magnitud de este número, un TeV es más o menos la
energía del movimiento de un mosquito en vuelo. La diferencia es que
en el LHC esta energía se concentrará en un espacio un billón de veces
más pequeño que la escala de un insecto. Como la energía puede materializarse en una partícula según el principio de equivalencia masa/
energía de la relatividad limitada, el famoso E=mc2, los físicos esperan
crear partículas que nunca hayan sido observadas en aceleradores. La
densidad y la intensidad de las colisiones son elevadas, ya que esto
multiplica las oportunidades de que aparezcan. Se producirán también
dos haces de núcleos de plomo que alcanzarán una energía de 1.150 TeV
pero con menos colisiones por segundo.
Q
Instalación de los cristales de uno
de los módulos del espectrómetro
de fotones de ALICE. © CERN
Montaje de las placas centelleantes
en el calorímetro Hadron del
detector LHCb. © CERN
De la búsqueda de la supersimetría...
Algunos detectores serán capaces de analizar estas colisiones. Dos de
ellos llevan los nombres de CMS (Compact Muon Solenoid) y Atlas (A
Toroidal LHC Apparatus). Se concentrarán en la detección de las partículas
llamadas supersimétricas y en las del bosón de Higgs.
¿Qué es la supersimetría? La física de partículas implica numerosas
simetrías como, por ejemplo, la materia y la antimateria. La supersimetría
consiste en asociar a cada bosón (que asegura la transmisión de las
interacciones como el fotón) un fermión (partículas que constituyen la
materia, como electrones y quarks) y viceversa. El reto se encuentra en
que hasta ahora no se han observado nunca estas contrapartidas calificadas de supersimétricas (designadas también con el término “spartículas”).
¿Cómo se pueden detectar? Paradójicamente, por su ausencia. “Sería
algo así como si en una sala de cine, se cuenta el número y ‘la calidad’
de personas que entran y salen de la sala. Si falta una a la salida, y se
sabe que había entrado, se puede deducir que no ha salido”. Del
mismo modo, los experimentadores del LHC saben que en algunas colisiones de partículas tendrían que producir estas “spartículas” que ningún detector es capaz de percibir. Si se conocen las energías de las
partículas antes de su colisión, se pueden comparar con las energías
de las partículas producidas después de la colisión. Si hay una diferencia energética, es porque una partícula se les habrá escapado. Al calcular la energía que falta, sabrán si se trata o no del componente
supersimétrico o “spartícula” que esperan.
CERN
... a la del bosón de Higgs
El otro reto de los detectores CMS y LHC será detectar el bosón de
Higgs. Se supone que éste último, objeto central de la teoría del modelo
estándar, interactúa con las partículas y les proporciona una masa.
¿De qué manera? Imaginémonos una sala llena de estudiantes de
física. De repente, entra en la sala Albert Einstein y los estudiantes le
rodean completamente y le abruman con preguntas. Albert, cuando
intenta desplazarse, experimenta cierta inercia de movimiento debido
a los estudiantes que se aferran a él. Algo similar ocurre con las partículas
que adquieren una masa cuando los bosones de Higgs intentan interactuar con ellas. Una vez más, la detección tan esperada de estos famosos
bosones sólo se puede hacer indirectamente: lo que se detectará serán
las partículas resultantes de su desintegración.
La sopa de quarks y gluones
Un tercer detector que forma parte del LHC se llama Alice (A Large Ion
Collider Experiment ). Fue concebido para explorar los territorios
desconocidos de la física nuclear y, particularmente, para estudiar un
estado de la materia que subsistió justo después del Big Bang y que se
le conoce con el nombre de “plasma de quark y gluones”.
¿De qué se trata? En la década de los años sesenta, los científicos
descubrieron que los protones y los neutrones, que constituyen el núcleo
de los átomos, eran combinaciones de partículas más elementales, los
quarks. Éstos están unidos entre sí por la fuerte interacción transmitida,
a su vez, por las partículas llamadas gluones. Una de sus características
es que son gregarios, o sea, que no pueden existir solos, sino que van
siempre de dos en dos o de tres en tres. Cuanto más se intenta alejar
un quark de otro, más potente es la fuerza que los une, de modo que,
en definitiva, son inseparables. Se dice, en este caso, que los quarks están
“confinados”. Sin embargo, si se proyectan los protones unos contra
otros a energías muy altas, se obtiene una sopa de quarks y gluones en
la que los quarks pueden desplazarse libremente. Esto se define como
el “desconfinamiento” de los quarks en el plasma de quarks y gluones.
¿Por qué se produce este desconfinamiento? “Es algo similar a lo que
ocurre en una pista de esquí. Cuando no hay mucha nieve, las pistas
están separadas por zonas de hierba y cada esquiador se limita a su
pista. Pero si hay mucha nieve, pueden pasar de una pista a otra: están
‘desconfinados’”. Los físicos no añadirán nieve, sino energía: cuanto
más se aumenta la energía de los quarks, más se debilita la fuerza que
los une, de modo que se pueden separar a partir de un determinado
límite de energía.
Este estado de plasma de quarks y gluones era probablemente el de la
materia algunos microsegundos después del Big Bang. Por esta razón
los físicos desean analizarlo por medio de los haces de iones de plomo
producidos por el LHC. De hecho, estos son muy ricos en protones y
neutrones. Pueden alcanzar una energía de 1.150 TeV, necesaria
para producir y examinar con más precisión que en las experiencias
anteriores, el plasma de quarks y gluones que imperaba al principio del
Universo.
El misterio de la antimateria
Finalmente, un último detector lleva el nombre de LHCb, siglas de Large
Hadron Collider beauty. Su objetivo consiste en apreciar mejor las
sutiles diferencias que existen entre materia y antimateria con el fin de
comprender mejor qué es lo que le ocurrió a la antimateria del Universo.
De hecho, a cada partícula le corresponde una antipartícula con la
misma masa pero con una carga eléctrica opuesta. Por ejemplo, a un
electrón de carga negativa le corresponde un antielectrón (o positrón)
con la misma masa, pero con carga positiva. Cuando se encuentran un
electrón y un antielectrón, se destruyen produciendo un haz de energía.
Según el modelo estándar de la física de partículas, al comienzo del
I+DT info especial EIROforum Febrero de 2007
11
Universo debieron crearse las mismas cantidades de materia y de
antimateria. Como consecuencia, todas las partículas deberían
haberse destruido mutuamente y el Universo debería estar vacío. Sin
embargo, como se puede constatar, la materia abunda en el Universo.
De ahí la pregunta que tratará de aclarar el LHCb: ¿a dónde se fue la
antimateria? Una respuesta posible radica en la facultad que tienen
ciertas partículas de transformarse en su antipartícula y viceversa. En
este caso, la existencia de la materia se basa en la hipótesis (aún por
confirmar) de que al comienzo del Universo la transformación de las
antipartículas en partículas fue más factible que la transformación
inversa. En definitiva, según esta teoría, el proceso de aniquilación entre
materia y antimateria generó un Universo en el que la materia triunfó
sobre su oponente.
¿Se puede demostrar este desequilibrio? En la práctica, ya se observó
experimentalmente con partículas de tipo quarks llamadas kaones. Los
antikaones se transforman espontáneamente en kaones, pero lo contrario
se produce menos a menudo. El LHCb estudiará otro candidato, el mesón
B, que contiene, entre otras cosas, una partícula (o su antipartícula)
elemental denominada quark b, o también beauty (de ahí el bonito
nombre del LHCb).
Para más información
ATLAS: http://atlas.ch/
CMS: http://cms.cern.ch/
ALICE: http://aliceinfo.cern.ch/Public/index.html
La detección de las partículas
Las partículas no se pueden observar, pero sí detectar. Para
ello, el LHC está equipado con dispositivos constituidos por
varias capas concéntricas de detectores que, como una cebolla,
rodean el haz de partículas donde se producen las colisiones.
Cada capa se dedica a un tipo de detección particular.
• En el centro del detector hay una cámara de detección.
El interior de ésta contiene millones de semiconductores
que, cuando son tocados por una partícula, producen
impulsos electrónicos que son registrados por ordenadores.
De este modo, es posible reconstruir sus trayectorias.
• En todo el detector impera también un campo magnético.
Éste permite señalar y estudiar las trayectorias de las
partículas cargadas, como los electrones o los protones,
que demuestran ser sensibles al campo.
• Otro dispositivo está formado por un detector de traza
por calorímetro. Algunos calorímetros paran partículas
como fotones o electrones, mientras que otros paran los
protones y los neutrones. Miden la energía perdida por
las partículas que penetran en ellos.
12
I+DT info especial EIROforum Febrero de 2007
E FDA
Todas las
miradas puestas
en ITER
Simulación de la implantación de ITER en el emplazamiento de Cadarache,
en el sur de Francia. El nuevo reactor debería empezar a funcionar en 2016.
© ITER
Tras la experiencia única de JET (el instrumento experimental de fusión más avanzado del mundo) Europa ha logrado
un amplio consenso internacional para desarrollar ITER. La puesta en marcha de este nuevo reactor moviliza una amplia
cooperación científica y tecnológica que incluye a científicos e ingenieros de todo el mundo. A nivel europeo, esta colaboración se estructura y consolida bajo los auspicios del Acuerdo Europeo para el Desarrollo de la Fusión (EFDA
o European Fusion Development Agreement).
La construcción de ITER (que representa una inversión de 4.500 millones
de euros) debe empezar en 2007 en Cadarache, al sur de Francia. Este
nuevo reactor de fusión, que será operativo en 2016, deberá demostrar
si la humanidad puede contar o no con este extraordinario recurso de
energía que promete ser ilimitado, seguro, totalmente controlable,
limpio (sin residuos) y sin ninguna influencia sobre el
clima.
Desde los años cincuenta, muchos países
europeos empezaron a interesarse por las
perspectivas energéticas de la fusión
nuclear y financiaron investigaciones en
varios laboratorios nacionales de física
fundamental. Por otro lado, a nivel
comunitario, el Tratado Euratom de
1957, que establecía una política
común en el sector nuclear, integró
el deseo de establecer una estrecha
cooperación científica para desarrollar
el conocimiento y las tecnologías en
este ámbito futurista.
Bajo los auspicios de la Unión, este
clima de colaboración activa entre los
científicos y los ingenieros de toda
Europa llevó a la creación y desarrollo
del reactor de fusión conocido como JET
(Joint European Torus) en el emplazamiento
de Abingdon, cerca de Oxford (Reino Unido).
Los avances realizados durante dos décadas por
este instrumento de vanguardia, el más importante de
este tipo en todo el mundo, han permitido una evaluación científica y
tecnológica de primer orden sobre las posibilidades de reproducir las
condiciones físicas extremadamente complejas de la fusión. Éstas vienen
determinadas por los altos niveles de temperatura, superiores a los
100 millones de grados, que son necesarios para producir la fusión del
plasma de hidrógeno.
La fusión bajo la protección europea
El desarrollo de JET y los conocimientos únicos que éste ha aportado
sobre la fusión, han sido uno de los motores principales de la puesta
en marcha del nuevo reactor ITER, pero también han representado el
crisol de una cooperación científica unificada y sólidamente
estructurada a escala europea, en adelante bajo las
siglas de EFDA (European Fusion Development
Agreement).
Esta entidad reúne y coordina el conjunto de
los medios de investigación dedicados a la
fusión en 22 países miembros, así como
los programas que la Comisión Europea
desarrolla en este ámbito. EFDA se
encarga sobre todo de la explotación de
JET, cuyas instalaciones deben ofrecer
un banco de pruebas adaptado especialmente para evaluar y validar las
complejas tecnologías necesarias para
desarrollar ITER.
Las Oficinas europeas de Apoyo (Close
Support Units) instaladas en Garching,
cerca de Munich (Alemania), y en JET,
aseguran la dirección y la gestión de EFDA.
En Garching se coordinan todas las actividades de investigación de los 29 organismos e
instituciones de física fundamental que trabajan
para desarrollar la fusión en Europa. Evidentemente,
la prioridad es la contribución científica y tecnológica que
la Unión y cada uno de los miembros de la organización se han comprometido a aportar al proyecto ITER.
Para más información
http://www.efda.org/
http://www.jet.efda.org
http://www.iter.org
E FDA
I+DT info especial EIROforum Febrero de 2007
13
Una apuesta
estudiada
David Ward, especialista en física de plasmas, miembro de
la Autoridad de Energía Atómica del Reino Unido y vinculado
a la preparación de ITER desde el centro de Abingdon
(Reino Unido), está convencido de que la fusión puede y debe
convertirse en un recurso capital de energía para responder a
las necesidades y condiciones climáticas del siglo XXI.
Aunque haya sido estudiado, debatido y negociado durante casi 20 años,
ITER es una gran apuesta por un logro científico y tecnológico que no
podrá evaluarse hasta dentro de una década, por lo menos. ¿Vale la pena
todo esto?
Quizá aún podamos considerarlo una especie de apuesta, pero rara vez una
apuesta se habrá basado en datos tan seriamente meditados, calculados y
evaluados. Los cientos, quizá miles, de científicos de todo el mundo que
han analizado las posibilidades de este proyecto han conseguido
convencer a siete grandes potencias, incluidas las más importantes del
planeta, para establecer una colaboración común que lo lleve a cabo.
Y si hay un cierto riesgo (y aquí no hablamos de fracaso, sino quizá de
unos resultados insuficientes con respecto a los objetivos) ¿no habría
que asumirlo al evaluar los desafíos energéticos que se nos presentan?
A partir de 2020, cerca de ocho mil millones de seres humanos habitarán
el planeta, frente a los seis mil millones de hoy. En adelante, la aceleración
del crecimiento económico en países como China, India o Brasil (los
dos primeros son socios de ITER), sin olvidar las enormes necesidades
del resto de los países en desarrollo, harán que se duplique, en las
próximas dos décadas, el consumo mundial de energía que ya ha
empezado su ascenso inevitable. Esta tendencia ineludible se añade a
la certeza de que el reinado triunfante de los combustibles fósiles ya es
insostenible. Se trata, pues, de razones climáticas y del agotamiento
final de los recursos en el horizonte de las generaciones futuras.
David Ward: “Bajo ningún concepto
presentaría la fusión nuclear como una fórmula ‘mágica’ capaz de resolver por sí sola las
cuestiones energéticas del futuro. Deben
movilizarse, además de ésta, todas las otras
fuentes de energía renovables”.
ITER representa, junto con la Estación Espacial Internacional, una de las
inversiones científicas más caras que se hayan emprendido jamás.
¿Europa tiene esos medios?
Siete socios sufragan inicialmente el coste de construcción y de funcionamiento de ITER, que asciende a 12 mil millones de euros. La contribución
de Europa, que acoge el reactor en su territorio y que, por su experiencia,
será un actor clave de esta cooperación científica internacional, se eleva
al 40%, o sea, unos 5 mil millones de euros. A modo de comparación,
las inversiones previstas para la fusión a lo largo de 12 años representan
mil millones de euros anuales. Paralelamente, los gastos en energías
renovables se elevan a 40 mil millones de euros. Las estimaciones del
mercado mundial de la energía son de unos 4 billones de euros por año.
Por lo tanto, la fusión es una de las soluciones energéticas para el futuro.
En concreto, ¿cuáles son sus ventajas?
Bajo ningún concepto presentaría la fusión nuclear como una fórmula
“mágica” capaz de resolver por sí misma las cuestiones energéticas del
futuro. Deben movilizarse todas las fuentes de energía renovables, entre
las que se incluye la fusión. En mi opinión, la fusión es una de las pocas
opciones de futuro que podrían responder a las enormes necesidades
energéticas de las innumerables metrópolis urbanas que no paran de
crecer en todos los continentes.
La fusión es todavía un proceso científico y tecnológico que hay que
aprender a dominar. Todos los avances de los conocimientos adquiridos
durante décadas muestran que vale la pena seguir por este camino.
Y no por el placer de realizar una proeza, evidentemente. El experimento
JET fue construido en los años 70 ante la seria alerta que representaron
los primeros conflictos con el petróleo. Después, la tensión se relajó durante
más de veinte años, de modo que, a pesar de haber sido estudiado
conceptualmente, el proyecto ITER ha tenido que esperar durante mucho
tiempo.
Hoy en día no sólo asistimos a un nuevo conflicto con el petróleo sino
también a la incertidumbre de la época post-petróleo y al calentamiento
climático. Ésta es la verdadera apuesta de ITER. Y, para retomar su
expresión, no dudo de que “vale la pena todo esto”.
Contacto
David Ward
[email protected]
Reacción de la fusión. © EFDA
14
I+DT info especial EIROforum Febrero de 2007
E FDA
La ambiciosa
aventura de la fusión
Hace ahora medio siglo, los físicos empezaron a imaginar que el
modelo de la nucleosíntesis estelar podría reproducirse en la Tierra
y suministrar así una fuente de energía inagotable. Presentamos una
retrospectiva de esta larga búsqueda científica en la que Europa ha
jugado y juega hoy un papel protagonista en la nueva etapa crucial
de la construcción de ITER.
l hidrógeno era el único elemento de la materia que constituía el
Universo en sus primeros minutos de existencia. Hubo que esperar
cerca de mil millones de años después del Big Bang para que
nacieran las estrellas. Su formación se desencadenó cuando las
grandes nubes de hidrógeno a la deriva empezaron a contraerse por efecto
de la gravedad. Esta contracción va acompañada de un extraordinario
calentamiento acumulativo de las temperaturas en el que el hidrógeno
pasa al estado de plasma: el aumento de temperatura separa los electrones
de los núcleos a los que están ligados y este estado del plasma se
caracteriza por un cúmulo gaseoso de iones de hidrógeno, es decir de
núcleos cargados positivamente. Esta coexistencia de cargas del mismo
signo se traduce, inicialmente, en fuerzas electrostáticas de repulsión
que las mantienen separadas entre sí. Sin embargo, si las temperaturas
siguen subiendo en el seno del plasma, la repulsión electrostática se
sustituye por el inicio de la interacción nuclear fuerte. Su alcance es
muy corto, pero extremadamente potente. De repente, dos núcleos se
atraen mutuamente por efecto de esta fuerza que les lleva a fusionarse
de forma inevitable. Esta fusión nuclear de núcleos de hidrógeno (masa
atómica igual a uno) produce el helio (masa atómica igual a dos), el
segundo elemento que apareció en el Universo. Al mismo tiempo, la
pérdida de masa resultante de este proceso se transforma en un
enorme desprendimiento de energía que contribuye a perpetuar el
fenómeno de la fusión (1).
E
El sueño de los sabios
Así nacieron y viven las miríadas de estrellas del Universo, crisol de un
formidable centro de producción de materia y energía por medio de la
fusión. Este es el caso de nuestro propio Sol, principal proveedor de los
recursos energéticos de la Tierra.
Sin embargo, desde que la ciencia estableció las bases de la nucleosíntesis estelar (hacia la mitad del siglo pasado) un sueño ambicioso
empezó a obsesionar la mente de los físicos: si se llegara a reproducir
y controlar tecnológicamente el proceso de la fusión nuclear en la
Tierra, entonces la Humanidad dispondría de una inaudita fuente de
energía casi inagotable.
Esta abundancia potencial se apoya en una doble evidencia. Un plasma
que contuviera sólo unos gramos de iones pesados de hidrógeno (2) sería
capaz de provocar una reacción de fusión con una producción instantánea
de energía comparable a la de una gran central eléctrica. Además, el
hidrógeno es el elemento de la materia más elemental y abundante, no
sólo en el Universo, sino también en nuestro planeta, empezando por
la composición del agua.
El interés por la fusión nuclear también se debe a que elimina los riesgos
que hasta ahora conlleva la explotación civil de la energía atómica.
Cuando el hidrógeno pasa al estado de plasma, éste se caracteriza por una
nube gaseosa de iones de hidrógeno, es decir, de núcleos cargados
positivamente. El Mast experiments, el programa británico de fusión
sucesor del Start, lleva a cabo las investigaciones sobre el plasma de fusión
con configuraciones más esféricas. © EFDA
Contrariamente a los procesos de fisión de los átomos pesados de uranio,
que sirvió para desarrollar la carrera nuclear hoy tan ampliamente
extendida, la fusión no puede provocar ninguna “reacción en cadena”
como la ocurrida en Chernobyl. No requiere ni la evacuación ni el
tratamiento de ningún residuo radioactivo: los muros internos del reactor
retienen la única radioactividad que se produce, que tiene una vida
media de varias décadas. Finalmente, esta energía se postula como
una alternativa importante al uso de los combustibles fósiles, una ventaja
inestimable cuando el cambio climático está al orden del día.
Una larga trayectoria de un siglo
A pesar de que la ecuación de la fusión de dos átomos reside en una
fórmula tan sencilla como una simple adición de un número muy
pequeño de núcleos de hidrógeno, el largo camino recorrido por las
investigaciones sobre la fusión durante cincuenta años todavía no ha
llegado a su fin. Los cálculos razonables que podemos hacer, ahora
que ya se ha tomado la decisión de construir ITER, indican que su
resultado (que sólo se obtendrá inicialmente a partir de una explotación
energética industrial de la fusión) todavía requerirá bastante tiempo.
Aún así, queda pendiente el verdadero reto de “reproducir el Sol en la
Tierra”, es decir, provocar un proceso que sólo puede desarrollarse
con unas temperaturas casi inimaginables, es decir, de cerca de los
150 millones de grados.
De entrada, los investigadores tuvieron que plantearse la selección de
los átomos “fusionables”. Entre todas las reacciones posibles se escogió
la fusión del deuterio y el tritio, dos isótopos pesados del hidrógeno
fáciles de obtener. Los océanos constituyen la principal reserva natural
de deuterio y permiten extraer una media de 35 g de éste por m3 de
agua. Al contrario, el tritio, un elemento en estado radioactivo con una
media de vida de aproximadamente 12 años, es muy escaso en la
naturaleza, pero fácil de producir artificialmente y en el mismo reactor de
fusión a partir del litio, un metal ligero que abunda en la corteza terrestre.
Para hacer funcionar un reactor de fusión hace falta una cantidad muy
pequeña de estos dos combustibles de base. Por ejemplo, un reactor
de fusión industrial con una capacidad de un gigavatio sólo requeriría
el consumo anual de 100 kg de deuterio (extraídos de 2.800 toneladas de
E FDA
I+DT info especial EIROforum Febrero de 2007
15
agua de mar) y de 150 kg de tritio (que pueden producirse con 10 toneladas de mineral de litio).
La cuestión fundamental a la que deberá responder ITER sigue siendo
la activación efectiva de una reacción de fusión duradera en el seno de
este singular cúmulo gaseoso, casi inmaterial y muy difícil de mantener
en un estado estable, que constituye un plasma llevado a temperaturas
extremas. La condición sine qua non es que dentro del recinto del
reactor el plasma sea un medio completamente cerrado y “flotante”
(es decir, que nunca tenga el menor contacto con la parte interna del
reactor), en el que los iones de hidrógeno efectúen una circulación
cada vez más rápida y agitada hasta poder encontrarse y fusionarse.
La realización de esta condición recibe el nombre de confinamiento
del plasma.
JET, el instrumento precursor
También aquí se tomaron las decisiones progresivamente. El tipo de
reactor Tokamak, propuesto por los científicos rusos Igor Taman y
Andrei Sakharov en los años 50, se impuso como el más eficaz. Esta
denominación es el acrónimo ruso que designa un contenedor de
forma toroidal dentro de las paredes del cual se confina el plasma a
través de potentes campos magnéticos.
En el mundo hay varios tokamaks, pero el más grande y eficiente jamás
construido es el Joint European Torus o JET. Este reactor experimental,
concebido en los años 70 y operativo desde 1983, es el instrumento
que ha servido para estudiar y poner a punto las técnicas más avanzadas
de calentamiento, confinamiento y control de la estabilidad del plasma.
Es en el interior de JET donde en 1991 se consiguió provocar la primera
reacción de fusión controlada realizada en la Tierra. La liberación de
energía no fue demasiado espectacular, sólo de una potencia inferior a
2 megavatios, pero constituyó un paso importante. Las pruebas
pacientes y repetidas de los investigadores permitieron lograr, en
1997, un record invicto de potencia de energía de fusión que alcanzó
los 16 megavatios.
En realidad, este logro no fue más que un “destello” de varios segundos
que sólo alcanzó un factor de 0,64 con respecto al margen inamovible
del break even (punto de inflexión), es decir, el punto crucial donde la
energía de fusión sobrepasará la necesaria para calentar y confinar el
plasma. Éste es el límite que el futuro tokamak ITER deberá superar
de forma convincente.
Plataforma de prueba de operaciones del “divertor” de ITER. El funcionamiento de esta parte esencial del reactor, que permite cargar los combustibles y evacuar los “residuos” de fusión (en forma de helio no radioactivo),
tiene que ser dirigido totalmente a distancia. © ITER
La senda de ITER
De 24 metros de alto y 30 de ancho, ITER ha sido concebido para
alcanzar entre 500 y 700 MW de potencia térmica en el seno de un
plasma de fusión toroidal con un volumen de 800 m3 confinado por
potentes campos magnéticos. Deberá producir entre cinco y diez veces
más calor que el necesario para mantener el plasma a la temperatura
de fusión. De este modo, demostrará que es posible producir energía
de forma sostenible y estable para la explotación constante de una
central.
El camino se abrirá entonces a físicos e ingenieros para desarrollar y
optimizar las tecnologías, los componentes y las estrategias de control
que se utilizarán como demostración en una futura central eléctrica de
fusión, bautizada ya como DEMO, que es la última etapa de esta larga
trayectoria de un siglo.
(1) Todos los elementos que existen en el Universo, desde los más ligeros (como
el carbono o el oxígeno) hasta los más pesados (como el plomo o el uranio) se
formaron por una desmultiplicación de los fenómenos de la fusión nuclear de los
átomos ligeros, en el núcleo de las estrellas y más tarde en sus capas exteriores.
(2) Podemos considerar, por ejemplo, que un kilogramo de “combustible de
fusión” permite generar tanta energía como 10.000 toneladas de carbón en una
central clásica.
Confinamiento del plasma. El campo producido por un complejo sistema de
bobinas electromagnéticas asegura este proceso. © EFDA
16
I+DT info especial EIROforum Febrero de 2007
E FDA
JET, el banco
de pruebas
precursor de ITER
El reactor Joint European Torus (JET) puede considerarse el instrumento
precursor sin el cual el proyecto ITER jamás habría visto la luz. Este
centro de vanguardia es uno de los bancos de pruebas donde se evalúa
la validez y fiabilidad de múltiples opciones científicas y tecnológicas
previstas para el futuro reactor internacional de Cadarache.
Uno de los departamentos de investigación de Abingdon trabaja sobre
el desarrollo de la robótica de mantenimiento que hace falta para
entrar en el recinto radioactivo del tokamak ITER y realizar en él
pruebas e intervenciones. De este modo, el robot de servicio de JET
ha adquirido la flexibilidad de una serpiente que se despliega por
el recinto toroidal hasta dar la vuelta. La conducción se controla
a distancia, desde una pequeña sala llena de pantallas donde
el operador manipula dos palancas delicadamente. El sistema de guía
permite percibir la resistencia de la tuerca más pequeña.
as instalaciones de JET, situadas en el Culham Science Centre de
Abingdon, en la periferia verde de Oxford (Reino Unido), son la
joya del programa europeo de la fusión. “Los otros laboratorios de
investigación del continente tienen sus propias capacidades de
experimentación”, explica Chris Carpenter, agregada de la Autoridad
de Energía Atómica del Reino Unido en el EFDA. “Sin embargo, JET
constituye la placa de ensayo más polivalente y equipada para probar
y validar una gran cantidad de trabajos”.
L
Cuando el reactor se pone en marcha
El Culham Science Centre hospeda a cientos de investigadores e
ingenieros, residentes o visitantes, llegados de toda Europa o de otros
continentes. Cuando el reactor se pone en marcha para llevar a cabo
experimentos diversos, el control de JET parece la sala de control de
lanzamiento de un cohete espacial. Unos cincuenta expertos supervisan
en sus pantallas las miles de variables que detectan el funcionamiento
del instrumento, el comportamiento del plasma, el control de las
temperaturas y el confinamiento magnético.
Desde una plataforma central, tres personas, que representan a los
responsables del experimento en curso, los físicos permanentes de
JET y los ingenieros encargados del funcionamiento de los equipos
tecnológicos, vigilan las operaciones. “El plasma de deuterio y tritio
confinado en el tokamak es más ligero que el aire. Está compuesto por
una cantidad de partículas un millón de veces más pequeña que la
atmósfera pero es un millón de veces más caliente” explica
Christopher Warrick, físico y portavoz de JET. “Nos ha llevado años
aprender a gestionar las situaciones increíblemente extremas e inestables
que se producen en un medio físico como ése”.
Los equipos se suceden desde las siete de la mañana hasta las diez
de la noche. Cada una de las siete tasks forces de JET defiende las
propuestas de experimento ante un comité científico europeo. Estos se
analizan minuciosamente de acuerdo, sobre todo, con la pertinencia
de los experimentos para la puesta en marcha de ITER.
Un nuevo recinto
“Por su tamaño y configuración, JET es el ‘modelo a escala’ más
grande que permite probar y validar múltiples avances necesarios para
la construcción del reactor de Cadarache”, explica Shakeib Rasad,
agregado del Close Support Unit que se encarga de la estrategia científica
del reactor. “Gracias a métodos de diagnóstico en constante mejora,
podemos trabajar los plasmas de deuterio y tritio de formas y temperaturas diferentes para optimizar el rendimiento energético de cada
uno de estos modos. Otros puntos fuertes de JET se refieren al control
del flujo de partículas rápidas alpha, que transmiten su energía cinética
al resto de partículas del plasma”.
En 2007 o 2008, los experimentos se interrumpirán durante varios
meses para permitir una actualización del instrumento. “Después de
una serie de experimentos, a menudo modificamos la infraestructura
para permitir nuevas configuraciones de ensayo. Pero esta vez se trata
de tres grandes trabajos que nos permitirán poner a prueba un nuevo
recinto interno. Éste estará constituido por revestimientos con berilio,
escogidos para tapizar las paredes del futuro ITER en sustitución de los
compuestos de carbono que hasta ahora se utilizaban en el tokamak.
Esta nueva configuración será una primicia mundial. Evidentemente,
la compatibilidad entre el plasma y este recinto constituye un reto
fundamental del proyecto. Nos esperan nuevos desafíos”.
Para más información
http://www.jet.efda.org
ILL
I+DT info especial EIROforum Febrero de 2007
17
Los neutrones
al servicio de la ciencia
Instituto Laue-Langevin. El nombre que dieron sus fundadores
al ILL es un homenaje a dos físicos pioneros del siglo
pasado (1). Este centro de excelencia europeo es actualmente
una de las fuentes mundiales más importantes de neutrones,
gracias a los cuales los investigadores de todas las disciplinas
pueden penetrar en la estructura de la materia inerte o viva.
sta importante instalación científica nació en Grenoble en los años
sesenta, fruto de la inspiración conjunta del físico alemán Heinz
Maier-Leibnitz y su colega francés Louis Néel (premio Nobel en
1970 por sus trabajos sobre el magnetismo). Éstos querían poner a
disposición de la investigación fundamental civil la herramienta
formidable de investigación de los átomos o de las moléculas que ofrecen
los haces neutrónicos. Este hermanamiento bilateral entre Francia y
Alemania se reforzó con una participación equivalente del Reino Unido
durante los años setenta(2). Desde entonces, otras colaboraciones con
diferentes países europeos han aportado su apoyo al Instituto.
El efecto Cerenkov visible en la piscina del reactor del ILL. La luz azul es
el resultado de un fenómeno de polarización del agua cuando los electrones
de alta energía la atraviesan. Las radiaciones gamma liberadas por los
procesos de fisión en el núcleo del reactor crean estos electrones.
© ILL/Jean-Luc Baudet
Un líder mundial
Pistas pedagógicas
El ILL, líder mundial de las ciencias y de las técnicas neutrónicas, es un
instituto de servicio que ofrece a los investigadores de todo el mundo la
posibilidad de llevar a cabo sus investigaciones en una amplia gama de
sectores, desde la física de la materia condensada hasta la ciencia de
los materiales, pasando por la química, la biología y la física nuclear.
Cada año, cerca de 2.000 investigadores, seleccionados por un comité
científico, llegan al ILL para realizar su propio proyecto y se llevan a
cabo unos 800 experimentos. Paralelamente, la vida científica propia
del Instituto y el apoyo a los usuarios movilizan permanentemente a más
de 300 investigadores, ingenieros y técnicos.
La excelencia principal del ILL se debe a la calidad de su fuente de
neutrones, pero también a la gran cantidad de líneas de haces sobre
los cuales éstos se reparten. Así, varios experimentos que necesiten
haces muy diferentes, tanto en intensidad como en energía, pueden
explotar una misma fuente de neutrones. Además de los detectores y
otros instrumentos, los investigadores disponen de equipamientos
sofisticados concebidos y desarrollados por los científicos “de la casa”
que a menudo no tienen ningún equivalente en el mundo: componentes
ópticos ultraperfeccionados denominados monocromadores, superespejos
que reflejan, concentran y guían los neutrones, crio-imanes que permiten
estudiar las muestras con el estado magnético deseado, etc.
El ILL se dirige al gran público mediante una serie de folletos temáticos
(en inglés) sobre las aplicaciones de las técnicas del neutrón en varios
ámbitos (la materia, la vida, los nuevos materiales, el Universo, etc.).
Estos folletos descargables, muy bien ilustrados, ofrecen vías pedagógicas
interesantes para los profesionales de la docencia.
E
(1) El alemán Max von Laue (premio Nobel en 1914) fue el inventor de la medida
por difracción de las longitudes de onda de los rayos X a través de un cristal y el
francés Paul Langevin fue un investigador importante en el equipo de los pioneros
del átomo próximos a Pierre y Marie Curie. Ambos pueden ser considerados
como los “padres espirituales” de la investigación neutrónica.
(2) Más allá de los tres países asociados, desde hace veinte años se han entablado
colaboraciones científicas de forma continuada: España (1987), Suiza (1988),
Austria (1990), Rusia (1996), Italia (1997), la República Checa (1999), Suecia
y Hungría (2005), Bélgica y Polonia (2006).
Para más información
http://www.ill.fr
http://www.ill.fr/pages/science/AtILL/brochures.html
I+DT info especial EIROforum Febrero de 2007
ILL
¿La energía
2
equivale realmente a “mc ”?
La ecuación de la relatividad restringida E=mc2, la fórmula
más célebre de la física moderna firmada por Albert
Einstein en 1905, sentó las bases de la equivalencia entre
la energía y la masa en la topología del espacio-tiempo.
Aunque ninguna teoría u observación nueva ha invalidado esta
ecuación fundamental, los físicos no han dejado de ponerla
a prueba a través de la experimentación. Con una precisión
jamás alcanzada, la prueba más reciente se desarrolló en el
Instituto Laue-Langevin de Grenoble, importante centro
europeo y mundial de la neutrónica, esta rama tan especial
de la física nuclear que utiliza los haces de neutrones para
explorar la materia en sus componentes más íntimos.
o es fácil verificar la ecuación de Einstein con una precisión
suficientemente significativa. En 1932, un equipo británico
emprendió la prueba por primera vez bombardeando con protones
un objetivo de litio que se desintegró liberando los núcleos de helio a
gran velocidad. Midiendo la energía de estos núcleos y comparando la
diferencia de masa entre los núcleos de salida (litio) y los de llegada
(helio), los investigadores llegaron a calcular que la ecuación “funcionaba”,
pero la estimación seguía afectada por un cierto margen de imprecisión.
Seguidamente, se llevaron a cabo otros experimentos para hacer
colisionar un electrón con un positrón (un par de antipartículas).
N
Durante el choque, éstos se aniquilan, y el intento de comprobación se
establece mediante la comparación entre la energía que se libera y la masa
original de las partículas. Sin embargo, los físicos admitieron que esta
modalidad de medidas sigue siendo insatisfactoria. No fue hasta 2005
cuando los flujos de electrones del ILL pusieron a punto una comprobación
que alcanza unas normas de precisión 55 veces superiores a los
experimentos anteriores.
El rayo gamma y la medida de masa
Para llevar a cabo esta demostración, seguida atentamente por el
mundo de la física, los investigadores medirán separadamente los dos
aspectos de la ecuación, por un lado la masa y por el otro la energía.
¿De qué modo? Cuando un núcleo captura un neutrón, emite una cantidad
ínfima de energía en forma de rayo gamma. Esta energía, calificada como
energía de enlace, corresponde pues a una pérdida de masa proporcional.
Por lo tanto, el experimento consiste en medir esta masa desaparecida
y compararla con la energía del rayo emitido.
Las medidas de masa se desarrollaron inicialmente en el Massachusetts
Institute of Technology (MIT) gracias a un aparato denominado trampa
de Penning. Las “mediciones” revelaron la diferencia de masa entre un
núcleo de silicio 28 y otro al que se le ha hecho capturar un neutrón
(o sea un silicio 29). Esta diferencia se obtiene comparando la frecuencia
de rotación de los dos átomos que se hacen girar en un campo magnético
de 8 teslas.
El espectro de rayos Gamma GAMS 4 que utiliza el ILL para la comprobación de la ecuación de Einstein. © ILL/Artechnique
© Archivo fotográfico del Palacio del Descubrimiento
18
ILL
I+DT info especial EIROforum Febrero de 2007
19
El neutrón, el “sherpa”
del mundo subatómico
Michael Jentschel: “Nuestro experimento es
como cortar desde París una loncha de dos
milímetros en una manzana que se encuentre
en Moscú”. © ILL/Serge Claisse
Entonces, el resultado se resta a la masa de un neutrón, lo que da la
pequeña diferencia de masa correspondiente a la energía que emite el
rayo gamma. Para Simon Rainville, profesor del MIT encargado del
experimento, “se trata de la medida de masa más precisa del mundo,
una parte por 100 mil millones”. El miembro derecho de la ecuación
(mc2) se evalúa así multiplicando este valor por el cuadrado de la velocidad de la luz.
Una masa de 1,68x10-24 gramos, una “talla” de 10-15 metros (1
fermi), una carga eléctrica nula, un espín magnético de 0,5. El
neutrón es uno de los componentes de la estructura del núcleo
de los átomos, junto con los protones cargados positivamente.
Durante las reacciones de fisión nuclear controlada, la radioactividad libera partículas subatómicas globalmente “neutras”,
a saber, que no sean sólo neutras eléctricamente sino que también
estén desprovistas de poder ionizante.
Los científicos comprendieron muy pronto la herramienta extraordinaria que proporcionaba la neutralidad de estas partículas
esenciales del universo atómico. Cuando el haz de neutrones
se dirige a un “blanco” de materia, estos pueden penetrar los
átomos de esta última de forma no destructiva ideal para observar
su intimidad. Su masa les hace “rebotar” sobre los núcleos de
los átomos, y estos choques se traducen en emisiones de ondas
y en intercambios de energía.
Medir la energía
Al otro lado del Atlántico, un grupo de investigadores del NIST y del ILL
se volcaron en el cálculo del lado izquierdo de la ecuación (la energía, E)
midiendo la energía del rayo gamma con un espectrómetro de rayos
gamma. En este caso, el átomo de silicio 28 se bombardea con neutrones. Cuando éste captura uno, el rayo gamma emitido se difracta
mediante dos cristales de silicio ultrapuros que lo desvían siguiendo
un ángulo proporcional a su longitud de onda y, por lo tanto, a su energía. El ángulo se mide con una precisión del orden de 5.10-7 con la ayuda
de un interferómetro angular construido especialmente para el experimento. Para Michael Jentschel, físico del ILL implicado en esta investigación de vanguardia, la precisión de esta medida “es como cortar desde
París una loncha de dos milímetros en una manzana que se encuentre
en Moscú”. La energía del rayo gamma que así se determina proporciona el valor del primer miembro de la ecuación.
Y lograda la comprobación, E es realmente igual a mc2, con un margen de
error del 0,00004%. “Lo contrario simplemente habría desordenado todo
el mundo de la física y de la cosmología. Y la primera reacción habría
sido la de poner en duda la validez de nuestros trabajos...”, explica
Michael Jentschel. Así es la ciencia, que a menudo consiste en medir
unos valores que no pueden ser más que los esperados. “Nuestra experiencia, pues, no ha salido en portada de los medios de comunicación.
Sin embargo, se sabe que la medida oficial y universal del concepto de
masa sólo sigue siendo calibrada por un cilindro de platino irisado guardado
celosamente en la Oficina internacional de pesos y medidas de París.
El interés de nuestros trabajos reside en el hecho de que han innovado
experimentalmente, al relacionar la masa con otro campo de la física:
la energía”.
El difractómetro de neutrones térmicos D19 permite analizar la materia
estudiada. Este instrumento recoge las características de las ondas
atómicas emitidas cuando la materia es atravesada por el haz de
neutrones y así permite reconstruir la estructura y la posición de los
átomos de la muestra analizada. © ILL/Artechnique
Dos grandes modelos de aparatos de detección permiten analizar
y obtener informaciones extremadamente precisas de la materia
estudiada. El difractómetro de neutrones recoge las características
de las ondas “de choque” atómico (dirección de propagación,
longitud de onda y amplitud) emitidas cuando el haz de neutrones
atraviesa la materia. Este conocimiento permite reconstruir la
estructura y la posición de los átomos de la muestra.
En segundo lugar, los detectores del espectrómetro neutrónico
permiten medir los cambios de energía que se producen ofreciendo
información sobre la distribución de la energía y, por lo tanto, sobre
los movimientos en el seno de los átomos observados.
Además, el espín propio del neutrón lo vuelve sensible a las
propiedades magnéticas de los átomos que atraviesa. En realidad,
éste constituye la única sonda capaz de observar a la vez los
núcleos de los átomos y los mecanismos magnéticos de sus
electrones.
Los neutrones, complementarios de otras fuentes de radiación,
destacan en áreas que les confieren un lugar único en el centro
de los retos científicos y tecnológicos del futuro. Éstos cubren
ámbitos de investigación muy variados y extensos, en física de
partículas, física nuclear, química, biociencias e incluso ciencias
de los materiales.
20
I+DT info especial EIROforum Febrero de 2007
ILL
Marte. Cráter Galle, al este de la cuenca del Argyre. © ESA
El misterio
del magnetismo marciano
En Marte, los neutrones del ILL han esclarecido un problema
totalmente diferente relacionado con la materia y la energía.
Desde 1997, cuando la sonda estadounidense Mars Global
Surveyor sobrevoló por primera vez su superficie a 400 km de
altura, los científicos quedaron intrigados por las importantes
anomalías magnéticas que se revelaron sobre el planeta rojo.
En Grenoble, los científicos consiguieron demostrar que los
rastros fósiles del magnetismo marciano se explican por la
presencia de un mineral de sulfuro de hierro, la pirrotita.
Carta topográfica de Marte.
En gris: las curvas de niveles de
presión determinadas mediante
cálculos, distribuidas alrededor
de los cráteres inmensos
Hellas y Argyre después de los
impactos. En líneas negras:
el contorno de los campos
magnéticos que midió la sonda
Global Surveyor.
© Projection Mercator. Cortesía
del equipo de ciencia MOLA.
La prueba de la pirrotita
Para reforzar una suposición como ésta hacía falta establecer una
hipótesis sobre la naturaleza de las rocas responsables del magnetismo
y medir su umbral de transición de fase, es decir, la presión a la cual se
desmagnetiza la roca. En esta gama de posibilidades, los indicios
conducen a las propiedades magnéticas de un sulfuro de hierro
denominado pirrotita.
Las investigaciones sobre el umbral de transición magnética de la pirrotita
se han llevado a cabo en el ILL con la ayuda de difractómetros de neutrones. “Dirigidos sobre una muestra del mineral, los neutrones difractados
se recogen mediante un detector que muestra los picos de difracción
característicos de la estructura atómica y también de los ajustes de los
momentos magnéticos de los átomos”, explica Bachir Ouladdiaf,
especialista de magnetismo en el ILL. Después de haber aumentado
la presión en una variación de entre 2,6 y 3,1 gigapascales (1), los
investigadores pudieron constatar la desaparición de los picos vinculados
al magnetismo.
A continuación, faltaba volver al caso del planeta Marte, donde los
geofísicos delimitaron alrededor de los impactos las zonas que habían
sido sometidas a presiones superiores a este umbral a partir de los datos
recogidos por las sondas y mediante simulaciones. Éstas coinciden
perfectamente con las zonas desmagnetizadas que registró la sonda
Global Surveyor.
“La medida de la transición de fase de la pirrotita ha permitido explicar
las anomalías de la remanencia magnética de la corteza marciana,
punto de partida de la investigación, y por lo tanto podemos considerar
que la pirrotita es el principal mineral presente responsable de esta
remanencia. A veces, algo tan infinitamente pequeño como un neutrón
permite esclarecer la historia magnética de un planeta al desentrañar
la intimidad física de un mineral”.
ace 4 mil millones de años, Marte tenía probablemente un campo
magnético similar al de la Tierra. El enfriamiento del planeta rojo
comportó la interrupción del movimiento del magma. Como una
dinamo, este movimiento de materia fundida rica en hierro crea el
campo magnético en el núcleo de los planetas.
Una inmersión en el pasado explica
El final de una ilusión… por qué el hemisferio norte de Marte
El magnetismo de los meteoritos de no presenta un campo magnético: su
origen marciano que cayeron sobre corteza no se habría solidificado hasta
la Tierra se ha estudiado muchas
después de la interrupción de la actividad
veces como terreno de investigación magnética de su núcleo. En cambio,
sobre el magnetismo marciano del
parece ser que la corteza del hemisferio
planeta rojo. Los nuevos datos
sur, más antigua, conserva un rastro
introducidos por los trabajos sobre fósil de esta actividad.
el umbral de transición magnética
Sin embargo, esta cartografía magnética
de la pirrotita dejan obsoletos estos global se contradijo con dos anomalías
estudios anteriores. En efecto,
que reveló el Global Surveyor: la ausencia
total de magnetismo alrededor de las
desde su expulsión, todos los
meteoritos marcianos sufrieron una cuencas del Argyre y del Hellas, dos
presión ampliamente superior a los cráteres antiguos de más de 200 km
de diámetro cavados por meteoritos (1) Un gigapascal equivale a 10.000 veces la presión atmosférica en la
3 gigapascales (1). La ausencia de
remanencia importante en estas
gigantes. Dado que el aumento de superficie terrestre.
rocas evidencia la falta de un
temperatura posterior al impacto de
campo magnético en el momento
estos meteoritos no podía justificar la
del impacto y no durante la
amplitud de la zona desmagnetizada,
cristalización de las rocas.
los geofísicos investigaron entonces si
la causa podía atribuirse al aumento de
P. Rochette, G. Fillion y R. Ballou, F. Brunet, B. Ouladdiaf, L. Hood,
presión en el núcleo de las rocas responsables del magnetismo fósil en
Geophysical Research Letters, vol. 30, nº 13, 1683(2003).
el momento de los impactos.
H
Para más información
ILL
I+DT info especial EIROforum Febrero de 2007
21
Si los haces de neutrones revelan la estructura de la materia
inerte a semejanza de la radiación X sincrotrónica, los biólogos
recurren cada vez más a estos dos instrumentos europeos de
Grenoble para estudiar las moléculas complejas que
construyen la vida. Los trabajos punteros que se han llevado
a cabo en colaboración con el ILL y la Instalación Europea
de Radiación Sincrotrónica (o ESRF, en inglés) tratan
particularmente el tema de las moléculas de adhesión de las
células neuronales (conocidas bajo el acrónimo inglés
NCAM), responsables del rechazo o de la adhesión entre
células nerviosas al nivel de las sinapsis.
Sobre las neuronas
stas investigaciones tratan sobre los grandes retos de los temas
médicos. Si los mecanismos de adhesión de esas largas moléculas
fijadas a la membrana celular tienen la misión de asegurar la
estabilidad y la integridad de las conexiones entre neuronas, los
mecanismos de rechazo, por su parte, dirigen la migración de las células
jóvenes y permiten así el desarrollo del sistema nervioso central.
Esta plasticidad, indispensable para su construcción, también es crucial
para su reconstrucción en una perspectiva terapéutica eventual.
Contrariamente, el fenómeno migratorio de las células neuronales también
es un factor agravante en los cánceres cerebrales.
se retracta y deja salir los sectores de la molécula que aseguran el
mecanismo de adhesión. Entonces, la proteína se vuelve adhesiva. La
adhesión celular se controla actuando sobre la salinidad del medio”,
comenta Giovanna Fragneto, especialista de membranas celulares en
el ILL.
Esta investigación reciente sobre las NCAM todavía no permite aplicaciones directas. Sin embargo, estos conocimientos de los mecanismos
de adhesión celulares y de las proteínas implicadas parece que pueden
ofrecer perspectivas interesantes. De éstos podrían derivarse tratamientos
contra enfermedades neurodegenerativas como el Alzheimer. Otro
ejemplo podría ser el control del crecimiento de las células del
hipocampo en estructuras artificiales para curar lesiones de la médula
De la adhesión al rechazo
espinal. Algunos bioingenieros esperan encontrar en ello pistas para
acoplar material biológico y prótesis artificiales. Otros sueñan lo contrario,
Para comprender cómo se producen la adhesión y el rechazo, los es decir, integrar los tejidos neurales a los equipos electrónicos para
científicos midieron primeramente el espesor de las moléculas de adhesión. construir ordenadores “biológicos”.
Se aplicó una monocapa de moléculas de adhesión NCAM (Neural Cell
Adhesion Molecule) sobre una película que reproducía una membrana
celular. Con la ayuda de los espectrómetros de neutrones y de la radiación
sincrotrónica del ILL y de la ESRF, los investigadores confirmaron un
resultado que ya se presentía: la capa es mucho más fina de lo que
debería ser si los siete segmentos de la molécula estuvieran alineados
perpendicularmente a la membrana. En realidad, la proteína está plegada
a la altura de su segundo segmento, por lo que se reduce la distancia de
adhesión entre dos células. De esta forma, los neutrones difractados
por las proteínas permitieron medir su espesor y rugosidad así como
conocer la composición de la capa de adhesión.
Una vez confirmada esta información, los investigadores pudieron probar
la doble función en el mecanismo de adhesión de un polímero de ácido
polisiálico (PSA) y de la presencia de sodio en el medio celular. “Hay En la imagen de la izquierda, el ácido polisiálico (PSA) desempeña una
dos tipos de NCAM en las membranas de las neuronas”, explica Oleg función esencial en la migración de las células madre durante el desarrollo
Konovalov, responsable de investigación en el ESFR. “Las asociadas a del cerebro. A la derecha, ante la ausencia del mediador PSA, asistimos
las células jóvenes poseen una cadena de PSA, mientras que el resto a un fenómeno de fricción entre células que dificulta la migración.
no. La cadena de PSA inhibe la adhesión rodeando y ocultando los sectores © U. Rutishauser
implicados de la molécula. Queríamos comprender este proceso
denominado ‘de rechazo’ que es imprescindible para que las células
formadas recientemente puedan migrar y encontrar su lugar en el
Mediante la observación de la materia y de la vida, los trabajos que se
sistema nervioso”.
llevaron a cabo en el ILL y en la ESRF, en el Polígono científico de
Grenoble, recuerdan en primer lugar que el fundamento de cualquier
Una cuestión de salinidad
investigación consiste en observar la naturaleza. Sólo a partir de estas
constataciones se construyen y se validan leyes y teorías. En neutrones,
¿Cómo se fijan estas células cuando han alcanzado su destino? Los rayos X o en la microscopia electrónica, las técnicas de investigación
investigadores pudieron responder a esta pregunta conociendo a qué modernas ofrecen a los científicos unos medios de observación inigualados
distancia se extienden las NCAM sobre la superficie de la membrana en la historia. Al mismo tiempo, mientras los conocimientos aumentan
celular y midiendo el espacio que ocupa el polímero. “Normalmente, el cada vez más gracias a estas herramientas, los descubrimientos que
PSA impide la adhesión. Sin embargo, si aumenta la salinidad, el polímero éstas permiten plantean otras preguntas y respuestas...
E
22
I+DT info especial EIROforum Febrero de 2007
ESRF
En 1975 nació la idea de
instalar en Europa un primer
sincrotrón, llamado de tercera
generación, que tenía la
capacidad de producir luz X
un billón de veces más
intensa que la utilizada tradicionalmente en medicina o
en cristalografía.
La era de las nuevas luces
renoble, ciudad de ciencia y
de alta tecnología, fue elegida en 1988 para la
Instalación Europea de Radiación
Sincrotrónica (o ESRF, European
Synchrotron Radiation Facility). La
presencia del Instituto LaueLangevin desde los años setenta,
un éxito internacional en la investigación con los neutrones, favore- Anillo sincrotrón de la ESRF de Grenoble. © ESRF
ció esta decisión. Las técnicas
neutrónicas y la radiación sincrotrónica son a la vez cercanas y com- Los industriales también han comprendido desde hace mucho tiempo
plementarias. Dieciocho países forman parte de esta colaboración euro- el interés de la luz sincrotrón y confían investigaciones a la ESRF con
pea. Entre los aproximadamente cincuenta sincrotrones que existen en regularidad en campos como la farmacia, la petroquímica, la microel mundo, sólo otros dos pueden rivalizar con el de Grenoble, uno en electrónica o los cosméticos.
los Estados Unidos y otro en Japón.
“El desarrollo de las actividades del sincrotrón europeo responderá
cada vez más a las exigencias de exploración de las nanociencias”,
subraya Bill Stirling, director de la ESRF. “El objetivo es suministrar
5.500 investigadores al año
pronto haces a escala del nanómetro. Reconvertiremos alrededor de
una tercera parte de las líneas a fin de prepararnos para lo que será la
Alrededor del gran anillo sincrotrón de la ESRF funcionan actualmente ciencia de las próximas décadas, pero preservando y mejorando la
unas cuarenta “líneas de luz”, sumamente productivas y en constante herramienta de los científicos de hoy”.
mejora. Cada línea de luz está especializada en una técnica o en un
campo de investigación. De hecho, los sincrotrones son “máquinas
polivalentes”, que permiten estudiar la materia en todas sus formas: Crisol multicultural
sólida, líquida o gaseosa. Los haces de rayos X, extremadamente brillantes,
que proporciona el anillo de la ESRF hacen posible la observación de Dado que se aplica a los campos más diversos, el sincrotrón de Grenoble
muestras microscópicas (incluso nanoscópicas), la detección de conta- hace que se codeen físicos, químicos, biólogos, médicos o arqueólogos
minantes ultradiluidos (y aún así nocivos para la salud), o incluso el en experimentos inéditos, de ciencia fundamental o aplicada, que
seguimiento de reacciones químicas como en una película, a escala del pretenden traspasar los límites del conocimiento. Este entorno multicultural favorece una apertura de mente que se refuerza con la presencia
nanosegundo.
El sincrotrón europeo, que funciona las 24 horas del día, acoge cada de numerosos trabajadores en prácticas, estudiantes de tesis y postaño a 5.500 investigadores de todos los campos geográficos y científicos. doctorandos. Cada otoño, se dedica una jornada a los jóvenes investiDos veces al año, unos comités de expertos exteriores seleccionan los gadores que presentan sus trabajos. Asimismo, a lo largo del año,
proyectos procedentes de alrededor de 600 universidades y centros de tienen lugar numerosos seminarios y conferencias. Además, el sitio web
investigación, utilizando el criterio de la excelencia. Los equipos científicos de la ESRF está especialmente bien concebido para el público intepermanecen unos tres días de media en la línea de luz que se les atribuye. resado en la ciencia.
Los trabajos realizados en la ESRF se concretan en más de 1.300 publicaciones al año.
G
Para más información
http://www.esrf.fr
ESRF
I+DT info especial EIROforum Febrero de 2007
Investigadores de varias disciplinas trabajan en distintas
líneas de luz del anillo de la ESRF © ESRF
Imanes
Ondulador
Imanes
de curvatura de focalización
Anillo de
almacenamiento
Acelerador
del sincrotrón
23
© ESRF
Linac
Línea
de luz
Ver lo invisible
La radiación X, una forma de luz invisible, se absorbe poco Esta escala de tamaño corresponde a las dimensiones de los átomos y
por la materia que ilumina. Tiene la propiedad de penetrar de las moléculas. Cuando estos átomos y moléculas se disponen de manera
regular y periódica en el espacio, es decir, cuando la materia se presenta
en ella profundamente para desvelar su interior.
en forma cristalina, los rayos X se “difractan”. Esta técnica de difracción,
también denominada cristalografía, permite “visualizar” los átomos dentro
l hombre necesita la luz para ver y comprender el mundo que le de la materia. Así, desde principios del siglo XX, la cristalografía X se ha
rodea. Desde las antorchas de la época prehistórica hasta el láser convertido en una disciplina ineludible de la ciencia moderna.
moderno, ha inventado toda una gama de fuentes luminosas para
suplir las posibilidades que ofrece la luz natural.
Para ver mejor de lejos y de cerca y, por lo tanto, ampliar su campo de Nuevos retos
visión, el ingenio del hombre ha sabido fabricar instrumentos ópticos,
telescopios y microscopios. Sin embargo, incluso con ayudas muy En 1947, unos físicos que trabajaban en un nuevo tipo de acelerador de
eficaces, sólo percibimos un fragmento de la realidad. Muchas cosas partículas, el sincrotrón, observaron una luz que salía del anillo por el que
se escapan de nuestra vista si sólo utilizamos la luz denominada visible, circulaban los electrones. Esta luz, denominada radiación sincrotrónica,
es decir, esa parte de la radiación electromagnética a la que es sensible no se valoró enseguida en su justa medida. Hubo que esperar a la década
de los setenta para que los científicos reconocieran sus propiedades
el ojo humano.
extraordinarias y decidieran entonces fabricar máquinas dedicadas a la
emisión de luz sincrotrón para el estudio de la materia a escala atómica.
La herencia Röntgen
El sincrotrón de Grenoble, equipado con onduladores que hacen zigzaguear el haz de electrones, puede producir rayos X “duros” especialA finales del siglo XIX, el científico alemán Wilhelm Conrad Röntgen, primer mente intensos, coherentes y estables. El brillo obtenido, igual a un
premio Nobel de física de la historia, descubrió un nuevo medio extra- billón de veces el de un aparato de radiología médica clásico, permite
ordinario de visión: los rayos X. La radiación X, una forma de luz invisible, realizar experimentos que no podrían haberse imaginado hace unos
se absorbe poco por la materia que ilumina. Tiene la propiedad de quince años.
penetrar en ella profundamente para desvelar una visión del interior. Las técnicas utilizadas en las líneas de luz se han diversificado poco a
Además de aplicaciones médicas de todo tipo, permite comprobar, por poco y cada vez son más sofisticadas. En efecto, los rayos X interactúan
ejemplo, el contenido de objetos como una maleta o un contenedor sin con la materia de varios modos y el brillo de la radiación sincrotrón ha
tener que abrirlos y, para los científicos, permite acceder al núcleo de permitido abrir campos completamente inexplorados. Uno de los
la materia de modo “no destructivo”. En una radiografía, los rayos X avances más espectaculares es la posibilidad de realizar el seguimiento
revelan materiales de diferentes densidades, por ejemplo, un empaste de reacciones químicas o biológicas en tiempos muy cortos. Por ejemplo,
en un diente, por simple contraste de absorción (el plomo absorbe se puede observar la transformación de los gases de escape tras la
mucho más los rayos X que el tejido dental).
combustión cuando pasan dentro de un catalizador. También es posible
La capacidad de penetración de los rayos X va acompañada de otra reproducir, en una célula especial, las condiciones que sufren los
propiedad, menos conocida por el gran público: su longitud de onda es materiales en el centro de la Tierra (muy altas presiones y elevadas
diez mil veces menor que la de la luz visible, es decir, del orden de una temperaturas a la vez), y obtener información esencial sobre los materiales
décima parte de nanómetro. Esta característica de la luz X es capital. sometidos a estas condiciones extremas.
E
24
I+DT info especial EIROforum Febrero de 2007
ESRF
Desde hace unos años asistimos a una verdadera revolución en biología molecular
y estructural gracias a la radiación sincrotrónica. Actualmente, las siete líneas
de luz de la Instalación Europea de Radiación Sincrotrónica (ESRF, por sus
siglas en inglés) dedicadas a la cristalografía de las proteínas representan alrededor de una cuarta parte de su actividad científica. Los biólogos utilizan cada
vez más esta herramienta para ver, entender y controlar mejor la vida.
La vida
bajo la
mirada del sincrotrón
Ilustración de la estructura tridimensional de la proteína RecO,
una proteína que participa en la reparación del ADN genómico tras
los daños que causa la irradiación. © Joanna Timmins
esde el descubrimiento de la estructura de doble hélice del ADN
gracias a los rayos X hace medio siglo, se ha recorrido un largo
camino. Hoy en día, se han descifrado las estructuras de miles
de proteínas y, en ciertos casos, la cristalografía de las proteínas se ha
convertido en simple rutina. Sin embargo, los científicos se lanzan a
estudios cada vez más difíciles, como las proteínas membranales o los
complejos macromoleculares. Afortunadamente, la luz sincrotrón, con
su gran brillo, permite ir siempre más lejos. Entre los retos vinculados
a la salud pública, la lucha contra los virus y las bacterias exige obtener
información estructural absolutamente crucial para elaborar los
medicamentos, las vacunas y los antibióticos del futuro.
D
Alzheimer, paludismo, gripe aviar…
Ilustración de la estructura tridimensional de la proteína MTHase,
una enzima que actúa en la síntesis de un disacárido (trehalosa).
© Joanna Timmins
Radiorresistencia y reparación del ADN
Joanna Timmins, miembro del grupo de cristalografía macromolecular, se
interesa por la bacteria Deinococcus radiodurans que tiene la propiedad
extraordinaria de resistir a radiaciones muy fuertes. Su genoma está
secuenciado y algunas de sus proteínas cristalizadas. Esta bacteria no
presenta características excepcionales, pero repara muy bien las rupturas
de las cadenas dobles del ADN, generalmente fatales para las células.
“Como esta bacteria resiste a índices de radiación que no existen en la
Tierra, no es una característica adquirida. Esta radiorresistencia quizá
sea sólo una consecuencia indirecta de su capacidad excepcional para
realizar todo un conjunto de funciones celulares clásicas (lo que explicaría
también, por ejemplo, su extrema resistencia a la sequía)”, comenta
Joanna Timmins. El hecho de conocer mejor los mecanismos fundamentales de reparación de las rupturas del ADN en D. radiodurans
podría ayudar a entender sus cambios en los cánceres radioinducidos,
como el de piel.
En el mismo grupo, Laurent Terradot trabaja en colaboración con el
Instituto Pasteur en Helicobacter pylori, la bacteria responsable de la
úlcera de estómago. El estudio de la interacción de las proteínas
implicadas en la detoxificación de la acidez (un proceso indispensable
para la supervivencia de la bacteria en el estómago) permitió descubrir
un mecanismo único. “Helicobacter pylori acumula el níquel y después
lo libera cuando aumenta la acidez. El níquel liberado permite a otra
proteína de la bacteria producir la detoxificación. El año pasado, el
mismo equipo publicó la estructura de las 12 proteínas que constituyen
la maquinaria por la cual la bacteria inyecta sus toxinas en las células
humanas. Todo ello señala otros tantos objetivos terapéuticos en potencia”.
Para conseguir una visión atómica de la estructura de una proteína por
medio de rayos X, primero hay que fabricar un cristal de proteína. En
efecto, sólo en forma cristalizada las proteínas revelarán su estructura
atómica con la iluminación de los rayos X. Gracias a la radiación sincrotrónica, a detectores muy potentes y a una informática de muy alto
nivel, pueden verse y aclararse arquitecturas proteínicas muy complejas.
La cristalografía sincrotrónica suele ser determinante para el resultado
de proyectos de investigación muy diversos. Por ejemplo, a causa de
la focalización extrema de ciertos haces, se ha conseguido identificar
la estructura básica del eje de las fibrillas amiloides, presentes
especialmente en la enfermedad de Alzheimer, cuya disposición atómica
es de difícil acceso.
La estructura del antígeno AMA1 del plasmodium portador del paludismo,
hoy en día probado como futura vacuna, también se descifró mediante
cristalografía en la ESRF. Al igual que la de la hemaglutinina, responsable ¿Curar el glioma?
de la virulencia del virus de la gripe “española” de 1918 (cuyo interés
se reactivó por las nuevas amenazas de epidemia mundial de gripe Los métodos de radioterapia que han creado algunos equipos del
aviar), o incluso la de recBCD, un complejo proteico que garantiza la Hospital Universitario de Grenoble, en colaboración con la ESRF, ofrecen
reparación del ADN bacteriano.
resultados muy prometedores. Se basan en una sinergia entre la irradiación
de las células tumorales y una quimioterapia a base de cisplatino, un
ESRF
I+DT info especial EIROforum Febrero de 2007
25
Representación esquemática de la proteína NikR de Helicobacter pylori en su forma tetramérica (dos cadenas de dos colores).
• La primera imagen presenta la estructura obtenida sin níquel.
• La segunda imagen muestra la proteína tras la incorporación del níquel (representado con bolas amarillas). Los átomos de níquel se insertan en la
interfaz de los dos dímeros y permiten, por una parte, ensamblar la proteína de forma compacta y, por otra, provocar el movimiento de los sitios de
unión con el ADN. Se trata de una fase intermedia.
• La tercera ilustración muestra la incorporación del níquel visto en los cristales de NikR, en la fase final.
De este modo, las tres estructuras permitieron obtener imágenes sucesivas de la incorporación del níquel y ver cómo su entrada genera cambios
estructurales que se reflejan en los sitios externos de unión con el ADN.
© Journal of molecular biology
Mary-Rose, Stardust,
arsénico y yodo
anticancerígeno muy importante empleado para intentar el tratamiento de
los gliomas, que son tumores cerebrales hoy en día incurables. “Al
seleccionar un umbral de energía específico del platino para la radioterapia, se multiplica la absorción del cisplatino. Las ratas llegan a
sobrevivir varias semanas con la radioterapia o la quimioterapia solas,
pero algo más si se combinan las dos. Con la radiación monocromática
del sincrotrón de energía apropiada, se obtiene por primera vez una
verdadera remisión del tumor”, señala Alberto Bravin.
La seda, fuente de inspiración biológica
Análisis de la degradación de los restos del Mary-Rose, un buque
de Enrique VIII de Inglaterra. Por gentileza del Mary Rose Trust
En la conformación de imágenes de sincrotrón X, el haz puede
iluminar toda la muestra o explorarla punto por punto con una
resolución de entre 100 µm y 100 nm (0,1 µm). Así se
detecta la presencia y el estado de oligoelementos como los
metales, en cantidades ínfimas. Este tipo de detección se utiliza
en un amplio abanico de investigaciones de diferentes ramas:
arqueología, investigación espacial, estudios medioambientales,
nuevas terapias, etc. Por ejemplo, algunos equipos de científicos
están en la Instalación Europea de Radiación Sincrotrónica
para comprender y prevenir la formación de los compuestos
sulfurados que causan la degradación de la madera del
célebre vestigio naval Mary-Rose, un buque de Enrique VIII
de Inglaterra; otros realizan allí el análisis químico y estructural
del polvo cósmico que trajo consigo la reciente misión Stardust
de la NASA; otros estudian la interacción entre el hueso y una
prótesis de titanio o hacen el seguimiento de la metabolización
del arsénico en un cabello, etc.
Estudiar los seres vivos, de acuerdo. Pero ¿copiarlos? Eso no es tan
simple. “La naturaleza es una fuente de inspiración inagotable”,
recuerda Christian Riekel, director del grupo “Materia condensada
blanda”, de la ESRF. “La resistencia, la elasticidad y la compatibilidad
biológica del hilo de seda han inspirado la idea de utilizarlo como
sustituto de los tendones humanos”. Estas propiedades sugieren
muchas otras aplicaciones siempre que se puedan fabricar estas fibras
de forma industrial.
El grupo desarrolla técnicas de conformación de imágenes y de estudios
estructurales para entender mejor cómo este polímero proveniente de
una proteína muy simple forma un filamento en solución acuosa, una
hazaña totalmente banal para la araña. “La microfluídica, con sus chips
que contienen microcanales y otras técnicas comparables, permite
visualizar constantemente, bajo el haz X, cómo una proteína en solución
cambia de conformación cuando se añade un producto agregante”.
Otros investigadores intentan fabricar músculos artificiales con un copolímero formado por un polímero duro y otro blando. “Este copolímero
absorbe el agua cuando cambia la acidez del medio: se hincha y produce
un efecto mecánico. Esto funciona a escala de la fibrilla unitaria,
microscópica, pero requiere un tiempo infinito a escala del músculo”.
Ya se trate de seda, tendón o músculo, las interacciones de las fibras
proteicas rígidas con la matriz blanda que las engloba desempeñan un
papel primordial en sus propiedades mecánicas. Estas fibras están
sumergidas en una matriz a la que están unidas por ligaduras que se
rompen ante la presencia de agua. Entonces el conjunto, hasta
entonces homogéneo, se fragmenta. “¿Cómo se integran estas rupturas
a nivel molecular y se transmiten al conjunto del músculo o del tendón
para cambiar su estado? ¿Cómo trabajan juntas estas escalas diferentes
de organización? Para entenderlo, se debe observar el mismo fenómeno
en los distintos niveles de organización. Gracias a la precisión nanométrica
que ofrecen las líneas de luz de la ESRF, ahora podemos poner a punto
técnicas que permitan estudiar mejor este paso de lo microscópico a lo
macroscópico, lo cual era imposible hace diez años”.
26
I+DT info especial EIROforum Febrero de 2007
ESRF
Descifrar
los orígenes P
El sincrotrón, una formidable herramienta de exploración
biológica, también es un instrumento ideal para comprender
las formas de vida procedentes del pasado.
Cráneo de Toumai
© Misión paleoantropológica
franco-chadiana
Mandíbula inferior derecha
atribuida a Sahelanthropus
tchadensis. Se planteó una
polémica en cuanto al tercer
molar, ya que algunos
científicos sostenían que se
trataba de un molar
izquierdo pegado en la
mandíbula derecha.
Además de los aspectos
anatómicos evidentes que
indican que se trata efectivamente de un diente derecho, la extracción tridimensional
de la corona y de la raíz ha hecho posible demostrar que el
contacto es prácticamente perfecto y que el diente se
encuentra en su lugar.
© Tafforeau, Brunet
Comparaciones entre
los maxilares
de Khoratpithecus
chiangmuanensis
(de 12 millones de años)
y Khoratpithecus piriyai
(de 7 millones de años),
ambos provenientes
de Tailandia.
El espécimen de
la izquierda es una
composición tridimensional
realizada a partir
de dientes aislados
de macho y de hembra
escaneados en ID19.
© Tafforeau, Jaeger,
Chaimanee
aul Tafforeau, paleontólogo y primatólogo, utilizó por primera vez
los rayos X de la ESRF para el análisis de la estructura tridimensional de los dientes de primates, en 2001. El grosor y la distribución
del esmalte constituyen aspectos importantes en el estudio de la evolución de los homínidos, pero su caracterización requiere métodos de
medición rigurosos y objetivos.
“El esmalte es relativamente fino en los grandes monos africanos
actuales y relativamente grueso en los orangutanes. Parece ser que ha
habido un espesamiento durante la evolución de los homínidos, aunque
los datos de nuestros dos antepasados más lejanos, Toumai y Orrorin
tugenensis, no se han cuantificado lo suficiente”.
Hasta hace poco tiempo, la única forma de estudiar el esmalte era
cortando los dientes. Esta forma de proceder tan destructiva no se
puede aplicar en muestras muy raras o únicas. Desde hace varios años,
los microtomógrafos de laboratorio (de rayos X) permiten realizar estos
cortes virtualmente, sin destruir los dientes. Sin embargo, siguen siendo
bastante lentos, a veces poco precisos, y suelen carecer de contraste. En
la ESRF se pueden obtener imágenes de mejor calidad más rápidamente,
lo que aumenta de manera considerable las posibilidades de investigación
en fósiles antiguos fuertemente remineralizados.
Sincrotrón y contraste de fase
Algunos fósiles están tan modificados por la diagénesis que ya no
presentan ningún contraste en la conformación clásica de imágenes de
absorción. En este caso, es posible utilizar otra técnica basada en las
propiedades de coherencia parcial del haz que producen ciertos
sincrotrones: el contraste de fase de propagación. “El contraste de fase
permite revelar numerosas estructuras en los fósiles, totalmente invisibles
en la conformación de imágenes clásica. Los resultados son impresionantes
en fósiles como los insectos en el ámbar y los dientes. Se pueden obtener
reconstrucciones tridimensionales que muestran con gran precisión la
unión esmalte-dentina, aunque el diente ya no presente ningún
contraste de absorción a causa de la diagénesis. Estos análisis de la
distribución del esmalte aportan nuevos datos para estudiar las relaciones
filogenéticas de los primates fósiles y los actuales. El grosor del esmalte
también proporciona información sobre la alimentación de los especímenes
estudiados. En ciertos casos, el esmalte fino se desgasta rápidamente
y forma crestas aceradas, más adaptadas a un régimen vegetal, mientras
que el esmalte grueso puede indicar, en algunas ocasiones, una alimentación más dura que incluye, por ejemplo, nueces o granos”.
Embriones de 580 millones de años
La paleontología está en pleno auge en la ESRF. En 2003, un estudio internacional sobre los carófitos (algas de 420 millones de años de antigüedad)
permitió ver con detalle su utilidad y precisar su posición filogenética. Unos
embriones marinos de cuatro células que datan de la Era Precámbica
(580 millones de años antes de nuestra era), encontrados en los fosfatos
del emplazamiento de Doushantuo, en China, son objeto de una intensa
Corte virtual transversal de
investigación internacional. Las imágenes tridimensionales, realizadas en
un pequeño embrión de
la ESRF durante un estudio franco-chino, revelan los detalles de las mem580 millones de años,
branas celulares de los embriones, que muestran claramente que se
encontrado en China.
Los distintos colores
dividen de modo asimétrico para formar células de distintos tamaños. “No
corresponden a cada una de
se sabe nada acerca de su identidad y de la forma que tienen los organislas tres células embrionarias
mos adultos. Sin embargo, sabemos que esas divisiones, que existen
(blastómeros). El cálculo del
siempre en ciertos bivalvos marinos actuales, crean un plan primitivo de
volumen de cada una de las
simetría bilateral. No olvidemos que la inmensa mayoría de las especies
células revela que la azul es
el doble de voluminosa. Esta observación da más peso a la vivas actuales son bilaterales. Por lo tanto, nuestro estudio, cuyo resultado
interpretación de un desarrollo embrionario caracterizado por se publicó hace poco en Science, sugiere que esta característica apareció
la formación de lóbulos polares. © Li, Tafforeau, Chen muy al principio de la evolución”.
EMBL
I+DT info especial EIROforum Febrero de 2007
27
En primera línea de las ciencias
de la vida en Europa
El Laboratorio Europeo de Biología Molecular (EMBL, por sus
siglas en inglés) fue creado en 1974 y 19 Estados son socios
del mismo. Se trata de un centro europeo de investigación,
formación y enseñanza en diferentes áreas, basado en una
intensa cooperación entre científicos de todas las nacionalidades especializados en el campo de la biología molecular.
El EMBL, centro de excelencia
nos 80 grupos de investigadores trabajan en los cinco laboratorios en biología molecular, que acoge
a los mejores investigadores,
del EMBL. El laboratorio central, situado en Heidelberg
da
igualmente
mucha importancia
(Alemania), desarrolla todo tipo de investigaciones en el campo
a la formación de los doctorandos
de la biología molecular, desde el estudio de las moléculas hasta el
y los estudiantes.
desarrollo embrionario de los organismos, pasando por la aparición
© M.Schupp/EMBL
de los componentes celulares.
U
Cinco laboratorios colaborando en simbiosis
Difundir, formar y debatir
Los laboratorios de Hamburgo (Alemania) y Grenoble (Francia) poseen
sincrotrones y trabajan conjuntamente en el establecimiento de “una
asociación para la biología estructural”. Esta asociación está establecida
principalmente en Grenoble y en ella participan el ILL (Institut Laue
Langevin), la ESRF, el IBS (Instituto de Biología Estructural), el IVMS
(Instituto de Virología Molecular y Estructural), así como el DESY
(Deutsches Elektronen-Synchrotron). Los investigadores de
Monterotondo, cerca de Roma (la Unidad de Biología de Ratones del
EMBL), estudian la función de los genes. Aportan sus conocimientos en el
desarrollo de líneas modelo de ratones para el estudio de las enfermedades
humanas y colaboran estrechamente con los grupos de investigación
nacional italianos (CNR) y el EMMA (Archivo Europeo de Ratones
Mutantes). El Instituto Europeo de Bioinformática del EMBL (EBI, por
sus siglas en inglés), ubicado en el campus del Instituto Sanger de
Hinxton, cerca de Cambridge (Reino Unido), administra uno de los bancos de información biológica más importantes del mundo.
Todos estos centros funcionan en estrecha colaboración y con la flexibilidad
que caracteriza a toda la institución, en la que grupos de investigadores
independientes realizan los trabajos según programas temáticos.
Además, las estructuras favorecen la interdisciplinariedad y la interacción
entre los equipos.
El EMBL ofrece también un amplio abanico de servicios a los científicos
europeos. Entre los más utilizados está la base de datos gratuita del
Instituto Europeo de Bioinformática y el acceso al ciclotrón de
Hamburgo y al sincrotrón de Grenoble. Asimismo, las transferencias de
tecnologías y los instrumentos puestos a punto por la organización son
accesibles a las empresas del sector (EMBL-Entreprise Management).
La organización da prioridad a dos aspectos fundamentales: la difusión
de los conocimientos y la formación de los jóvenes, lo que garantiza la
continuidad de la investigación. Alrededor de 170 doctorandos cursan
el famoso Programa Internacional de Doctorado del EMBL, realizado en
colaboración con 24 universidades de 17 países. Los equipos científicos
reciben constantemente a investigadores de todas las nacionalidades, en
todas las etapas de su carrera. Las conferencias internacionales y los
talleres prácticos organizados cada año por el EMBL para la comunidad
científica europea son acontecimientos que cuentan siempre con una
gran participación.
Consciente también de las implicaciones “sociales” que tiene la
sorprendente evolución de las ciencias de la vida, el EMBL asume la
misión de reforzar las relaciones entre la ciencia y la sociedad y de
comunicar sobre la investigación “fuera de los laboratorios”. El EMBL
propone un programa dinámico, Science and Society (Ciencia y
Sociedad) destinado a promover el diálogo entre los científicos y el
público.
En otro ámbito, el Laboratorio Europeo de Aprendizaje para las Ciencias
de la Vida (ELLS, por sus siglas en inglés) imparte módulos de formación
a los pedagogos interesados para que conozcan los nuevos campos
punteros de una disciplina que no deja de crecer y de diversificarse.
Y finalmente, el EMBL publica la revista Science in School del
EIROforum, cuyo objetivo consiste en proporcionar nuevos enfoques
para la enseñanza de las ciencias.
Para más información
http://www.embl.de
28
I+DT info especial EIROforum Febrero de 2007
EMBL
En 1870, Ernst Haeckel, naturalista alemán, publicó el
primer árbol de la vida, síntesis ejemplar del conocimiento
disponible en aquel entonces sobre la genealogía de los
seres vivos, la filogénesis.
En 2006, seis investigadores publicaron en la revista Science
una nueva síntesis sobre este tema, bajo la dirección Peer
Bork, del EMBL. Ciento treinta y seis años transcurrieron
entre estos dos acontecimientos, a primera vista muy diferentes, pero en los que se buscaba un objetivo similar:
reconstituir la evolución biológica de las especies vivas
presentes hoy en día en la Tierra. Se parte de un principio
básico idéntico: si dos especies comparten un mismo
carácter, lo han heredado de un ancestro común.
El árbol de
la vida según
la genómica
o que ha cambiado, en cerca de un siglo y medio, es antes que nada
la propia naturaleza del carácter común. En tiempos de Haeckel sólo
podía estudiarse la morfología de las especies. De esta manera, los
científicos se interesaban por la estructura, los esqueletos, las dentaduras
y la anatomía de los órganos. Durante cerca de un siglo, generaciones de
biólogos se dedicaron a precisar y refinar las múltiples ramas del árbol de
Haeckel.
En la década de los años setenta se dio un cambio radical a este
paciente trabajo. El descubrimiento de que el ADN es la base de la información genética y los avances de las técnicas de análisis hicieron posible centrarse, no en los caracteres morfológicos, sino en los bioquímicos:
secuencias de aminoácidos de las proteínas, secuencias de bases de
los ácidos ribonucleicos o ARN (que constituyen el mecanismo celular
de síntesis de las proteínas) o secuencias de bases de los ácidos
desoxirribonucleicos (ADN).
Dos décadas más tarde se produjo un nuevo cambio fundamental,
desencadenado también por una importante innovación en las técnicas
de análisis. La automatización de la secuenciación de los genomas,
lograda gracias al desarrollo del campo de la bioinformática, permitió
comparar enormes cantidades de datos. La reconstitución filogenética
ya no se basó en un gen o una proteína, sino en genomas enteros.
Un puzzle de 36 genes y 191 genomas
L
Una de las tareas más arduas para el equipo de investigadores del EMBL
era encontrar indicios de estas transferencias horizontales de genes.
Los investigadores emprendieron el estudio de 191 genomas(1) que
compartían un patrimonio común de 36 genes. Incluso con la ayuda de
la bioinformática, esta investigación no pudo automatizarse en su
totalidad. Tuvieron que armarse de paciencia para ir analizando
previamente (y casi “manualmente”) las señales que permitían descartar
los genes resultantes de estas transferencias horizontales. Después de
La transferencia horizontal de genes
“Al principio, la abundancia de datos nuevos sobre los genomas trajo
más confusión que claridad. Planteó más preguntas en lugar de ofrecer
respuestas a las ya existentes”, destaca Peer Bork. Poner en orden este
desorden provocado por la multitud de datos de secuenciación: eso
pretendió este investigador al iniciar el trabajo que concluyó con la
publicación del nuevo “árbol de la vida” en la revista Science. El proyecto
tenía el mismo enfoque que el del naturalista Haeckel: reconstituir la
genealogía del ser humano, con la diferencia de que a partir de
entonces los genomas sustituían a la morfología.
Anteriormente habían aparecido iniciativas similares pero se tropezaron
todas con el problema de la llamada “transferencia horizontal de
genes”. ¿De qué se trata? De la facultad de los seres unicelulares de intercambiar genes en una misma generación, que tengan un núcleo, como
las levaduras o los protozoarios, o que no lo tengan, como las bacterias.
En consecuencia, el principio fundamental de la filogénesis (que
consiste en asignar un ancestro común a dos especies que presenten
una misma característica) resulta inaplicable. Dos especies pueden tener
una misma característica porque la intercambiaron dentro de su propio
medio, y no porque ambas la heredaran de un mismo antepasado. Por lo
tanto, la transferencia horizontal de genes plantea muchas dificultades
a los partidarios del enfoque sistemático.
Pedigree of Man: en 1870, Haeckel reconstituyó toda la genealogía clasificada
de las especies vivas identificadas hasta su época, con lo que formuló el
primer árbol de la vida, desde las raíces, en el reino Monera (los procariotas)
hasta el Hombre, en la cumbre.
EMBL
I+DT info especial EIROforum Febrero de 2007
29
Según el principio del ancestro común, la presencia
de 31 genes (acerca de los cuales los investigadores
pueden afirmar con certeza que corresponden a una
transmisión filogenética dentro de los genomas de
191 especies estudiadas) permitió al equipo del
EMBL, dirigido por Peer Bork, delinear un nuevo
árbol de la vida, el cual fue publicado en la revista
Science Magazine. © Science Magazine, 2006.
este minucioso trabajo quedaron sólo 31 genes con respecto a los
cuales los investigadores podían afirmar con certeza que correspondían
a una transmisión filogenética.
Una vez que esta selección concluyó, se pudieron desarrollar potentes
programas de bioinformática para reconstituir la presencia de cada uno de
estos genes en los genomas de las 191 especies estudiadas, basándose
en el principio del ancestro común, y obtener así un nuevo árbol de la vida.
Cuanto más pequeño, más rápida es la evolución...
Un enfoque nuevo
La cuestión tan fascinante del origen de la vida sobre la Tierra se plantea
ahora desde un ángulo novedoso, ya que el árbol de la vida plantea la
hipótesis de que el primer ser vivo aparecido sobre la Tierra se encontraba
en un medio muy caliente, probablemente en una de las fuentes
calientes de los fondos oceánicos, originada por subidas de magma del
manto terrestre.
El árbol de la vida seguirá creciendo a medida que se vayan añadiendo
datos sobre la secuenciación de nuevos genomas, de manera casi
enteramente automatizada, los cuales se publicarán en el sitio Web del
EMBL. Esta afluencia de nueva información podría tener un efecto de
bola de nieve: en el momento de la publicación en Science se habían
secuenciado 352 genomas, actualmente se están completando alrededor
de 1.000.
“Este estudio, de una envergadura sin precedentes, supone un cambio
radical con respecto a algunas opiniones anteriores sobre el origen de
los seres vivos”, destaca el irlandés Christopher Creevey, postdoctorando
del grupo de Peer Bork. “Llegamos a una primera conclusión fundamental:
cuanto más pequeños son los genomas, más rápidamente evolucionan”. Así
pues, en cierto sentido, las bacterias han evolucionado mucho más que
(1) O sea, 150 genomas de bacterias, 23 de eucariotas (entre ellos el genoma del
los mamíferos.
Por lo demás, el nuevo árbol de la vida propone no menos de quince Homo sapiens) y 18 genomas de arqueobacterias (bacterias muy antiguas con
revisiones de nuestra concepción de la genealogía del ser vivo. Una de núcleo).
las más importantes consiste en colocar a los vertebrados y a los insectos
en un mismo linaje (distinto del de los nematodos), mientras que hace
unos diez años se tendía a pensar que el linaje de los vertebrados no
tenía relación con el de los nematodos y los insectos.
Sitio Web del árbol de vida
“A partir de la publicación de los resultados de nuestros trabajos en la
en el EMBL
revista Science nos llovieron las preguntas de los investigadores que
http://www.bork.emb/tree-of-life
deseaban precisiones y más información sobre alguna rama de nuestra
filogénesis de la que eran especialistas”, manifiesta Christopher Creevey.
Por lo tanto, esta síntesis suscitó interés por parte de la comunidad
científica y del gran público. “¡Incluso se nos pidió autorización para
imprimir nuestro árbol de la vida en camisetas!”
Peer Bork
Para más información
Contactos
[email protected]
Christopher Creevey
[email protected]
30
I+DT info especial EIROforum Febrero de 2007
EMBL
¿Quién era Urbilateria?
Urbilateria... ¿Le resulta familiar ese nombre? Es la denominación culta del hipotético ancestro común de todos los
animales “simétricos bilaterales” (con respecto al eje de su
cuerpo), desde los gusanos hasta los insectos y desde los
peces hasta los mamíferos. Urbilateria vivió hace más de
600 millones de años, pero casi no se sabe nada de esta
criatura que no dejó ningún fósil. Al igual que las partículas nunca observadas (pero cuya existencia se presupone según la teoría) y que los físicos intentan localizar
durante años, Urbilateria apasiona a los especialistas de la
evolución. Los trabajos realizados en el EMBL han logrado
importantes avances de nuestros conocimientos sobre este
ancestro tan lejano.
l famoso Urbilateria evolucionó en dos grandes grupos caracterizados
por su simetría corporal. Los especialistas en filogenética distinguen
entre los deuterostomios (conjunto que engloba principalmente a
los peces y los mamíferos) y los protostomios. Éstos se dividen a su vez
en dos grandes subgrupos: los ecdisozoos (nematodos, insectos, arañas
y crustáceos) y los lofotrocozoos, como los moluscos y los gusanos.
Partiendo de esta clasificación, un equipo internacional liderado por el
grupo de Detlev Arendt en el EMBL inició un extenso estudio de comparación del ADN de los tres grandes linajes resultantes de Urbilateria.
Aunque la información sobre los genomas completamente secuenciados de insectos, peces o mamíferos, exista los investigadores no
disponían de datos de secuencias genéticas de ejemplares del grupo
de los lofotrocozoos.
E
Historia
del ojo
Los investigadores Detlev Arendt, Peer Bork y Florian Raible vuelven
a la fábula de “La liebre, la tortuga... y el gusano”. Un enfoque humorístico
para comparar el linaje de las especies según el ritmo en el que éstas
atraviesan las etapas de la evolución: a grandes pasos o muy lentamente,
como en el caso de Platynereis.
© M. Schupp/EMBL
Los logros alcanzados gracias al estudio de Platynereis no acaban ahí.
También permitieron aclarar un enigma que, desde hacía mucho tiempo,
suponía un reto para los biólogos: la aparición del ojo.
D
arwin reconocía que era muy improbable que una estructura
tan compleja hubiera aparecido repentinamente, por una
variación aleatoria seguida de una selección, como sugiere
la teoría de la evolución. Al final de la década de los años
ochenta, los trabajos de Walter Gehring, en Basilea, aportaron los
primeros elementos de explicación al poner de manifiesto que un
único gen, que controla a su vez la activación de otros 2.500,
bastaba para determinar la formación de un ojo y que este gen
era el mismo en el ratón, la drosófila y el calamar. Estos resultados
apuntaban a que los ojos de los mamíferos, los insectos o los
cefalópodos, pese a ser tan diferentes, provenían seguramente
del mismo ojo rudimentario, creado a partir de un gen único.
La primera aparición de este ojo primitivo durante la evolución
debe buscarse en un ancestro común a las tres ramas, en el famoso
Urbilateria. Sin embargo, aún no se ha descrito este misterioso
“proto-ojo”. También en este caso la respuesta puede encontrarse
en Platynereis. “En el lofotrocozoo coexisten dos tipos de células
© EMBL
fotoreceptivas: una, llamada rabdomérica, típica de los invertebrados y otra, llamada ciliar, característica de los vertebrados”,
dice Detlev Arendt. “Cuando vi por primera vez en el microscopio
electrónico las características de estas células fotoreceptivas
EMBL
Un gusano pequeño y útil
Finalmente decidieron tomar como modelo de estudio un pequeño
gusano marino denominado Platynereis dumerilii. ¿Sus ventajas?
Platynereis tiene todas las características de un fósil viviente y se cría
fácilmente en laboratorio. La organización de su cuerpo, en segmentos
repetidos, parece haber evolucionado poco en los últimos 600 millones
de años. Su identidad filogenética implica que cualquier carácter complejo
que se encuentre a la vez en el lofotrocozoo Platynereis y, por ejemplo,
en el Homo sapiens deuterostomio debía estar ya presente en
Urbilateria.
Por lo tanto, se realizó una secuenciación parcial del genoma de Platynereis
para solventar la falta de datos. Esto permitió identificar 30 genes que
existían también en los otros dos grandes grupos. Seguidamente, el
análisis se centró en el estudio no de las secuencias que codifican estos
genes, sino de las secuencias no codificantes que los dividen. Estas
secuencias, denominadas “intrusas”, forman lo que se conoce con el
nombre de intrones (en oposición a las secuencias denominadas
exones, que codifican la secuencia proteica).
La función de los intrones no ha quedado clara. Unos consideran que
se trata de restos evolutivos, según la teoría del “ADN basura”. Otros
ven en ellos una especie de ardid biomolecular que permite producir
varias proteínas a partir de un único gen (al unir exones diferentes). En
otras palabras, la comparación filogenética de intrones podría descifrar
parte del misterio.
Platynereis y Homo sapiens
I+DT info especial EIROforum Febrero de 2007
31
Segundo resultado, más asombroso aún: más de la mitad de los
intrones humanos se conservan, a veces hasta los nucleótidos que lo
componen, tal como ocurre en Platynereis, mientras que esta proporción
se observa solamente, por término medio, en un cuarto en los insectos.
Utilizando la filogenética se llega a la conclusión de que más de dos tercios
de los intrones humanos debían ya estar presentes en Urbilateria.
Ahora bien, estas secuencias no pudieron ser inventadas dos veces.
Esta extraordinaria facultad de conservación sugiere que los intrones,
lejos de ser el “ADN basura”, cumplen una función muy importante, si
bien aún no está esclarecida. ¿Es ésta una característica específica de los
intrones? De ninguna manera, como muestra el tercer resultado presentado
en Science: el análisis de la secuencia de 442 proteínas presentes en las
tres ramas pone de manifiesto una vez más que Platynereis se asemeja
más al Homo sapiens que a los insectos.
En consecuencia, en contra de lo que se podría suponer, nuestra especie
genéticamente se asemeja más a Platynereis, un humilde gusano marino,
que a organismos tan complejos como la abeja. Detlev Arendt lleva el
razonamiento aún más lejos: “Nuestros resultados pueden interpretarse
diciendo que el Homo sapiens conservó características ancestrales...”.
¿Paradoja? No exactamente. Es como si la rama de los ecdisozoos, a la
cual están vinculados los insectos, hubiera experimentado una forma
de evolución caracterizada por la simplificación de los genomas y la
disminución de su número de intrones, mientras que las dos ramas
restantes hubieran conservado la gran fragmentación que estaba
presente ya en Urbilateria. “Los ecdisozoos evolucionaron rápidamente”,
prosigue Detlev Arendt. “En realidad, se alejaron aún más del ancestro
común que las líneas de los lofotrocozoos y los deuterostomios, que
experimentaron un ritmo de evolución mucho más conservador”.
Este estudio, publicado en la revista Science en noviembre de 2005,
aporta un primer resultado sorprendente: Platynereis contiene como
término medio 7,8 intrones por gen, cifra similar a la del ser humano
(8,4), pero muy superior a la de los insectos y los nematodos, que
contienen entre 2,4 y 5,4. Ello indica, según el principio del ancestro
común, que Urbilateria debía también tener un genoma con abundancia http://www-db.embl.de/jss/EmblGroupsOrg/g_172.html Detlev Arendt
de intrones.
arendt@emb
Para más información
ciliares de Platynereis, me sorprendió su semejanza con los conos
y bastones característicos de nuestra retina humana”.
Quedaba por probar esta intuición, lo cual se logró aplicando la
técnica de las impresiones moleculares, que funcionan en la célula
como una verdadera huella dactilar. Las células fotorreceptoras
ciliares de Platynereis , transmitidas no sólo a este gusano
sino también a todo el linaje de los vertebrados, poseen una
característica común. Conclusión lógica: Urbilateria ya debía poseer
este tipo de células, que sin duda no le permitían una verdadera
visión sino más bien una adaptación a la fotoperiodicidad, importante
para ajustar el ciclo reproductivo a la alternancia entre el día y la
noche.
Alentado por estos descubrimientos, Arendt sueña ahora con
reconstruir poco a poco el sistema nervioso de Urbilateria. “Me
fascina ver que se encuentran exactamente las mismas hormonas
y los mismos neurotransmisores tanto en Platynereis como en el
ser humano, mientras que algunas están ausentes en los insectos,
lo que pone de manifiesto la idea de que esta rama evolucionó
mucho más rápidamente”. Gracias a este método de impresión
molecular, que permite reconstituir la genealogía de los tipos
Contacto
celulares de la misma manera que se reconstituyen árboles
filogenéticos, el investigador está ya esbozando los modelos de
aparición del sistema nervioso.
“Imaginémonos una célula fotorreceptora presente en un antepasado
de Urbilateria”, sugiere, esbozando un bosquejo, “e imaginémonos
que la duplicación de un gen que codifica un fotorreceptor permite
generar dos tipos de células, cada una de ellas heredada de una
versión del gen: una especializada en la recepción de la información
luminosa y otra en su tratamiento. Es frecuente, en el desarrollo
embrionario, que se desplacen células. Supongamos entonces
que una de nuestras dos células emigra, pero permaneciendo
conectada al mismo tiempo a su ‘hermana’ por una prolongación
citoplásmica. Obtenemos de tal manera un verdadero prototipo
de sistema nervioso, ¡en el cual la prolongación desempeña el
papel del axón!”
Bajo el lápiz del investigador aparece el bosquejo de una red
neuronal, tal como podría existir en Urbilateria. Generaciones de
biólogos sólo han podido imaginarse a este antepasado lejano,
pero ahora, gracias a las nuevas técnicas de biología molecular,
se materializa gradualmente ante nuestros ojos.
32
I+DT info especial EIROforum Febrero de 2007
EMBL
Al principio
existía la forma
Eric Karsenti dirige la Unidad de Biología Celular y Biofísica
del EMBL. 150 años después de la publicación de Darwin
sobre el origen de las especies, este especialista del citoesqueleto tiene previsto embarcarse en 2009 en un velero
para rehacer el viaje del HMS Beagle en el que el padre de
la teoría de la evolución pudo realizar numerosas observaciones que apoyaron sus ideas.
¿Qué relación existe entre sus investigaciones en el EMBL sobre mecanismos fisicoquímicos reguladores del funcionamiento del esqueleto
celular, y su interés por el tema de la evolución?
El problema que siempre me ha fascinado es el de la complejidad y la
diversidad de las formas que puede tomar la vida. ¿Cómo es posible tal
diversidad y cómo pudo generarse durante la evolución? Es una pregunta
muy antigua que se remonta a la época de Aristóteles. Esta cuestión, a
la que no se le da suficiente importancia en la actualidad, era un tema
que preocupaba a los investigadores del siglo XIX y principios del XX.
Consideremos el famoso ejemplo de los pinzones de las Galápagos. En
el viaje del HMS Beagle, Darwin describió 13 especies de pinzones que
vivían en este archipiélago del Pacífico y que se distinguían entre sí por la
forma del pico. Esto se convirtió en un paradigma de lo que denominamos
la “especiación”: ¿cómo ha podido variar la forma de los picos de los
pinzones durante la evolución, y de manera tan rápida?
La respuesta puede encontrarse descendiendo un nivel en la escala de
organización de los seres vivos, es decir, en el paso del órgano a la
célula. El citoesqueleto es lo que da forma a la célula. Por lo tanto, para
comprender la morfogénesis celular comencé a investigar, con un
equipo integrado por biólogos y físicos, el citoesqueleto y sus principales
constituyentes: la actina, la tubulina y las proteínas que se les asocian.
Representación de las hebras
microtubulares del citoesqueleto de
la levadura (en verde), asociadas
a las mitocondrias (en amarillo)
y al núcleo celular (en violeta).
© EMBL
la aparición de las eucariotas. Desafortunadamente, es un tema poco
estudiado y lamento que no se trabaje más intensamente en estas
cuestiones de biología evolutiva a nivel celular. Se podrían llevar a cabo
estudios apasionantes sobre el citoesqueleto eucariota unicelular,
especialmente sobre el plancton, ya que algunos de ellos son verdaderos
tesoros fósiles vivos.
¿Existen ejemplos en los que el cambio de un gen que codifica una
proteína del citoesqueleto implique la aparición de una forma nueva?
Indudablemente. Por ejemplo, es el caso de una mutación de la
dineína. Esta proteína del citoesqueleto funciona como un pequeño
motor que se desplaza a lo largo de los microtúbulos y que causa nada
menos que la inversión de la posición de los órganos: el corazón a la
derecha, el hígado a la izquierda, etc.
Cuidado, no estoy diciendo que todas las nuevas formas surjan mediante
cambios de genes del citoesqueleto. En el ejemplo de los pinzones de
Darwin, se sabe ahora que la variación del nivel de expresión de un gen
que codifica una hormona es lo que controla la proliferación de las células
que están implicadas en la formación del pico.
Sin embargo, pienso que el estudio de los principios fisicoquímicos y
dinámicos que sustentan la morfogénesis celular es indispensable para
comprender de qué manera la evolución ha podido conseguir la
¿Es posible determinar en qué fase de la evolución apareció el citoes- riqueza y la diversidad de las formas de vida que podemos contemplar
queleto?
ahora...
Todas las células eucariotas (las células que poseen núcleo) tienen un
citoesqueleto. En las procariotas (las células que carecen de núcleo,
como las bacterias) no se encuentra una estructura equivalente,
aunque se encuentren algunas proteínas similares. En un momento de
la evolución, el material genético tuvo que hacerse tan complejo que la
distribución de los cromosomas en dos grupos idénticos requirió la
http://www-db.embl.de/jss/EmblGroupsOrg/g_40.html
aparición de un mecanismo más complicado aún: el citoesqueleto. De
hecho, en todas las eucariotas, los cromosomas están distribuidos por un
huso mitótico constituido por microtúbulos. Eso plantea un interrogante
fascinante: el de la posible evolución conjunta de un gran número de
genes implicados en el control de la división y la forma celular, durante
Eric Karsenti
Para más información
Contacto
[email protected]
ESA
I+DT info especial EIROforum Febrero de 2007
33
El espacio europeo
sin fronteras
Desde 1973, la Agencia Espacial Europea (1) (ESA, por sus
siglas en inglés), símbolo del progreso de la ciencia y de la
tecnología, constituye el centro de diseño y operaciones
que hace posible la presencia europea en el espacio. La ESA
se fundamenta en la voluntad de cooperación existente entre
diferentes Estados miembros de la Unión (2), Suiza y Canadá.
Se dedica a la recopilación, la organización y la
distribución de los datos de los satélites de observación y actúa como centro de información de la
Agencia Espacial. Además, la ESA dispone de
una base de lanzamiento para los cohetes
Ariane en Kourou, en la Guayana francesa.
a ESA abarca todas las actividades espaciales. Dirige la construcción de los cohetes Ariane y sus respectivos lanzamientos desde
la base de Kourou en la Guayana Francesa; el diseño y el desarrollo de satélites y sus equipamientos; así como la preparación y la realización de vuelos tripulados. Asimismo, diseña y pone en marcha
programas científicos y proyectos internacionales de gran envergadura, sobre todo en lo que atañe a la participación europea en la
Estación Espacial Internacional (ISS, por sus siglas en inglés).
La ESA ha desarrollado una estrecha cooperación con la Unión y representa
a este respecto la herramienta científica y tecnológica que plasma la
estrategia de independencia espacial de Europa. Opera en diversos
ámbitos: la comunicación, la navegación, la vigilancia del medioambiente, el desarrollo de nuevas tecnologías espaciales, sobre todo
en lo que respecta a los grandes proyectos Galileo y GMES (siglas de
Global Monitoring for Environment and Security Services).
Las nuevas fronteras de la cultura
L
París, Noordwijk, Darmstadt, Frascati, Kourou
La ESA, que emplea aproximadamente a 1.900 trabajadores, constituye
un ejemplo notable de una Europa sin fronteras. La ESA tiene su sede
política y ejecutiva en París desde donde coordina en estrecha cooperación con todos los centros espaciales de los socios nacionales e internacionales y gestiona los programas científicos. El Centro Europeo de
Investigaciones y Tecnología Espaciales (ESTEC, sigla en inglés de
European Space Research and Technology Centre), situado en
Noordwijk (Países Bajos), constituye el centro de I+D donde se
diseñan y prueban la mayor parte de los avances tecnológicos y
los artefactos que se lanzan al espacio. El Centro Europeo de
Operaciones Espaciales (ESOC en inglés) situado en
Darmstadt (Alemania), es el centro de control de los satélites
europeos en órbita, mientras que el Centro Europeo de
Astronautas (EAC en inglés), ubicado en Colonia
(Alemania), se ocupa del entrenamiento de los astronautas europeos para sus respectivas misiones. Por
último, el ESRIN (el Centro de Observación de la
Tierra de la ESA) tiene su sede en Frascati (Italia).
La aventura espacial tiene hoy en día un papel
determinante en el futuro de la humanidad. Este
tema apasiona al gran público, especialmente a
los jóvenes. Por tanto, la ESA, consciente del
interés que suscitan sus recursos, contribuye a
la difusión de la cultura y la educación científicas.
Su página Web, muy bien concebida, ofrece
información precisa, actual, bien documentada
con fotografías impresionantes y dispone de una
sección denominada ESA kids (en varios idiomas),
una auténtica revista juvenil con la que aprender
puede ser divertido.
Además, la ESA ha puesto en marcha una fundación educativa denominada ISSEF (o International
Space Station Education Fund) que propone
herramientas pedagógicas pensadas para
diferentes niveles educativos (desde la escuela
primaria hasta la universidad).
(1) Designada generalmente por su acrónimo
inglés ESA (European Space Agency).
(2) Los 17 Estados miembros de la ESA son:
Alemania, Austria, Bélgica, Dinamarca,
España, Finlandia, Francia, Grecia, Irlanda,
Italia, Luxemburgo, Noruega, Países Bajos,
Portugal, Reino Unido, Suecia
y Suiza. Canadá participa en algunos
proyectos conforme a un acuerdo de
cooperación. Hungría, la República
Checa y Rumanía tienen el estatus de
Estados europeos cooperantes.
> http://www.esa.int
> http://www.esa.int/esaHS/
education.html
Lanzamiento del satélite Giove-A © ESA
34
I+DT info especial EIROforum Febrero de 2007
ESA
Las revoluciones
de la ciencia offshore
“En la actualidad se recurre constantemente
a las herramientas espaciales con el fin
de comprender el funcionamiento del
ecosistema global de la Tierra (así como
de los subsistemas que lo componen)
y revelar así una serie de fenómenos
esenciales imposibles de conocer por otros
medios”, observa David Southwood,
director científico de la ESA. © ESA
Entrevista a David Southwood, director científico de la ESA. Según él, se distinguen
dos grandes ciencias espaciales. Una está relacionada con el exterior y abarca
desde nuestro sistema solar hasta los confines del Universo; la otra se centra en la
Tierra. No obstante, ambas ciencias tratan de dar respuesta a una triple pregunta
fundamental sobre la existencia de los seres vivos: ¿por qué, cómo y dónde?
Dado que la ciencia espacial representa un campo de investigación
cuyos costes parecen faraónicos, ¿hace bien Europa al destinar tantos
medios y esfuerzos?
Seamos realistas. Europa no ha ido al espacio más que nada para
hacer ciencia. La capacidad de poner satélites en órbita, hoy en día,
es una herramienta estratégica y económica esencial para las telecomunicaciones, la navegación, la seguridad, etc. Es decir, se trata de
una cuestión básica de independencia. Hace algunos siglos, una
nación moderna debía disponer de una flota y ser capaz de enviar
navíos de un continente a otro. De igual modo, tendríamos que poder
enviar vehículos espaciales donde deseemos.
Así, una vez que existe dicha capacidad, podemos a su vez aplicarla a
la ciencia. Privarse de ello sería una aberración ya que los avances de los
conocimientos fundamentales y aplicados que se han ido adquiriendo
gracias al espacio son fundamentales para un amplio abanico de áreas.
Europa es un centro esencial de la investigación mundial y dispone
de potencial científico humano muy preparado. Tiene un papel que
desempeñar en un tema en el que hay que poder ir a donde se quiera.
¿Cuáles son los objetivos científicos de la ESA?
El hecho de ir al espacio permite tener dos visiones científicas diferentes. Una, con la mirada puesta hacia el exterior, tiene como objetivo
comprender el Universo en el cual existimos y del que provenimos. La
otra, orientada hacia el interior, consiste en observar este objeto
denominado Tierra al que debemos la existencia.
En el exterior, el primer campo de interés evidentemente es la exploración
de nuestro entorno cercano, a saber: nuestro sistema solar que cada
vez está más “al alcance de los vehículos espaciales”. La ESA dirige en
estos momentos dos naves Express alrededor de Venus y Marte. La
expedición conjunta Cassini-Huygens, realizada entre 2004 y 2005, ha
supuesto todo un éxito: la nave de la NASA está en órbita alrededor de
una luna de Saturno denominada Titán, sobre la cual se ha posado sin
tropiezos la sonda europea Huygens. Hay que mencionar también
las circunvoluciones del satélite Smart 1 que, desde 2004, estudia
minuciosamente el suelo de nuestra Luna buscando huellas de
agua de épocas anteriores.
Asimismo, Europa ha contribuido en gran medida a la “caza de cometas”
con el envío de la sonda Giotto al cometa Haley hace 20 años, lo que
fue un hecho sin precedentes. La formación de los cometas precede a
la de los planetas, por lo que podrían haber sido el material de base
que dio origen a los planetas. Por supuesto, dicho material se habría
calentado, habría sufrido colisiones, agregaciones y tendríamos que ser
capaces de comprender lo que ocurrió para volver a encontrar los
“fundamentos básicos”. Con este ambicioso objetivo se efectuó el
lanzamiento de la sonda Rosetta en 2004, destinada a posarse
sobre el cometa Churyumov-Gerasimenko en 2014. Dicho proyecto
debe su nombre a la Piedra de Rosetta, con la cual Champollion
pudo descodificar los jeroglíficos egipcios. De hecho, buscamos los
códigos de desarrollo de la materia en el sistema solar; una materia de
la que también surgió la vida.
Pero el espacio no se acaba en el sistema solar...
¡Ni mucho menos!... Aparte del sistema solar, los telescopios y los
detectores a bordo de satélites orbitales proporcionan un gran campo
de observación a los astrónomos y astrofísicos. A este respecto, el
“observatorio” Hubble tiene una reputación ya reconocida en lo que
respecta a la calidad y cantidad de imágenes estelares que recoge. Sin
embargo, otros instrumentos menos conocidos, como el telescopio
espacial XMM-Newton, centrado en la detección de las radiaciones X,
recopilan numerosos datos decisivos para los científicos.
La ESA tiene varios proyectos en preparación dedicados a esta fascinante
exploración del Universo. Dentro de dos años, lanzaremos con el mismo
cohete los dos vehículos Planck y Herschell. El primero estudiará la
formación del Universo y los primeros indicios de su estructuración en
las galaxias más lejanas, es decir, los momentos inmediatamente posteriores al Big Bang. El segundo analizará la organización de la materia
en cúmulos, la formación de las galaxias, las estrellas y los planetas.
Herschell será una herramienta para intentar resolver el misterio del lado
oscuro del Universo, en el que la gravedad transforma la masa en calor
con el colapso de ciertas estrellas sobre sí mismas. Después, le llegará el
momento a la futura misión Gaia, que realizará una verdadera inmersión
en el corazón de la “relojería cósmica” de nuestra propia galaxia, en sus
miles de millones de estrellas, en su materia negra...
¿Con todos estos proyectos, no descuidan la observación de la Tierra?
No, porque el programa Living Planet (o Planeta Vivo), que agrupa todos
los medios de observación de la Tierra, representa aproximadamente la
mitad de los trabajos de investigación científica de la ESA para los
próximos años. Ahora la investigación espacial intenta comprender
el funcionamiento del ecosistema global de la Tierra y de los subsistemas
que lo componen, poniendo de manifiesto una serie de fenómenos
esenciales imposibles de conocer por otros medios. Desde hace tres
décadas, Europa ha ido acumulando prácticas y conocimientos inestimables a través del creciente despliegue de satélites meteorológicos, la
puesta en órbita de los satélites ERS 1 y 2 (European Remote Sensing
Satellite) y, sobre todo, a través del Envisat, un satélite emblemático de
la observación de la Tierra. Desde esta plataforma de satélites, unos
diez instrumentos exploran los océanos, los casquetes glaciares, los
continentes y la atmósfera, desde el año 2002.
Living Planet constituye la hoja de ruta que se ha fijado la ESA para
cumplir su importante misión en el contexto actual del cambio global y del
calentamiento climático. Para ello está previsto para 2012 el lanzamiento
ESA
I+DT info especial EIROforum Febrero de 2007
35
El satélite Spainsat situado en el vértice
de la lanzadera Ariane 5. © ESA/S.Corvaja
Imágenes del satélite Envisat de la costa nordeste
de Sri Lanka en el momento del tsunami del
28 de diciembre de 2004 (arriba) y los daños de
esta catástrofe registrados por el satélite ERS-2. © ESA
de una serie de seis satélites, los denominados Earth Explorers, que
ahora se están diseñando y construyendo. Cada uno debe realizar una
serie de tareas, según las necesidades de los “médicos especializados”
de la Tierra, recogiendo datos sobre las grandes corrientes marinas, la
salinidad oceánica, el ciclo del agua, la circulación atmosférica, el deshielo
de los glaciares, etc. Este trabajo se Ilevará a cabo independientemente
del perfeccionamiento de los satélites meteorológicos, así como de los
vehículos espaciales que formarán parte del famoso sistema orbital
GMES (Global Monitoring for Environment and Security).
En otras palabras, la ciencia intenta comprender el origen del Universo,
de la vida en la Tierra y tal vez de la vida en otro lugar. Si el Universo tuviera
que renacer, no existe ninguna certeza de que los humanos surgiesen
nuevamente en un planeta no más importante que los demás, en una
galaxia rodeada por muchas otras hasta donde alcanza la vista...
La ciencia también sabe cómo continúa la historia. Un día, dentro de
cinco mil millones de años, el Sol se habrá convertido en un gigante rojo
y se habrá tragado la Tierra. Quizá nuestro planeta sea el único lugar
con vida de nuestro singular Universo. Pero, a su vez, quizá este
Universo esté lleno de vida, lo cual tiene una significación moral. En
Al visitar la página Web de la ESA, la primera sección que propone atrae cierto modo, si somos únicos, esto convierte nuestra supervivencia en
al visitante. Se titula Life in Space (o Vida en el Espacio). ¿No es esta un desafío especial. Pero si, por el contrario, sólo representamos un caso
cuestión subyacente de “la vida en otro lugar” que hace que el Hombre entre otros muchos, entonces tendría menos importancia, simplemente
sienta una atracción irresistible por el espacio?
podríamos dejar que la luz se apagara, una vez llegado el momento...
Sabemos, en todo caso, que “la vida aquí” existe. Cuando observamos
la Tierra desde un vehículo espacial ¿no estamos ya observando “la vida
en el espacio”? Y ya es hora de que lo hagamos , porque sabemos que
el calentamiento climático y los cambios mundiales son procesos que
nos llevan a cuestionar la relación que existe entre la vida y el planeta,
así como la responsabilidad del ser humano de cara a “su” planeta.
Dicha relación también rige nuestra visión del exterior. La posibilidad de
que nuestra Tierra se vuelva inhabitable nos lleva a estudiar las razones
por las que el intenso efecto invernadero impide cualquier vida en
http://www.esa.int/esaSC/index.html
Venus, y la posibilidad de que Marte, pese a su imagen inhóspita,
albergue formas primitivas de vida. Por otro lado, en Titán encontramos
hidrógeno, metano, nitrógeno, agua... Ahora bien, si este agua liberase
su oxígeno estarían reunidas todas las condiciones para la existencia de
seres vivos. Además, ahora tenemos la posibilidad de estudiar planetas de
David Southwood
fuera de nuestro sistema solar, lo que hace tan sólo 20 años hubiera sido
c/o [email protected]
visto como ciencia-ficción.
Para más información
Contactos
36
I+DT info especial EIROforum Febrero de 2007
ESA
Los centinelas
del “Sistema Tierra”
Con vistas a reaccionar ante la preocupante evolución de
las condiciones medioambientales del planeta, la tecnología
espacial tiene que desempeñar un papel clave tanto para
establecer un diagnóstico como para elaborar el tratamiento
o velar por que este último se administre adecuadamente...
ntes del viaje, sabía desde un punto de vista científico lo pequeño
y vulnerable que es nuestro planeta. Pero cuando lo vi desde el
espacio, tan frágil y bello a la vez, como la cuna en la que apareció la vida, me embargó una intensa emoción y comprendí que lo
primero que tenía que hacer la humanidad era quererlo y preservarlo
por encima de todo para las futuras generaciones”. Esta frase escrita
hace 30 años por Sigmund Jähn, podría parecer exagerada, si no fuera
porque desde entonces decenas de astronautas de todas nacionalidades
no hubieran dicho lo mismo.
„
A
La era del Antropoceno
“El banco de datos médicos” del planeta
Desde este punto de vista, los satélites son verdaderos observatorios de
la Tierra y son muchos los ejemplos que lo ilustran. Gracias a unos
altímetros espaciales de una precisión notable, hoy en día se puede
registrar el aumento constante del nivel de los mares debido al calentamiento climático independientemente de los movimientos tectónicos de
los continentes, que pueden perturbar las mediciones clásicas de los
mareógrafos. Cualquier aceleración en la subida se puede detectar
rápidamente. Uno de los pioneros de estos altímetros, Carl Wunsh,
destaca que “estos aparatos nos han revelado que el sistema oceánico
cambia de forma apreciable cada día, lo que ha modificado nuestra
visión. Tendíamos a considerarlo como un fenómeno geofísico muy
lento, pero ha resultado ser un sistema mucho más complejo en el que
el fluido se desplaza de forma permanente en todas las direcciones”.
Asimismo, se observa minuciosamente la evolución de los hielos. Unas
imágenes tomadas por los satélites ERS muestran cada año el proceso
de deshielo del casquete de Groenlandia y los especialistas vigilan las
correlaciones del mismo con el nivel de las aguas. Otro ejemplo: unas
imágenes del Envisat tomadas en agosto de 2006 revelaron la presencia
inesperada en la banquisa ártica de una falla colosal que se extendía
hasta el polo Norte. “Dicho fenómeno nunca se había observado
anteriormente. En teoría, por esta fisura podría navegar un barco desde
Spitzberg o Siberia hasta el polo Norte”, observa Mark Drinkwater, de la
Unidad de Océanos/Hielos de la ESA.
Tan sólo eso bastaría para explicar los intensos esfuerzos de la ESA,
que desde hace años pone a punto satélites cada vez mejores y más
punteros para definir una concepción planetaria al servicio del desarrollo
sostenible. Living Planet (o Planeta Vivo), un programa coordinado que
la Agencia lleva a cabo desde 2004, tiene como objetivo “desempeñar un
papel fundamental en el desarrollo de una
capacidad global para comprender la Tierra,
Vigilancia del impacto humano
predecir sus cambios y limitar los efectos
adversos del cambio climatico sobre su
Por otro lado, casi ningún impacto de las
población”.
diversas actividades humanas escapa a la
Los cambios globales no se limitan sólo al
capacidad de detección de los satélites. La
calentamiento climático. Más allá de la atmósdesforestación, la urbanización (en especial
fera, las mutaciones que, en sólo 150 años,
del litoral), las alteraciones radicales del
el ser humano ha provocado en todo el planeta
régimen hidrográfico por la construcción de
son de tal envergadura que el químico Paul
canales, el drenaje de las zonas húmedas, la
Crutzen, premio Nobel, ha forjado el neoedificación de embalses, etc., se registran
logismo “Antropoceno” para designar la
metódicamente en las constantes exploépoca actual. Dicho término señala hasta qué
raciones de estos “centinelas de la Tierra”. De
punto “la era del Hombre” ha desencadenado
este modo, los incendios, que se multiplican
numerosos procesos planetarios que abarcan The Global Ozone Monitoring Experiment-2
por todo el mundo, están a partir de ahora
desde la evolución de las especies hasta los (GOME-2), uno de los instrumentos de nueva
registrados en el World Fire Atlas que recoge
ciclos del carbono, del nitrógeno y del agua.
generación, contribuirá a las investigaciones
los datos a medida que se van obteniendo.
Además (y de ahí que se justifique la noción sobre la atmósfera, particularmente aportando
“Esta recopilación, que se actualiza de
de “Sistema Tierra” aparecida a finales del datos sobre las concentraciones de ozono. © ESA
manera constante, representa una fuente
siglo XX), la evolución de nuestro planeta sólo
totalmente innovadora para los investipuede comprenderse si relacionamos los
diferentes grandes conjuntos que lo constituyen y que interaccionan gadores”, comenta Matt Fitzpatrick, especialista en ecología y biología
constantemente: la biosfera (el conjunto de los seres vivos), la criosfera evolutiva. “Servirá a los ecologistas para que vuelvan a estudiar
(las zonas congeladas), los océanos, las superficies continentales y, cuestiones antiguas no resueltas en lo que atañe al modo en que se
por supuesto, la atmósfera. La primera fase consiste en conocer sus reestructura el medio natural tras el paso del fuego y a extraer ensecomportamientos y correlaciones, a fin de entender la dinámica de ñanzas para su restauración”. Muchas de nuestras emisiones (metano,
estas diferentes entidades y, en especial, el resultado de sus inter- óxidos de nitrógeno) son igualmente visibles desde el espacio, así como
acciones. La segunda fase consiste en poder prever su evolución los efectos de ciertas catástrofes ecológicas (como las mareas negras)
y naturales (post-tsunami, erupciones volcánicas, etc.).
conjunta a partir de la elaboración de modelos.
ESA
Las imágenes proporcionadas por los satélites han permitido que la ciencia
del “Sistema Tierra” tuviera avances comparables a los obtenidos
en medicina gracias a la generación de imágenes (IRM, escáner,
radiografía, ecografía, etc.). Aquí, Surinam y la Guayana francesa
“vistos desde arriba”.
© ESA
I+DT info especial EIROforum Febrero de 2007
37
Groenlandia captada por el ojo de MERIS (siglas de Medium Resolution
Imaging Spectrometer). El hielo se distingue de las nubes,
en la parte inferior de la imagen. © ESA
Modelos para descifrar
Exploradores de la Tierra
El programa Planeta Vivo ya ha seleccionado seis misiones
llamadas Earth Explorers que se llevarán a cabo de aquí al
año 2012. Mientras que antes la Agencia daba prioridad a las
enormes naves que llevaban numerosos instrumentos, ahora
se pretende dar respuesta a las cuestiones más apremiantes
que se plantea la comunidad científica, utilizando instrumentos
más pequeños y específicos.
• GOCE (Gravity Field and Steady State Ocean Circulation
Explorer) se lanzará en 2007. GOCE, que se centra en el
campo de gravedad de nuestro planeta, proporcionará información tanto sobre la circulación oceánica como sobre la
física del interior de la Tierra.
• SMOS (Soil Moisture and Ocean Salinity) se lanzará en
2007. Establecerá una cartografía de la humedad del suelo
y de la salinidad de los océanos. También mejorará nuestra
comprensión del ciclo del agua.
• ADM-Aeolus (Atmospheric Dynamics Mission) se lanzará en
2008. Medirá los perfiles de viento de la atmósfera.
Establecer constataciones sólo representa la primera etapa para una
comprensión en profundidad de los fenómenos. Para descifrar sus
mecanismos y vínculos recíprocos, hay que recurrir a modelos que
relacionen con la mayor precisión posible los datos y los conocimientos
disponibles. Dichos modelos (constantemente perfeccionados, calibrados y, sobre todo, probados a la luz de los datos de los satélites procesados por ordenadores cada vez más potentes) constituyen, de algún
modo, un intento de construcción constantemente renovada del
“Sistema Tierra”... Con el tiempo, incluso las reacciones o la pasividad
de las distintas comunidades humanas frente a los cambios medioambientales (sequía, inundaciones, calentamiento o enfriamiento de las
estaciones, subida del nivel del mar, etc.) podrían modelizarse, ya que
cada vez serán más importantes para el funcionamiento del sistema.
He aquí un desafío nada despreciable.
Si, como es de esperar, la comunidad internacional adopta finalmente
medidas para preservar el “Sistema Tierra” de la desestabilización que
lo amenaza, la Agencia Espacial Europea recibiría nuevas misiones.
Entonces, será indispensable supervisar el respeto de los acuerdos
internacionales. Quién sabe si finalmente el papel clave de la Agencia
no será el de proporcionar a la Humanidad suficientes imágenes de
su planeta (tanto de sus bellezas como de sus heridas) para que sus
habitantes comprendan de una vez, como los astronautas, que se trata
del bien común más preciado.
• CryoSat-2 se lanzará en 2009 (sustituyendo a CryoSat 1,
perdido en 2005). Estudiará el grosor de los hielos marinos
y terrestres y su variación.
• Swarm se lanzará en 2010. Se trata de un grupo de tres
satélites que estudiarán la dinámica del campo magnético
con el objetivo de comprender mejor el interior de la Tierra
y el clima.
• EarthCARE (Earth Clouds Aerosols and Radiation Explorer)
se lanzará en 2012. Analizará el balance de radiación de la
Tierra (proyecto europeo-japonés).
Se están estudiando otros proyectos que aseguren la continuidad
de dichas misiones.
Para más información
http://www.esa.int/esaEO/index.html
38
I+DT info especial EIROforum Febrero de 2007
En la actualidad, Europa está lanzando sondas hacia los
dos planetas del sistema solar más cercanos al nuestro. Si
conociéramos mejor a estos planetas vecinos podríamos
obtener nuevas perspectivas científicas acerca de la formación
y el destino de los planetas, así como de la vida o la ausencia
de ésta que impera en los mismos.
odemos observarlos diariamente a simple vista si el cielo está
despejado. Marte, que se reconoce por su color rojo y Venus, tan
brillante de día como de noche. Copérnico, Kepler, Galileo y
muchos otros inspeccionaron estos hermanos de la Tierra, pese a estar
lejos de ellos. Mars Express y Venus Express, dos satélites gemelos
europeos dotados de todo un arsenal de instrumentos punteros, ya
están orbitando alrededor de los dos planetas. La primera sonda se
lanzó en 2003 y la segunda en 2006 y la recopilación de datos que
realizan es impresionante.
P
Marte y Venus,
nuestros vecinos
ESA
Venus infernal
Si bien Marte constituye un planeta helado con una atmósfera enrarecida,
Venus, por el contrario, nos fascina por sus condiciones infernales en
su superficie: una presión atmosférica 90 veces superior a la nuestra,
una temperatura media de 465 ºC, una atmósfera tóxica constituida
casi exclusivamente por dióxido de carbono tan densa que el Sol nunca
podrá brillar en su suelo rocoso y árido.
El satélite de la ESA ha enviado magníficos negativos del gigantesco
doble vórtice atmosférico descubierto por encima del polo Sur, cuya
dinámica intriga a los astrónomos (fue el centro de un enorme huracán
observado en noviembre de 2006). Asimismo, la estratificación vertical
de la atmósfera ha dado algunas sorpresas, una de ellas ha sido la
presencia de extraños halos de altitud, opacos a los 90 km y menos
densos a los 105 km. “A veces se dan fenómenos análogos en la Tierra,
aproximadamente a los 20 km de altitud. Están compuestos por gotitas
de ácido sulfúrico procedentes de la actividad volcánica”, comenta
Jean-Louis Bertaux, del CNRS francés (Centro Nacional de
Investigación Científica), responsable del instrumento SpicaV-SOIR. De
ahí que los especialistas se pregunten si el volcanismo venusiano no ha
originado estas extrañas estructuras.
Estas condiciones impresionan aún más ya que, en el origen de su
historia, tal vez Venus y la Tierra se asemejaran mucho (por su diámetro,
masa y composiciones químicas comparables). Estos viajes hacia
planetas tan próximos a la Tierra, pero tan diferentes, ilustran el nacimiento
de una nueva disciplina: la evolución planetaria.
Para más información
Venus Express
http://www.esa.int/SPECIALS/Venus_Express/index.html
Mars Express
http://www.esa.int/esaMI/Mars_Express/index.html
Un doble torbellino en el
polo sur de Venus. © ESA
La sonda Mars Express inicia su eclipse
alrededor de Marte (ilustración). © ESA
Reescribir la historia
Por ejemplo, en el verano de 2006, Mars Express detectó por primera
vez la presencia de nubes que evolucionaban en la atmósfera del planeta
a gran altitud (¡entre 80 y 100 km!). En este entorno la temperatura es de
-193 ºC. A este nivel de frío, el dióxido de carbono se condensa
induciendo a los investigadores a pensar que se trata de nubes de
gas probablemente mezcladas con partículas de polvo.
Pero lo que fascina sobre todo a los especialistas de Marte es la existencia
de agua. Según Gerhard Neukum, de la Universidad Libre de Berlín, los
datos recopilados en la actualidad por todos los instrumentos que
exploran el planeta permiten ahora “volver a escribir la historia”. Se ha
descubierto que, si existió un período con elevadas temperaturas y
humedad, dicho período tan sólo pudo subsistir algunos cientos de
millones de años y finalizó, como muy tarde, hace 4 mil millones de
años. Todavía encontramos en Marte mucha agua en forma de hielo
(que se descubrió gracias al radar Marsis) así como estructuras geológicas relativamente recientes formadas por la erosión. En opinión del
investigador alemán, las huellas amarillas de agua líquida se siguen
relacionando con el volcanismo, lo cual sugiere la existencia de brotes
de agua efímeros que se evaporaron rápidamente.
La estrella
que más nos interesa...
El Sol, la estrella sin la cual el
“Sistema Tierra” no sería lo que es,
sigue siendo el cuerpo espacial más
estudiado por la ESA. El satélite
Soho (una cooperación ESA/NASA)
que se lanzó en 1995 y que sigue
funcionando, ha proporcionado los
más bellos primeros planos. Le
siguió el lanzamiento de Cluster
(cuatro satélites) en el año 2000 y
de Double Star (dos dispositivos
dotados de instrumental europeo
puestos en órbita en 2003 en
lanzadoras chinas). Las observaciones del Sol efectuadas por
los satélites antes que nada son científicas pero también
responden a motivos más utilitarios. Las actividades “coléricas”
de nuestra estrella (vientos solares, expulsiones de masa coronarias, etc.) pueden causar graves daños a las redes eléctricas
y de telecomunicaciones, así como a los satélites. La próxima
gran misión solar de la ESA está prevista para la próxima
década.
© ESA
ESO
I+DT info especial EIROforum Febrero de 2007
39
La fascinación del cosmos
Nebulosa de la Tarántula, situada en la Gran Nube de Magallanes,
vista a través del VLT. © ESO
La organización intergubernamental más importante (1) en
el campo de la astronomía y la astrofísica es europea, pero
sus telescopios observan los astros desde las montañas del
desierto de Atacama, en Chile. En esta región, la ausencia
de humedad en la atmósfera permite ver el cielo con la
mejor nitidez del mundo, según los especialistas. La
Organización Europea para la Investigación Astronómica en
el Hemisferio Austral (conocida también como el Observatorio
Europeo Austral o ESO), creada en 1962, ha llevado a cabo
la construcción de dos plataformas astronómicas a unos
2.500 metros de altura: una en La Silla, inaugurada en 1969,
y otra en Paranal, que funciona desde 1998.
realizado. Este proyecto, denominado The Atacama Large Millimeter
Array (ALMA), es fruto de la cooperación entre los miembros del ESO,
los Estados Unidos, Canadá, Japón, Taiwán y Chile.
Esta plataforma estará equipada con un gran número de antenas parabólicas móviles de 12 metros de diámetro que “visionarán” el cielo en
frecuencias que van desde los 30 hasta los 950 GHz. El sistema informático que centralizará los datos tendrá capacidad para tratar 16 mil
billones de operaciones por segundo (1,6X1016). ALMA permitirá explorar
el nacimiento y la muerte de los astros y sus planetas y estudiar las
galaxias más lejanas. El proyecto que seguirá a esta iniciativa, el
European Extremely Large Telescope (E-ELT), es un telescopio cuyo
diámetro es del orden de los 30 a los 60 metros, y suscita una intensa
actividad de preparación en el ESO desde hace ya algunos años. Se
espera que esta nueva herramienta esté lista para la próxima década.
os instrumentos de observación y de detección con los que están
equipados estos dos centros, concebidos y construidos por la propia organización, son únicos en el mundo. El éxito tecnológico
más reciente del ESO han sido los cuatro elementos del célebre VLT
(Very Large Telescope), instalados en Paranal. El VLT permite realizar observaciones inigualables, gracias a los instrumentos que lleva
incorporados, a la utilización de procedimientos innovadores como
la óptica adaptativa y la interferometría óptica, y a un modo de funcionamiento único.
El centro de la organización científica está situado en Garching, cerca
de Munich (Alemania). La institución emplea a 570 personas de los dos
continentes. Cada año llegan al ESO más de 1.700 solicitudes para realizar
observaciones, tanto de Europa como del resto del mundo. En 2005,
se pudieron realizar más de 600 trabajos punteros, gracias a los observatorios chilenos, que se tradujeron en publicaciones científicas, en revistas
dotadas de comités de selección de artículos.
Imágenes interminables
L
Una ciencia con proyección hacia el futuro
Las actividades realizadas en el ESO son una fuente inagotable de imágenes astronómicas apasionantes. Su sitio Web ofrece periódicamente
explicaciones sobre nuevos descubrimientos y “paisajes” sorprendentes
del Universo.
La astronomía ejerce un gran poder de fascinación, digno de ser
compartido. Es una disciplina que muestra la matriz original de
donde provienen “nuestro” sistema solar, “nuestra” Tierra y “nuestra”
existencia como habitantes de la Tierra. El ESO informa al público proporcionando una gran cantidad de información a la prensa, realizando
jornadas de puertas abiertas y concursos originales dirigidos a los
jóvenes de todo el mundo. Además, sus servicios educativos elaboran
un excelente material pedagógico destinado a los profesores, a los que
ofrece igualmente sesiones de formación específica cada año.
(1) Doce países son miembros del ESO: Bélgica, Dinamarca, Francia, Finlandia,
Alemania, Italia, Países Bajos, Portugal, Suecia, Suiza, Reino Unido y España.
La astronomía y la astrofísica son ciencias que se proyectan
permanentemente hacia el futuro. Desde el año 2003, a 5.000 metros
de altura, en el nuevo emplazamiento chileno de Llano de Chajnantor,
se está preparando el mayor despliegue de telescopios nunca antes http://www.eso.org
Para más información
40
I+DT info especial EIROforum Febrero de 2007
ESO
La saga de
los agujeros negros
Al principio, los agujeros negros sólo eran conceptos mentales
elaborados por los teóricos de la física. Sin embargo, actualmente pueden identificarse y observarse astronómicamente.
Ofrecen gran cantidad de información sobre la naturaleza y
la evolución de las galaxias. Los descubrimientos más
recientes en este ámbito son uno de los mayores éxitos de
la astronomía europea.
Vista aérea de la cumbre de Paranal,
en la que aparecen los cuatro elementos
del VLT, el telescopio más grande del
mundo. En primer plano, el telescopio
Yepun. De izquierda a derecha, Antu,
Kueyen y Melipal. © ESO
calentamiento y emiten radiaciones muy intensas, primero en la forma
de ondas de radio, luego infrarrojas, luego luz, rayos ultravioletas y rayos X.
El agujero negro más fascinante para los astrónomos está situado en el
centro de nuestra propia galaxia, la Vía Láctea. Durante mucho tiempo
los investigadores se han preguntado sobre la existencia de una fuente
enigmática de emisión de ondas de radio, muy potente, denominada
Sagittarius A y considerada como posible “centro supermasivo de nuestra galaxia”; sin embargo, no se tenía la certeza de que se tratara de un
agujero negro.
a aventura de los agujeros negros empezó en 1963, con la primera
identificación de los quásares, objetos muy lejanos que emiten una 2,7 millones de veces el Sol...
energía colosal. El más brillante que se ha registrado, el 3C273,
que se encuentra situado en la constelación de Virgo, es varios miles La confirmación precisa, irrefutable y definitiva la aportó un equipo
de millones de veces más brillante que el Sol. Sólo los destellos de ráfa- internacional, utilizando uno de los cuatro telescopios del VLT del ESO
en Chile, equipado con óptica adaptativa (véase el cuadro). Tras diez
gas gamma tienen más energía que este quásar (véase la pág. 42).
años de observaciones perseverantes (1992-2002), los investigadores
han obtenido imágenes sorprendentes de la estrella S2. Dicha estrella,
Una atracción devoradora
con una masa equivalente a quince veces la de nuestro sol, orbita en
torno al famoso Sagittarius A a una velocidad de 5.000 km/segundo, o
¿Cómo se puede explicar una emisión de energía de semejante potencia? sea doscientas veces más rápido que la Tierra en torno al Sol.
Los científicos defienden la hipótesis de que un fenómeno de este tipo Como explica Reinhard Genzel, director del Instituto Max-Planck para
podría tener relación con los agujeros negros, objetos concebidos por las la Física Extraterrestre (MPE) de Garching (Alemania) y miembro activo
teorías del cosmos derivadas de la física moderna. Pueden describirse de este equipo, “la masa de la estrella S2 y, sobre todo, su trayectoria
como insólitas “zonas” de campos de atracción situados en el Universo, perfectamente elíptica, observada con precisión, implican que el centro
que “aspiran” o “capturan” a los astros que están a su alcance. Estos de atracción situado en uno de los focos de su órbita posee una masa
objetos son tan densos que ni la luz puede escapar a su atracción.
enorme. Ésta representa 2,7 millones de masas solares y ocupa un
En la actualidad se sabe que los agujeros negros existen realmente volumen muy pequeño de 10 minutos luz de diámetro, es decir, un poco
y que la energía que emiten de forma esporádica y que corresponde al menos que la órbita de Venus, que es el segundo planeta más cercano
fenómeno de quásar que se les asocia, proviene en realidad de la materia al Sol”. Estos datos, compatibles únicamente con el perfil de un agujero
o de los astros que absorben. Cuando éstos últimos caen en su campo negro, son la prueba de que Sagittarius A es el agujero negro central
de atracción, eliminan su energía gravitacional por un proceso de supermasivo de nuestra galaxia.
L
ESO
41
I+DT info especial EIROforum Febrero de 2007
La caída como prueba
Otros descubrimientos recientes muestran que ya ha comenzado la era
de la observación directa de la física de los agujeros negros. El 8 de
mayo de 2003, uno de los astrónomos del equipo de Reinhard Genzel,
mientras observaba de cerca la pantalla de control de su telescopio
gigante, se sobresaltó repentinamente frente a la presencia anormal de
una estrella. Su segunda sorpresa fue cuando constató su desaparición
después de algunos minutos. Este equipo acababa de observar por
primera vez una luz muy potente, en infrarrojo cercano, en el lugar
exacto donde se sitúa el agujero negro supermasivo que se encuentra
en el centro de nuestra galaxia.
La longitud de onda de la radiación correspondía a un crecimiento de
materia calentada que, durante su “caída” en el agujero negro se
calienta y emite radiaciones en el infrarrojo cercano. De este modo se
descubrió, tras años de investigaciones, la prueba tan buscada de la
absorción de materia por un agujero negro. Hasta ese momento nadie
había sido testigo de esta última señal de la materia atrapada por un
agujero negro atravesando un punto sin retorno hacia un destino
desconocido.
El movimiento de una estrella en torno al agujero negro supermasivo en
el centro de la Vía Láctea: a la izquierda, Sagittarius (SgrA*) y S2;
a la derecha, el esquema de la órbita de S2 alrededor de SgrA*,
según se observó entre 1992 y 2002. Se puede descargar un vídeo
de Sagittarius A y de S2 en sitio Web del ESO:
www.eso.org/outreach/press-rel/pr-2002/video/vid-02-02.mpg
© ESO
Sutilezas de la puesta a punto
El telescopio Yepun, uno de los cuatro que forman el VLT en el
monte Paranal, en Chile, está equipado con NaCo y SINFONI,
dos sistemas de óptica adaptativa. Esta tecnología consiste
en compensar los defectos de la imagen que se deben a
perturbaciones de la atmósfera, por una deformación de
El resultado más sorprendente fue que esta emisión variaba muy
rápidamente de intensidad en unos pocos minutos, lo que demuestra
que estas señales infrarrojas deben provenir de una región minúscula.
Esta zona está situada justo al borde del agujero negro, más allá de la cual
no puede escapar ninguna radiación. En este fenómeno se descubre
también una periodicidad en la radiación que se atribuye al movimiento
en forma de espiral de la materia que orbita en torno al agujero negro
antes de desaparecer en el mismo. Éste debe girar rápidamente.
Reinhard Genzel añade: “Es un gran descubrimiento que nos permite
confirmar las teorías actuales relativas a los agujeros negros. Una posibilidad de este tipo era inimaginable hasta hace poco tiempo”.
Cuando la astronomía vuelve a examinar la teoría
El telescopio Yepun del VLT y su haz láser crean una “estrella artificial”.
© ESO
espejo que produce defectos exactamente inversos, de tal
manera que la combinación de ambos efectos los anula. Para
esto se recurre a la ayuda de una estrella puntual que se
encuentra en el campo de observación y sirve como referencia.
En cuanto se deforma o se vuelve borroso el punto imagen de
la estrella de referencia, ciertos servomecanismos ultrarrápidos
(que actúan 1.000 veces por segundo sobre un espejo
deformable dentro del instrumento) reestablecen su nitidez
y, en consecuencia, la de todo el campo de observación.
Cuando las observaciones se realizan en una parte del cielo
donde no hay ninguna estrella de referencia, los astrónomos
utilizan una estrella artificial. Esta proeza técnica se puso en
práctica en 2006. Un haz de láser potente (de longitud de
onda precisa) excita los átomos de sodio presentes en gran
cantidad en una capa atmosférica situada hacia los 90 km de
altura, creando, de este modo, una luz brillante característica.
La astronomía del siglo XXI (más allá de las cuestiones de astrofísica
como la materia negra, la energía oscura, etc.) interviene en las grandes
cuestiones de la física más teórica. De este modo, se puede pensar en
probar, por medio de la observación, la teoría de la gravitación cuántica,
la evolución del cosmos, el Big Bang, o incluso la estabilidad de
constantes fundamentales en el curso de la historia del Universo. En
quince años, el progreso ha sido enorme. Una de las etapas
siguientes será el comprender cuándo y cómo se formaron estos
agujeros negros supermasivos y por qué parece ser que casi todas
las galaxias importantes contienen uno.
Para más información
http://www.eso.org
Contacto
Reinhard Genzel
[email protected]
42
I+DT info especial EIROforum Febrero de 2007
ESO
El mensaje
de los estallidos de rayos gamma
Todo comenzó durante la Guerra Fría. Los satélites militares estadounidenses habían puesto en órbita satélites sensibles
a los rayos gamma para asegurarse de que los soviéticos no infringían la moratoria sobre ensayos nucleares. No se detectó
ninguna explosión en la atmósfera, pero se descubrieron destellos misteriosos que provenían del espacio. Enseguida se
comprendió que se trataba de huellas breves y aleatorias de violentas liberaciones de energía que se encuentran entre las
más intensas del Universo después del Big Bang.
os estallidos de rayos gamma se emiten especialmente durante la
aparición fugaz de supernovas e hipernovas, estos cataclismos de
estrellas masivas que crean un agujero negro. Los satélites vigilan
estos fenómenos fulgurantes y, en cuanto la alerta llega a Chile, el VLT
(Very Large Telescope) del ESO apunta hacia el objetivo para analizarlo
y descodificarlo.
La energía liberada en los pocos segundos que duran estos fenómenos
extraordinarios excede en gran medida la energía del Sol durante toda
su larga existencia de más de 10.000 millones de años. Sólo lo ocurrido
durante el Big Bang tuvo una energía superior. Todos los estallidos de
rayos gamma (o GRB, por Gamma Ray Bursts) son extragalácticos.
Provienen de muy lejos, de distancias llamadas “cosmológicas”, se
distribuyen por todo el Universo, duran entre unos milisegundos y
quince minutos y llegan repentinamente. Su irrupción inesperada
explica la dificultad a la que se enfrentan los científicos para estudiarlos
y comprender su significado astronómico. Hay que hacerlo todo con
rapidez.
L
Un fenómeno doble
El 29 de marzo de 2003 fue un día de suerte para los astrónomos. La
observación de un estallido de rayos gamma detectado por el satélite
americano HETE-2 fue confirmada inmediatamente por observatorios
en la Tierra que detectaban, en la misma dirección, una nueva fuente
de luz visible. En las horas siguientes, el telescopio Kueyen, del VLT,
equipado con un el espectrógrafo UVES, obtenía el espectro de este nuevo
acontecimiento cósmico. Por su desplazamiento hacia el rojo (redshift) se
calculó su distancia (relativamente cercana) en 2.650 millones de
años luz.
Durante el mes siguiente, al observar periódicamente las características
espectrales de esta fuente luminosa nueva, los astrónomos vieron aparecer
progresivamente el espectro de una hipernova. También descubrieron que
la señal luminosa disminuía lentamente. Este escenario correspondía a la
hipótesis de un destello luminoso parecido a una hipernova resultante de
la explosión de una estrella muy grande al final de su vida. A partir de
La flexibilidad del VLT
Un telescopio gigante, capaz de captarlos, no se dirige tan fácilmente
como unos gemelos. Una de las cualidades del VLT es poder enfocar su
objetivo en sólo unos minutos, por lo que se pueden realizar observaciones
muy detalladas. Desde 1997, gracias a la valiosísima ayuda de satélites
capaces de localizar las fuentes de rayos gamma, se han registrado
varias decenas de GRB. De ahí que se sepa algo más sobre el origen
misterioso de los más intensos estallidos de rayos gamma.
Gracias al VLT se ha podido establecer la relación de causa y efecto que
existe entre estos destellos de luz y la aparición fluctuante de las supernovas y las hipernovas, esas “estrellas nuevas” extraordinariamente
luminosas cuyo brillo se debilita con rapidez. Paradójicamente, resulta
engañosa la denominación dada a estos fenómenos, que han despertado
la curiosidad de los astrónomos desde hace mucho tiempo (1). Las
observaciones realizadas durante el siglo XX (en particular la de la
supernova, relativamente cercana y estudiada en 1987 en la Gran Nube
de Magallanes) han establecido que no se trataba de “nacimientos
astrales”, sino de acontecimientos cataclísmicos producidos por el
colapso gravitacional de estrellas muy masivas en su propio núcleo, lo
que significa la muerte de las mismas.
El lento desvanecimiento de la hipernova– Dos imágenes en luz visible de
estallidos de rayos gamma GRB 030329, observados el 3 de abril de
2003, cuatro días después de su aparición y el 1 de mayo de 2003.
Muestran claramente la disminución de su luz residual (optical afterglow),
hecho compatible con el comportamiento de una hipernova. © ESO
ESO
I+DT info especial EIROforum Febrero de 2007
43
La hipótesis de las estrellas de neutrones – Los astrónomos dan una versión muy diferente de las hipernovas cuando se trata de explicar el origen de los
estallidos de rayos gamma de una duración muy breve. Su hipótesis se basa en la atracción recíproca de dos estrellas de neutrones que orbitan una en
torno a la otra, en un movimiento de acercamiento progresivo. Todo termina con una explosión estelar en la cual se emiten dos haces de plasma. Si uno
de estos haces apunta hacia la Tierra, se observa un estallido breve de rayos gamma (ilustración). © ESO
estos espectros, los astrofísicos pudieron evaluar el momento en el que
debió de producirse este cataclismo; momento que, según se comprobó,
coincidía con la aparición del estallido de rayos gamma. Se trataba pues
de la confirmación definitiva de que ambos acontecimientos estaban
relacionados entre sí. En realidad era uno solo, observado primero en
rayos gamma y luego en luz visible.
El “modelo colapsar”
“El estallido de rayos gamma y la hipernova son dos facetas de un mismo
objeto/acontecimiento astronómico”, manifiesta Bruno Leibundgut,
investigador del ESO. La teoría defendida por los astrofísicos para
explicar los estallidos de rayos gamma de larga duración es “el modelo
colapsar” (también existen estallidos muy breves, de un segundo, que
se interpretan de un modo diferente).
Este modelo se refiere a una estrella de más de 25 masas solares que
ha transformado todo su hidrógeno en helio, ha expulsado sus capas
más externas (de la clase Wolf-Rayet, en la jerga astronómica) y llega a
un estado en el que la energía radiativa consumida deja de equilibrar
la presión gravitacional. Se da un colapso repentino de su núcleo sobre
sí mismo, lo que forma un agujero negro y expulsa al mismo tiempo un haz
de plasma proyectado a una gran velocidad. Este haz atraviesa la materia
de las capas exteriores de la estrella, que “estallan” en el espacio bajo la
fuerza de los vientos estelares compuestos de níquel-56 radiactivo
nuevamente formado. Bruno Leibundgut prosigue: “La luz violenta, que
constituye el concepto de la hipernova, ‘tan sólo’ es un fenómeno de
superficie, que se puede comparar a los últimos resplandores de una
estrella moribunda. En el centro de este proceso que lleva a la formación
del agujero negro, en la emisión del haz de plasma, se emite el estallido
de rayos gamma”.
(1) Se encuentra en documentos astronómicos del siglo XI, tanto en China como en
Occidente. Tycho Brahé y Johannes Kepler, en su época, tuvieron la oportunidad de
observar las dos supernovas en las constelaciones de Cassiopea (1572) y Ofiucus
(1604) respectivamente.
Los primeros pasos del
Universo
Numerosos estallidos de rayos gamma provienen de
distancias superiores a los 12.500 millones de años luz,
de las galaxias más lejanas que se formaron cuando el
Universo empezó a existir. Puesto que están asociados a
las hipernovas, la muerte cataclísmica de estrellas muy
masivas, cuando el Universo se encontraba todavía “en sus
principios”, intriga a los astrónomos y les abre un nuevo
enfoque para comprender mejor su naturaleza y su evolución.
La luminosidad intrínseca “estándar” de algunas hipernovas
ofrece en particular un modo nuevo de calibrar las grandes
distancias en el Universo y, en consecuencia, la densidad
de energía de sus componentes. De ahí que se las tome en
consideración en las grandes cuestiones actuales de la
astrofísica, tales como la materia negra (cuya existencia es
necesaria para comprender los movimientos de las galaxias
y que no puede explicarse si se tiene en cuenta únicamente
la materia “visible”) o incluso la energía oscura, una forma
desconocida de energía que se supone que explica la aceleración de la expansión del Universo.
Para más información
http://www.eso.org/outreach/press-rel/pr-2005/pr-26-05-p2.html
http://fr.wikipedia.org/wiki/Sursaut_gamma
http://132.166.172.2/fr/magazine/dossier_sursauts_gamma/index.htm
Contacto
Bruno Leibundgut
[email protected]
I+DT info especial EIROforum Febrero de 2007
A la caza de los
exoplanetas
En 1995, Michel Mayor y Didier Queloz, del Observatorio de
Ginebra, anunciaron la prueba de la existencia de un objeto
de masa planetaria (0,5 veces la masa planetaria de Júpiter)
en órbita en torno a la estrella de tipo solar 51 Pegasi. Con
este descubrimiento empezó la “caza” de los exoplanetas,
objetos no estelares que orbitan alrededor de un sol diferente
al nuestro, de los cuales se han identificado más de doscientos hasta la fecha.
KI-AB-06-S01-ES-C
44
ESO
HARPS, el espectrómetro hipersensible
Este modo de detección implica a espectrómetros hipersensibles.
El ESO ha realizado la puesta a punto del HARPS (High accuracy radial
velocity planet searcher), el espectrómetro “cazador de planetas” más
potente del mundo incorporado a uno de los telescopios del Observatorio
de La Silla, en Chile. Su sensibilidad extraordinaria le permite detectar
una variación de velocidad de la estrella de un metro por segundo. En
el espectro que examina el astrónomo, el desplazamiento físico en la
escala de las líneas es del orden de una fracción de micrón.
Varios descubrimientos recientes logrados gracias al HARPS han sorprendido a los astrónomos. Por ejemplo, el descubrimiento de un
pequeño “sistema solar” de tres planetas que orbitan en torno a
HD69830, una estrella que se encuentra a una distancia de cuarenta
años luz en la constelación de La Popa. Dos de estos tres planetas
podrían ser rocosos, con masas parecidas a las de Neptuno (17 veces
la masa de la Tierra), mucho más ligeros que Júpiter (cuyo peso es
318 veces el peso de la Tierra). Hasta hoy, este trío compone el sistema
lejano más parecido a nuestro sistema solar.
El enigma del nacimiento planetario
Abril de 2005. El primer exoplaneta (abajo, a la izquierda) fotografiado
directamente con uno de los VLT del ESO. Orbita alrededor de la enana
marrón 2M1207b (en el centro), a una distancia doble de la que hay entre
Neptuno y el Sol. La imagen ha podido captarse porque esta enana marrón
es sólo cien veces más luminosa que el planeta (mientras que entre el Sol
y la Tierra esa relación es de mil millones). © ESO
En los últimos once años se han descubierto más de 200 “objetos
planetarios identificados”. Se distribuyen de modo homogéneo por
todas las direcciones del cielo, por lo tanto, el sistema solar no es una
excepción en el Universo. Los más numerosos son los planetas de tipo
jupiteriano, muy masivos, cálidos y gaseosos y que orbitan cerca de su
astro. Es verdad que actualmente las principales herramientas disponibles
favorecen su detección (la perturbación de la estrella es mayor y la
frecuencia rápida de las revoluciones se ve más fácilmente). Las técnicas
no dejan de perfeccionarse y por lo tanto se puede prever que cada vez
se identificarán más planetas pequeños.
Por otro lado, como explica Gero Rupprecht, miembro del equipo que
trabaja en el HARPS, “la pregunta sobre los orígenes de los sistemas
planetarios se plantea por los datos recogidos sobre los exoplanetas de
tipo Júpiter. ¿Se forman cerca de su estrella, o en otro lugar y migran
hacia su estrella? Los astrónomos y astrofísicos intentan comprender la
dinámica de la formación de los sistemas planetarios”.
Este nuevo campo de investigación tiene puestas sus esperanzas en el
futuro E-ELT, previsto para dentro de unos diez años. Este telescopio
gigante estará equipado con una superficie de detección cuyo diámetro
se situará entre treinta y sesenta metros. Podrá medir variaciones de la
velocidad de las estrellas con una precisión increíble, de algunos centímetros por segundo, explorando así en los límites de la precisión. Más
allá, se encuentra el “ruido de fondo” generado por cualquier estrella,
cuyo movimiento esté influido por su propia actividad.
Para más información
ras un año de observaciones en el Observatorio de Haute
Provence, Michel Mayor y Didier Queloz demostraron claramente
que la velocidad de la estrella 51 Pegasi experimentaba fluctuaciones periódicas que se podían atribuir a la presencia de un planeta
de gran tamaño. El método inventado por estos investigadores consistía en medir la velocidad radial, es decir, la observación de la perturbación del desplazamiento de la estrella (en sentidos opuestos) inducida
por el planeta y proporcional a la masa del mismo. La variación oscilante de velocidad del astro afecta a la luz que nos llega y las longitudes
de onda de sus líneas espectrales se desplazan, por efecto Doppler,
unas veces hacia el azul y otras hacia el rojo.
T
http://www.eso.org/outreach/press-rel/pr-2006/pr-19-06-add.html
http://www.eso.org/gen-fac/pubs/esaesowg/espwg_report.pdf
Enciclopedia de planetas extrasolares
http://exoplanet.eu/
Contacto
Gero Rupprecht
[email protected]
Descargar