Número especial sobre EIROforum – Febrero de 2007 ISSN 1023-9006 Entre quarks e hipernovas La aventura de la materia y la vida CERN • EFDA • ILL • ESRF • EMBL • ESA • ESO 2 I+DT info especial EIROforum Febrero de 2007 Editorial La cantidad de investigaciones de vanguardia dirigidas actualmente por las siete grandes organizaciones europeas agrupadas en EIROforum da testimonio de la vivacidad y la excelencia de la ciencia, cuyas fronteras no dejan de ampliarse en el Viejo Continente. Las tierras del desconocimiento Al mismo tiempo, faltos de una fotografía exacta del Universo, los presentes artículos arrojan luz sobre temas como la materia, la vida y la evolución. Sin embargo, esta especie de entramado también revela la envergadura de las lagunas del conocimiento actual. Por ejemplo, ¿Nos hemos dado cuenta de que todavía desconocemos lo esencial de la masa del Universo? ¿Que nuestro espacio y tiempo parecen estar inundados por una energía negra que nos irradia sus efectos indirectos? Como si se tratara de un agujero negro, la ciencia engloba nuestros conocimientos y, al mismo tiempo, I+DT info – especial EIROforum INSTITUTO LAUE-LANGEVIN 10 4 “El EIROforum se ha convertido en uno de los protagonistas de la ciencia europea” Entrevista a Bill Stirling, director general de la ESRF y presidente de EIROforum. 5 La ciencia fuera del laboratorio Más de 6.500 científicos de todos los continentes, premios Nobel o jóvenes investigadores, conviven en Ginebra, en el centro de física de partículas más grande del mundo. 7 8 La ayuda de las cuerdas Junto al modelo “estándar” de la física de partículas, la ciencia se pregunta sobre la nueva perspectiva que ha aportado la teoría matemática de las cuerdas. Aviso Ni la Comisión Europea ni ninguna persona que la represente son responsables del uso que pueda hacerse de la información que contiene esta publicación o de los errores eventuales que puedan subsistir a pesar del esmero en la preparación de estos textos. © Comunidades europeas, 2007 Reproducción autorizada, con indicación de la fuente Todas las miradas puestas en ITER 13 Una apuesta estudiada 18 20 16 21 Sobre las neuronas Los biólogos recurren cada vez más a los haces de neutrones para descifrar la materia viva. Un ejemplo: las moléculas de adhesión de las células neuronales (o NCAM, en inglés). JET, el banco de pruebas precursor de ITER Sin JET, ITER jamás habría visto la luz. Y es en JET donde se evalúan la validez y la factibilidad de múltiples opciones científicas y tecnológicas analizadas para el reactor de Cadarache. El misterio del magnetismo marciano Los investigadores han podido demostrar que las anomalías magnéticas descubiertas por la sonda Mars Global Surveyor se debían a la presencia de pirrotita. La ambiciosa aventura de la fusión ¿El desafío de la fusión? Reproducir el Sol en la Tierra, un proceso que exige temperaturas próximas a los 150 millones de grados… ¿La energía equivale realmente a “mc2”? El espectro de rayos Gamma GAMS 4 del ILL ha permitido verificar la ecuación fundamental de Einstein con un margen de error del 0,00004%. Entrevista a David Ward, especialista en física de plasmas vinculado a la preparación de ITER. 14 Los neutrones al servicio de la ciencia El Instituto Laue-Langevin de Grenoble (Francia) representa una de las fuentes de neutrones más importantes del mundo y permite a los científicos entrar en la estructura de la materia. ¿Podrá disponer la Humanidad de una nueva fuente de energía ilimitada, limpia y controlable? El reactor ITER, operativo en 2016, podría dar la respuesta. Y “se hicieron” las partículas Las partículas elementales se remontan a una época en la que el Universo era más pequeño que una cabeza de alfiler… por Rolf Landua. 17 EFDA 12 CERN Conociendo las últimas fronteras de la materia Las promesas del gran colisionador El acelerador de partículas más potente, el LHC, se inaugurará en 2007 en el CERN y permitirá sondear los secretos de la materia desde sus orígenes. Un gran plan para dos iniciativas de EIROforum destinadas a los profesionales de la docencia: la revista Science in School y el festival “La Ciencia en Escena”. 6 pone de relieve la amplitud de nuestro desconocimiento. Una “evidencia” que hay que recordar cuando son muchos los que denuncian la incultura científica del público. Recordemos la conocida frase: ¡Los científicos son fundamentalmente ignorantes! Una verdad ciertamente muy extendida en la sabiduría popular sabiduría popular y derivada de aquella conocida frase: “Sólo sé que no sé nada”. Pero sería de interés para nuestra sociedad el basarse en esta ignorancia para explorar las tierras del desconocimiento estén donde estén. INSTALACIÓN EUROPEA DE RADIACIÓN SINCROTÓNICA 22 La era de las nuevas luces En torno al sincrotrón de la Instalación Europea de Radiación Sincrotónica, unas cuarenta “líneas de luz” permiten la observación de las muestras microscópicas indispensables para los investigadores de distintas disciplinas. La revista de información sobre la investigación europea I+DT info se publica en inglés, francés, alemán y español, por la Unidad de Comunicación de la DG de Investigación de la Comisión Europea. Editor responsable: Michel Claessens Tel.: +32 2 295 9971 Fax: +32 2 295 8220 Correo electrónico: [email protected] La tirada de este número ha sido de 102.000 ejemplares Todas las ediciones de I+DT info se pueden consultar en línea en la página Web de la DG de Investigación: http://ec.europa.eu/research/rtdinfo/index_es.html En portada: couverture: imagen Mousson de un au cúmulo Nigerde©galaxias Thierry tomada Lebel por el VLT de la ESO en Chile. (http://www.eso.org/outreach/press-relypr-1999/phot-16-99.html) I+DT info especial EIROforum Febrero de 2007 23 Ver lo invisible 30 Las técnicas utilizadas en las líneas de luces ofrecen la posibilidad de seguir las reacciones químicas o biológicas en períodos de tiempo muy cortos. 24 La vida bajo la mirada del sincrotrón Los biólogos utilizan cada vez más el sincrotrón para comprender la vida. Las siete líneas de luz de la ESRF, dedicadas a la cristalografía de las proteínas, representan cerca de un cuarto de su actividad científica. 26 32 Entrevista a Eric Karsenti, director de la unidad de “biología celular y biofísica”. 33 28 El árbol de la vida según la genómica ES0 39 34 Las revoluciones de la ciencia offshore 40 42 El mensaje de los estallidos de rayos gamma Muchos estallidos de rayos gamma provienen de distancias superiores a 12.500 millones de años luz. Son fenómenos de liberación de energía de los más violentos en el Universo después del Big Bang. Los centinelas del “Sistema Tierra” Desde 2004, el programa Planeta vivo de la ESA tiene por objetivo desarrollar la capacidad global para comprender el funcionamiento de la Tierra, predecir sus cambios y limitar las agresiones que sufre. La saga de los agujeros negros Los enigmáticos agujeros negros revelan cada vez más secretos sobre la naturaleza y la evolución de las galaxias. Entrevista a David Southwood, director científico de la ESA. 36 La fascinación del cosmos La ESO es la organización intergubernamental más importante en el ámbito de la astronomía y la astrofísica europea. Sus telescopios están instalados en Chile. El espacio europeo sin fronteras La Agencia Espacial Europea (ESA) es un ejemplo notable de cooperación internacional que reúne a varios Estados miembros de la Unión Europea, Suiza y Canadá. En primera línea de las ciencias de la vida en Europa Independencia, interdisciplinariedad, recepción de jóvenes investigadores, formación de doctorandos y relaciones entre ciencia y sociedad figuran en el programa de los cinco laboratorios del EMBL. Si el tema del agua provoca fascinación por Marte, Venus llama la atención por las condiciones “infernales” que reinan en su superficie. ESA EMBL 27 Al principio existía la forma Marte y Venus, nuestros vecinos 38 Un pequeño gusano marino, Platynereis, está mucho más cerca del Homo Sapiens que los insectos… Ahora lo sabemos gracias al estudio de Urbilateria (600 millones de años). Descifrar los orígenes Muchos investigadores de disciplinas diversas, utilizan los rayos X “duros”. Un ejemplo: la paleontología. ¿Quién era Urbilateria? 3 44 A la caza de los exoplanetas Un nuevo campo de investigación se abre a los astrónomos: los exoplanetas, de los cuales más de 200 han sido registrados en los últimos años. Formulario de suscripción gratuita a I+DT info Puede suscribirse gratuitamente a la revista a través de la página Web http://ec.europa.eu/research/mail-forms/rtd-adr_es.cfm También puede rellenar este formulario con letra de imprenta y enviarlo a la dirección siguiente: I+DT info ML DG1201 Apartado de correos 2201 L-1022 Luxemburgo Nombre : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Organización: ..................................... Versión(es) lingüística(s) que desea recibir (*): Versiones: francesa 쏔 inglesa 쏔 alemana 쏔 española 쏔 Seis investigadores, liderados por Peer Bork, acaban de publicar en Science un nuevo “árbol de la vida” basándose en los conocimientos sobre el genoma. Un nuevo enfoque sobre nuestros orígenes. Dirección: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................................ Código postal: . . . . . . . . . . . Ciudad: . . . . . . . . . . . . . . . . . . . País: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (*) Si desea recibir varios ejemplares de una versión lingüística determinada, puede enviar su formulario con su dirección completa y una breve justificación: - por Internet http://ec.europa.eu/research/mail-forms/rtd-adr_es.cfm - por fax (+32-2-295 82 20). Si desea obtener uno o varios ejemplares de números anteriores de I+DT info, envíe un mensaje por correo electrónico o por fax 4 I+DT info especial EIROforum Febrero de 2007 E N T R E V I STA “El EIROforum se ha convertido en uno de los protagonistas de la ciencia europea” Bill Stirling es Director General de la Instalación Europea de Radiación Sincrotrónica (ESRF o European Synchrotron Radiation Facility en inglés) desde 2001, periodo en el que maduró la colaboración con el EIROforum. Hoy nos habla de su experiencia como presidente de este grupo, de la historia y de las perspectivas de futuro de la organización. ¿Qué importancia tiene EIROforum hoy en día? El EIROforum representa una colaboración muy positiva entre siete institutos que comparten su experiencia científica al más alto nivel. Uno de nuestros objetivos es desarrollar las capacidades científicas de Europa en el complejo entorno de la ciencia nacional, la ciencia financiada por la Unión Europea, la ciencia intergubernamental como la nuestra y la ciencia mundial. Intentamos crear estrategias a largo plazo para estar en condiciones de responder a las cuestiones científicas realmente importantes de cara al futuro, motivar a nuestro personal, encontrar la financiación necesaria y hacer que los programas internacionales de nuestros institutos estén acordes con las necesidades nacionales de nuestros países miembros. En varios de estos aspectos, concedemos cada vez más importancia a nuestras relaciones con la Comisión Europea. Personalmente, me sorprende que las cuestiones que considero importantes sobre el uso de la radiación sincrotrónica en toda Europa se asemejen, en muchos aspectos, a los problemas que tienen que afrontar otras organizaciones de EIROforum, como por ejemplo, en el desarrollo de la física de partículas o la ciencia espacial. Las grandes infraestructuras europeas se han desarrollado fuera de la Unión Europea y de su política de investigación. No obstante, la colaboración con la Comisión Europea se ha reforzado con los años. ¿Cree que esta tendencia va a seguir y que se reforzará? En la actualidad, se están creando organizaciones como la Instalación Europea de Radiación Sincrotrónica para satisfacer las necesidades científicas de sus Estados miembros principalmente, aunque no de manera exclusiva. Sin embargo, veo cómo la Comisión Europea se está implicando cada vez más a través de las diferentes ayudas del 7PM, las becas Marie Curie, etc. Está claro que una parte de nuestra ciencia, como la física de partículas, sólo puede funcionar a nivel supranacional, pero éste no es el caso de la ciencia llevada a cabo por los miembros del EIROforum. Evidentemente, hay programas que nos van a beneficiar. El plan de trabajo fijado para el Foro Estratégico Europeo para las Infraestructuras de Investigación (ESFRI, por sus siglas en inglés) supone una herramienta con la cual Europa puede influir de forma directa en el futuro de los miembros del EIROforum, puesto que algunos están implicados en dicho plan. La creación del Consejo Europeo de Investigación (CEI)(1) tiene una importancia vital para el futuro de una ciencia basada en la excelencia en Europa, incluida la ciencia que llevan a cabo los socios del EIROforum. Bill Stirling (a la izda.) con el Comisario europeo de Ciencia e Investigación, Janez Potočnik ¿Qué efecto tendrá el CEI en los institutos del EIROforum? El Consejo Europeo de Investigación, si dispone del apoyo necesario, representará un cambio fundamental en la financiación de la ciencia en Europa. Al principio, las repercusiones en los miembros del EIRO serán indirectas. Disponemos de infraestructuras de investigación que proporcionan servicios científicos a los investigadores europeos en un amplio abanico de campos. El CEI otorgará ayudas a los mejores investigadores para que lleven a cabo su labor científica. Por lo tanto, las instalaciones como, las de EIROforum serán útiles porque estos investigadores podrán utilizarlos. Sin duda, esto impulsará la ciencia europea, pero existe el riesgo de que una compensación a nivel nacional pueda debilitar los efectos positivos del CEI. Espero que éste sea lo bastante fuerte como para contrarrestar esa tendencia. Usted preside EIROforum desde hace seis meses. ¿En qué ha cambiado su visión de EIROforum desde que desempeña este cargo? Me fascina ver lo variadas que son las actividades en las que participa el EIROforum. Raro es el día en el que no recibamos un e-mail en el que se invite al EIROforum a participar en una exposición o una conferencia científica, un concurso oposición… y podría seguir dando ejemplos. El EIROforum ha madurado hasta el punto de que actualmente se le reconoce como uno de los protagonistas de la ciencia europea. Se le considera un participante clave en los acontecimientos científicos más destacados de Europa y, cada vez más, del mundo entero. En realidad no hay de qué sorprenderse porque, al fin y al cabo, cada una de las organizaciones del EIROforum es líder en su propio campo científico. (1) En el 7PM, el CEI tiene el estatus de una nueva agencia de financiación, a través de la cual, la comunidad científica europea eligió apoyar la investigación fundamental en temas emergentes. Para más información http://www.eiroforum.org/ EIROforum I+DT info especial EIROforum Febrero de 2007 5 Sacar la ciencia fuera del laboratorio La ciencia avanza más rápido que nunca: los descubrimientos importantes se suceden. Sin embargo, mientras los profesores de las escuelas tienen dificultades para estar al corriente de los últimos descubrimientos, muchos alumnos se aburren en las clases de ciencias. Para responder a esta contradicción, el EIROforum lanzó la revista Science in School en la primavera de 2006. Esta es la primera publicación internacional multidisciplinaria que tiene como objetivo una enseñanza innovadora de la ciencia. a ciencia se está haciendo cada vez más internacional e interdisciplinaria” afirma Eleanor Hayes, editora de esta revista trimestral basada en el EMBL (Laboratorio Europeo de Biología Molecular). “Aunque los sistemas educativos puedan ser de ámbito nacional, los niños de todo el mundo tienen el mismo tipo de inquietudes. El acontecimiento más emocionante puede suceder en cualquier campo: puede ser que de pronto los estudiantes quieran hablar sobre un descubrimiento en Marte, un avance médico o una catástrofe natural”. Por este motivo, Science in School no sólo trata la enseñanza de las ciencias en toda Europa, sino también en todas las disciplinas. Science in School, leída sobre todo por profesores de ciencias, investigadores y otros profesionales vinculados a la enseñanza de las ciencias, recoge los últimos descubrimientos, materiales educativos, entrevistas con profesores y científicos, evalúa los recursos disponibles, etc. Las tres primeras ediciones trataron, entre otros temas de la química del chocolate, las secuelas genéticas de Chernobyl, la contribución musulmana a la ciencia occidental, cómo construir una hélice de ADN utilizando botellas vacías y un análisis sobre lo que opinan realmente los adolescentes de la ciencia. “Los científicos europeos, entre ellos los que trabajan en los laboratorios de EIROforum, realizan constantemente nuevos descubrimientos que querrían explicar a los jóvenes, pero antes no existía ninguna vía para hacerlo” destaca Bill Stirling, Director General de la Instalación Europea de Radiación Sincrotrónica (o ESRF en inglés). Uno de los objetivos fundamentales de la revista es fomentar la comunicación entre los científicos y las escuelas. Science in School, consciente de que los verdaderos expertos son los que “están al pie del cañón”, hace de nexo entre dos grupos de autores: los científicos que llevan a cabo las investigaciones y los profesores que utilizan los materiales. Así, varios profesores experimentados revisan los artículos y dan consejos sobre cómo usar estos textos en las clases. Este enfoque funciona: lectores de más de treinta países europeos han respondido con tanto entusiasmo que EIROforum ha aumentado la tirada de Science in School de 20.000 a 30.000 ejemplares. La revista, en inglés, se envía gratuitamente a profesores de ciencia de toda Europa. Aunque la edición inglesa es muy popular, las clases se imparten en el idioma del país. Así pues, el equipo de Science in School trabaja con investigadores y profesores europeos para proponer traducciones de estos textos en su sitio Web. “La petición más habitual de nuestros lectores ha sido que publiquemos en tantos idiomas como nos sea posible” prosigue Eleanor Hayes. “Gracias al gran número de voluntarios que nos ayudan, ya tenemos en línea artículos en dieciséis lenguas europeas. Pero ésta es una tarea constante, así que no nos vendría mal un mayor número de voluntarios”. L “ Para más información Contacto http://www.scienceinschool.org [email protected] La Ciencia en Escena ¿Cómo se puede transmitir a los jóvenes el entusiasmo por la investigación y el descubrimiento? ¿Cómo se puede garantizar el futuro relevo de los científicos y los ingenieros, que cada vez son más necesarios para la sociedad? ¿Qué medios puede aportar Europa para reforzar la enseñanza científica en los centros de educación primaria y secundaria? Estos grandes interrogantes se debatirán en el festival europeo Science on Stage (la Ciencia en Escena), que tendrá lugar en Grenoble (Francia) del 2 al 6 de abril de 2007. Este acontecimiento, organizado por EIROforum y que cuenta con el apoyo de la Comisión Europea, es una ocasión única para que 500 profesores de ciencias de unos treinta países europeos se encuentren e intercambien sus ideas sobre las mejores prácticas de enseñanza. El programa “La Ciencia en Escena” está concebido como una especie de laboratorio donde conviven las ideas más originales con las experiencias pedagógicas más exigentes, combinando el enfoque lúdico y distendido con la reflexión de fondo. A medio camino entre la “feria de muestras”, en la que cada uno puede exponer su proyecto ante colegas de otros países, y los talleres de formación, en los que los profesores vuelven a la escuela para experimentar nuevas prácticas, todas las opciones son posibles y reina la interdisciplinariedad. Los profesores también tienen la posibilidad de conocer a los científicos que trabajan en los institutos europeos de EIROforum. Este programa siguió el modelo del primer Physics on Stage (la Física en Escena) que tuvo lugar en el CERN en el año 2000. Se han constituido comités nacionales en 29 países, que constituyen la estructura de base del programa “la Ciencia en Escena”. Dicho programa tiene como objetivo hacer más atractiva la enseñanza de las ciencias, sacar el mayor partido de la curiosidad natural de los niños y los adolescentes y mostrar que la investigación es una actividad apasionante en constante evolución. Otra de sus misiones consiste en trasladar al ámbito público los grandes interrogantes sobre el futuro de la educación en Europa. El 5 de abril de 2007, en Grenoble, los profesores de ciencias podrán debatir directamente con los responsables políticos en una mesa redonda sobre el tema Challenges to Europe: European science education in the future (“Los retos para Europa: la enseñanza de las ciencias en la Europa del futuro”) que estará presidida por Janez Potočnik, Comisario Europeo de Ciencia e Investigación. Para más información http://www.scienceonstage.net Contactos Iris Mazuré [email protected] Contacto de prensa - Montserrat Capellas [email protected] 6 I+DT info especial EIROforum Febrero de 2007 CERN Conociendo las últimas fronteras de la materia El mayor centro de física de partículas del mundo es europeo y está situado en la frontera franco-suiza, cerca de Ginebra. El Centro Europeo de Investigación Nuclear (o CERN), denominación que no hace referencia a la explotación de la energía atómica sino a la ciencia de los “núcleos de la materia”, reúne a más de 6.500 científicos, en su mayoría físicos, procedentes de todos los rincones del planeta. Científicos de gran reputación y jóvenes investigadores se codean en este gran laboratorio políglota. El CERN pone a su disposición potentes aceleradores de partículas para estudiar los componentes últimos de la materia y las fuerzas que hacen posible su cohesión. sta ambiciosa empresa, embrión del Espacio Europeo de Investigación, fue fundada en 1954 y cuenta con 20 Estados miembros. Ha cumplido plenamente su objetivo inicial: crear en el “viejo continente” una organización del más alto nivel mundial dedicada a la investigación de la física fundamental. Los éxitos del CERN se reflejan en las “máquinas” cada vez más potentes construidas en el transcurso de medio siglo. Del primer Sincrociclotrón (SC) de protones de 600 MeV (1957) al Gran Colisionador de Hadrones o LHC (un acelerador de partículas que, a partir de finales de 2007, hará posible un análisis pormenorizado de la materia nunca antes logrado), este laboratorio paneuropeo está equipado con herramientas que han permitido ampliar sus campos de investigación y realizar descubrimientos fundamentales en el campo de la física. En el CERN han trabajado numerosos Premios Nobel, entre ellos Carlo Rubbia y Simon Van der Meer, Georges Charpak, Jack Steinberger, Sam Ting y Burt Richter. Allí las “cámaras proporcionales multifibras” de Charpak revolucionaron el campo de la detección electrónica de partículas. Se descubrió que los neutrinos podían interactuar con otra partícula sin dejar de ser neutrinos. Se puso en marcha el primer colisionador protón-antiprotón. El descubrimiento histórico de los bosones W y Z confirmó la teoría electrodébil que unifica la fuerza débil y la fuerza electromagnética. Y, en otro ámbito, en el CERN, Tim Berners-Lee propuso un sistema de información distribuido basado el hipertexto, que todos conocemos desde entonces con el nombre de World-Wide Web. E Vista aérea del CERN con el trazado del túnel LEP y del futuro LHC. © CERN Sensibilizar a jóvenes y curiosos El CERN es un laboratorio abierto al mundo y a la gente. La investigación en él es transparente y los que la desarrollan desean compartir su pasión. Esta institución siempre se ha esforzado por informar al público en general sobre los avances de la física contemporánea. Así, a lo largo de todo el año se organizan “visitas guiadas” en varias lenguas ([email protected]). Los “lunes del descubrimiento”, en una sesión nocturna al mes, presentan un aspecto de las investigaciones llevadas a cabo en los laboratorios. Del mismo modo, el sitio Web (http://www.cern.ch) está destinado a todas las personas que sientan curiosidad por la física o que tengan interés por conocer este gran centro europeo de investigación. Por último, todo el mundo puede enviar sus preguntas al correo electrónico: [email protected]. El CERN concede una importancia prioritaria a la sensibilización de las generaciones futuras (semillero de los científicos del mañana) y de los profesores que las educan. Para ello ha desarrollado una estrategia de enseñanza (seminarios, información en línea, visitas escolares, material didáctico virtual y multimedia, etc.) destinada a promover enfoques pedagógicos innovadores. De ese modo se pone de manifiesto que la ciencia es una aventura apasionante y que aprender física puede ser divertido. > http://www.cern.ch CERN I+DT info especial EIROforum Febrero de 2007 7 Y “se hicieron” las partículas Rolf Landua durante una videoconferencia sobre el tema de la fusión, organizada por EIROforum y EFDA. Este acontecimiento, en el que participaron estudiantes, tuvo lugar en el Deutsches Museum de Múnich, en 2006. © Hermann Heyer La aparición de las partículas se remonta a una época desconcertante para los físicos, en la cual las energías existentes en el Universo eran tan grandes que los científicos no saben cómo describirlas. Sin embargo, es posible concebir el nacimiento de los componentes básicos que constituyen la materia y la energía. ¿De qué modo? Rolf Landua, físico del CERN, nos ayuda a aclararlo. ¿ n qué marco aparecieron las partículas elementales? La cuestión se remonta a una época en la que el Universo era aún más pequeño que la cabeza de un alfiler. Como las partículas aún no se encontraban allí, se puede concluir que era un espacio vacío. ¿Vacío? ¿Cómo puede ocurrir algo en un espacio vacío? Simplemente porque el vacío de los físicos no es la ausencia de todo, como se define generalmente. “El vacío es la estructura más complicada de la física”, explica Rolf Landua, físico del CERN. En efecto, en la Naturaleza, el vacío perfecto no existe. De la misma manera que una línea recta no es nunca exactamente recta (sino una definición matemática sin realidad física), la energía nunca es completamente igual a cero en cada lugar del espacio. Al igual que definimos una superficie cubierta de trigo como un campo de trigo, se habla de un campo de energía. “El vacío está lleno de toda clase de campos, como, por ejemplo, campos electromagnéticos. Su energía nunca es exactamente cero, sino que fluctúa sin cesar en el tiempo. En cierto modo es como un síndrome de hiperactividad”(1). a crear las siguientes generaciones de partículas. Los pares partículaantipartícula se aniquilan, produciendo haces de energía que, a su vez, se transforman en otras partículas. En este singular “juego de billar” de materias y antimaterias, las partículas más pesadas se desintegran para dar lugar a congéneres más ligeras y más estables. Todo este mundillo entrechoca a enormes velocidades para fabricar otras partículas, ya sean pesadas o ligeras. Inmediatamente después del Big Bang, a una escala de tiempo inconcebible para nuestra percepción (apenas transcurrido un lapso de 10-35 segundos) el Universo comenzó a expandirse. Debido a esta expansión, del mismo modo que se puede diluir un jarabe en agua, la energía y la materia del Universo se diluyen en un espacio cada vez mayor, así que cada vez hay menos probabilidades de que las partículas vuelvan a entrar en colisión. Sin embargo, cuando eso se produce, sus energías son cada vez más débiles y se crean partículas cada vez más ligeras. De la energía a la masa Después de una millonésima de segundo, la materia que llena el Universo es la que observamos hoy. Las partículas más pesadas se desintegraron. Lo que sucedió antes sólo se puede estudiar con aceleradores que hacen colisionar partículas a energias muy altas. “En cierta forma, los físicos de partículas son como los arqueólogos. Intentan reproducir los niveles de energía que había exactamente después del Big Bang con el fin de reconstruir las partículas pesadas hoy en día desaparecidas, del mismo modo que otros especialistas intentan encontrar dinosaurios”. Entre otras, unas misteriosas partículas supersimétricas, cuyos ejemplares más ligeros podrían constituir la materia negra del Universo (véase el artículo siguiente). De esta forma habrían aparecido las partículas en el Universo, surgidas de la nada, como fantasmas... “Con esta explicación da la impresión de que los físicos han cambiado un problema por otro: para explicar el origen de las partículas, invocan la energía del vacío, pero entonces ¿cuál es el origen de esta energía? He aquí otro gran misterio de la física moderna...” E La física arqueológica ¿Cómo se obtienen partículas a partir de estos campos? “La relatividad restringida nos enseña que la energía también es masa. Éste es el significado de la famosa fórmula de Einstein: E=mc2. La energía puede convertirse en partículas y las partículas en energía”. Ahora bien, los físicos piensan que durante los primeros instantes del Universo, el vacío estaba lleno de energías de carácter desconocido. Espontáneamente se crearon algunos pares de partículas y antipartículas, gracias a las fluctuaciones de la energía del vacío. Esta dualidad es indispensable, ya que una antipartícula tiene una carga eléctrica opuesta a la de su partícula. De ese modo, la suma de las cargas eléctricas de las partículas que surgen del vacío sigue siendo igual a cero, respetando la conservación de las cargas eléctricas observada en la Naturaleza. Luego, muy rápidamente, este proceso inicial cesa por razones que los físicos no comprenden muy bien. Los pares de partículas así creados durante el breve momento de las fluctuaciones de la energía del vacío son muy energéticos. A través de múltiples procesos, comienzan (1) Todas las citas de los artículos relativos al CERN son de Rolf Landua. 8 I+DT info especial EIROforum Febrero de 2007 CERN La ayuda de las cuerdas Más allá de los mecanismos que determinan el nacimiento de las partículas elementales, ¿cómo se puede describir la naturaleza de dichas partículas? Junto al modelo calificado como “estándar” de la física de partículas (fruto de los postulados de la mecánica cuántica) la ciencia contemporánea tiene puestas sus esperanzas en la visión completamente innovadora y unificadora ofrecida por la teoría matemática de las cuerdas. Esta teoría abre nuevas perspectivas de experimentación inéditas programadas por el CERN. En busca de la unificación Sin embargo, dicha partícula no se puede describir con el modelo estándar (véase el cuadro). Además, en sus principios, el Universo era a la vez extremadamente pequeño y extremadamente masivo (toda la energía y la materia se concentraban en un volumen minúsculo). Así que, una vez más, una teoría destinada a describir las partículas que imperaban en aquella época no puede hacer caso omiso a la influencia de la gravedad. Entonces, ¿cómo se puede integrar en este conjunto la teoría de la relatividad general enunciada por Einstein a principios del siglo pasado, cuyo eje principal está basado en la gravitación? “La unificación de la mecánica cuántica y la teoría de la relatividad general se ha convertido en l modelo estándar (la piedra angular de la física moderna establecida el “Santo Grial” de los físicos. Un gran número de científicos lo investigan. paulatinamente a lo largo del siglo XX) considera las partículas La pista más prometedora parece ser la teoría de las cuerdas”. elementales como puntos regulados por tres de las interacciones fundamentales reconocidas entre las partículas: la fuerza electromagnética y las fuerzas de interacción fuerte y débil. Eso permite pro- Desde los puntos hasta las cuerdas poner una descripción que concuerda a la perfección con lo que ocurre en el mundo de lo infinitamente pequeño. No obstante, este modelo no ¿Qué nos enseña esta teoría sobre nuestro mundo? En primer lugar, toma en consideración la cuarta interacción, la de la fuerza gravitacional. concibe las partículas no como puntos, sino como “elementos” similares Ahora bien, en la concepción cuántica, del mismo modo que la luz se a pequeñísimas cuerdas, del orden de 10-35 metros de longitud (¡un 1 propaga a través de una partícula llamada “fotón”, la interacción gravita- precedido de 35 ceros!). Estas cuerdas se encuentran en estado de cional debe transmitirse a través de otra partícula denominada “gravitón”. vibración y la manera en la que vibran corresponde a los distintos tipos E La “biodiversidad” de las partículas elementales Por definición, las partículas elementales son indivisibles. Existen dos tipos: los bosones y los fermiones. De acuerdo con el modelo llamado “estándar”, la “familia de los bosones” está compuesta por cuatro partículas que transportan las cuatro interacciones de la naturaleza. De este modo, el fotón es responsable de la propagación de la interacción electromagnética de la que la luz o la electricidad son una consecuencia. El “gluón” es el bosón responsable de la propagación de la interacción fuerte que garantiza la cohesión del núcleo de los átomos. Los bosones W+, Z0 y W- son responsables de la propagación de la interacción débil que explica la radioactividad, por ejemplo. Todos estos bosones han sido observados por los físicos de partículas, contrariamente al “gravitón”, responsable de la propagación de la interacción gravitacional y cuyo “hipotético” bosón de Higgs sería responsable de la masa de las partículas. La “familia de los fermiones” se divide en tres subfamilias. La primera constituye la materia ordinaria y está formada por el electrón, el “neutrino electrónico” y los quarks “abajo” y “arriba”. Estos quarks son las partículas elementales que conforman los protones y los neutrones, los cuales, a su vez, constituyen los núcleos de los átomos. Cada una de las otras dos familias fermiónicas de partículas elementales contiene a su vez cuatro partículas que existieron solamente en el momento del Big Bang. Su existencia sólo puede demostrarse hoy en radiaciones muy energéticas. El modelo estándar contiene diecisiete partículas elementales. Este número se duplica en la teoría de las cuerdas, ya que la supersimetría asocia a cada bosón un fermión y viceversa. Para nombrar a los compañeros supersimétricos de los bosones, los físicos añaden generalmente el sufijo “-ino” al nombre de los bosones del modelo estándar. De este modo, encontramos el “fotino” o el “gravitino”, mientras que los supercompañeros de los bosones W+ y W- se llaman charginos, por la carga que llevan. Para los supersocios de los fermiones, se utiliza generalmente el prefijo “s”. Así resultan los “squarks”, los “selectrones” y los “sneutrinos”. El lenguaje de los físicos se renueva al mismo tiempo que la ciencia... Simulación de la desintegración de un bosón de Higgs con dos chorros (centro) y dos electrones (abajo, a la izquierda) en el detector CMS del LHC del CERN. Los rastros indican las partículas que se produjeron como consecuencia de la colisión de un par de protones de energía ultra alta. Las energías depositadas por las partículas en el detector aparecen en azul celeste. © CERN CERN I+DT info especial EIROforum Febrero de 2007 9 Todas estas características también las comparten las partículas supersimétricas más ligeras, por lo que se piensa que éstas podrían ser los enigmáticos constituyentes de la materia negra, cuyos efectos fueron observados por primera vez por el astrónomo suizo Fritz Zwicky en 1933. Cuatro interacciones, resultado de una interacción única Simulación de la señal de un neutralino en un detector de partículas. Las distintas curvas muestran los rastros de las partículas que acompañarán la emisión del neutralino. Esta partícula supersimétrica podría constituir la materia negra tan buscada por los astrónomos. © Norman Graff. de partículas. Cuanto más vibra una cuerda, más energía tiene la partícula correspondiente. Una de las propiedades de la teoría de las cuerdas (y no solamente de ésta), necesaria para su coherencia matemática, es la supersimetría. Para comprender mejor de qué se trata, es necesaria una breve explicación de la “zoología” de las partículas elementales. El universo corpuscular cuántico se puede dividir en dos familias: por una parte, los fermiones, partículas elementales de la materia a la cual pertenecen, entre otros, los electrones y los quarks; por otra parte, los bosones, a cuya familia pertenecen las partículas mediadoras de las interacciones fundamentales, como el fotón que transporta la fuerza electromagnética, o el gravitón, mencionado anteriormente, para la gravitación. El desafío de la supersimetría Otra cuestión que preocupa a los científicos se refiere a las cuatro famosas interacciones fundamentales de la Naturaleza(1). ¿Por qué sus amplitudes son tan diferentes las unas de las otras? Por ejemplo, la amplitud de la interacción gravitacional es mucho más débil que la de la interacción electromagnética. Como prueba de ello, el magnetismo de un simple imán es suficiente para atraer una masa relativamente grande de metal, mientras que haría falta un planeta entero para atraer la misma masa por medio de la gravedad. “Una respuesta a esta cuestión es que todas las interacciones fundamentales sólo habrían formado una sola interacción con las elevadísimas energías existentes al principio del Universo. De la misma manera que el agua se transforma en hielo por debajo de una temperatura de cero grados, esta única interacción ocurrió tal como las concebimos hoy en día, en cuatro interacciones diferentes, cuando la energía del Universo era lo suficientemente baja y se dividió”. Esta unificación de las interacciones fundamentales a energía elevada también la describe la teoría de las cuerdas (aunque no es la única teoría que lo hace). Siete dimensiones Uno de los avances teóricos más espectaculares de las cuerdas es, sin duda alguna, la existencia de dimensiones diferentes a nuestras tres dimensiones del espacio (ancho, largo y profundidad) y tiempo. De hecho, con el fin de garantizar su coherencia matemática, la teoría de las cuerdas presupone la existencia de siete dimensiones adicionales del espacio (como el concepto de superficie, que sólo puede ser coherente matemáticamente con dos dimensiones de espacio). La materia y las interacciones electromagnéticas, fuerte y débil, quedarían confinadas a las tres dimensiones del espacio habituales. Sin embargo, estas interacciones, que son principalmente las que nos permiten comprender el mundo (por ejemplo, la interacción electromagnética con la luz), no nos permitirían percibir las otras siete dimensiones espaciales, que seguirían siendo “invisibles”. Así es la vida de las partículas. Surgidas del vacío cuántico presente en las fases más energéticas del Universo, los físicos de hoy las describen como minúsculas cuerdas vibrantes que abren el camino hacia la unificación de la relatividad general y la mecánica cuántica. Algunos de los componentes de esta teoría, por ejemplo la existencia de partículas supersimétricas, podrían comprobarse gracias al LHC en los próximos años, lo cual daría más credibilidad a la teoría de las cuerdas, aun sin validarla. La supersimetría consiste en suponer que a cada partícula de la familia de los fermiones debería corresponder una partícula que pertenezca a la familia de los bosones y viceversa; de ahí la idea de simetría. Hasta el momento no se ha descubierto ninguna partícula supersimétrica, pero los físicos de partículas esperan observarlas en las colisiones a alta energía que provocarán próximamente gracias al LHC, el nuevo acelerador (1) La interacción electromagnética, la interacción gravitacional, las interacciones de partículas del CERN (véase la página 10). A no ser que los astrónomos, mientras tanto, hayan observado de forma fuerte y débil. indirecta los efectos de estas misteriosas partículas... Porque la masa total de las galaxias y las agrupaciones de galaxias parece ser mucho mayor que la masa luminosa (estrellas, gas, etc.) percibida por los telescopios de los astrónomos. Se supone pues la existencia de una materia negra invisible que interactúa con el resto de la materia solamente por su gravitación y que está constituida por partículas muy estables y, en consecuencia, muy ligeras. Para más información http://superstringtheory.com/ http://en.wikipedia.org/wiki/Virtual_particle http://en.wikipedia.org/wiki/Vacuum_energy 10 I+DT info especial EIROforum Febrero de 2007 CERN En 2007, el acelerador de partículas más potente que se ha construido hasta ahora, el nuevo Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) del CERN permitirá investigar los secretos de la materia en los estados de energía que existían en los instantes posteriores al Big Bang. Al producir la colisión frontal de partículas a velocidades cercanas a la de la luz, los físicos esperan poder investigar la materia con todo detalle, gracias a la energía producida por las colisiones. Las promesas del gran colisionador Antimateria. Supersimetría. Bosón de Higgs. Plasma quark-gluón. Tantos misterios cuyos orígenes se encuentran en las fases más energéticas del Universo, en la explosión del Big Bang. Misterios que los investigadores esperan indagar a fondo gracias al LHC, la increíble máquina que permitirá remontarse en el tiempo. Los primeros imanes del acelerador LHC están instalados, pero no están conectados, en el túnel de 27 km de circunferencia. © CERN Simulación de la colisión de dos protones en el detector ATLAS. © CERN ¿ El detector CMS justo antes de su cierre. Las cinco ruedas del tambor y los seis discos de los tapones fueron deslizados unos contra otros para proceder a las pruebas del imán y a los ensayos del detector con rayos cósmicos. © CERN ué se espera de esta enorme inversión para la construcción del LHC, aprobada por Europa? Este colisionador va a hacer girar, en sentidos opuestos, dos haces de protones (partículas que constituyen el núcleo de los átomos pertenecientes a la familia de los hadrones) en un anillo subterráneo de veintisiete kilómetros de circunferencia situado en la frontera franco-suiza. Para acelerar estos protones y mantenerlos confinados en haces estrechos, se requieren campos magnéticos extremadamente intensos. Estos campos serán producidos por superconductores, es decir, materiales capaces de conducir la electricidad sin resistencia ni pérdida de energía, funcionando a muy baja temperatura y elaborados en colaboración con la industria europea. Las colisiones entre protones se producen a un ritmo de ochocientos millones de veces por segundo a una energía colosal de 14 TeV. Para comprender la magnitud de este número, un TeV es más o menos la energía del movimiento de un mosquito en vuelo. La diferencia es que en el LHC esta energía se concentrará en un espacio un billón de veces más pequeño que la escala de un insecto. Como la energía puede materializarse en una partícula según el principio de equivalencia masa/ energía de la relatividad limitada, el famoso E=mc2, los físicos esperan crear partículas que nunca hayan sido observadas en aceleradores. La densidad y la intensidad de las colisiones son elevadas, ya que esto multiplica las oportunidades de que aparezcan. Se producirán también dos haces de núcleos de plomo que alcanzarán una energía de 1.150 TeV pero con menos colisiones por segundo. Q Instalación de los cristales de uno de los módulos del espectrómetro de fotones de ALICE. © CERN Montaje de las placas centelleantes en el calorímetro Hadron del detector LHCb. © CERN De la búsqueda de la supersimetría... Algunos detectores serán capaces de analizar estas colisiones. Dos de ellos llevan los nombres de CMS (Compact Muon Solenoid) y Atlas (A Toroidal LHC Apparatus). Se concentrarán en la detección de las partículas llamadas supersimétricas y en las del bosón de Higgs. ¿Qué es la supersimetría? La física de partículas implica numerosas simetrías como, por ejemplo, la materia y la antimateria. La supersimetría consiste en asociar a cada bosón (que asegura la transmisión de las interacciones como el fotón) un fermión (partículas que constituyen la materia, como electrones y quarks) y viceversa. El reto se encuentra en que hasta ahora no se han observado nunca estas contrapartidas calificadas de supersimétricas (designadas también con el término “spartículas”). ¿Cómo se pueden detectar? Paradójicamente, por su ausencia. “Sería algo así como si en una sala de cine, se cuenta el número y ‘la calidad’ de personas que entran y salen de la sala. Si falta una a la salida, y se sabe que había entrado, se puede deducir que no ha salido”. Del mismo modo, los experimentadores del LHC saben que en algunas colisiones de partículas tendrían que producir estas “spartículas” que ningún detector es capaz de percibir. Si se conocen las energías de las partículas antes de su colisión, se pueden comparar con las energías de las partículas producidas después de la colisión. Si hay una diferencia energética, es porque una partícula se les habrá escapado. Al calcular la energía que falta, sabrán si se trata o no del componente supersimétrico o “spartícula” que esperan. CERN ... a la del bosón de Higgs El otro reto de los detectores CMS y LHC será detectar el bosón de Higgs. Se supone que éste último, objeto central de la teoría del modelo estándar, interactúa con las partículas y les proporciona una masa. ¿De qué manera? Imaginémonos una sala llena de estudiantes de física. De repente, entra en la sala Albert Einstein y los estudiantes le rodean completamente y le abruman con preguntas. Albert, cuando intenta desplazarse, experimenta cierta inercia de movimiento debido a los estudiantes que se aferran a él. Algo similar ocurre con las partículas que adquieren una masa cuando los bosones de Higgs intentan interactuar con ellas. Una vez más, la detección tan esperada de estos famosos bosones sólo se puede hacer indirectamente: lo que se detectará serán las partículas resultantes de su desintegración. La sopa de quarks y gluones Un tercer detector que forma parte del LHC se llama Alice (A Large Ion Collider Experiment ). Fue concebido para explorar los territorios desconocidos de la física nuclear y, particularmente, para estudiar un estado de la materia que subsistió justo después del Big Bang y que se le conoce con el nombre de “plasma de quark y gluones”. ¿De qué se trata? En la década de los años sesenta, los científicos descubrieron que los protones y los neutrones, que constituyen el núcleo de los átomos, eran combinaciones de partículas más elementales, los quarks. Éstos están unidos entre sí por la fuerte interacción transmitida, a su vez, por las partículas llamadas gluones. Una de sus características es que son gregarios, o sea, que no pueden existir solos, sino que van siempre de dos en dos o de tres en tres. Cuanto más se intenta alejar un quark de otro, más potente es la fuerza que los une, de modo que, en definitiva, son inseparables. Se dice, en este caso, que los quarks están “confinados”. Sin embargo, si se proyectan los protones unos contra otros a energías muy altas, se obtiene una sopa de quarks y gluones en la que los quarks pueden desplazarse libremente. Esto se define como el “desconfinamiento” de los quarks en el plasma de quarks y gluones. ¿Por qué se produce este desconfinamiento? “Es algo similar a lo que ocurre en una pista de esquí. Cuando no hay mucha nieve, las pistas están separadas por zonas de hierba y cada esquiador se limita a su pista. Pero si hay mucha nieve, pueden pasar de una pista a otra: están ‘desconfinados’”. Los físicos no añadirán nieve, sino energía: cuanto más se aumenta la energía de los quarks, más se debilita la fuerza que los une, de modo que se pueden separar a partir de un determinado límite de energía. Este estado de plasma de quarks y gluones era probablemente el de la materia algunos microsegundos después del Big Bang. Por esta razón los físicos desean analizarlo por medio de los haces de iones de plomo producidos por el LHC. De hecho, estos son muy ricos en protones y neutrones. Pueden alcanzar una energía de 1.150 TeV, necesaria para producir y examinar con más precisión que en las experiencias anteriores, el plasma de quarks y gluones que imperaba al principio del Universo. El misterio de la antimateria Finalmente, un último detector lleva el nombre de LHCb, siglas de Large Hadron Collider beauty. Su objetivo consiste en apreciar mejor las sutiles diferencias que existen entre materia y antimateria con el fin de comprender mejor qué es lo que le ocurrió a la antimateria del Universo. De hecho, a cada partícula le corresponde una antipartícula con la misma masa pero con una carga eléctrica opuesta. Por ejemplo, a un electrón de carga negativa le corresponde un antielectrón (o positrón) con la misma masa, pero con carga positiva. Cuando se encuentran un electrón y un antielectrón, se destruyen produciendo un haz de energía. Según el modelo estándar de la física de partículas, al comienzo del I+DT info especial EIROforum Febrero de 2007 11 Universo debieron crearse las mismas cantidades de materia y de antimateria. Como consecuencia, todas las partículas deberían haberse destruido mutuamente y el Universo debería estar vacío. Sin embargo, como se puede constatar, la materia abunda en el Universo. De ahí la pregunta que tratará de aclarar el LHCb: ¿a dónde se fue la antimateria? Una respuesta posible radica en la facultad que tienen ciertas partículas de transformarse en su antipartícula y viceversa. En este caso, la existencia de la materia se basa en la hipótesis (aún por confirmar) de que al comienzo del Universo la transformación de las antipartículas en partículas fue más factible que la transformación inversa. En definitiva, según esta teoría, el proceso de aniquilación entre materia y antimateria generó un Universo en el que la materia triunfó sobre su oponente. ¿Se puede demostrar este desequilibrio? En la práctica, ya se observó experimentalmente con partículas de tipo quarks llamadas kaones. Los antikaones se transforman espontáneamente en kaones, pero lo contrario se produce menos a menudo. El LHCb estudiará otro candidato, el mesón B, que contiene, entre otras cosas, una partícula (o su antipartícula) elemental denominada quark b, o también beauty (de ahí el bonito nombre del LHCb). Para más información ATLAS: http://atlas.ch/ CMS: http://cms.cern.ch/ ALICE: http://aliceinfo.cern.ch/Public/index.html La detección de las partículas Las partículas no se pueden observar, pero sí detectar. Para ello, el LHC está equipado con dispositivos constituidos por varias capas concéntricas de detectores que, como una cebolla, rodean el haz de partículas donde se producen las colisiones. Cada capa se dedica a un tipo de detección particular. • En el centro del detector hay una cámara de detección. El interior de ésta contiene millones de semiconductores que, cuando son tocados por una partícula, producen impulsos electrónicos que son registrados por ordenadores. De este modo, es posible reconstruir sus trayectorias. • En todo el detector impera también un campo magnético. Éste permite señalar y estudiar las trayectorias de las partículas cargadas, como los electrones o los protones, que demuestran ser sensibles al campo. • Otro dispositivo está formado por un detector de traza por calorímetro. Algunos calorímetros paran partículas como fotones o electrones, mientras que otros paran los protones y los neutrones. Miden la energía perdida por las partículas que penetran en ellos. 12 I+DT info especial EIROforum Febrero de 2007 E FDA Todas las miradas puestas en ITER Simulación de la implantación de ITER en el emplazamiento de Cadarache, en el sur de Francia. El nuevo reactor debería empezar a funcionar en 2016. © ITER Tras la experiencia única de JET (el instrumento experimental de fusión más avanzado del mundo) Europa ha logrado un amplio consenso internacional para desarrollar ITER. La puesta en marcha de este nuevo reactor moviliza una amplia cooperación científica y tecnológica que incluye a científicos e ingenieros de todo el mundo. A nivel europeo, esta colaboración se estructura y consolida bajo los auspicios del Acuerdo Europeo para el Desarrollo de la Fusión (EFDA o European Fusion Development Agreement). La construcción de ITER (que representa una inversión de 4.500 millones de euros) debe empezar en 2007 en Cadarache, al sur de Francia. Este nuevo reactor de fusión, que será operativo en 2016, deberá demostrar si la humanidad puede contar o no con este extraordinario recurso de energía que promete ser ilimitado, seguro, totalmente controlable, limpio (sin residuos) y sin ninguna influencia sobre el clima. Desde los años cincuenta, muchos países europeos empezaron a interesarse por las perspectivas energéticas de la fusión nuclear y financiaron investigaciones en varios laboratorios nacionales de física fundamental. Por otro lado, a nivel comunitario, el Tratado Euratom de 1957, que establecía una política común en el sector nuclear, integró el deseo de establecer una estrecha cooperación científica para desarrollar el conocimiento y las tecnologías en este ámbito futurista. Bajo los auspicios de la Unión, este clima de colaboración activa entre los científicos y los ingenieros de toda Europa llevó a la creación y desarrollo del reactor de fusión conocido como JET (Joint European Torus) en el emplazamiento de Abingdon, cerca de Oxford (Reino Unido). Los avances realizados durante dos décadas por este instrumento de vanguardia, el más importante de este tipo en todo el mundo, han permitido una evaluación científica y tecnológica de primer orden sobre las posibilidades de reproducir las condiciones físicas extremadamente complejas de la fusión. Éstas vienen determinadas por los altos niveles de temperatura, superiores a los 100 millones de grados, que son necesarios para producir la fusión del plasma de hidrógeno. La fusión bajo la protección europea El desarrollo de JET y los conocimientos únicos que éste ha aportado sobre la fusión, han sido uno de los motores principales de la puesta en marcha del nuevo reactor ITER, pero también han representado el crisol de una cooperación científica unificada y sólidamente estructurada a escala europea, en adelante bajo las siglas de EFDA (European Fusion Development Agreement). Esta entidad reúne y coordina el conjunto de los medios de investigación dedicados a la fusión en 22 países miembros, así como los programas que la Comisión Europea desarrolla en este ámbito. EFDA se encarga sobre todo de la explotación de JET, cuyas instalaciones deben ofrecer un banco de pruebas adaptado especialmente para evaluar y validar las complejas tecnologías necesarias para desarrollar ITER. Las Oficinas europeas de Apoyo (Close Support Units) instaladas en Garching, cerca de Munich (Alemania), y en JET, aseguran la dirección y la gestión de EFDA. En Garching se coordinan todas las actividades de investigación de los 29 organismos e instituciones de física fundamental que trabajan para desarrollar la fusión en Europa. Evidentemente, la prioridad es la contribución científica y tecnológica que la Unión y cada uno de los miembros de la organización se han comprometido a aportar al proyecto ITER. Para más información http://www.efda.org/ http://www.jet.efda.org http://www.iter.org E FDA I+DT info especial EIROforum Febrero de 2007 13 Una apuesta estudiada David Ward, especialista en física de plasmas, miembro de la Autoridad de Energía Atómica del Reino Unido y vinculado a la preparación de ITER desde el centro de Abingdon (Reino Unido), está convencido de que la fusión puede y debe convertirse en un recurso capital de energía para responder a las necesidades y condiciones climáticas del siglo XXI. Aunque haya sido estudiado, debatido y negociado durante casi 20 años, ITER es una gran apuesta por un logro científico y tecnológico que no podrá evaluarse hasta dentro de una década, por lo menos. ¿Vale la pena todo esto? Quizá aún podamos considerarlo una especie de apuesta, pero rara vez una apuesta se habrá basado en datos tan seriamente meditados, calculados y evaluados. Los cientos, quizá miles, de científicos de todo el mundo que han analizado las posibilidades de este proyecto han conseguido convencer a siete grandes potencias, incluidas las más importantes del planeta, para establecer una colaboración común que lo lleve a cabo. Y si hay un cierto riesgo (y aquí no hablamos de fracaso, sino quizá de unos resultados insuficientes con respecto a los objetivos) ¿no habría que asumirlo al evaluar los desafíos energéticos que se nos presentan? A partir de 2020, cerca de ocho mil millones de seres humanos habitarán el planeta, frente a los seis mil millones de hoy. En adelante, la aceleración del crecimiento económico en países como China, India o Brasil (los dos primeros son socios de ITER), sin olvidar las enormes necesidades del resto de los países en desarrollo, harán que se duplique, en las próximas dos décadas, el consumo mundial de energía que ya ha empezado su ascenso inevitable. Esta tendencia ineludible se añade a la certeza de que el reinado triunfante de los combustibles fósiles ya es insostenible. Se trata, pues, de razones climáticas y del agotamiento final de los recursos en el horizonte de las generaciones futuras. David Ward: “Bajo ningún concepto presentaría la fusión nuclear como una fórmula ‘mágica’ capaz de resolver por sí sola las cuestiones energéticas del futuro. Deben movilizarse, además de ésta, todas las otras fuentes de energía renovables”. ITER representa, junto con la Estación Espacial Internacional, una de las inversiones científicas más caras que se hayan emprendido jamás. ¿Europa tiene esos medios? Siete socios sufragan inicialmente el coste de construcción y de funcionamiento de ITER, que asciende a 12 mil millones de euros. La contribución de Europa, que acoge el reactor en su territorio y que, por su experiencia, será un actor clave de esta cooperación científica internacional, se eleva al 40%, o sea, unos 5 mil millones de euros. A modo de comparación, las inversiones previstas para la fusión a lo largo de 12 años representan mil millones de euros anuales. Paralelamente, los gastos en energías renovables se elevan a 40 mil millones de euros. Las estimaciones del mercado mundial de la energía son de unos 4 billones de euros por año. Por lo tanto, la fusión es una de las soluciones energéticas para el futuro. En concreto, ¿cuáles son sus ventajas? Bajo ningún concepto presentaría la fusión nuclear como una fórmula “mágica” capaz de resolver por sí misma las cuestiones energéticas del futuro. Deben movilizarse todas las fuentes de energía renovables, entre las que se incluye la fusión. En mi opinión, la fusión es una de las pocas opciones de futuro que podrían responder a las enormes necesidades energéticas de las innumerables metrópolis urbanas que no paran de crecer en todos los continentes. La fusión es todavía un proceso científico y tecnológico que hay que aprender a dominar. Todos los avances de los conocimientos adquiridos durante décadas muestran que vale la pena seguir por este camino. Y no por el placer de realizar una proeza, evidentemente. El experimento JET fue construido en los años 70 ante la seria alerta que representaron los primeros conflictos con el petróleo. Después, la tensión se relajó durante más de veinte años, de modo que, a pesar de haber sido estudiado conceptualmente, el proyecto ITER ha tenido que esperar durante mucho tiempo. Hoy en día no sólo asistimos a un nuevo conflicto con el petróleo sino también a la incertidumbre de la época post-petróleo y al calentamiento climático. Ésta es la verdadera apuesta de ITER. Y, para retomar su expresión, no dudo de que “vale la pena todo esto”. Contacto David Ward [email protected] Reacción de la fusión. © EFDA 14 I+DT info especial EIROforum Febrero de 2007 E FDA La ambiciosa aventura de la fusión Hace ahora medio siglo, los físicos empezaron a imaginar que el modelo de la nucleosíntesis estelar podría reproducirse en la Tierra y suministrar así una fuente de energía inagotable. Presentamos una retrospectiva de esta larga búsqueda científica en la que Europa ha jugado y juega hoy un papel protagonista en la nueva etapa crucial de la construcción de ITER. l hidrógeno era el único elemento de la materia que constituía el Universo en sus primeros minutos de existencia. Hubo que esperar cerca de mil millones de años después del Big Bang para que nacieran las estrellas. Su formación se desencadenó cuando las grandes nubes de hidrógeno a la deriva empezaron a contraerse por efecto de la gravedad. Esta contracción va acompañada de un extraordinario calentamiento acumulativo de las temperaturas en el que el hidrógeno pasa al estado de plasma: el aumento de temperatura separa los electrones de los núcleos a los que están ligados y este estado del plasma se caracteriza por un cúmulo gaseoso de iones de hidrógeno, es decir de núcleos cargados positivamente. Esta coexistencia de cargas del mismo signo se traduce, inicialmente, en fuerzas electrostáticas de repulsión que las mantienen separadas entre sí. Sin embargo, si las temperaturas siguen subiendo en el seno del plasma, la repulsión electrostática se sustituye por el inicio de la interacción nuclear fuerte. Su alcance es muy corto, pero extremadamente potente. De repente, dos núcleos se atraen mutuamente por efecto de esta fuerza que les lleva a fusionarse de forma inevitable. Esta fusión nuclear de núcleos de hidrógeno (masa atómica igual a uno) produce el helio (masa atómica igual a dos), el segundo elemento que apareció en el Universo. Al mismo tiempo, la pérdida de masa resultante de este proceso se transforma en un enorme desprendimiento de energía que contribuye a perpetuar el fenómeno de la fusión (1). E El sueño de los sabios Así nacieron y viven las miríadas de estrellas del Universo, crisol de un formidable centro de producción de materia y energía por medio de la fusión. Este es el caso de nuestro propio Sol, principal proveedor de los recursos energéticos de la Tierra. Sin embargo, desde que la ciencia estableció las bases de la nucleosíntesis estelar (hacia la mitad del siglo pasado) un sueño ambicioso empezó a obsesionar la mente de los físicos: si se llegara a reproducir y controlar tecnológicamente el proceso de la fusión nuclear en la Tierra, entonces la Humanidad dispondría de una inaudita fuente de energía casi inagotable. Esta abundancia potencial se apoya en una doble evidencia. Un plasma que contuviera sólo unos gramos de iones pesados de hidrógeno (2) sería capaz de provocar una reacción de fusión con una producción instantánea de energía comparable a la de una gran central eléctrica. Además, el hidrógeno es el elemento de la materia más elemental y abundante, no sólo en el Universo, sino también en nuestro planeta, empezando por la composición del agua. El interés por la fusión nuclear también se debe a que elimina los riesgos que hasta ahora conlleva la explotación civil de la energía atómica. Cuando el hidrógeno pasa al estado de plasma, éste se caracteriza por una nube gaseosa de iones de hidrógeno, es decir, de núcleos cargados positivamente. El Mast experiments, el programa británico de fusión sucesor del Start, lleva a cabo las investigaciones sobre el plasma de fusión con configuraciones más esféricas. © EFDA Contrariamente a los procesos de fisión de los átomos pesados de uranio, que sirvió para desarrollar la carrera nuclear hoy tan ampliamente extendida, la fusión no puede provocar ninguna “reacción en cadena” como la ocurrida en Chernobyl. No requiere ni la evacuación ni el tratamiento de ningún residuo radioactivo: los muros internos del reactor retienen la única radioactividad que se produce, que tiene una vida media de varias décadas. Finalmente, esta energía se postula como una alternativa importante al uso de los combustibles fósiles, una ventaja inestimable cuando el cambio climático está al orden del día. Una larga trayectoria de un siglo A pesar de que la ecuación de la fusión de dos átomos reside en una fórmula tan sencilla como una simple adición de un número muy pequeño de núcleos de hidrógeno, el largo camino recorrido por las investigaciones sobre la fusión durante cincuenta años todavía no ha llegado a su fin. Los cálculos razonables que podemos hacer, ahora que ya se ha tomado la decisión de construir ITER, indican que su resultado (que sólo se obtendrá inicialmente a partir de una explotación energética industrial de la fusión) todavía requerirá bastante tiempo. Aún así, queda pendiente el verdadero reto de “reproducir el Sol en la Tierra”, es decir, provocar un proceso que sólo puede desarrollarse con unas temperaturas casi inimaginables, es decir, de cerca de los 150 millones de grados. De entrada, los investigadores tuvieron que plantearse la selección de los átomos “fusionables”. Entre todas las reacciones posibles se escogió la fusión del deuterio y el tritio, dos isótopos pesados del hidrógeno fáciles de obtener. Los océanos constituyen la principal reserva natural de deuterio y permiten extraer una media de 35 g de éste por m3 de agua. Al contrario, el tritio, un elemento en estado radioactivo con una media de vida de aproximadamente 12 años, es muy escaso en la naturaleza, pero fácil de producir artificialmente y en el mismo reactor de fusión a partir del litio, un metal ligero que abunda en la corteza terrestre. Para hacer funcionar un reactor de fusión hace falta una cantidad muy pequeña de estos dos combustibles de base. Por ejemplo, un reactor de fusión industrial con una capacidad de un gigavatio sólo requeriría el consumo anual de 100 kg de deuterio (extraídos de 2.800 toneladas de E FDA I+DT info especial EIROforum Febrero de 2007 15 agua de mar) y de 150 kg de tritio (que pueden producirse con 10 toneladas de mineral de litio). La cuestión fundamental a la que deberá responder ITER sigue siendo la activación efectiva de una reacción de fusión duradera en el seno de este singular cúmulo gaseoso, casi inmaterial y muy difícil de mantener en un estado estable, que constituye un plasma llevado a temperaturas extremas. La condición sine qua non es que dentro del recinto del reactor el plasma sea un medio completamente cerrado y “flotante” (es decir, que nunca tenga el menor contacto con la parte interna del reactor), en el que los iones de hidrógeno efectúen una circulación cada vez más rápida y agitada hasta poder encontrarse y fusionarse. La realización de esta condición recibe el nombre de confinamiento del plasma. JET, el instrumento precursor También aquí se tomaron las decisiones progresivamente. El tipo de reactor Tokamak, propuesto por los científicos rusos Igor Taman y Andrei Sakharov en los años 50, se impuso como el más eficaz. Esta denominación es el acrónimo ruso que designa un contenedor de forma toroidal dentro de las paredes del cual se confina el plasma a través de potentes campos magnéticos. En el mundo hay varios tokamaks, pero el más grande y eficiente jamás construido es el Joint European Torus o JET. Este reactor experimental, concebido en los años 70 y operativo desde 1983, es el instrumento que ha servido para estudiar y poner a punto las técnicas más avanzadas de calentamiento, confinamiento y control de la estabilidad del plasma. Es en el interior de JET donde en 1991 se consiguió provocar la primera reacción de fusión controlada realizada en la Tierra. La liberación de energía no fue demasiado espectacular, sólo de una potencia inferior a 2 megavatios, pero constituyó un paso importante. Las pruebas pacientes y repetidas de los investigadores permitieron lograr, en 1997, un record invicto de potencia de energía de fusión que alcanzó los 16 megavatios. En realidad, este logro no fue más que un “destello” de varios segundos que sólo alcanzó un factor de 0,64 con respecto al margen inamovible del break even (punto de inflexión), es decir, el punto crucial donde la energía de fusión sobrepasará la necesaria para calentar y confinar el plasma. Éste es el límite que el futuro tokamak ITER deberá superar de forma convincente. Plataforma de prueba de operaciones del “divertor” de ITER. El funcionamiento de esta parte esencial del reactor, que permite cargar los combustibles y evacuar los “residuos” de fusión (en forma de helio no radioactivo), tiene que ser dirigido totalmente a distancia. © ITER La senda de ITER De 24 metros de alto y 30 de ancho, ITER ha sido concebido para alcanzar entre 500 y 700 MW de potencia térmica en el seno de un plasma de fusión toroidal con un volumen de 800 m3 confinado por potentes campos magnéticos. Deberá producir entre cinco y diez veces más calor que el necesario para mantener el plasma a la temperatura de fusión. De este modo, demostrará que es posible producir energía de forma sostenible y estable para la explotación constante de una central. El camino se abrirá entonces a físicos e ingenieros para desarrollar y optimizar las tecnologías, los componentes y las estrategias de control que se utilizarán como demostración en una futura central eléctrica de fusión, bautizada ya como DEMO, que es la última etapa de esta larga trayectoria de un siglo. (1) Todos los elementos que existen en el Universo, desde los más ligeros (como el carbono o el oxígeno) hasta los más pesados (como el plomo o el uranio) se formaron por una desmultiplicación de los fenómenos de la fusión nuclear de los átomos ligeros, en el núcleo de las estrellas y más tarde en sus capas exteriores. (2) Podemos considerar, por ejemplo, que un kilogramo de “combustible de fusión” permite generar tanta energía como 10.000 toneladas de carbón en una central clásica. Confinamiento del plasma. El campo producido por un complejo sistema de bobinas electromagnéticas asegura este proceso. © EFDA 16 I+DT info especial EIROforum Febrero de 2007 E FDA JET, el banco de pruebas precursor de ITER El reactor Joint European Torus (JET) puede considerarse el instrumento precursor sin el cual el proyecto ITER jamás habría visto la luz. Este centro de vanguardia es uno de los bancos de pruebas donde se evalúa la validez y fiabilidad de múltiples opciones científicas y tecnológicas previstas para el futuro reactor internacional de Cadarache. Uno de los departamentos de investigación de Abingdon trabaja sobre el desarrollo de la robótica de mantenimiento que hace falta para entrar en el recinto radioactivo del tokamak ITER y realizar en él pruebas e intervenciones. De este modo, el robot de servicio de JET ha adquirido la flexibilidad de una serpiente que se despliega por el recinto toroidal hasta dar la vuelta. La conducción se controla a distancia, desde una pequeña sala llena de pantallas donde el operador manipula dos palancas delicadamente. El sistema de guía permite percibir la resistencia de la tuerca más pequeña. as instalaciones de JET, situadas en el Culham Science Centre de Abingdon, en la periferia verde de Oxford (Reino Unido), son la joya del programa europeo de la fusión. “Los otros laboratorios de investigación del continente tienen sus propias capacidades de experimentación”, explica Chris Carpenter, agregada de la Autoridad de Energía Atómica del Reino Unido en el EFDA. “Sin embargo, JET constituye la placa de ensayo más polivalente y equipada para probar y validar una gran cantidad de trabajos”. L Cuando el reactor se pone en marcha El Culham Science Centre hospeda a cientos de investigadores e ingenieros, residentes o visitantes, llegados de toda Europa o de otros continentes. Cuando el reactor se pone en marcha para llevar a cabo experimentos diversos, el control de JET parece la sala de control de lanzamiento de un cohete espacial. Unos cincuenta expertos supervisan en sus pantallas las miles de variables que detectan el funcionamiento del instrumento, el comportamiento del plasma, el control de las temperaturas y el confinamiento magnético. Desde una plataforma central, tres personas, que representan a los responsables del experimento en curso, los físicos permanentes de JET y los ingenieros encargados del funcionamiento de los equipos tecnológicos, vigilan las operaciones. “El plasma de deuterio y tritio confinado en el tokamak es más ligero que el aire. Está compuesto por una cantidad de partículas un millón de veces más pequeña que la atmósfera pero es un millón de veces más caliente” explica Christopher Warrick, físico y portavoz de JET. “Nos ha llevado años aprender a gestionar las situaciones increíblemente extremas e inestables que se producen en un medio físico como ése”. Los equipos se suceden desde las siete de la mañana hasta las diez de la noche. Cada una de las siete tasks forces de JET defiende las propuestas de experimento ante un comité científico europeo. Estos se analizan minuciosamente de acuerdo, sobre todo, con la pertinencia de los experimentos para la puesta en marcha de ITER. Un nuevo recinto “Por su tamaño y configuración, JET es el ‘modelo a escala’ más grande que permite probar y validar múltiples avances necesarios para la construcción del reactor de Cadarache”, explica Shakeib Rasad, agregado del Close Support Unit que se encarga de la estrategia científica del reactor. “Gracias a métodos de diagnóstico en constante mejora, podemos trabajar los plasmas de deuterio y tritio de formas y temperaturas diferentes para optimizar el rendimiento energético de cada uno de estos modos. Otros puntos fuertes de JET se refieren al control del flujo de partículas rápidas alpha, que transmiten su energía cinética al resto de partículas del plasma”. En 2007 o 2008, los experimentos se interrumpirán durante varios meses para permitir una actualización del instrumento. “Después de una serie de experimentos, a menudo modificamos la infraestructura para permitir nuevas configuraciones de ensayo. Pero esta vez se trata de tres grandes trabajos que nos permitirán poner a prueba un nuevo recinto interno. Éste estará constituido por revestimientos con berilio, escogidos para tapizar las paredes del futuro ITER en sustitución de los compuestos de carbono que hasta ahora se utilizaban en el tokamak. Esta nueva configuración será una primicia mundial. Evidentemente, la compatibilidad entre el plasma y este recinto constituye un reto fundamental del proyecto. Nos esperan nuevos desafíos”. Para más información http://www.jet.efda.org ILL I+DT info especial EIROforum Febrero de 2007 17 Los neutrones al servicio de la ciencia Instituto Laue-Langevin. El nombre que dieron sus fundadores al ILL es un homenaje a dos físicos pioneros del siglo pasado (1). Este centro de excelencia europeo es actualmente una de las fuentes mundiales más importantes de neutrones, gracias a los cuales los investigadores de todas las disciplinas pueden penetrar en la estructura de la materia inerte o viva. sta importante instalación científica nació en Grenoble en los años sesenta, fruto de la inspiración conjunta del físico alemán Heinz Maier-Leibnitz y su colega francés Louis Néel (premio Nobel en 1970 por sus trabajos sobre el magnetismo). Éstos querían poner a disposición de la investigación fundamental civil la herramienta formidable de investigación de los átomos o de las moléculas que ofrecen los haces neutrónicos. Este hermanamiento bilateral entre Francia y Alemania se reforzó con una participación equivalente del Reino Unido durante los años setenta(2). Desde entonces, otras colaboraciones con diferentes países europeos han aportado su apoyo al Instituto. El efecto Cerenkov visible en la piscina del reactor del ILL. La luz azul es el resultado de un fenómeno de polarización del agua cuando los electrones de alta energía la atraviesan. Las radiaciones gamma liberadas por los procesos de fisión en el núcleo del reactor crean estos electrones. © ILL/Jean-Luc Baudet Un líder mundial Pistas pedagógicas El ILL, líder mundial de las ciencias y de las técnicas neutrónicas, es un instituto de servicio que ofrece a los investigadores de todo el mundo la posibilidad de llevar a cabo sus investigaciones en una amplia gama de sectores, desde la física de la materia condensada hasta la ciencia de los materiales, pasando por la química, la biología y la física nuclear. Cada año, cerca de 2.000 investigadores, seleccionados por un comité científico, llegan al ILL para realizar su propio proyecto y se llevan a cabo unos 800 experimentos. Paralelamente, la vida científica propia del Instituto y el apoyo a los usuarios movilizan permanentemente a más de 300 investigadores, ingenieros y técnicos. La excelencia principal del ILL se debe a la calidad de su fuente de neutrones, pero también a la gran cantidad de líneas de haces sobre los cuales éstos se reparten. Así, varios experimentos que necesiten haces muy diferentes, tanto en intensidad como en energía, pueden explotar una misma fuente de neutrones. Además de los detectores y otros instrumentos, los investigadores disponen de equipamientos sofisticados concebidos y desarrollados por los científicos “de la casa” que a menudo no tienen ningún equivalente en el mundo: componentes ópticos ultraperfeccionados denominados monocromadores, superespejos que reflejan, concentran y guían los neutrones, crio-imanes que permiten estudiar las muestras con el estado magnético deseado, etc. El ILL se dirige al gran público mediante una serie de folletos temáticos (en inglés) sobre las aplicaciones de las técnicas del neutrón en varios ámbitos (la materia, la vida, los nuevos materiales, el Universo, etc.). Estos folletos descargables, muy bien ilustrados, ofrecen vías pedagógicas interesantes para los profesionales de la docencia. E (1) El alemán Max von Laue (premio Nobel en 1914) fue el inventor de la medida por difracción de las longitudes de onda de los rayos X a través de un cristal y el francés Paul Langevin fue un investigador importante en el equipo de los pioneros del átomo próximos a Pierre y Marie Curie. Ambos pueden ser considerados como los “padres espirituales” de la investigación neutrónica. (2) Más allá de los tres países asociados, desde hace veinte años se han entablado colaboraciones científicas de forma continuada: España (1987), Suiza (1988), Austria (1990), Rusia (1996), Italia (1997), la República Checa (1999), Suecia y Hungría (2005), Bélgica y Polonia (2006). Para más información http://www.ill.fr http://www.ill.fr/pages/science/AtILL/brochures.html I+DT info especial EIROforum Febrero de 2007 ILL ¿La energía 2 equivale realmente a “mc ”? La ecuación de la relatividad restringida E=mc2, la fórmula más célebre de la física moderna firmada por Albert Einstein en 1905, sentó las bases de la equivalencia entre la energía y la masa en la topología del espacio-tiempo. Aunque ninguna teoría u observación nueva ha invalidado esta ecuación fundamental, los físicos no han dejado de ponerla a prueba a través de la experimentación. Con una precisión jamás alcanzada, la prueba más reciente se desarrolló en el Instituto Laue-Langevin de Grenoble, importante centro europeo y mundial de la neutrónica, esta rama tan especial de la física nuclear que utiliza los haces de neutrones para explorar la materia en sus componentes más íntimos. o es fácil verificar la ecuación de Einstein con una precisión suficientemente significativa. En 1932, un equipo británico emprendió la prueba por primera vez bombardeando con protones un objetivo de litio que se desintegró liberando los núcleos de helio a gran velocidad. Midiendo la energía de estos núcleos y comparando la diferencia de masa entre los núcleos de salida (litio) y los de llegada (helio), los investigadores llegaron a calcular que la ecuación “funcionaba”, pero la estimación seguía afectada por un cierto margen de imprecisión. Seguidamente, se llevaron a cabo otros experimentos para hacer colisionar un electrón con un positrón (un par de antipartículas). N Durante el choque, éstos se aniquilan, y el intento de comprobación se establece mediante la comparación entre la energía que se libera y la masa original de las partículas. Sin embargo, los físicos admitieron que esta modalidad de medidas sigue siendo insatisfactoria. No fue hasta 2005 cuando los flujos de electrones del ILL pusieron a punto una comprobación que alcanza unas normas de precisión 55 veces superiores a los experimentos anteriores. El rayo gamma y la medida de masa Para llevar a cabo esta demostración, seguida atentamente por el mundo de la física, los investigadores medirán separadamente los dos aspectos de la ecuación, por un lado la masa y por el otro la energía. ¿De qué modo? Cuando un núcleo captura un neutrón, emite una cantidad ínfima de energía en forma de rayo gamma. Esta energía, calificada como energía de enlace, corresponde pues a una pérdida de masa proporcional. Por lo tanto, el experimento consiste en medir esta masa desaparecida y compararla con la energía del rayo emitido. Las medidas de masa se desarrollaron inicialmente en el Massachusetts Institute of Technology (MIT) gracias a un aparato denominado trampa de Penning. Las “mediciones” revelaron la diferencia de masa entre un núcleo de silicio 28 y otro al que se le ha hecho capturar un neutrón (o sea un silicio 29). Esta diferencia se obtiene comparando la frecuencia de rotación de los dos átomos que se hacen girar en un campo magnético de 8 teslas. El espectro de rayos Gamma GAMS 4 que utiliza el ILL para la comprobación de la ecuación de Einstein. © ILL/Artechnique © Archivo fotográfico del Palacio del Descubrimiento 18 ILL I+DT info especial EIROforum Febrero de 2007 19 El neutrón, el “sherpa” del mundo subatómico Michael Jentschel: “Nuestro experimento es como cortar desde París una loncha de dos milímetros en una manzana que se encuentre en Moscú”. © ILL/Serge Claisse Entonces, el resultado se resta a la masa de un neutrón, lo que da la pequeña diferencia de masa correspondiente a la energía que emite el rayo gamma. Para Simon Rainville, profesor del MIT encargado del experimento, “se trata de la medida de masa más precisa del mundo, una parte por 100 mil millones”. El miembro derecho de la ecuación (mc2) se evalúa así multiplicando este valor por el cuadrado de la velocidad de la luz. Una masa de 1,68x10-24 gramos, una “talla” de 10-15 metros (1 fermi), una carga eléctrica nula, un espín magnético de 0,5. El neutrón es uno de los componentes de la estructura del núcleo de los átomos, junto con los protones cargados positivamente. Durante las reacciones de fisión nuclear controlada, la radioactividad libera partículas subatómicas globalmente “neutras”, a saber, que no sean sólo neutras eléctricamente sino que también estén desprovistas de poder ionizante. Los científicos comprendieron muy pronto la herramienta extraordinaria que proporcionaba la neutralidad de estas partículas esenciales del universo atómico. Cuando el haz de neutrones se dirige a un “blanco” de materia, estos pueden penetrar los átomos de esta última de forma no destructiva ideal para observar su intimidad. Su masa les hace “rebotar” sobre los núcleos de los átomos, y estos choques se traducen en emisiones de ondas y en intercambios de energía. Medir la energía Al otro lado del Atlántico, un grupo de investigadores del NIST y del ILL se volcaron en el cálculo del lado izquierdo de la ecuación (la energía, E) midiendo la energía del rayo gamma con un espectrómetro de rayos gamma. En este caso, el átomo de silicio 28 se bombardea con neutrones. Cuando éste captura uno, el rayo gamma emitido se difracta mediante dos cristales de silicio ultrapuros que lo desvían siguiendo un ángulo proporcional a su longitud de onda y, por lo tanto, a su energía. El ángulo se mide con una precisión del orden de 5.10-7 con la ayuda de un interferómetro angular construido especialmente para el experimento. Para Michael Jentschel, físico del ILL implicado en esta investigación de vanguardia, la precisión de esta medida “es como cortar desde París una loncha de dos milímetros en una manzana que se encuentre en Moscú”. La energía del rayo gamma que así se determina proporciona el valor del primer miembro de la ecuación. Y lograda la comprobación, E es realmente igual a mc2, con un margen de error del 0,00004%. “Lo contrario simplemente habría desordenado todo el mundo de la física y de la cosmología. Y la primera reacción habría sido la de poner en duda la validez de nuestros trabajos...”, explica Michael Jentschel. Así es la ciencia, que a menudo consiste en medir unos valores que no pueden ser más que los esperados. “Nuestra experiencia, pues, no ha salido en portada de los medios de comunicación. Sin embargo, se sabe que la medida oficial y universal del concepto de masa sólo sigue siendo calibrada por un cilindro de platino irisado guardado celosamente en la Oficina internacional de pesos y medidas de París. El interés de nuestros trabajos reside en el hecho de que han innovado experimentalmente, al relacionar la masa con otro campo de la física: la energía”. El difractómetro de neutrones térmicos D19 permite analizar la materia estudiada. Este instrumento recoge las características de las ondas atómicas emitidas cuando la materia es atravesada por el haz de neutrones y así permite reconstruir la estructura y la posición de los átomos de la muestra analizada. © ILL/Artechnique Dos grandes modelos de aparatos de detección permiten analizar y obtener informaciones extremadamente precisas de la materia estudiada. El difractómetro de neutrones recoge las características de las ondas “de choque” atómico (dirección de propagación, longitud de onda y amplitud) emitidas cuando el haz de neutrones atraviesa la materia. Este conocimiento permite reconstruir la estructura y la posición de los átomos de la muestra. En segundo lugar, los detectores del espectrómetro neutrónico permiten medir los cambios de energía que se producen ofreciendo información sobre la distribución de la energía y, por lo tanto, sobre los movimientos en el seno de los átomos observados. Además, el espín propio del neutrón lo vuelve sensible a las propiedades magnéticas de los átomos que atraviesa. En realidad, éste constituye la única sonda capaz de observar a la vez los núcleos de los átomos y los mecanismos magnéticos de sus electrones. Los neutrones, complementarios de otras fuentes de radiación, destacan en áreas que les confieren un lugar único en el centro de los retos científicos y tecnológicos del futuro. Éstos cubren ámbitos de investigación muy variados y extensos, en física de partículas, física nuclear, química, biociencias e incluso ciencias de los materiales. 20 I+DT info especial EIROforum Febrero de 2007 ILL Marte. Cráter Galle, al este de la cuenca del Argyre. © ESA El misterio del magnetismo marciano En Marte, los neutrones del ILL han esclarecido un problema totalmente diferente relacionado con la materia y la energía. Desde 1997, cuando la sonda estadounidense Mars Global Surveyor sobrevoló por primera vez su superficie a 400 km de altura, los científicos quedaron intrigados por las importantes anomalías magnéticas que se revelaron sobre el planeta rojo. En Grenoble, los científicos consiguieron demostrar que los rastros fósiles del magnetismo marciano se explican por la presencia de un mineral de sulfuro de hierro, la pirrotita. Carta topográfica de Marte. En gris: las curvas de niveles de presión determinadas mediante cálculos, distribuidas alrededor de los cráteres inmensos Hellas y Argyre después de los impactos. En líneas negras: el contorno de los campos magnéticos que midió la sonda Global Surveyor. © Projection Mercator. Cortesía del equipo de ciencia MOLA. La prueba de la pirrotita Para reforzar una suposición como ésta hacía falta establecer una hipótesis sobre la naturaleza de las rocas responsables del magnetismo y medir su umbral de transición de fase, es decir, la presión a la cual se desmagnetiza la roca. En esta gama de posibilidades, los indicios conducen a las propiedades magnéticas de un sulfuro de hierro denominado pirrotita. Las investigaciones sobre el umbral de transición magnética de la pirrotita se han llevado a cabo en el ILL con la ayuda de difractómetros de neutrones. “Dirigidos sobre una muestra del mineral, los neutrones difractados se recogen mediante un detector que muestra los picos de difracción característicos de la estructura atómica y también de los ajustes de los momentos magnéticos de los átomos”, explica Bachir Ouladdiaf, especialista de magnetismo en el ILL. Después de haber aumentado la presión en una variación de entre 2,6 y 3,1 gigapascales (1), los investigadores pudieron constatar la desaparición de los picos vinculados al magnetismo. A continuación, faltaba volver al caso del planeta Marte, donde los geofísicos delimitaron alrededor de los impactos las zonas que habían sido sometidas a presiones superiores a este umbral a partir de los datos recogidos por las sondas y mediante simulaciones. Éstas coinciden perfectamente con las zonas desmagnetizadas que registró la sonda Global Surveyor. “La medida de la transición de fase de la pirrotita ha permitido explicar las anomalías de la remanencia magnética de la corteza marciana, punto de partida de la investigación, y por lo tanto podemos considerar que la pirrotita es el principal mineral presente responsable de esta remanencia. A veces, algo tan infinitamente pequeño como un neutrón permite esclarecer la historia magnética de un planeta al desentrañar la intimidad física de un mineral”. ace 4 mil millones de años, Marte tenía probablemente un campo magnético similar al de la Tierra. El enfriamiento del planeta rojo comportó la interrupción del movimiento del magma. Como una dinamo, este movimiento de materia fundida rica en hierro crea el campo magnético en el núcleo de los planetas. Una inmersión en el pasado explica El final de una ilusión… por qué el hemisferio norte de Marte El magnetismo de los meteoritos de no presenta un campo magnético: su origen marciano que cayeron sobre corteza no se habría solidificado hasta la Tierra se ha estudiado muchas después de la interrupción de la actividad veces como terreno de investigación magnética de su núcleo. En cambio, sobre el magnetismo marciano del parece ser que la corteza del hemisferio planeta rojo. Los nuevos datos sur, más antigua, conserva un rastro introducidos por los trabajos sobre fósil de esta actividad. el umbral de transición magnética Sin embargo, esta cartografía magnética de la pirrotita dejan obsoletos estos global se contradijo con dos anomalías estudios anteriores. En efecto, que reveló el Global Surveyor: la ausencia total de magnetismo alrededor de las desde su expulsión, todos los meteoritos marcianos sufrieron una cuencas del Argyre y del Hellas, dos presión ampliamente superior a los cráteres antiguos de más de 200 km de diámetro cavados por meteoritos (1) Un gigapascal equivale a 10.000 veces la presión atmosférica en la 3 gigapascales (1). La ausencia de remanencia importante en estas gigantes. Dado que el aumento de superficie terrestre. rocas evidencia la falta de un temperatura posterior al impacto de campo magnético en el momento estos meteoritos no podía justificar la del impacto y no durante la amplitud de la zona desmagnetizada, cristalización de las rocas. los geofísicos investigaron entonces si la causa podía atribuirse al aumento de P. Rochette, G. Fillion y R. Ballou, F. Brunet, B. Ouladdiaf, L. Hood, presión en el núcleo de las rocas responsables del magnetismo fósil en Geophysical Research Letters, vol. 30, nº 13, 1683(2003). el momento de los impactos. H Para más información ILL I+DT info especial EIROforum Febrero de 2007 21 Si los haces de neutrones revelan la estructura de la materia inerte a semejanza de la radiación X sincrotrónica, los biólogos recurren cada vez más a estos dos instrumentos europeos de Grenoble para estudiar las moléculas complejas que construyen la vida. Los trabajos punteros que se han llevado a cabo en colaboración con el ILL y la Instalación Europea de Radiación Sincrotrónica (o ESRF, en inglés) tratan particularmente el tema de las moléculas de adhesión de las células neuronales (conocidas bajo el acrónimo inglés NCAM), responsables del rechazo o de la adhesión entre células nerviosas al nivel de las sinapsis. Sobre las neuronas stas investigaciones tratan sobre los grandes retos de los temas médicos. Si los mecanismos de adhesión de esas largas moléculas fijadas a la membrana celular tienen la misión de asegurar la estabilidad y la integridad de las conexiones entre neuronas, los mecanismos de rechazo, por su parte, dirigen la migración de las células jóvenes y permiten así el desarrollo del sistema nervioso central. Esta plasticidad, indispensable para su construcción, también es crucial para su reconstrucción en una perspectiva terapéutica eventual. Contrariamente, el fenómeno migratorio de las células neuronales también es un factor agravante en los cánceres cerebrales. se retracta y deja salir los sectores de la molécula que aseguran el mecanismo de adhesión. Entonces, la proteína se vuelve adhesiva. La adhesión celular se controla actuando sobre la salinidad del medio”, comenta Giovanna Fragneto, especialista de membranas celulares en el ILL. Esta investigación reciente sobre las NCAM todavía no permite aplicaciones directas. Sin embargo, estos conocimientos de los mecanismos de adhesión celulares y de las proteínas implicadas parece que pueden ofrecer perspectivas interesantes. De éstos podrían derivarse tratamientos contra enfermedades neurodegenerativas como el Alzheimer. Otro ejemplo podría ser el control del crecimiento de las células del hipocampo en estructuras artificiales para curar lesiones de la médula De la adhesión al rechazo espinal. Algunos bioingenieros esperan encontrar en ello pistas para acoplar material biológico y prótesis artificiales. Otros sueñan lo contrario, Para comprender cómo se producen la adhesión y el rechazo, los es decir, integrar los tejidos neurales a los equipos electrónicos para científicos midieron primeramente el espesor de las moléculas de adhesión. construir ordenadores “biológicos”. Se aplicó una monocapa de moléculas de adhesión NCAM (Neural Cell Adhesion Molecule) sobre una película que reproducía una membrana celular. Con la ayuda de los espectrómetros de neutrones y de la radiación sincrotrónica del ILL y de la ESRF, los investigadores confirmaron un resultado que ya se presentía: la capa es mucho más fina de lo que debería ser si los siete segmentos de la molécula estuvieran alineados perpendicularmente a la membrana. En realidad, la proteína está plegada a la altura de su segundo segmento, por lo que se reduce la distancia de adhesión entre dos células. De esta forma, los neutrones difractados por las proteínas permitieron medir su espesor y rugosidad así como conocer la composición de la capa de adhesión. Una vez confirmada esta información, los investigadores pudieron probar la doble función en el mecanismo de adhesión de un polímero de ácido polisiálico (PSA) y de la presencia de sodio en el medio celular. “Hay En la imagen de la izquierda, el ácido polisiálico (PSA) desempeña una dos tipos de NCAM en las membranas de las neuronas”, explica Oleg función esencial en la migración de las células madre durante el desarrollo Konovalov, responsable de investigación en el ESFR. “Las asociadas a del cerebro. A la derecha, ante la ausencia del mediador PSA, asistimos las células jóvenes poseen una cadena de PSA, mientras que el resto a un fenómeno de fricción entre células que dificulta la migración. no. La cadena de PSA inhibe la adhesión rodeando y ocultando los sectores © U. Rutishauser implicados de la molécula. Queríamos comprender este proceso denominado ‘de rechazo’ que es imprescindible para que las células formadas recientemente puedan migrar y encontrar su lugar en el Mediante la observación de la materia y de la vida, los trabajos que se sistema nervioso”. llevaron a cabo en el ILL y en la ESRF, en el Polígono científico de Grenoble, recuerdan en primer lugar que el fundamento de cualquier Una cuestión de salinidad investigación consiste en observar la naturaleza. Sólo a partir de estas constataciones se construyen y se validan leyes y teorías. En neutrones, ¿Cómo se fijan estas células cuando han alcanzado su destino? Los rayos X o en la microscopia electrónica, las técnicas de investigación investigadores pudieron responder a esta pregunta conociendo a qué modernas ofrecen a los científicos unos medios de observación inigualados distancia se extienden las NCAM sobre la superficie de la membrana en la historia. Al mismo tiempo, mientras los conocimientos aumentan celular y midiendo el espacio que ocupa el polímero. “Normalmente, el cada vez más gracias a estas herramientas, los descubrimientos que PSA impide la adhesión. Sin embargo, si aumenta la salinidad, el polímero éstas permiten plantean otras preguntas y respuestas... E 22 I+DT info especial EIROforum Febrero de 2007 ESRF En 1975 nació la idea de instalar en Europa un primer sincrotrón, llamado de tercera generación, que tenía la capacidad de producir luz X un billón de veces más intensa que la utilizada tradicionalmente en medicina o en cristalografía. La era de las nuevas luces renoble, ciudad de ciencia y de alta tecnología, fue elegida en 1988 para la Instalación Europea de Radiación Sincrotrónica (o ESRF, European Synchrotron Radiation Facility). La presencia del Instituto LaueLangevin desde los años setenta, un éxito internacional en la investigación con los neutrones, favore- Anillo sincrotrón de la ESRF de Grenoble. © ESRF ció esta decisión. Las técnicas neutrónicas y la radiación sincrotrónica son a la vez cercanas y com- Los industriales también han comprendido desde hace mucho tiempo plementarias. Dieciocho países forman parte de esta colaboración euro- el interés de la luz sincrotrón y confían investigaciones a la ESRF con pea. Entre los aproximadamente cincuenta sincrotrones que existen en regularidad en campos como la farmacia, la petroquímica, la microel mundo, sólo otros dos pueden rivalizar con el de Grenoble, uno en electrónica o los cosméticos. los Estados Unidos y otro en Japón. “El desarrollo de las actividades del sincrotrón europeo responderá cada vez más a las exigencias de exploración de las nanociencias”, subraya Bill Stirling, director de la ESRF. “El objetivo es suministrar 5.500 investigadores al año pronto haces a escala del nanómetro. Reconvertiremos alrededor de una tercera parte de las líneas a fin de prepararnos para lo que será la Alrededor del gran anillo sincrotrón de la ESRF funcionan actualmente ciencia de las próximas décadas, pero preservando y mejorando la unas cuarenta “líneas de luz”, sumamente productivas y en constante herramienta de los científicos de hoy”. mejora. Cada línea de luz está especializada en una técnica o en un campo de investigación. De hecho, los sincrotrones son “máquinas polivalentes”, que permiten estudiar la materia en todas sus formas: Crisol multicultural sólida, líquida o gaseosa. Los haces de rayos X, extremadamente brillantes, que proporciona el anillo de la ESRF hacen posible la observación de Dado que se aplica a los campos más diversos, el sincrotrón de Grenoble muestras microscópicas (incluso nanoscópicas), la detección de conta- hace que se codeen físicos, químicos, biólogos, médicos o arqueólogos minantes ultradiluidos (y aún así nocivos para la salud), o incluso el en experimentos inéditos, de ciencia fundamental o aplicada, que seguimiento de reacciones químicas como en una película, a escala del pretenden traspasar los límites del conocimiento. Este entorno multicultural favorece una apertura de mente que se refuerza con la presencia nanosegundo. El sincrotrón europeo, que funciona las 24 horas del día, acoge cada de numerosos trabajadores en prácticas, estudiantes de tesis y postaño a 5.500 investigadores de todos los campos geográficos y científicos. doctorandos. Cada otoño, se dedica una jornada a los jóvenes investiDos veces al año, unos comités de expertos exteriores seleccionan los gadores que presentan sus trabajos. Asimismo, a lo largo del año, proyectos procedentes de alrededor de 600 universidades y centros de tienen lugar numerosos seminarios y conferencias. Además, el sitio web investigación, utilizando el criterio de la excelencia. Los equipos científicos de la ESRF está especialmente bien concebido para el público intepermanecen unos tres días de media en la línea de luz que se les atribuye. resado en la ciencia. Los trabajos realizados en la ESRF se concretan en más de 1.300 publicaciones al año. G Para más información http://www.esrf.fr ESRF I+DT info especial EIROforum Febrero de 2007 Investigadores de varias disciplinas trabajan en distintas líneas de luz del anillo de la ESRF © ESRF Imanes Ondulador Imanes de curvatura de focalización Anillo de almacenamiento Acelerador del sincrotrón 23 © ESRF Linac Línea de luz Ver lo invisible La radiación X, una forma de luz invisible, se absorbe poco Esta escala de tamaño corresponde a las dimensiones de los átomos y por la materia que ilumina. Tiene la propiedad de penetrar de las moléculas. Cuando estos átomos y moléculas se disponen de manera regular y periódica en el espacio, es decir, cuando la materia se presenta en ella profundamente para desvelar su interior. en forma cristalina, los rayos X se “difractan”. Esta técnica de difracción, también denominada cristalografía, permite “visualizar” los átomos dentro l hombre necesita la luz para ver y comprender el mundo que le de la materia. Así, desde principios del siglo XX, la cristalografía X se ha rodea. Desde las antorchas de la época prehistórica hasta el láser convertido en una disciplina ineludible de la ciencia moderna. moderno, ha inventado toda una gama de fuentes luminosas para suplir las posibilidades que ofrece la luz natural. Para ver mejor de lejos y de cerca y, por lo tanto, ampliar su campo de Nuevos retos visión, el ingenio del hombre ha sabido fabricar instrumentos ópticos, telescopios y microscopios. Sin embargo, incluso con ayudas muy En 1947, unos físicos que trabajaban en un nuevo tipo de acelerador de eficaces, sólo percibimos un fragmento de la realidad. Muchas cosas partículas, el sincrotrón, observaron una luz que salía del anillo por el que se escapan de nuestra vista si sólo utilizamos la luz denominada visible, circulaban los electrones. Esta luz, denominada radiación sincrotrónica, es decir, esa parte de la radiación electromagnética a la que es sensible no se valoró enseguida en su justa medida. Hubo que esperar a la década de los setenta para que los científicos reconocieran sus propiedades el ojo humano. extraordinarias y decidieran entonces fabricar máquinas dedicadas a la emisión de luz sincrotrón para el estudio de la materia a escala atómica. La herencia Röntgen El sincrotrón de Grenoble, equipado con onduladores que hacen zigzaguear el haz de electrones, puede producir rayos X “duros” especialA finales del siglo XIX, el científico alemán Wilhelm Conrad Röntgen, primer mente intensos, coherentes y estables. El brillo obtenido, igual a un premio Nobel de física de la historia, descubrió un nuevo medio extra- billón de veces el de un aparato de radiología médica clásico, permite ordinario de visión: los rayos X. La radiación X, una forma de luz invisible, realizar experimentos que no podrían haberse imaginado hace unos se absorbe poco por la materia que ilumina. Tiene la propiedad de quince años. penetrar en ella profundamente para desvelar una visión del interior. Las técnicas utilizadas en las líneas de luz se han diversificado poco a Además de aplicaciones médicas de todo tipo, permite comprobar, por poco y cada vez son más sofisticadas. En efecto, los rayos X interactúan ejemplo, el contenido de objetos como una maleta o un contenedor sin con la materia de varios modos y el brillo de la radiación sincrotrón ha tener que abrirlos y, para los científicos, permite acceder al núcleo de permitido abrir campos completamente inexplorados. Uno de los la materia de modo “no destructivo”. En una radiografía, los rayos X avances más espectaculares es la posibilidad de realizar el seguimiento revelan materiales de diferentes densidades, por ejemplo, un empaste de reacciones químicas o biológicas en tiempos muy cortos. Por ejemplo, en un diente, por simple contraste de absorción (el plomo absorbe se puede observar la transformación de los gases de escape tras la mucho más los rayos X que el tejido dental). combustión cuando pasan dentro de un catalizador. También es posible La capacidad de penetración de los rayos X va acompañada de otra reproducir, en una célula especial, las condiciones que sufren los propiedad, menos conocida por el gran público: su longitud de onda es materiales en el centro de la Tierra (muy altas presiones y elevadas diez mil veces menor que la de la luz visible, es decir, del orden de una temperaturas a la vez), y obtener información esencial sobre los materiales décima parte de nanómetro. Esta característica de la luz X es capital. sometidos a estas condiciones extremas. E 24 I+DT info especial EIROforum Febrero de 2007 ESRF Desde hace unos años asistimos a una verdadera revolución en biología molecular y estructural gracias a la radiación sincrotrónica. Actualmente, las siete líneas de luz de la Instalación Europea de Radiación Sincrotrónica (ESRF, por sus siglas en inglés) dedicadas a la cristalografía de las proteínas representan alrededor de una cuarta parte de su actividad científica. Los biólogos utilizan cada vez más esta herramienta para ver, entender y controlar mejor la vida. La vida bajo la mirada del sincrotrón Ilustración de la estructura tridimensional de la proteína RecO, una proteína que participa en la reparación del ADN genómico tras los daños que causa la irradiación. © Joanna Timmins esde el descubrimiento de la estructura de doble hélice del ADN gracias a los rayos X hace medio siglo, se ha recorrido un largo camino. Hoy en día, se han descifrado las estructuras de miles de proteínas y, en ciertos casos, la cristalografía de las proteínas se ha convertido en simple rutina. Sin embargo, los científicos se lanzan a estudios cada vez más difíciles, como las proteínas membranales o los complejos macromoleculares. Afortunadamente, la luz sincrotrón, con su gran brillo, permite ir siempre más lejos. Entre los retos vinculados a la salud pública, la lucha contra los virus y las bacterias exige obtener información estructural absolutamente crucial para elaborar los medicamentos, las vacunas y los antibióticos del futuro. D Alzheimer, paludismo, gripe aviar… Ilustración de la estructura tridimensional de la proteína MTHase, una enzima que actúa en la síntesis de un disacárido (trehalosa). © Joanna Timmins Radiorresistencia y reparación del ADN Joanna Timmins, miembro del grupo de cristalografía macromolecular, se interesa por la bacteria Deinococcus radiodurans que tiene la propiedad extraordinaria de resistir a radiaciones muy fuertes. Su genoma está secuenciado y algunas de sus proteínas cristalizadas. Esta bacteria no presenta características excepcionales, pero repara muy bien las rupturas de las cadenas dobles del ADN, generalmente fatales para las células. “Como esta bacteria resiste a índices de radiación que no existen en la Tierra, no es una característica adquirida. Esta radiorresistencia quizá sea sólo una consecuencia indirecta de su capacidad excepcional para realizar todo un conjunto de funciones celulares clásicas (lo que explicaría también, por ejemplo, su extrema resistencia a la sequía)”, comenta Joanna Timmins. El hecho de conocer mejor los mecanismos fundamentales de reparación de las rupturas del ADN en D. radiodurans podría ayudar a entender sus cambios en los cánceres radioinducidos, como el de piel. En el mismo grupo, Laurent Terradot trabaja en colaboración con el Instituto Pasteur en Helicobacter pylori, la bacteria responsable de la úlcera de estómago. El estudio de la interacción de las proteínas implicadas en la detoxificación de la acidez (un proceso indispensable para la supervivencia de la bacteria en el estómago) permitió descubrir un mecanismo único. “Helicobacter pylori acumula el níquel y después lo libera cuando aumenta la acidez. El níquel liberado permite a otra proteína de la bacteria producir la detoxificación. El año pasado, el mismo equipo publicó la estructura de las 12 proteínas que constituyen la maquinaria por la cual la bacteria inyecta sus toxinas en las células humanas. Todo ello señala otros tantos objetivos terapéuticos en potencia”. Para conseguir una visión atómica de la estructura de una proteína por medio de rayos X, primero hay que fabricar un cristal de proteína. En efecto, sólo en forma cristalizada las proteínas revelarán su estructura atómica con la iluminación de los rayos X. Gracias a la radiación sincrotrónica, a detectores muy potentes y a una informática de muy alto nivel, pueden verse y aclararse arquitecturas proteínicas muy complejas. La cristalografía sincrotrónica suele ser determinante para el resultado de proyectos de investigación muy diversos. Por ejemplo, a causa de la focalización extrema de ciertos haces, se ha conseguido identificar la estructura básica del eje de las fibrillas amiloides, presentes especialmente en la enfermedad de Alzheimer, cuya disposición atómica es de difícil acceso. La estructura del antígeno AMA1 del plasmodium portador del paludismo, hoy en día probado como futura vacuna, también se descifró mediante cristalografía en la ESRF. Al igual que la de la hemaglutinina, responsable ¿Curar el glioma? de la virulencia del virus de la gripe “española” de 1918 (cuyo interés se reactivó por las nuevas amenazas de epidemia mundial de gripe Los métodos de radioterapia que han creado algunos equipos del aviar), o incluso la de recBCD, un complejo proteico que garantiza la Hospital Universitario de Grenoble, en colaboración con la ESRF, ofrecen reparación del ADN bacteriano. resultados muy prometedores. Se basan en una sinergia entre la irradiación de las células tumorales y una quimioterapia a base de cisplatino, un ESRF I+DT info especial EIROforum Febrero de 2007 25 Representación esquemática de la proteína NikR de Helicobacter pylori en su forma tetramérica (dos cadenas de dos colores). • La primera imagen presenta la estructura obtenida sin níquel. • La segunda imagen muestra la proteína tras la incorporación del níquel (representado con bolas amarillas). Los átomos de níquel se insertan en la interfaz de los dos dímeros y permiten, por una parte, ensamblar la proteína de forma compacta y, por otra, provocar el movimiento de los sitios de unión con el ADN. Se trata de una fase intermedia. • La tercera ilustración muestra la incorporación del níquel visto en los cristales de NikR, en la fase final. De este modo, las tres estructuras permitieron obtener imágenes sucesivas de la incorporación del níquel y ver cómo su entrada genera cambios estructurales que se reflejan en los sitios externos de unión con el ADN. © Journal of molecular biology Mary-Rose, Stardust, arsénico y yodo anticancerígeno muy importante empleado para intentar el tratamiento de los gliomas, que son tumores cerebrales hoy en día incurables. “Al seleccionar un umbral de energía específico del platino para la radioterapia, se multiplica la absorción del cisplatino. Las ratas llegan a sobrevivir varias semanas con la radioterapia o la quimioterapia solas, pero algo más si se combinan las dos. Con la radiación monocromática del sincrotrón de energía apropiada, se obtiene por primera vez una verdadera remisión del tumor”, señala Alberto Bravin. La seda, fuente de inspiración biológica Análisis de la degradación de los restos del Mary-Rose, un buque de Enrique VIII de Inglaterra. Por gentileza del Mary Rose Trust En la conformación de imágenes de sincrotrón X, el haz puede iluminar toda la muestra o explorarla punto por punto con una resolución de entre 100 µm y 100 nm (0,1 µm). Así se detecta la presencia y el estado de oligoelementos como los metales, en cantidades ínfimas. Este tipo de detección se utiliza en un amplio abanico de investigaciones de diferentes ramas: arqueología, investigación espacial, estudios medioambientales, nuevas terapias, etc. Por ejemplo, algunos equipos de científicos están en la Instalación Europea de Radiación Sincrotrónica para comprender y prevenir la formación de los compuestos sulfurados que causan la degradación de la madera del célebre vestigio naval Mary-Rose, un buque de Enrique VIII de Inglaterra; otros realizan allí el análisis químico y estructural del polvo cósmico que trajo consigo la reciente misión Stardust de la NASA; otros estudian la interacción entre el hueso y una prótesis de titanio o hacen el seguimiento de la metabolización del arsénico en un cabello, etc. Estudiar los seres vivos, de acuerdo. Pero ¿copiarlos? Eso no es tan simple. “La naturaleza es una fuente de inspiración inagotable”, recuerda Christian Riekel, director del grupo “Materia condensada blanda”, de la ESRF. “La resistencia, la elasticidad y la compatibilidad biológica del hilo de seda han inspirado la idea de utilizarlo como sustituto de los tendones humanos”. Estas propiedades sugieren muchas otras aplicaciones siempre que se puedan fabricar estas fibras de forma industrial. El grupo desarrolla técnicas de conformación de imágenes y de estudios estructurales para entender mejor cómo este polímero proveniente de una proteína muy simple forma un filamento en solución acuosa, una hazaña totalmente banal para la araña. “La microfluídica, con sus chips que contienen microcanales y otras técnicas comparables, permite visualizar constantemente, bajo el haz X, cómo una proteína en solución cambia de conformación cuando se añade un producto agregante”. Otros investigadores intentan fabricar músculos artificiales con un copolímero formado por un polímero duro y otro blando. “Este copolímero absorbe el agua cuando cambia la acidez del medio: se hincha y produce un efecto mecánico. Esto funciona a escala de la fibrilla unitaria, microscópica, pero requiere un tiempo infinito a escala del músculo”. Ya se trate de seda, tendón o músculo, las interacciones de las fibras proteicas rígidas con la matriz blanda que las engloba desempeñan un papel primordial en sus propiedades mecánicas. Estas fibras están sumergidas en una matriz a la que están unidas por ligaduras que se rompen ante la presencia de agua. Entonces el conjunto, hasta entonces homogéneo, se fragmenta. “¿Cómo se integran estas rupturas a nivel molecular y se transmiten al conjunto del músculo o del tendón para cambiar su estado? ¿Cómo trabajan juntas estas escalas diferentes de organización? Para entenderlo, se debe observar el mismo fenómeno en los distintos niveles de organización. Gracias a la precisión nanométrica que ofrecen las líneas de luz de la ESRF, ahora podemos poner a punto técnicas que permitan estudiar mejor este paso de lo microscópico a lo macroscópico, lo cual era imposible hace diez años”. 26 I+DT info especial EIROforum Febrero de 2007 ESRF Descifrar los orígenes P El sincrotrón, una formidable herramienta de exploración biológica, también es un instrumento ideal para comprender las formas de vida procedentes del pasado. Cráneo de Toumai © Misión paleoantropológica franco-chadiana Mandíbula inferior derecha atribuida a Sahelanthropus tchadensis. Se planteó una polémica en cuanto al tercer molar, ya que algunos científicos sostenían que se trataba de un molar izquierdo pegado en la mandíbula derecha. Además de los aspectos anatómicos evidentes que indican que se trata efectivamente de un diente derecho, la extracción tridimensional de la corona y de la raíz ha hecho posible demostrar que el contacto es prácticamente perfecto y que el diente se encuentra en su lugar. © Tafforeau, Brunet Comparaciones entre los maxilares de Khoratpithecus chiangmuanensis (de 12 millones de años) y Khoratpithecus piriyai (de 7 millones de años), ambos provenientes de Tailandia. El espécimen de la izquierda es una composición tridimensional realizada a partir de dientes aislados de macho y de hembra escaneados en ID19. © Tafforeau, Jaeger, Chaimanee aul Tafforeau, paleontólogo y primatólogo, utilizó por primera vez los rayos X de la ESRF para el análisis de la estructura tridimensional de los dientes de primates, en 2001. El grosor y la distribución del esmalte constituyen aspectos importantes en el estudio de la evolución de los homínidos, pero su caracterización requiere métodos de medición rigurosos y objetivos. “El esmalte es relativamente fino en los grandes monos africanos actuales y relativamente grueso en los orangutanes. Parece ser que ha habido un espesamiento durante la evolución de los homínidos, aunque los datos de nuestros dos antepasados más lejanos, Toumai y Orrorin tugenensis, no se han cuantificado lo suficiente”. Hasta hace poco tiempo, la única forma de estudiar el esmalte era cortando los dientes. Esta forma de proceder tan destructiva no se puede aplicar en muestras muy raras o únicas. Desde hace varios años, los microtomógrafos de laboratorio (de rayos X) permiten realizar estos cortes virtualmente, sin destruir los dientes. Sin embargo, siguen siendo bastante lentos, a veces poco precisos, y suelen carecer de contraste. En la ESRF se pueden obtener imágenes de mejor calidad más rápidamente, lo que aumenta de manera considerable las posibilidades de investigación en fósiles antiguos fuertemente remineralizados. Sincrotrón y contraste de fase Algunos fósiles están tan modificados por la diagénesis que ya no presentan ningún contraste en la conformación clásica de imágenes de absorción. En este caso, es posible utilizar otra técnica basada en las propiedades de coherencia parcial del haz que producen ciertos sincrotrones: el contraste de fase de propagación. “El contraste de fase permite revelar numerosas estructuras en los fósiles, totalmente invisibles en la conformación de imágenes clásica. Los resultados son impresionantes en fósiles como los insectos en el ámbar y los dientes. Se pueden obtener reconstrucciones tridimensionales que muestran con gran precisión la unión esmalte-dentina, aunque el diente ya no presente ningún contraste de absorción a causa de la diagénesis. Estos análisis de la distribución del esmalte aportan nuevos datos para estudiar las relaciones filogenéticas de los primates fósiles y los actuales. El grosor del esmalte también proporciona información sobre la alimentación de los especímenes estudiados. En ciertos casos, el esmalte fino se desgasta rápidamente y forma crestas aceradas, más adaptadas a un régimen vegetal, mientras que el esmalte grueso puede indicar, en algunas ocasiones, una alimentación más dura que incluye, por ejemplo, nueces o granos”. Embriones de 580 millones de años La paleontología está en pleno auge en la ESRF. En 2003, un estudio internacional sobre los carófitos (algas de 420 millones de años de antigüedad) permitió ver con detalle su utilidad y precisar su posición filogenética. Unos embriones marinos de cuatro células que datan de la Era Precámbica (580 millones de años antes de nuestra era), encontrados en los fosfatos del emplazamiento de Doushantuo, en China, son objeto de una intensa Corte virtual transversal de investigación internacional. Las imágenes tridimensionales, realizadas en un pequeño embrión de la ESRF durante un estudio franco-chino, revelan los detalles de las mem580 millones de años, branas celulares de los embriones, que muestran claramente que se encontrado en China. Los distintos colores dividen de modo asimétrico para formar células de distintos tamaños. “No corresponden a cada una de se sabe nada acerca de su identidad y de la forma que tienen los organislas tres células embrionarias mos adultos. Sin embargo, sabemos que esas divisiones, que existen (blastómeros). El cálculo del siempre en ciertos bivalvos marinos actuales, crean un plan primitivo de volumen de cada una de las simetría bilateral. No olvidemos que la inmensa mayoría de las especies células revela que la azul es el doble de voluminosa. Esta observación da más peso a la vivas actuales son bilaterales. Por lo tanto, nuestro estudio, cuyo resultado interpretación de un desarrollo embrionario caracterizado por se publicó hace poco en Science, sugiere que esta característica apareció la formación de lóbulos polares. © Li, Tafforeau, Chen muy al principio de la evolución”. EMBL I+DT info especial EIROforum Febrero de 2007 27 En primera línea de las ciencias de la vida en Europa El Laboratorio Europeo de Biología Molecular (EMBL, por sus siglas en inglés) fue creado en 1974 y 19 Estados son socios del mismo. Se trata de un centro europeo de investigación, formación y enseñanza en diferentes áreas, basado en una intensa cooperación entre científicos de todas las nacionalidades especializados en el campo de la biología molecular. El EMBL, centro de excelencia nos 80 grupos de investigadores trabajan en los cinco laboratorios en biología molecular, que acoge a los mejores investigadores, del EMBL. El laboratorio central, situado en Heidelberg da igualmente mucha importancia (Alemania), desarrolla todo tipo de investigaciones en el campo a la formación de los doctorandos de la biología molecular, desde el estudio de las moléculas hasta el y los estudiantes. desarrollo embrionario de los organismos, pasando por la aparición © M.Schupp/EMBL de los componentes celulares. U Cinco laboratorios colaborando en simbiosis Difundir, formar y debatir Los laboratorios de Hamburgo (Alemania) y Grenoble (Francia) poseen sincrotrones y trabajan conjuntamente en el establecimiento de “una asociación para la biología estructural”. Esta asociación está establecida principalmente en Grenoble y en ella participan el ILL (Institut Laue Langevin), la ESRF, el IBS (Instituto de Biología Estructural), el IVMS (Instituto de Virología Molecular y Estructural), así como el DESY (Deutsches Elektronen-Synchrotron). Los investigadores de Monterotondo, cerca de Roma (la Unidad de Biología de Ratones del EMBL), estudian la función de los genes. Aportan sus conocimientos en el desarrollo de líneas modelo de ratones para el estudio de las enfermedades humanas y colaboran estrechamente con los grupos de investigación nacional italianos (CNR) y el EMMA (Archivo Europeo de Ratones Mutantes). El Instituto Europeo de Bioinformática del EMBL (EBI, por sus siglas en inglés), ubicado en el campus del Instituto Sanger de Hinxton, cerca de Cambridge (Reino Unido), administra uno de los bancos de información biológica más importantes del mundo. Todos estos centros funcionan en estrecha colaboración y con la flexibilidad que caracteriza a toda la institución, en la que grupos de investigadores independientes realizan los trabajos según programas temáticos. Además, las estructuras favorecen la interdisciplinariedad y la interacción entre los equipos. El EMBL ofrece también un amplio abanico de servicios a los científicos europeos. Entre los más utilizados está la base de datos gratuita del Instituto Europeo de Bioinformática y el acceso al ciclotrón de Hamburgo y al sincrotrón de Grenoble. Asimismo, las transferencias de tecnologías y los instrumentos puestos a punto por la organización son accesibles a las empresas del sector (EMBL-Entreprise Management). La organización da prioridad a dos aspectos fundamentales: la difusión de los conocimientos y la formación de los jóvenes, lo que garantiza la continuidad de la investigación. Alrededor de 170 doctorandos cursan el famoso Programa Internacional de Doctorado del EMBL, realizado en colaboración con 24 universidades de 17 países. Los equipos científicos reciben constantemente a investigadores de todas las nacionalidades, en todas las etapas de su carrera. Las conferencias internacionales y los talleres prácticos organizados cada año por el EMBL para la comunidad científica europea son acontecimientos que cuentan siempre con una gran participación. Consciente también de las implicaciones “sociales” que tiene la sorprendente evolución de las ciencias de la vida, el EMBL asume la misión de reforzar las relaciones entre la ciencia y la sociedad y de comunicar sobre la investigación “fuera de los laboratorios”. El EMBL propone un programa dinámico, Science and Society (Ciencia y Sociedad) destinado a promover el diálogo entre los científicos y el público. En otro ámbito, el Laboratorio Europeo de Aprendizaje para las Ciencias de la Vida (ELLS, por sus siglas en inglés) imparte módulos de formación a los pedagogos interesados para que conozcan los nuevos campos punteros de una disciplina que no deja de crecer y de diversificarse. Y finalmente, el EMBL publica la revista Science in School del EIROforum, cuyo objetivo consiste en proporcionar nuevos enfoques para la enseñanza de las ciencias. Para más información http://www.embl.de 28 I+DT info especial EIROforum Febrero de 2007 EMBL En 1870, Ernst Haeckel, naturalista alemán, publicó el primer árbol de la vida, síntesis ejemplar del conocimiento disponible en aquel entonces sobre la genealogía de los seres vivos, la filogénesis. En 2006, seis investigadores publicaron en la revista Science una nueva síntesis sobre este tema, bajo la dirección Peer Bork, del EMBL. Ciento treinta y seis años transcurrieron entre estos dos acontecimientos, a primera vista muy diferentes, pero en los que se buscaba un objetivo similar: reconstituir la evolución biológica de las especies vivas presentes hoy en día en la Tierra. Se parte de un principio básico idéntico: si dos especies comparten un mismo carácter, lo han heredado de un ancestro común. El árbol de la vida según la genómica o que ha cambiado, en cerca de un siglo y medio, es antes que nada la propia naturaleza del carácter común. En tiempos de Haeckel sólo podía estudiarse la morfología de las especies. De esta manera, los científicos se interesaban por la estructura, los esqueletos, las dentaduras y la anatomía de los órganos. Durante cerca de un siglo, generaciones de biólogos se dedicaron a precisar y refinar las múltiples ramas del árbol de Haeckel. En la década de los años setenta se dio un cambio radical a este paciente trabajo. El descubrimiento de que el ADN es la base de la información genética y los avances de las técnicas de análisis hicieron posible centrarse, no en los caracteres morfológicos, sino en los bioquímicos: secuencias de aminoácidos de las proteínas, secuencias de bases de los ácidos ribonucleicos o ARN (que constituyen el mecanismo celular de síntesis de las proteínas) o secuencias de bases de los ácidos desoxirribonucleicos (ADN). Dos décadas más tarde se produjo un nuevo cambio fundamental, desencadenado también por una importante innovación en las técnicas de análisis. La automatización de la secuenciación de los genomas, lograda gracias al desarrollo del campo de la bioinformática, permitió comparar enormes cantidades de datos. La reconstitución filogenética ya no se basó en un gen o una proteína, sino en genomas enteros. Un puzzle de 36 genes y 191 genomas L Una de las tareas más arduas para el equipo de investigadores del EMBL era encontrar indicios de estas transferencias horizontales de genes. Los investigadores emprendieron el estudio de 191 genomas(1) que compartían un patrimonio común de 36 genes. Incluso con la ayuda de la bioinformática, esta investigación no pudo automatizarse en su totalidad. Tuvieron que armarse de paciencia para ir analizando previamente (y casi “manualmente”) las señales que permitían descartar los genes resultantes de estas transferencias horizontales. Después de La transferencia horizontal de genes “Al principio, la abundancia de datos nuevos sobre los genomas trajo más confusión que claridad. Planteó más preguntas en lugar de ofrecer respuestas a las ya existentes”, destaca Peer Bork. Poner en orden este desorden provocado por la multitud de datos de secuenciación: eso pretendió este investigador al iniciar el trabajo que concluyó con la publicación del nuevo “árbol de la vida” en la revista Science. El proyecto tenía el mismo enfoque que el del naturalista Haeckel: reconstituir la genealogía del ser humano, con la diferencia de que a partir de entonces los genomas sustituían a la morfología. Anteriormente habían aparecido iniciativas similares pero se tropezaron todas con el problema de la llamada “transferencia horizontal de genes”. ¿De qué se trata? De la facultad de los seres unicelulares de intercambiar genes en una misma generación, que tengan un núcleo, como las levaduras o los protozoarios, o que no lo tengan, como las bacterias. En consecuencia, el principio fundamental de la filogénesis (que consiste en asignar un ancestro común a dos especies que presenten una misma característica) resulta inaplicable. Dos especies pueden tener una misma característica porque la intercambiaron dentro de su propio medio, y no porque ambas la heredaran de un mismo antepasado. Por lo tanto, la transferencia horizontal de genes plantea muchas dificultades a los partidarios del enfoque sistemático. Pedigree of Man: en 1870, Haeckel reconstituyó toda la genealogía clasificada de las especies vivas identificadas hasta su época, con lo que formuló el primer árbol de la vida, desde las raíces, en el reino Monera (los procariotas) hasta el Hombre, en la cumbre. EMBL I+DT info especial EIROforum Febrero de 2007 29 Según el principio del ancestro común, la presencia de 31 genes (acerca de los cuales los investigadores pueden afirmar con certeza que corresponden a una transmisión filogenética dentro de los genomas de 191 especies estudiadas) permitió al equipo del EMBL, dirigido por Peer Bork, delinear un nuevo árbol de la vida, el cual fue publicado en la revista Science Magazine. © Science Magazine, 2006. este minucioso trabajo quedaron sólo 31 genes con respecto a los cuales los investigadores podían afirmar con certeza que correspondían a una transmisión filogenética. Una vez que esta selección concluyó, se pudieron desarrollar potentes programas de bioinformática para reconstituir la presencia de cada uno de estos genes en los genomas de las 191 especies estudiadas, basándose en el principio del ancestro común, y obtener así un nuevo árbol de la vida. Cuanto más pequeño, más rápida es la evolución... Un enfoque nuevo La cuestión tan fascinante del origen de la vida sobre la Tierra se plantea ahora desde un ángulo novedoso, ya que el árbol de la vida plantea la hipótesis de que el primer ser vivo aparecido sobre la Tierra se encontraba en un medio muy caliente, probablemente en una de las fuentes calientes de los fondos oceánicos, originada por subidas de magma del manto terrestre. El árbol de la vida seguirá creciendo a medida que se vayan añadiendo datos sobre la secuenciación de nuevos genomas, de manera casi enteramente automatizada, los cuales se publicarán en el sitio Web del EMBL. Esta afluencia de nueva información podría tener un efecto de bola de nieve: en el momento de la publicación en Science se habían secuenciado 352 genomas, actualmente se están completando alrededor de 1.000. “Este estudio, de una envergadura sin precedentes, supone un cambio radical con respecto a algunas opiniones anteriores sobre el origen de los seres vivos”, destaca el irlandés Christopher Creevey, postdoctorando del grupo de Peer Bork. “Llegamos a una primera conclusión fundamental: cuanto más pequeños son los genomas, más rápidamente evolucionan”. Así pues, en cierto sentido, las bacterias han evolucionado mucho más que (1) O sea, 150 genomas de bacterias, 23 de eucariotas (entre ellos el genoma del los mamíferos. Por lo demás, el nuevo árbol de la vida propone no menos de quince Homo sapiens) y 18 genomas de arqueobacterias (bacterias muy antiguas con revisiones de nuestra concepción de la genealogía del ser vivo. Una de núcleo). las más importantes consiste en colocar a los vertebrados y a los insectos en un mismo linaje (distinto del de los nematodos), mientras que hace unos diez años se tendía a pensar que el linaje de los vertebrados no tenía relación con el de los nematodos y los insectos. Sitio Web del árbol de vida “A partir de la publicación de los resultados de nuestros trabajos en la en el EMBL revista Science nos llovieron las preguntas de los investigadores que http://www.bork.emb/tree-of-life deseaban precisiones y más información sobre alguna rama de nuestra filogénesis de la que eran especialistas”, manifiesta Christopher Creevey. Por lo tanto, esta síntesis suscitó interés por parte de la comunidad científica y del gran público. “¡Incluso se nos pidió autorización para imprimir nuestro árbol de la vida en camisetas!” Peer Bork Para más información Contactos [email protected] Christopher Creevey [email protected] 30 I+DT info especial EIROforum Febrero de 2007 EMBL ¿Quién era Urbilateria? Urbilateria... ¿Le resulta familiar ese nombre? Es la denominación culta del hipotético ancestro común de todos los animales “simétricos bilaterales” (con respecto al eje de su cuerpo), desde los gusanos hasta los insectos y desde los peces hasta los mamíferos. Urbilateria vivió hace más de 600 millones de años, pero casi no se sabe nada de esta criatura que no dejó ningún fósil. Al igual que las partículas nunca observadas (pero cuya existencia se presupone según la teoría) y que los físicos intentan localizar durante años, Urbilateria apasiona a los especialistas de la evolución. Los trabajos realizados en el EMBL han logrado importantes avances de nuestros conocimientos sobre este ancestro tan lejano. l famoso Urbilateria evolucionó en dos grandes grupos caracterizados por su simetría corporal. Los especialistas en filogenética distinguen entre los deuterostomios (conjunto que engloba principalmente a los peces y los mamíferos) y los protostomios. Éstos se dividen a su vez en dos grandes subgrupos: los ecdisozoos (nematodos, insectos, arañas y crustáceos) y los lofotrocozoos, como los moluscos y los gusanos. Partiendo de esta clasificación, un equipo internacional liderado por el grupo de Detlev Arendt en el EMBL inició un extenso estudio de comparación del ADN de los tres grandes linajes resultantes de Urbilateria. Aunque la información sobre los genomas completamente secuenciados de insectos, peces o mamíferos, exista los investigadores no disponían de datos de secuencias genéticas de ejemplares del grupo de los lofotrocozoos. E Historia del ojo Los investigadores Detlev Arendt, Peer Bork y Florian Raible vuelven a la fábula de “La liebre, la tortuga... y el gusano”. Un enfoque humorístico para comparar el linaje de las especies según el ritmo en el que éstas atraviesan las etapas de la evolución: a grandes pasos o muy lentamente, como en el caso de Platynereis. © M. Schupp/EMBL Los logros alcanzados gracias al estudio de Platynereis no acaban ahí. También permitieron aclarar un enigma que, desde hacía mucho tiempo, suponía un reto para los biólogos: la aparición del ojo. D arwin reconocía que era muy improbable que una estructura tan compleja hubiera aparecido repentinamente, por una variación aleatoria seguida de una selección, como sugiere la teoría de la evolución. Al final de la década de los años ochenta, los trabajos de Walter Gehring, en Basilea, aportaron los primeros elementos de explicación al poner de manifiesto que un único gen, que controla a su vez la activación de otros 2.500, bastaba para determinar la formación de un ojo y que este gen era el mismo en el ratón, la drosófila y el calamar. Estos resultados apuntaban a que los ojos de los mamíferos, los insectos o los cefalópodos, pese a ser tan diferentes, provenían seguramente del mismo ojo rudimentario, creado a partir de un gen único. La primera aparición de este ojo primitivo durante la evolución debe buscarse en un ancestro común a las tres ramas, en el famoso Urbilateria. Sin embargo, aún no se ha descrito este misterioso “proto-ojo”. También en este caso la respuesta puede encontrarse en Platynereis. “En el lofotrocozoo coexisten dos tipos de células © EMBL fotoreceptivas: una, llamada rabdomérica, típica de los invertebrados y otra, llamada ciliar, característica de los vertebrados”, dice Detlev Arendt. “Cuando vi por primera vez en el microscopio electrónico las características de estas células fotoreceptivas EMBL Un gusano pequeño y útil Finalmente decidieron tomar como modelo de estudio un pequeño gusano marino denominado Platynereis dumerilii. ¿Sus ventajas? Platynereis tiene todas las características de un fósil viviente y se cría fácilmente en laboratorio. La organización de su cuerpo, en segmentos repetidos, parece haber evolucionado poco en los últimos 600 millones de años. Su identidad filogenética implica que cualquier carácter complejo que se encuentre a la vez en el lofotrocozoo Platynereis y, por ejemplo, en el Homo sapiens deuterostomio debía estar ya presente en Urbilateria. Por lo tanto, se realizó una secuenciación parcial del genoma de Platynereis para solventar la falta de datos. Esto permitió identificar 30 genes que existían también en los otros dos grandes grupos. Seguidamente, el análisis se centró en el estudio no de las secuencias que codifican estos genes, sino de las secuencias no codificantes que los dividen. Estas secuencias, denominadas “intrusas”, forman lo que se conoce con el nombre de intrones (en oposición a las secuencias denominadas exones, que codifican la secuencia proteica). La función de los intrones no ha quedado clara. Unos consideran que se trata de restos evolutivos, según la teoría del “ADN basura”. Otros ven en ellos una especie de ardid biomolecular que permite producir varias proteínas a partir de un único gen (al unir exones diferentes). En otras palabras, la comparación filogenética de intrones podría descifrar parte del misterio. Platynereis y Homo sapiens I+DT info especial EIROforum Febrero de 2007 31 Segundo resultado, más asombroso aún: más de la mitad de los intrones humanos se conservan, a veces hasta los nucleótidos que lo componen, tal como ocurre en Platynereis, mientras que esta proporción se observa solamente, por término medio, en un cuarto en los insectos. Utilizando la filogenética se llega a la conclusión de que más de dos tercios de los intrones humanos debían ya estar presentes en Urbilateria. Ahora bien, estas secuencias no pudieron ser inventadas dos veces. Esta extraordinaria facultad de conservación sugiere que los intrones, lejos de ser el “ADN basura”, cumplen una función muy importante, si bien aún no está esclarecida. ¿Es ésta una característica específica de los intrones? De ninguna manera, como muestra el tercer resultado presentado en Science: el análisis de la secuencia de 442 proteínas presentes en las tres ramas pone de manifiesto una vez más que Platynereis se asemeja más al Homo sapiens que a los insectos. En consecuencia, en contra de lo que se podría suponer, nuestra especie genéticamente se asemeja más a Platynereis, un humilde gusano marino, que a organismos tan complejos como la abeja. Detlev Arendt lleva el razonamiento aún más lejos: “Nuestros resultados pueden interpretarse diciendo que el Homo sapiens conservó características ancestrales...”. ¿Paradoja? No exactamente. Es como si la rama de los ecdisozoos, a la cual están vinculados los insectos, hubiera experimentado una forma de evolución caracterizada por la simplificación de los genomas y la disminución de su número de intrones, mientras que las dos ramas restantes hubieran conservado la gran fragmentación que estaba presente ya en Urbilateria. “Los ecdisozoos evolucionaron rápidamente”, prosigue Detlev Arendt. “En realidad, se alejaron aún más del ancestro común que las líneas de los lofotrocozoos y los deuterostomios, que experimentaron un ritmo de evolución mucho más conservador”. Este estudio, publicado en la revista Science en noviembre de 2005, aporta un primer resultado sorprendente: Platynereis contiene como término medio 7,8 intrones por gen, cifra similar a la del ser humano (8,4), pero muy superior a la de los insectos y los nematodos, que contienen entre 2,4 y 5,4. Ello indica, según el principio del ancestro común, que Urbilateria debía también tener un genoma con abundancia http://www-db.embl.de/jss/EmblGroupsOrg/g_172.html Detlev Arendt de intrones. arendt@emb Para más información ciliares de Platynereis, me sorprendió su semejanza con los conos y bastones característicos de nuestra retina humana”. Quedaba por probar esta intuición, lo cual se logró aplicando la técnica de las impresiones moleculares, que funcionan en la célula como una verdadera huella dactilar. Las células fotorreceptoras ciliares de Platynereis , transmitidas no sólo a este gusano sino también a todo el linaje de los vertebrados, poseen una característica común. Conclusión lógica: Urbilateria ya debía poseer este tipo de células, que sin duda no le permitían una verdadera visión sino más bien una adaptación a la fotoperiodicidad, importante para ajustar el ciclo reproductivo a la alternancia entre el día y la noche. Alentado por estos descubrimientos, Arendt sueña ahora con reconstruir poco a poco el sistema nervioso de Urbilateria. “Me fascina ver que se encuentran exactamente las mismas hormonas y los mismos neurotransmisores tanto en Platynereis como en el ser humano, mientras que algunas están ausentes en los insectos, lo que pone de manifiesto la idea de que esta rama evolucionó mucho más rápidamente”. Gracias a este método de impresión molecular, que permite reconstituir la genealogía de los tipos Contacto celulares de la misma manera que se reconstituyen árboles filogenéticos, el investigador está ya esbozando los modelos de aparición del sistema nervioso. “Imaginémonos una célula fotorreceptora presente en un antepasado de Urbilateria”, sugiere, esbozando un bosquejo, “e imaginémonos que la duplicación de un gen que codifica un fotorreceptor permite generar dos tipos de células, cada una de ellas heredada de una versión del gen: una especializada en la recepción de la información luminosa y otra en su tratamiento. Es frecuente, en el desarrollo embrionario, que se desplacen células. Supongamos entonces que una de nuestras dos células emigra, pero permaneciendo conectada al mismo tiempo a su ‘hermana’ por una prolongación citoplásmica. Obtenemos de tal manera un verdadero prototipo de sistema nervioso, ¡en el cual la prolongación desempeña el papel del axón!” Bajo el lápiz del investigador aparece el bosquejo de una red neuronal, tal como podría existir en Urbilateria. Generaciones de biólogos sólo han podido imaginarse a este antepasado lejano, pero ahora, gracias a las nuevas técnicas de biología molecular, se materializa gradualmente ante nuestros ojos. 32 I+DT info especial EIROforum Febrero de 2007 EMBL Al principio existía la forma Eric Karsenti dirige la Unidad de Biología Celular y Biofísica del EMBL. 150 años después de la publicación de Darwin sobre el origen de las especies, este especialista del citoesqueleto tiene previsto embarcarse en 2009 en un velero para rehacer el viaje del HMS Beagle en el que el padre de la teoría de la evolución pudo realizar numerosas observaciones que apoyaron sus ideas. ¿Qué relación existe entre sus investigaciones en el EMBL sobre mecanismos fisicoquímicos reguladores del funcionamiento del esqueleto celular, y su interés por el tema de la evolución? El problema que siempre me ha fascinado es el de la complejidad y la diversidad de las formas que puede tomar la vida. ¿Cómo es posible tal diversidad y cómo pudo generarse durante la evolución? Es una pregunta muy antigua que se remonta a la época de Aristóteles. Esta cuestión, a la que no se le da suficiente importancia en la actualidad, era un tema que preocupaba a los investigadores del siglo XIX y principios del XX. Consideremos el famoso ejemplo de los pinzones de las Galápagos. En el viaje del HMS Beagle, Darwin describió 13 especies de pinzones que vivían en este archipiélago del Pacífico y que se distinguían entre sí por la forma del pico. Esto se convirtió en un paradigma de lo que denominamos la “especiación”: ¿cómo ha podido variar la forma de los picos de los pinzones durante la evolución, y de manera tan rápida? La respuesta puede encontrarse descendiendo un nivel en la escala de organización de los seres vivos, es decir, en el paso del órgano a la célula. El citoesqueleto es lo que da forma a la célula. Por lo tanto, para comprender la morfogénesis celular comencé a investigar, con un equipo integrado por biólogos y físicos, el citoesqueleto y sus principales constituyentes: la actina, la tubulina y las proteínas que se les asocian. Representación de las hebras microtubulares del citoesqueleto de la levadura (en verde), asociadas a las mitocondrias (en amarillo) y al núcleo celular (en violeta). © EMBL la aparición de las eucariotas. Desafortunadamente, es un tema poco estudiado y lamento que no se trabaje más intensamente en estas cuestiones de biología evolutiva a nivel celular. Se podrían llevar a cabo estudios apasionantes sobre el citoesqueleto eucariota unicelular, especialmente sobre el plancton, ya que algunos de ellos son verdaderos tesoros fósiles vivos. ¿Existen ejemplos en los que el cambio de un gen que codifica una proteína del citoesqueleto implique la aparición de una forma nueva? Indudablemente. Por ejemplo, es el caso de una mutación de la dineína. Esta proteína del citoesqueleto funciona como un pequeño motor que se desplaza a lo largo de los microtúbulos y que causa nada menos que la inversión de la posición de los órganos: el corazón a la derecha, el hígado a la izquierda, etc. Cuidado, no estoy diciendo que todas las nuevas formas surjan mediante cambios de genes del citoesqueleto. En el ejemplo de los pinzones de Darwin, se sabe ahora que la variación del nivel de expresión de un gen que codifica una hormona es lo que controla la proliferación de las células que están implicadas en la formación del pico. Sin embargo, pienso que el estudio de los principios fisicoquímicos y dinámicos que sustentan la morfogénesis celular es indispensable para comprender de qué manera la evolución ha podido conseguir la ¿Es posible determinar en qué fase de la evolución apareció el citoes- riqueza y la diversidad de las formas de vida que podemos contemplar queleto? ahora... Todas las células eucariotas (las células que poseen núcleo) tienen un citoesqueleto. En las procariotas (las células que carecen de núcleo, como las bacterias) no se encuentra una estructura equivalente, aunque se encuentren algunas proteínas similares. En un momento de la evolución, el material genético tuvo que hacerse tan complejo que la distribución de los cromosomas en dos grupos idénticos requirió la http://www-db.embl.de/jss/EmblGroupsOrg/g_40.html aparición de un mecanismo más complicado aún: el citoesqueleto. De hecho, en todas las eucariotas, los cromosomas están distribuidos por un huso mitótico constituido por microtúbulos. Eso plantea un interrogante fascinante: el de la posible evolución conjunta de un gran número de genes implicados en el control de la división y la forma celular, durante Eric Karsenti Para más información Contacto [email protected] ESA I+DT info especial EIROforum Febrero de 2007 33 El espacio europeo sin fronteras Desde 1973, la Agencia Espacial Europea (1) (ESA, por sus siglas en inglés), símbolo del progreso de la ciencia y de la tecnología, constituye el centro de diseño y operaciones que hace posible la presencia europea en el espacio. La ESA se fundamenta en la voluntad de cooperación existente entre diferentes Estados miembros de la Unión (2), Suiza y Canadá. Se dedica a la recopilación, la organización y la distribución de los datos de los satélites de observación y actúa como centro de información de la Agencia Espacial. Además, la ESA dispone de una base de lanzamiento para los cohetes Ariane en Kourou, en la Guayana francesa. a ESA abarca todas las actividades espaciales. Dirige la construcción de los cohetes Ariane y sus respectivos lanzamientos desde la base de Kourou en la Guayana Francesa; el diseño y el desarrollo de satélites y sus equipamientos; así como la preparación y la realización de vuelos tripulados. Asimismo, diseña y pone en marcha programas científicos y proyectos internacionales de gran envergadura, sobre todo en lo que atañe a la participación europea en la Estación Espacial Internacional (ISS, por sus siglas en inglés). La ESA ha desarrollado una estrecha cooperación con la Unión y representa a este respecto la herramienta científica y tecnológica que plasma la estrategia de independencia espacial de Europa. Opera en diversos ámbitos: la comunicación, la navegación, la vigilancia del medioambiente, el desarrollo de nuevas tecnologías espaciales, sobre todo en lo que respecta a los grandes proyectos Galileo y GMES (siglas de Global Monitoring for Environment and Security Services). Las nuevas fronteras de la cultura L París, Noordwijk, Darmstadt, Frascati, Kourou La ESA, que emplea aproximadamente a 1.900 trabajadores, constituye un ejemplo notable de una Europa sin fronteras. La ESA tiene su sede política y ejecutiva en París desde donde coordina en estrecha cooperación con todos los centros espaciales de los socios nacionales e internacionales y gestiona los programas científicos. El Centro Europeo de Investigaciones y Tecnología Espaciales (ESTEC, sigla en inglés de European Space Research and Technology Centre), situado en Noordwijk (Países Bajos), constituye el centro de I+D donde se diseñan y prueban la mayor parte de los avances tecnológicos y los artefactos que se lanzan al espacio. El Centro Europeo de Operaciones Espaciales (ESOC en inglés) situado en Darmstadt (Alemania), es el centro de control de los satélites europeos en órbita, mientras que el Centro Europeo de Astronautas (EAC en inglés), ubicado en Colonia (Alemania), se ocupa del entrenamiento de los astronautas europeos para sus respectivas misiones. Por último, el ESRIN (el Centro de Observación de la Tierra de la ESA) tiene su sede en Frascati (Italia). La aventura espacial tiene hoy en día un papel determinante en el futuro de la humanidad. Este tema apasiona al gran público, especialmente a los jóvenes. Por tanto, la ESA, consciente del interés que suscitan sus recursos, contribuye a la difusión de la cultura y la educación científicas. Su página Web, muy bien concebida, ofrece información precisa, actual, bien documentada con fotografías impresionantes y dispone de una sección denominada ESA kids (en varios idiomas), una auténtica revista juvenil con la que aprender puede ser divertido. Además, la ESA ha puesto en marcha una fundación educativa denominada ISSEF (o International Space Station Education Fund) que propone herramientas pedagógicas pensadas para diferentes niveles educativos (desde la escuela primaria hasta la universidad). (1) Designada generalmente por su acrónimo inglés ESA (European Space Agency). (2) Los 17 Estados miembros de la ESA son: Alemania, Austria, Bélgica, Dinamarca, España, Finlandia, Francia, Grecia, Irlanda, Italia, Luxemburgo, Noruega, Países Bajos, Portugal, Reino Unido, Suecia y Suiza. Canadá participa en algunos proyectos conforme a un acuerdo de cooperación. Hungría, la República Checa y Rumanía tienen el estatus de Estados europeos cooperantes. > http://www.esa.int > http://www.esa.int/esaHS/ education.html Lanzamiento del satélite Giove-A © ESA 34 I+DT info especial EIROforum Febrero de 2007 ESA Las revoluciones de la ciencia offshore “En la actualidad se recurre constantemente a las herramientas espaciales con el fin de comprender el funcionamiento del ecosistema global de la Tierra (así como de los subsistemas que lo componen) y revelar así una serie de fenómenos esenciales imposibles de conocer por otros medios”, observa David Southwood, director científico de la ESA. © ESA Entrevista a David Southwood, director científico de la ESA. Según él, se distinguen dos grandes ciencias espaciales. Una está relacionada con el exterior y abarca desde nuestro sistema solar hasta los confines del Universo; la otra se centra en la Tierra. No obstante, ambas ciencias tratan de dar respuesta a una triple pregunta fundamental sobre la existencia de los seres vivos: ¿por qué, cómo y dónde? Dado que la ciencia espacial representa un campo de investigación cuyos costes parecen faraónicos, ¿hace bien Europa al destinar tantos medios y esfuerzos? Seamos realistas. Europa no ha ido al espacio más que nada para hacer ciencia. La capacidad de poner satélites en órbita, hoy en día, es una herramienta estratégica y económica esencial para las telecomunicaciones, la navegación, la seguridad, etc. Es decir, se trata de una cuestión básica de independencia. Hace algunos siglos, una nación moderna debía disponer de una flota y ser capaz de enviar navíos de un continente a otro. De igual modo, tendríamos que poder enviar vehículos espaciales donde deseemos. Así, una vez que existe dicha capacidad, podemos a su vez aplicarla a la ciencia. Privarse de ello sería una aberración ya que los avances de los conocimientos fundamentales y aplicados que se han ido adquiriendo gracias al espacio son fundamentales para un amplio abanico de áreas. Europa es un centro esencial de la investigación mundial y dispone de potencial científico humano muy preparado. Tiene un papel que desempeñar en un tema en el que hay que poder ir a donde se quiera. ¿Cuáles son los objetivos científicos de la ESA? El hecho de ir al espacio permite tener dos visiones científicas diferentes. Una, con la mirada puesta hacia el exterior, tiene como objetivo comprender el Universo en el cual existimos y del que provenimos. La otra, orientada hacia el interior, consiste en observar este objeto denominado Tierra al que debemos la existencia. En el exterior, el primer campo de interés evidentemente es la exploración de nuestro entorno cercano, a saber: nuestro sistema solar que cada vez está más “al alcance de los vehículos espaciales”. La ESA dirige en estos momentos dos naves Express alrededor de Venus y Marte. La expedición conjunta Cassini-Huygens, realizada entre 2004 y 2005, ha supuesto todo un éxito: la nave de la NASA está en órbita alrededor de una luna de Saturno denominada Titán, sobre la cual se ha posado sin tropiezos la sonda europea Huygens. Hay que mencionar también las circunvoluciones del satélite Smart 1 que, desde 2004, estudia minuciosamente el suelo de nuestra Luna buscando huellas de agua de épocas anteriores. Asimismo, Europa ha contribuido en gran medida a la “caza de cometas” con el envío de la sonda Giotto al cometa Haley hace 20 años, lo que fue un hecho sin precedentes. La formación de los cometas precede a la de los planetas, por lo que podrían haber sido el material de base que dio origen a los planetas. Por supuesto, dicho material se habría calentado, habría sufrido colisiones, agregaciones y tendríamos que ser capaces de comprender lo que ocurrió para volver a encontrar los “fundamentos básicos”. Con este ambicioso objetivo se efectuó el lanzamiento de la sonda Rosetta en 2004, destinada a posarse sobre el cometa Churyumov-Gerasimenko en 2014. Dicho proyecto debe su nombre a la Piedra de Rosetta, con la cual Champollion pudo descodificar los jeroglíficos egipcios. De hecho, buscamos los códigos de desarrollo de la materia en el sistema solar; una materia de la que también surgió la vida. Pero el espacio no se acaba en el sistema solar... ¡Ni mucho menos!... Aparte del sistema solar, los telescopios y los detectores a bordo de satélites orbitales proporcionan un gran campo de observación a los astrónomos y astrofísicos. A este respecto, el “observatorio” Hubble tiene una reputación ya reconocida en lo que respecta a la calidad y cantidad de imágenes estelares que recoge. Sin embargo, otros instrumentos menos conocidos, como el telescopio espacial XMM-Newton, centrado en la detección de las radiaciones X, recopilan numerosos datos decisivos para los científicos. La ESA tiene varios proyectos en preparación dedicados a esta fascinante exploración del Universo. Dentro de dos años, lanzaremos con el mismo cohete los dos vehículos Planck y Herschell. El primero estudiará la formación del Universo y los primeros indicios de su estructuración en las galaxias más lejanas, es decir, los momentos inmediatamente posteriores al Big Bang. El segundo analizará la organización de la materia en cúmulos, la formación de las galaxias, las estrellas y los planetas. Herschell será una herramienta para intentar resolver el misterio del lado oscuro del Universo, en el que la gravedad transforma la masa en calor con el colapso de ciertas estrellas sobre sí mismas. Después, le llegará el momento a la futura misión Gaia, que realizará una verdadera inmersión en el corazón de la “relojería cósmica” de nuestra propia galaxia, en sus miles de millones de estrellas, en su materia negra... ¿Con todos estos proyectos, no descuidan la observación de la Tierra? No, porque el programa Living Planet (o Planeta Vivo), que agrupa todos los medios de observación de la Tierra, representa aproximadamente la mitad de los trabajos de investigación científica de la ESA para los próximos años. Ahora la investigación espacial intenta comprender el funcionamiento del ecosistema global de la Tierra y de los subsistemas que lo componen, poniendo de manifiesto una serie de fenómenos esenciales imposibles de conocer por otros medios. Desde hace tres décadas, Europa ha ido acumulando prácticas y conocimientos inestimables a través del creciente despliegue de satélites meteorológicos, la puesta en órbita de los satélites ERS 1 y 2 (European Remote Sensing Satellite) y, sobre todo, a través del Envisat, un satélite emblemático de la observación de la Tierra. Desde esta plataforma de satélites, unos diez instrumentos exploran los océanos, los casquetes glaciares, los continentes y la atmósfera, desde el año 2002. Living Planet constituye la hoja de ruta que se ha fijado la ESA para cumplir su importante misión en el contexto actual del cambio global y del calentamiento climático. Para ello está previsto para 2012 el lanzamiento ESA I+DT info especial EIROforum Febrero de 2007 35 El satélite Spainsat situado en el vértice de la lanzadera Ariane 5. © ESA/S.Corvaja Imágenes del satélite Envisat de la costa nordeste de Sri Lanka en el momento del tsunami del 28 de diciembre de 2004 (arriba) y los daños de esta catástrofe registrados por el satélite ERS-2. © ESA de una serie de seis satélites, los denominados Earth Explorers, que ahora se están diseñando y construyendo. Cada uno debe realizar una serie de tareas, según las necesidades de los “médicos especializados” de la Tierra, recogiendo datos sobre las grandes corrientes marinas, la salinidad oceánica, el ciclo del agua, la circulación atmosférica, el deshielo de los glaciares, etc. Este trabajo se Ilevará a cabo independientemente del perfeccionamiento de los satélites meteorológicos, así como de los vehículos espaciales que formarán parte del famoso sistema orbital GMES (Global Monitoring for Environment and Security). En otras palabras, la ciencia intenta comprender el origen del Universo, de la vida en la Tierra y tal vez de la vida en otro lugar. Si el Universo tuviera que renacer, no existe ninguna certeza de que los humanos surgiesen nuevamente en un planeta no más importante que los demás, en una galaxia rodeada por muchas otras hasta donde alcanza la vista... La ciencia también sabe cómo continúa la historia. Un día, dentro de cinco mil millones de años, el Sol se habrá convertido en un gigante rojo y se habrá tragado la Tierra. Quizá nuestro planeta sea el único lugar con vida de nuestro singular Universo. Pero, a su vez, quizá este Universo esté lleno de vida, lo cual tiene una significación moral. En Al visitar la página Web de la ESA, la primera sección que propone atrae cierto modo, si somos únicos, esto convierte nuestra supervivencia en al visitante. Se titula Life in Space (o Vida en el Espacio). ¿No es esta un desafío especial. Pero si, por el contrario, sólo representamos un caso cuestión subyacente de “la vida en otro lugar” que hace que el Hombre entre otros muchos, entonces tendría menos importancia, simplemente sienta una atracción irresistible por el espacio? podríamos dejar que la luz se apagara, una vez llegado el momento... Sabemos, en todo caso, que “la vida aquí” existe. Cuando observamos la Tierra desde un vehículo espacial ¿no estamos ya observando “la vida en el espacio”? Y ya es hora de que lo hagamos , porque sabemos que el calentamiento climático y los cambios mundiales son procesos que nos llevan a cuestionar la relación que existe entre la vida y el planeta, así como la responsabilidad del ser humano de cara a “su” planeta. Dicha relación también rige nuestra visión del exterior. La posibilidad de que nuestra Tierra se vuelva inhabitable nos lleva a estudiar las razones por las que el intenso efecto invernadero impide cualquier vida en http://www.esa.int/esaSC/index.html Venus, y la posibilidad de que Marte, pese a su imagen inhóspita, albergue formas primitivas de vida. Por otro lado, en Titán encontramos hidrógeno, metano, nitrógeno, agua... Ahora bien, si este agua liberase su oxígeno estarían reunidas todas las condiciones para la existencia de seres vivos. Además, ahora tenemos la posibilidad de estudiar planetas de David Southwood fuera de nuestro sistema solar, lo que hace tan sólo 20 años hubiera sido c/o [email protected] visto como ciencia-ficción. Para más información Contactos 36 I+DT info especial EIROforum Febrero de 2007 ESA Los centinelas del “Sistema Tierra” Con vistas a reaccionar ante la preocupante evolución de las condiciones medioambientales del planeta, la tecnología espacial tiene que desempeñar un papel clave tanto para establecer un diagnóstico como para elaborar el tratamiento o velar por que este último se administre adecuadamente... ntes del viaje, sabía desde un punto de vista científico lo pequeño y vulnerable que es nuestro planeta. Pero cuando lo vi desde el espacio, tan frágil y bello a la vez, como la cuna en la que apareció la vida, me embargó una intensa emoción y comprendí que lo primero que tenía que hacer la humanidad era quererlo y preservarlo por encima de todo para las futuras generaciones”. Esta frase escrita hace 30 años por Sigmund Jähn, podría parecer exagerada, si no fuera porque desde entonces decenas de astronautas de todas nacionalidades no hubieran dicho lo mismo. „ A La era del Antropoceno “El banco de datos médicos” del planeta Desde este punto de vista, los satélites son verdaderos observatorios de la Tierra y son muchos los ejemplos que lo ilustran. Gracias a unos altímetros espaciales de una precisión notable, hoy en día se puede registrar el aumento constante del nivel de los mares debido al calentamiento climático independientemente de los movimientos tectónicos de los continentes, que pueden perturbar las mediciones clásicas de los mareógrafos. Cualquier aceleración en la subida se puede detectar rápidamente. Uno de los pioneros de estos altímetros, Carl Wunsh, destaca que “estos aparatos nos han revelado que el sistema oceánico cambia de forma apreciable cada día, lo que ha modificado nuestra visión. Tendíamos a considerarlo como un fenómeno geofísico muy lento, pero ha resultado ser un sistema mucho más complejo en el que el fluido se desplaza de forma permanente en todas las direcciones”. Asimismo, se observa minuciosamente la evolución de los hielos. Unas imágenes tomadas por los satélites ERS muestran cada año el proceso de deshielo del casquete de Groenlandia y los especialistas vigilan las correlaciones del mismo con el nivel de las aguas. Otro ejemplo: unas imágenes del Envisat tomadas en agosto de 2006 revelaron la presencia inesperada en la banquisa ártica de una falla colosal que se extendía hasta el polo Norte. “Dicho fenómeno nunca se había observado anteriormente. En teoría, por esta fisura podría navegar un barco desde Spitzberg o Siberia hasta el polo Norte”, observa Mark Drinkwater, de la Unidad de Océanos/Hielos de la ESA. Tan sólo eso bastaría para explicar los intensos esfuerzos de la ESA, que desde hace años pone a punto satélites cada vez mejores y más punteros para definir una concepción planetaria al servicio del desarrollo sostenible. Living Planet (o Planeta Vivo), un programa coordinado que la Agencia lleva a cabo desde 2004, tiene como objetivo “desempeñar un papel fundamental en el desarrollo de una capacidad global para comprender la Tierra, Vigilancia del impacto humano predecir sus cambios y limitar los efectos adversos del cambio climatico sobre su Por otro lado, casi ningún impacto de las población”. diversas actividades humanas escapa a la Los cambios globales no se limitan sólo al capacidad de detección de los satélites. La calentamiento climático. Más allá de la atmósdesforestación, la urbanización (en especial fera, las mutaciones que, en sólo 150 años, del litoral), las alteraciones radicales del el ser humano ha provocado en todo el planeta régimen hidrográfico por la construcción de son de tal envergadura que el químico Paul canales, el drenaje de las zonas húmedas, la Crutzen, premio Nobel, ha forjado el neoedificación de embalses, etc., se registran logismo “Antropoceno” para designar la metódicamente en las constantes exploépoca actual. Dicho término señala hasta qué raciones de estos “centinelas de la Tierra”. De punto “la era del Hombre” ha desencadenado este modo, los incendios, que se multiplican numerosos procesos planetarios que abarcan The Global Ozone Monitoring Experiment-2 por todo el mundo, están a partir de ahora desde la evolución de las especies hasta los (GOME-2), uno de los instrumentos de nueva registrados en el World Fire Atlas que recoge ciclos del carbono, del nitrógeno y del agua. generación, contribuirá a las investigaciones los datos a medida que se van obteniendo. Además (y de ahí que se justifique la noción sobre la atmósfera, particularmente aportando “Esta recopilación, que se actualiza de de “Sistema Tierra” aparecida a finales del datos sobre las concentraciones de ozono. © ESA manera constante, representa una fuente siglo XX), la evolución de nuestro planeta sólo totalmente innovadora para los investipuede comprenderse si relacionamos los diferentes grandes conjuntos que lo constituyen y que interaccionan gadores”, comenta Matt Fitzpatrick, especialista en ecología y biología constantemente: la biosfera (el conjunto de los seres vivos), la criosfera evolutiva. “Servirá a los ecologistas para que vuelvan a estudiar (las zonas congeladas), los océanos, las superficies continentales y, cuestiones antiguas no resueltas en lo que atañe al modo en que se por supuesto, la atmósfera. La primera fase consiste en conocer sus reestructura el medio natural tras el paso del fuego y a extraer ensecomportamientos y correlaciones, a fin de entender la dinámica de ñanzas para su restauración”. Muchas de nuestras emisiones (metano, estas diferentes entidades y, en especial, el resultado de sus inter- óxidos de nitrógeno) son igualmente visibles desde el espacio, así como acciones. La segunda fase consiste en poder prever su evolución los efectos de ciertas catástrofes ecológicas (como las mareas negras) y naturales (post-tsunami, erupciones volcánicas, etc.). conjunta a partir de la elaboración de modelos. ESA Las imágenes proporcionadas por los satélites han permitido que la ciencia del “Sistema Tierra” tuviera avances comparables a los obtenidos en medicina gracias a la generación de imágenes (IRM, escáner, radiografía, ecografía, etc.). Aquí, Surinam y la Guayana francesa “vistos desde arriba”. © ESA I+DT info especial EIROforum Febrero de 2007 37 Groenlandia captada por el ojo de MERIS (siglas de Medium Resolution Imaging Spectrometer). El hielo se distingue de las nubes, en la parte inferior de la imagen. © ESA Modelos para descifrar Exploradores de la Tierra El programa Planeta Vivo ya ha seleccionado seis misiones llamadas Earth Explorers que se llevarán a cabo de aquí al año 2012. Mientras que antes la Agencia daba prioridad a las enormes naves que llevaban numerosos instrumentos, ahora se pretende dar respuesta a las cuestiones más apremiantes que se plantea la comunidad científica, utilizando instrumentos más pequeños y específicos. • GOCE (Gravity Field and Steady State Ocean Circulation Explorer) se lanzará en 2007. GOCE, que se centra en el campo de gravedad de nuestro planeta, proporcionará información tanto sobre la circulación oceánica como sobre la física del interior de la Tierra. • SMOS (Soil Moisture and Ocean Salinity) se lanzará en 2007. Establecerá una cartografía de la humedad del suelo y de la salinidad de los océanos. También mejorará nuestra comprensión del ciclo del agua. • ADM-Aeolus (Atmospheric Dynamics Mission) se lanzará en 2008. Medirá los perfiles de viento de la atmósfera. Establecer constataciones sólo representa la primera etapa para una comprensión en profundidad de los fenómenos. Para descifrar sus mecanismos y vínculos recíprocos, hay que recurrir a modelos que relacionen con la mayor precisión posible los datos y los conocimientos disponibles. Dichos modelos (constantemente perfeccionados, calibrados y, sobre todo, probados a la luz de los datos de los satélites procesados por ordenadores cada vez más potentes) constituyen, de algún modo, un intento de construcción constantemente renovada del “Sistema Tierra”... Con el tiempo, incluso las reacciones o la pasividad de las distintas comunidades humanas frente a los cambios medioambientales (sequía, inundaciones, calentamiento o enfriamiento de las estaciones, subida del nivel del mar, etc.) podrían modelizarse, ya que cada vez serán más importantes para el funcionamiento del sistema. He aquí un desafío nada despreciable. Si, como es de esperar, la comunidad internacional adopta finalmente medidas para preservar el “Sistema Tierra” de la desestabilización que lo amenaza, la Agencia Espacial Europea recibiría nuevas misiones. Entonces, será indispensable supervisar el respeto de los acuerdos internacionales. Quién sabe si finalmente el papel clave de la Agencia no será el de proporcionar a la Humanidad suficientes imágenes de su planeta (tanto de sus bellezas como de sus heridas) para que sus habitantes comprendan de una vez, como los astronautas, que se trata del bien común más preciado. • CryoSat-2 se lanzará en 2009 (sustituyendo a CryoSat 1, perdido en 2005). Estudiará el grosor de los hielos marinos y terrestres y su variación. • Swarm se lanzará en 2010. Se trata de un grupo de tres satélites que estudiarán la dinámica del campo magnético con el objetivo de comprender mejor el interior de la Tierra y el clima. • EarthCARE (Earth Clouds Aerosols and Radiation Explorer) se lanzará en 2012. Analizará el balance de radiación de la Tierra (proyecto europeo-japonés). Se están estudiando otros proyectos que aseguren la continuidad de dichas misiones. Para más información http://www.esa.int/esaEO/index.html 38 I+DT info especial EIROforum Febrero de 2007 En la actualidad, Europa está lanzando sondas hacia los dos planetas del sistema solar más cercanos al nuestro. Si conociéramos mejor a estos planetas vecinos podríamos obtener nuevas perspectivas científicas acerca de la formación y el destino de los planetas, así como de la vida o la ausencia de ésta que impera en los mismos. odemos observarlos diariamente a simple vista si el cielo está despejado. Marte, que se reconoce por su color rojo y Venus, tan brillante de día como de noche. Copérnico, Kepler, Galileo y muchos otros inspeccionaron estos hermanos de la Tierra, pese a estar lejos de ellos. Mars Express y Venus Express, dos satélites gemelos europeos dotados de todo un arsenal de instrumentos punteros, ya están orbitando alrededor de los dos planetas. La primera sonda se lanzó en 2003 y la segunda en 2006 y la recopilación de datos que realizan es impresionante. P Marte y Venus, nuestros vecinos ESA Venus infernal Si bien Marte constituye un planeta helado con una atmósfera enrarecida, Venus, por el contrario, nos fascina por sus condiciones infernales en su superficie: una presión atmosférica 90 veces superior a la nuestra, una temperatura media de 465 ºC, una atmósfera tóxica constituida casi exclusivamente por dióxido de carbono tan densa que el Sol nunca podrá brillar en su suelo rocoso y árido. El satélite de la ESA ha enviado magníficos negativos del gigantesco doble vórtice atmosférico descubierto por encima del polo Sur, cuya dinámica intriga a los astrónomos (fue el centro de un enorme huracán observado en noviembre de 2006). Asimismo, la estratificación vertical de la atmósfera ha dado algunas sorpresas, una de ellas ha sido la presencia de extraños halos de altitud, opacos a los 90 km y menos densos a los 105 km. “A veces se dan fenómenos análogos en la Tierra, aproximadamente a los 20 km de altitud. Están compuestos por gotitas de ácido sulfúrico procedentes de la actividad volcánica”, comenta Jean-Louis Bertaux, del CNRS francés (Centro Nacional de Investigación Científica), responsable del instrumento SpicaV-SOIR. De ahí que los especialistas se pregunten si el volcanismo venusiano no ha originado estas extrañas estructuras. Estas condiciones impresionan aún más ya que, en el origen de su historia, tal vez Venus y la Tierra se asemejaran mucho (por su diámetro, masa y composiciones químicas comparables). Estos viajes hacia planetas tan próximos a la Tierra, pero tan diferentes, ilustran el nacimiento de una nueva disciplina: la evolución planetaria. Para más información Venus Express http://www.esa.int/SPECIALS/Venus_Express/index.html Mars Express http://www.esa.int/esaMI/Mars_Express/index.html Un doble torbellino en el polo sur de Venus. © ESA La sonda Mars Express inicia su eclipse alrededor de Marte (ilustración). © ESA Reescribir la historia Por ejemplo, en el verano de 2006, Mars Express detectó por primera vez la presencia de nubes que evolucionaban en la atmósfera del planeta a gran altitud (¡entre 80 y 100 km!). En este entorno la temperatura es de -193 ºC. A este nivel de frío, el dióxido de carbono se condensa induciendo a los investigadores a pensar que se trata de nubes de gas probablemente mezcladas con partículas de polvo. Pero lo que fascina sobre todo a los especialistas de Marte es la existencia de agua. Según Gerhard Neukum, de la Universidad Libre de Berlín, los datos recopilados en la actualidad por todos los instrumentos que exploran el planeta permiten ahora “volver a escribir la historia”. Se ha descubierto que, si existió un período con elevadas temperaturas y humedad, dicho período tan sólo pudo subsistir algunos cientos de millones de años y finalizó, como muy tarde, hace 4 mil millones de años. Todavía encontramos en Marte mucha agua en forma de hielo (que se descubrió gracias al radar Marsis) así como estructuras geológicas relativamente recientes formadas por la erosión. En opinión del investigador alemán, las huellas amarillas de agua líquida se siguen relacionando con el volcanismo, lo cual sugiere la existencia de brotes de agua efímeros que se evaporaron rápidamente. La estrella que más nos interesa... El Sol, la estrella sin la cual el “Sistema Tierra” no sería lo que es, sigue siendo el cuerpo espacial más estudiado por la ESA. El satélite Soho (una cooperación ESA/NASA) que se lanzó en 1995 y que sigue funcionando, ha proporcionado los más bellos primeros planos. Le siguió el lanzamiento de Cluster (cuatro satélites) en el año 2000 y de Double Star (dos dispositivos dotados de instrumental europeo puestos en órbita en 2003 en lanzadoras chinas). Las observaciones del Sol efectuadas por los satélites antes que nada son científicas pero también responden a motivos más utilitarios. Las actividades “coléricas” de nuestra estrella (vientos solares, expulsiones de masa coronarias, etc.) pueden causar graves daños a las redes eléctricas y de telecomunicaciones, así como a los satélites. La próxima gran misión solar de la ESA está prevista para la próxima década. © ESA ESO I+DT info especial EIROforum Febrero de 2007 39 La fascinación del cosmos Nebulosa de la Tarántula, situada en la Gran Nube de Magallanes, vista a través del VLT. © ESO La organización intergubernamental más importante (1) en el campo de la astronomía y la astrofísica es europea, pero sus telescopios observan los astros desde las montañas del desierto de Atacama, en Chile. En esta región, la ausencia de humedad en la atmósfera permite ver el cielo con la mejor nitidez del mundo, según los especialistas. La Organización Europea para la Investigación Astronómica en el Hemisferio Austral (conocida también como el Observatorio Europeo Austral o ESO), creada en 1962, ha llevado a cabo la construcción de dos plataformas astronómicas a unos 2.500 metros de altura: una en La Silla, inaugurada en 1969, y otra en Paranal, que funciona desde 1998. realizado. Este proyecto, denominado The Atacama Large Millimeter Array (ALMA), es fruto de la cooperación entre los miembros del ESO, los Estados Unidos, Canadá, Japón, Taiwán y Chile. Esta plataforma estará equipada con un gran número de antenas parabólicas móviles de 12 metros de diámetro que “visionarán” el cielo en frecuencias que van desde los 30 hasta los 950 GHz. El sistema informático que centralizará los datos tendrá capacidad para tratar 16 mil billones de operaciones por segundo (1,6X1016). ALMA permitirá explorar el nacimiento y la muerte de los astros y sus planetas y estudiar las galaxias más lejanas. El proyecto que seguirá a esta iniciativa, el European Extremely Large Telescope (E-ELT), es un telescopio cuyo diámetro es del orden de los 30 a los 60 metros, y suscita una intensa actividad de preparación en el ESO desde hace ya algunos años. Se espera que esta nueva herramienta esté lista para la próxima década. os instrumentos de observación y de detección con los que están equipados estos dos centros, concebidos y construidos por la propia organización, son únicos en el mundo. El éxito tecnológico más reciente del ESO han sido los cuatro elementos del célebre VLT (Very Large Telescope), instalados en Paranal. El VLT permite realizar observaciones inigualables, gracias a los instrumentos que lleva incorporados, a la utilización de procedimientos innovadores como la óptica adaptativa y la interferometría óptica, y a un modo de funcionamiento único. El centro de la organización científica está situado en Garching, cerca de Munich (Alemania). La institución emplea a 570 personas de los dos continentes. Cada año llegan al ESO más de 1.700 solicitudes para realizar observaciones, tanto de Europa como del resto del mundo. En 2005, se pudieron realizar más de 600 trabajos punteros, gracias a los observatorios chilenos, que se tradujeron en publicaciones científicas, en revistas dotadas de comités de selección de artículos. Imágenes interminables L Una ciencia con proyección hacia el futuro Las actividades realizadas en el ESO son una fuente inagotable de imágenes astronómicas apasionantes. Su sitio Web ofrece periódicamente explicaciones sobre nuevos descubrimientos y “paisajes” sorprendentes del Universo. La astronomía ejerce un gran poder de fascinación, digno de ser compartido. Es una disciplina que muestra la matriz original de donde provienen “nuestro” sistema solar, “nuestra” Tierra y “nuestra” existencia como habitantes de la Tierra. El ESO informa al público proporcionando una gran cantidad de información a la prensa, realizando jornadas de puertas abiertas y concursos originales dirigidos a los jóvenes de todo el mundo. Además, sus servicios educativos elaboran un excelente material pedagógico destinado a los profesores, a los que ofrece igualmente sesiones de formación específica cada año. (1) Doce países son miembros del ESO: Bélgica, Dinamarca, Francia, Finlandia, Alemania, Italia, Países Bajos, Portugal, Suecia, Suiza, Reino Unido y España. La astronomía y la astrofísica son ciencias que se proyectan permanentemente hacia el futuro. Desde el año 2003, a 5.000 metros de altura, en el nuevo emplazamiento chileno de Llano de Chajnantor, se está preparando el mayor despliegue de telescopios nunca antes http://www.eso.org Para más información 40 I+DT info especial EIROforum Febrero de 2007 ESO La saga de los agujeros negros Al principio, los agujeros negros sólo eran conceptos mentales elaborados por los teóricos de la física. Sin embargo, actualmente pueden identificarse y observarse astronómicamente. Ofrecen gran cantidad de información sobre la naturaleza y la evolución de las galaxias. Los descubrimientos más recientes en este ámbito son uno de los mayores éxitos de la astronomía europea. Vista aérea de la cumbre de Paranal, en la que aparecen los cuatro elementos del VLT, el telescopio más grande del mundo. En primer plano, el telescopio Yepun. De izquierda a derecha, Antu, Kueyen y Melipal. © ESO calentamiento y emiten radiaciones muy intensas, primero en la forma de ondas de radio, luego infrarrojas, luego luz, rayos ultravioletas y rayos X. El agujero negro más fascinante para los astrónomos está situado en el centro de nuestra propia galaxia, la Vía Láctea. Durante mucho tiempo los investigadores se han preguntado sobre la existencia de una fuente enigmática de emisión de ondas de radio, muy potente, denominada Sagittarius A y considerada como posible “centro supermasivo de nuestra galaxia”; sin embargo, no se tenía la certeza de que se tratara de un agujero negro. a aventura de los agujeros negros empezó en 1963, con la primera identificación de los quásares, objetos muy lejanos que emiten una 2,7 millones de veces el Sol... energía colosal. El más brillante que se ha registrado, el 3C273, que se encuentra situado en la constelación de Virgo, es varios miles La confirmación precisa, irrefutable y definitiva la aportó un equipo de millones de veces más brillante que el Sol. Sólo los destellos de ráfa- internacional, utilizando uno de los cuatro telescopios del VLT del ESO en Chile, equipado con óptica adaptativa (véase el cuadro). Tras diez gas gamma tienen más energía que este quásar (véase la pág. 42). años de observaciones perseverantes (1992-2002), los investigadores han obtenido imágenes sorprendentes de la estrella S2. Dicha estrella, Una atracción devoradora con una masa equivalente a quince veces la de nuestro sol, orbita en torno al famoso Sagittarius A a una velocidad de 5.000 km/segundo, o ¿Cómo se puede explicar una emisión de energía de semejante potencia? sea doscientas veces más rápido que la Tierra en torno al Sol. Los científicos defienden la hipótesis de que un fenómeno de este tipo Como explica Reinhard Genzel, director del Instituto Max-Planck para podría tener relación con los agujeros negros, objetos concebidos por las la Física Extraterrestre (MPE) de Garching (Alemania) y miembro activo teorías del cosmos derivadas de la física moderna. Pueden describirse de este equipo, “la masa de la estrella S2 y, sobre todo, su trayectoria como insólitas “zonas” de campos de atracción situados en el Universo, perfectamente elíptica, observada con precisión, implican que el centro que “aspiran” o “capturan” a los astros que están a su alcance. Estos de atracción situado en uno de los focos de su órbita posee una masa objetos son tan densos que ni la luz puede escapar a su atracción. enorme. Ésta representa 2,7 millones de masas solares y ocupa un En la actualidad se sabe que los agujeros negros existen realmente volumen muy pequeño de 10 minutos luz de diámetro, es decir, un poco y que la energía que emiten de forma esporádica y que corresponde al menos que la órbita de Venus, que es el segundo planeta más cercano fenómeno de quásar que se les asocia, proviene en realidad de la materia al Sol”. Estos datos, compatibles únicamente con el perfil de un agujero o de los astros que absorben. Cuando éstos últimos caen en su campo negro, son la prueba de que Sagittarius A es el agujero negro central de atracción, eliminan su energía gravitacional por un proceso de supermasivo de nuestra galaxia. L ESO 41 I+DT info especial EIROforum Febrero de 2007 La caída como prueba Otros descubrimientos recientes muestran que ya ha comenzado la era de la observación directa de la física de los agujeros negros. El 8 de mayo de 2003, uno de los astrónomos del equipo de Reinhard Genzel, mientras observaba de cerca la pantalla de control de su telescopio gigante, se sobresaltó repentinamente frente a la presencia anormal de una estrella. Su segunda sorpresa fue cuando constató su desaparición después de algunos minutos. Este equipo acababa de observar por primera vez una luz muy potente, en infrarrojo cercano, en el lugar exacto donde se sitúa el agujero negro supermasivo que se encuentra en el centro de nuestra galaxia. La longitud de onda de la radiación correspondía a un crecimiento de materia calentada que, durante su “caída” en el agujero negro se calienta y emite radiaciones en el infrarrojo cercano. De este modo se descubrió, tras años de investigaciones, la prueba tan buscada de la absorción de materia por un agujero negro. Hasta ese momento nadie había sido testigo de esta última señal de la materia atrapada por un agujero negro atravesando un punto sin retorno hacia un destino desconocido. El movimiento de una estrella en torno al agujero negro supermasivo en el centro de la Vía Láctea: a la izquierda, Sagittarius (SgrA*) y S2; a la derecha, el esquema de la órbita de S2 alrededor de SgrA*, según se observó entre 1992 y 2002. Se puede descargar un vídeo de Sagittarius A y de S2 en sitio Web del ESO: www.eso.org/outreach/press-rel/pr-2002/video/vid-02-02.mpg © ESO Sutilezas de la puesta a punto El telescopio Yepun, uno de los cuatro que forman el VLT en el monte Paranal, en Chile, está equipado con NaCo y SINFONI, dos sistemas de óptica adaptativa. Esta tecnología consiste en compensar los defectos de la imagen que se deben a perturbaciones de la atmósfera, por una deformación de El resultado más sorprendente fue que esta emisión variaba muy rápidamente de intensidad en unos pocos minutos, lo que demuestra que estas señales infrarrojas deben provenir de una región minúscula. Esta zona está situada justo al borde del agujero negro, más allá de la cual no puede escapar ninguna radiación. En este fenómeno se descubre también una periodicidad en la radiación que se atribuye al movimiento en forma de espiral de la materia que orbita en torno al agujero negro antes de desaparecer en el mismo. Éste debe girar rápidamente. Reinhard Genzel añade: “Es un gran descubrimiento que nos permite confirmar las teorías actuales relativas a los agujeros negros. Una posibilidad de este tipo era inimaginable hasta hace poco tiempo”. Cuando la astronomía vuelve a examinar la teoría El telescopio Yepun del VLT y su haz láser crean una “estrella artificial”. © ESO espejo que produce defectos exactamente inversos, de tal manera que la combinación de ambos efectos los anula. Para esto se recurre a la ayuda de una estrella puntual que se encuentra en el campo de observación y sirve como referencia. En cuanto se deforma o se vuelve borroso el punto imagen de la estrella de referencia, ciertos servomecanismos ultrarrápidos (que actúan 1.000 veces por segundo sobre un espejo deformable dentro del instrumento) reestablecen su nitidez y, en consecuencia, la de todo el campo de observación. Cuando las observaciones se realizan en una parte del cielo donde no hay ninguna estrella de referencia, los astrónomos utilizan una estrella artificial. Esta proeza técnica se puso en práctica en 2006. Un haz de láser potente (de longitud de onda precisa) excita los átomos de sodio presentes en gran cantidad en una capa atmosférica situada hacia los 90 km de altura, creando, de este modo, una luz brillante característica. La astronomía del siglo XXI (más allá de las cuestiones de astrofísica como la materia negra, la energía oscura, etc.) interviene en las grandes cuestiones de la física más teórica. De este modo, se puede pensar en probar, por medio de la observación, la teoría de la gravitación cuántica, la evolución del cosmos, el Big Bang, o incluso la estabilidad de constantes fundamentales en el curso de la historia del Universo. En quince años, el progreso ha sido enorme. Una de las etapas siguientes será el comprender cuándo y cómo se formaron estos agujeros negros supermasivos y por qué parece ser que casi todas las galaxias importantes contienen uno. Para más información http://www.eso.org Contacto Reinhard Genzel [email protected] 42 I+DT info especial EIROforum Febrero de 2007 ESO El mensaje de los estallidos de rayos gamma Todo comenzó durante la Guerra Fría. Los satélites militares estadounidenses habían puesto en órbita satélites sensibles a los rayos gamma para asegurarse de que los soviéticos no infringían la moratoria sobre ensayos nucleares. No se detectó ninguna explosión en la atmósfera, pero se descubrieron destellos misteriosos que provenían del espacio. Enseguida se comprendió que se trataba de huellas breves y aleatorias de violentas liberaciones de energía que se encuentran entre las más intensas del Universo después del Big Bang. os estallidos de rayos gamma se emiten especialmente durante la aparición fugaz de supernovas e hipernovas, estos cataclismos de estrellas masivas que crean un agujero negro. Los satélites vigilan estos fenómenos fulgurantes y, en cuanto la alerta llega a Chile, el VLT (Very Large Telescope) del ESO apunta hacia el objetivo para analizarlo y descodificarlo. La energía liberada en los pocos segundos que duran estos fenómenos extraordinarios excede en gran medida la energía del Sol durante toda su larga existencia de más de 10.000 millones de años. Sólo lo ocurrido durante el Big Bang tuvo una energía superior. Todos los estallidos de rayos gamma (o GRB, por Gamma Ray Bursts) son extragalácticos. Provienen de muy lejos, de distancias llamadas “cosmológicas”, se distribuyen por todo el Universo, duran entre unos milisegundos y quince minutos y llegan repentinamente. Su irrupción inesperada explica la dificultad a la que se enfrentan los científicos para estudiarlos y comprender su significado astronómico. Hay que hacerlo todo con rapidez. L Un fenómeno doble El 29 de marzo de 2003 fue un día de suerte para los astrónomos. La observación de un estallido de rayos gamma detectado por el satélite americano HETE-2 fue confirmada inmediatamente por observatorios en la Tierra que detectaban, en la misma dirección, una nueva fuente de luz visible. En las horas siguientes, el telescopio Kueyen, del VLT, equipado con un el espectrógrafo UVES, obtenía el espectro de este nuevo acontecimiento cósmico. Por su desplazamiento hacia el rojo (redshift) se calculó su distancia (relativamente cercana) en 2.650 millones de años luz. Durante el mes siguiente, al observar periódicamente las características espectrales de esta fuente luminosa nueva, los astrónomos vieron aparecer progresivamente el espectro de una hipernova. También descubrieron que la señal luminosa disminuía lentamente. Este escenario correspondía a la hipótesis de un destello luminoso parecido a una hipernova resultante de la explosión de una estrella muy grande al final de su vida. A partir de La flexibilidad del VLT Un telescopio gigante, capaz de captarlos, no se dirige tan fácilmente como unos gemelos. Una de las cualidades del VLT es poder enfocar su objetivo en sólo unos minutos, por lo que se pueden realizar observaciones muy detalladas. Desde 1997, gracias a la valiosísima ayuda de satélites capaces de localizar las fuentes de rayos gamma, se han registrado varias decenas de GRB. De ahí que se sepa algo más sobre el origen misterioso de los más intensos estallidos de rayos gamma. Gracias al VLT se ha podido establecer la relación de causa y efecto que existe entre estos destellos de luz y la aparición fluctuante de las supernovas y las hipernovas, esas “estrellas nuevas” extraordinariamente luminosas cuyo brillo se debilita con rapidez. Paradójicamente, resulta engañosa la denominación dada a estos fenómenos, que han despertado la curiosidad de los astrónomos desde hace mucho tiempo (1). Las observaciones realizadas durante el siglo XX (en particular la de la supernova, relativamente cercana y estudiada en 1987 en la Gran Nube de Magallanes) han establecido que no se trataba de “nacimientos astrales”, sino de acontecimientos cataclísmicos producidos por el colapso gravitacional de estrellas muy masivas en su propio núcleo, lo que significa la muerte de las mismas. El lento desvanecimiento de la hipernova– Dos imágenes en luz visible de estallidos de rayos gamma GRB 030329, observados el 3 de abril de 2003, cuatro días después de su aparición y el 1 de mayo de 2003. Muestran claramente la disminución de su luz residual (optical afterglow), hecho compatible con el comportamiento de una hipernova. © ESO ESO I+DT info especial EIROforum Febrero de 2007 43 La hipótesis de las estrellas de neutrones – Los astrónomos dan una versión muy diferente de las hipernovas cuando se trata de explicar el origen de los estallidos de rayos gamma de una duración muy breve. Su hipótesis se basa en la atracción recíproca de dos estrellas de neutrones que orbitan una en torno a la otra, en un movimiento de acercamiento progresivo. Todo termina con una explosión estelar en la cual se emiten dos haces de plasma. Si uno de estos haces apunta hacia la Tierra, se observa un estallido breve de rayos gamma (ilustración). © ESO estos espectros, los astrofísicos pudieron evaluar el momento en el que debió de producirse este cataclismo; momento que, según se comprobó, coincidía con la aparición del estallido de rayos gamma. Se trataba pues de la confirmación definitiva de que ambos acontecimientos estaban relacionados entre sí. En realidad era uno solo, observado primero en rayos gamma y luego en luz visible. El “modelo colapsar” “El estallido de rayos gamma y la hipernova son dos facetas de un mismo objeto/acontecimiento astronómico”, manifiesta Bruno Leibundgut, investigador del ESO. La teoría defendida por los astrofísicos para explicar los estallidos de rayos gamma de larga duración es “el modelo colapsar” (también existen estallidos muy breves, de un segundo, que se interpretan de un modo diferente). Este modelo se refiere a una estrella de más de 25 masas solares que ha transformado todo su hidrógeno en helio, ha expulsado sus capas más externas (de la clase Wolf-Rayet, en la jerga astronómica) y llega a un estado en el que la energía radiativa consumida deja de equilibrar la presión gravitacional. Se da un colapso repentino de su núcleo sobre sí mismo, lo que forma un agujero negro y expulsa al mismo tiempo un haz de plasma proyectado a una gran velocidad. Este haz atraviesa la materia de las capas exteriores de la estrella, que “estallan” en el espacio bajo la fuerza de los vientos estelares compuestos de níquel-56 radiactivo nuevamente formado. Bruno Leibundgut prosigue: “La luz violenta, que constituye el concepto de la hipernova, ‘tan sólo’ es un fenómeno de superficie, que se puede comparar a los últimos resplandores de una estrella moribunda. En el centro de este proceso que lleva a la formación del agujero negro, en la emisión del haz de plasma, se emite el estallido de rayos gamma”. (1) Se encuentra en documentos astronómicos del siglo XI, tanto en China como en Occidente. Tycho Brahé y Johannes Kepler, en su época, tuvieron la oportunidad de observar las dos supernovas en las constelaciones de Cassiopea (1572) y Ofiucus (1604) respectivamente. Los primeros pasos del Universo Numerosos estallidos de rayos gamma provienen de distancias superiores a los 12.500 millones de años luz, de las galaxias más lejanas que se formaron cuando el Universo empezó a existir. Puesto que están asociados a las hipernovas, la muerte cataclísmica de estrellas muy masivas, cuando el Universo se encontraba todavía “en sus principios”, intriga a los astrónomos y les abre un nuevo enfoque para comprender mejor su naturaleza y su evolución. La luminosidad intrínseca “estándar” de algunas hipernovas ofrece en particular un modo nuevo de calibrar las grandes distancias en el Universo y, en consecuencia, la densidad de energía de sus componentes. De ahí que se las tome en consideración en las grandes cuestiones actuales de la astrofísica, tales como la materia negra (cuya existencia es necesaria para comprender los movimientos de las galaxias y que no puede explicarse si se tiene en cuenta únicamente la materia “visible”) o incluso la energía oscura, una forma desconocida de energía que se supone que explica la aceleración de la expansión del Universo. Para más información http://www.eso.org/outreach/press-rel/pr-2005/pr-26-05-p2.html http://fr.wikipedia.org/wiki/Sursaut_gamma http://132.166.172.2/fr/magazine/dossier_sursauts_gamma/index.htm Contacto Bruno Leibundgut [email protected] I+DT info especial EIROforum Febrero de 2007 A la caza de los exoplanetas En 1995, Michel Mayor y Didier Queloz, del Observatorio de Ginebra, anunciaron la prueba de la existencia de un objeto de masa planetaria (0,5 veces la masa planetaria de Júpiter) en órbita en torno a la estrella de tipo solar 51 Pegasi. Con este descubrimiento empezó la “caza” de los exoplanetas, objetos no estelares que orbitan alrededor de un sol diferente al nuestro, de los cuales se han identificado más de doscientos hasta la fecha. KI-AB-06-S01-ES-C 44 ESO HARPS, el espectrómetro hipersensible Este modo de detección implica a espectrómetros hipersensibles. El ESO ha realizado la puesta a punto del HARPS (High accuracy radial velocity planet searcher), el espectrómetro “cazador de planetas” más potente del mundo incorporado a uno de los telescopios del Observatorio de La Silla, en Chile. Su sensibilidad extraordinaria le permite detectar una variación de velocidad de la estrella de un metro por segundo. En el espectro que examina el astrónomo, el desplazamiento físico en la escala de las líneas es del orden de una fracción de micrón. Varios descubrimientos recientes logrados gracias al HARPS han sorprendido a los astrónomos. Por ejemplo, el descubrimiento de un pequeño “sistema solar” de tres planetas que orbitan en torno a HD69830, una estrella que se encuentra a una distancia de cuarenta años luz en la constelación de La Popa. Dos de estos tres planetas podrían ser rocosos, con masas parecidas a las de Neptuno (17 veces la masa de la Tierra), mucho más ligeros que Júpiter (cuyo peso es 318 veces el peso de la Tierra). Hasta hoy, este trío compone el sistema lejano más parecido a nuestro sistema solar. El enigma del nacimiento planetario Abril de 2005. El primer exoplaneta (abajo, a la izquierda) fotografiado directamente con uno de los VLT del ESO. Orbita alrededor de la enana marrón 2M1207b (en el centro), a una distancia doble de la que hay entre Neptuno y el Sol. La imagen ha podido captarse porque esta enana marrón es sólo cien veces más luminosa que el planeta (mientras que entre el Sol y la Tierra esa relación es de mil millones). © ESO En los últimos once años se han descubierto más de 200 “objetos planetarios identificados”. Se distribuyen de modo homogéneo por todas las direcciones del cielo, por lo tanto, el sistema solar no es una excepción en el Universo. Los más numerosos son los planetas de tipo jupiteriano, muy masivos, cálidos y gaseosos y que orbitan cerca de su astro. Es verdad que actualmente las principales herramientas disponibles favorecen su detección (la perturbación de la estrella es mayor y la frecuencia rápida de las revoluciones se ve más fácilmente). Las técnicas no dejan de perfeccionarse y por lo tanto se puede prever que cada vez se identificarán más planetas pequeños. Por otro lado, como explica Gero Rupprecht, miembro del equipo que trabaja en el HARPS, “la pregunta sobre los orígenes de los sistemas planetarios se plantea por los datos recogidos sobre los exoplanetas de tipo Júpiter. ¿Se forman cerca de su estrella, o en otro lugar y migran hacia su estrella? Los astrónomos y astrofísicos intentan comprender la dinámica de la formación de los sistemas planetarios”. Este nuevo campo de investigación tiene puestas sus esperanzas en el futuro E-ELT, previsto para dentro de unos diez años. Este telescopio gigante estará equipado con una superficie de detección cuyo diámetro se situará entre treinta y sesenta metros. Podrá medir variaciones de la velocidad de las estrellas con una precisión increíble, de algunos centímetros por segundo, explorando así en los límites de la precisión. Más allá, se encuentra el “ruido de fondo” generado por cualquier estrella, cuyo movimiento esté influido por su propia actividad. Para más información ras un año de observaciones en el Observatorio de Haute Provence, Michel Mayor y Didier Queloz demostraron claramente que la velocidad de la estrella 51 Pegasi experimentaba fluctuaciones periódicas que se podían atribuir a la presencia de un planeta de gran tamaño. El método inventado por estos investigadores consistía en medir la velocidad radial, es decir, la observación de la perturbación del desplazamiento de la estrella (en sentidos opuestos) inducida por el planeta y proporcional a la masa del mismo. La variación oscilante de velocidad del astro afecta a la luz que nos llega y las longitudes de onda de sus líneas espectrales se desplazan, por efecto Doppler, unas veces hacia el azul y otras hacia el rojo. T http://www.eso.org/outreach/press-rel/pr-2006/pr-19-06-add.html http://www.eso.org/gen-fac/pubs/esaesowg/espwg_report.pdf Enciclopedia de planetas extrasolares http://exoplanet.eu/ Contacto Gero Rupprecht [email protected]