N°63 – Abril de 2010 Comisión Europea Reportaje “Relájese y escuche mi voz” Energía Laser y fusión, ¿la alianza perfecta? © Shutterstock/Robert HM Voors Clima ¿Perdimos una oportunidad en Copenhague? ISSN 1830-7396 Revista del Espacio Europeo de la Investigación research*eu, la revista del Espacio Europeo de la investigación que pretende ampliar el debate democrático entre la ciencia y la sociedad, está escrita por periodistas profesionales independientes. Presenta y analiza proyectos, resultados e iniciativas cuyos actores, hombres y mujeres, contribuyen a reforzar y a federar la excelencia científica y tecnológica de Europa. research*eu se publica en inglés, francés, alemán y español, a razón de diez números al año, por la Unidad de Comunicación de la DG de Investigación de la Comisión Europea. research*eu Redactor jefe Michel Claessens Revisores de las versiones lingüísticas Maria Antonia Jiménez Nevado (español), Gerard Bradley (inglés), Régine Prunzel (alemán) Coordinación general Jean-Pierre Geets, Charlotte Lemaitre Muchos científicos recuerdan que las ciencias y los medios de comunicación no van a la par. La “mediaciencia”, esta ciencia mediatizada, con sus simplificaciones excesivas, exageraciones y errores no tendría mucho que ver con la “auténtica” ciencia y, en el mejor de los casos, se trataría de una caricatura… Sin embargo, al situar las investigaciones dentro de un contexto, la “mediaciencia” contribuye a dar a la ciencia una imagen más completa, viva y humana, entre otras cosas, proyectando los focos de la actualidad sobre investigaciones en curso y expertos de estos campos. Lo vemos en particular en el tema central de este número: el calentamiento climático. La “mediaciencia” aporta a los trabajos de los científicos lo que actualmente más les falta: una visibilidad pública y política. Sin mediatización y sin tratamiento “mediacientífico”, el IPCC (Panel Intergubernamental de expertos sobre el Cambio Climático) quizás no habría sido escuchado por los políticos. Su presidente actual, Rajendra Kumar Pachauri, lo ha reconocido explícitamente la página web SciDev (Red de Ciencias y Desarrollo) del pasado mes de junio, en la que se publicó su opinión: “En el transcurso de estos dos últimos años, los medios de comunicación han desempeñado un papel esencial en la sensibilización a gran escala sobre el cambio climático. Esto es muy positivo. Por lo tanto, se puede afirmar que los medios de comunicación han contribuido a hacer que la opinión pública apoye la adopción de medidas contra el cambio climático…”. Todos los investigadores aspiran a que su trabajo no se quede en papel mojado y que aporte a la sociedad lo mejor, sin consecuencias negativas. La “mediaciencia” ofrece esta posibilidad a la comunidad científica. Michel Claessens Redactor jefe Las opiniones presentadas en este editorial, así como en los artículos de este número, no comprometen de forma alguna a la Comisión Europea. La revista research*eu es gratuita. Para abonarse, cambiar la dirección de envío, modificar las modalidades de su abono o rescindirlo, la forma más rápida y segura es hacerlo en la página web: http://ec.europa.eu/research/research-eu/ Asimismo, podrá pedir antiguas ediciones, también gratuitas. También puede rellenar este formulario con letra de imprenta y enviarlo a la dirección siguiente: research*eu ML DG1201 Boîte postale 2201 L-1022 Luxembourg Nombre : ........................................................................................................................................................ Organización : ..................................................................................................................................... ................................................................................................................................................... ........................................................................................................................................................................................... Código postal : .......................... Consejero editorial Didier Buysse Periodistas Audrey Binet, Laurence Buelens, Didier Buysse, Élise Dubuisson, Stéphane Fay, Jean-Pierre Geets, Elisabeth Jeffries, Marie-Françoise Lefèvre, Annick M’Kele, Christine Rugemer, Yves Sciama, Julie Van Rossom Traducciones Andrea Broom (inglés), Martin Clissold (inglés), Silvia Ebert (alemán), Michael Lomax (inglés), Consuelo Manzano (español) Diseño Gérald Alary (jefe de proyecto), Olivier Moulin (paginación), Sophie Maertens (coordinación y seguimiento de la producción), Daniel Wautier (corrección de pruebas en francés), Richard Jones (corrección de pruebas en inglés), Sebastian Petrich (corrección de pruebas en alemán), D. A Morrell (corrección de pruebas en español). Búsqueda de ilustraciones Christine Rugemer En portada Deshielo de la banquisa. ©Shutterstock/Robert HM Voors Versión en línea Charlotte Lemaitre Formulario de suscripción a la versión impresa de research*eu Dirección : Coordinación de redacción Jean-Pierre Geets © Arion editorial ¿Caricaturas? Ciudad : ....................................................................... País : ....................................................................................................................................................................... Versión(es) lingüística(s) que desea recibir: francesa inglesa alemana española Si desea recibir varios ejemplares de una versión lingüística determinada, puede enviar su formulario con su dirección completa y una breve justificación. • por correo electrónico: [email protected] • por fax (+32-2-295 82 20). Si desea obtener uno o varios ejemplares de números anteriores, envíe un mensaje por correo electrónico o por fax. Impresión Bietlot, Gilly (Bélgica) Production générale PubliResearch Esta revista ha sido imprimida con papel que lleva el certificado PEFC (Programa para el Reconocimiento de Sistemas de Certificación Forestal) para una gestión sostenible de nuestros bosques. La tirada de este número es de 126.000 ejemplares. Todas las ediciones de research*info se pueden consultar en línea en la página web de la DG de Investigación: http://ec.europa.eu/research/research-eu Editor responsable: Michel Claessens Tel.: +32 2 295 99 71 Fax: +32 2 295 82 20 E-mail: [email protected] © Comunidades Europeas, 2009 Reproducción autorizada, si se menciona la fuente. Ni la Comisión Europea ni ninguna persona que la represente son responsables del uso que pueda hacerse de la información que contiene esta publicación ni de los errores eventuales que puedan subsistir a pesar del esmero en la preparación de estos textos. ÍNDICE 4 Breves En el aire INFORME ESPECIAL CLIMA 20 Breves Noticias europeas. La investigación vista con lupa. Entrevista 24 Un “investigador de fondo” Entrevistamos a Harald zur Hausen, Premio Nobel de medicina, cuyos descubrimientos sobre el VPH permitieron poner a punto vacunas preventivas contra el cáncer de útero. Retrato 34 El algoritmo de los dioses Stephen Wolfram, investigador emérito y hombre de negocios con éxito, ha revolucionado el mundo de las ciencias con sus teorías y sus métodos de trabajo. Prisiones Reportaje Entrevista 8 “Hemos hecho muy poco para tratar este problema tan inmenso” Entrevista a Jean-Pascal van Ypersele, vicepresidente del IPCC, profesor del Instituto de Astronomía y Geofísica de la Universidad Católica de Lovaina (Bélgica). Océanos 10 La acidez del mar azul Paralelamente al calentamiento climático se va desarrollando, de forma menos visible, la acidificación de los océanos, provocada por las emisiones de CO2 de origen antrópico. Transportes 12 Adiós petróleo Presentación del proyecto NEMO, que tiene por objetivo la producción de biocarburantes de segunda generación a partir de desechos vegetales, entre otras cosas. 26 “Relájese y escuche mi voz” La anestesia hipnótica se practica desde hace más de quince años en Bélgica. Presentación de una técnica ya reconocida. Escepticismo Ciencias humanas Neurociencias 30 Viaje al país del hedonismo Los investigadores del TrygFonden Research Group tienen por misión la de comprender la naturaleza del placer para ayudar a quienes no lo experimentan. Energía 38 ¿De dónde viene el pensamiento religioso? EXREL, un panel de científicos europeos cuya misión es estudiar los orígenes de la religión y anticipar su evolución. 40 Breves La ciencia al alcance de la mano. El rincón pedagógico. Publicaciones. Jóvenes investigadores. Opinión. Los modelos climáticos 14 Las herramientas de diagnóstico Las previsiones científicas que conciernen al clima europeo alcanzan un grado de precisión inédito. Y por primera vez disponemos de métodos que permiten evaluar su precisión. 36 El cáncer de las prisiones Superpoblación carcelaria, fractura social, nuevas formas de delincuencia… ¿Acaso el Estado social ha perdido la batalla frente al Estado penal? La mayoría de los criminólogos no lo dudan. La ciencia en imágenes 32 Láser y fusión, ¿la alianza perfecta? El acceso a una energía limpia e inagotable, este es el ambicioso objetivo de los proyectos PETAL e HiPER sobre la fusión termonuclear controlada. 44 Un géiser incipiente 17 Todo científico que se precie debe ser escéptico ¿Qué argumentos esgrimen los “escépticos del cambio climático”, los científicos que se oponen a la mayoría de los especialistas del clima? research*eu n°63 | ABRIL DE 2010 3 BREVES Europa busca a sus antepasados © Joachim Burger Se diría que en la búsqueda de nuestras raíces, los estudios de ADN están añadiendo misterios conforme los van desvelando. En el año 2005, investigadores del Instituto de Antropología Johannes Gutenberg de la Universidad de Maguncia (Alemania) demostraron que los primeros cultivadores europeos no fueron los antepasados directos de los europeos modernos. En un nuevo estudio, siguiendo esta línea de investigación, compararon el ADN de estos cultivadores con el de los últimos cazadores-recolectores que poblaron Europa después de la Edad de Hielo. Parece ser que estos últimos no tienen más relación con los primeros cultivadores que con la población europea actual. Por lo tanto, los europeos modernos no descenderían de ninguno Análisis de ADN realizado en un laboratorio de la Universidad de Maguncia. de estos dos grupos, ni de ninguna mezcla de los dos, puesto que en los esqueletos analizados no aparecen determinados tipos comunes de ADN actuales. Ante la falta de respuesta, la cuestión sigue planteada… 4 research*eu n°63 | ABRIL DE 2010 Por otro lado, estos trabajos de investigación han permitido desvelar algunas de las incógnitas sobre cómo se produjo la sedentarización de los nómadas europeos. Durante mucho tiempo se ha pensado que los primeros cultivadores eran antiguos cazadoresrecolectores que poco a poco habían decidido quedarse en un sitio. Pero, puesto que no existe ningún vínculo entre estos dos grupos, los cultivadores debieron venir de otra parte. Los científicos han logrado situar y datar esta inmigración: vinieron de los Cárpatos 7.500 años antes de nuestra era. Un origen que les acerca a regiones donde empezó la sedentarización de los nómadas: Anatolia y Oriente Próximo. www.uni-mainz.de/eng Los desiertos amenazados por el nitrógeno Investigadores de la universidad estadounidense Cornell, en Nueva Jersey (Estados Unidos), han descubierto algo nada bueno: los suelos áridos están perdiendo nitrógeno. Sus experimentos, llevados a cabo en el desierto de Mojave en el Oeste de Estados Unidos, revelan que cuando escasea el agua y las temperaturas son elevadas se producen pérdidas de nitrógeno en forma de gas. Al ser el agua y el nitrógeno los dos principales elementos de los que depende la actividad biológica de los suelos desérticos, esto significa que cada vez tendrán menos vegetación. Además, el fenómeno produce un círculo vicioso. Los gases nitrogenados provocan el aumento de las concentraciones de ozono en la troposfera, que contamina el aire, pero que sobre todo contribuye al efecto invernadero y, de ahí, al calentamiento responsable del cambio climático y al descenso de las precipitaciones en estas regiones. Este tipo de pérdida abiótica, de naturaleza no biológica, nunca se había tomado en cuenta antes en el cálculo del balance de nitrógeno. Por eso los científicos han insistido en que se tiene que integrar este nuevo dato en los modelos climáticos. www.news.cornell.edu Espejito, ¿quién es el cerdito más lindo? Generalmente se piensa que si se pone a un cerdo delante de un espejo, se abalanza contra lo que pensaría que es otro cerdo. Pero según un grupo de investigadores en antropología zoológica (disciplina que estudia las relaciones entre los hombres y los animales) de la Universidad de Cambridge (Reino Unido), en realidad eso no es así, por lo menos si uno se arma de paciencia para demostrarlo. Los científicos colocaron a ocho © Shutterstock/Anat-oli EN EL AIRE cerdos por parejas durante cinco horas en un cercado en el que había un espejo. Los animales al principio se pusieron nerviosos delante de su reflejo, rompiendo el espejo cada vez. Pero tras varias horas, parece que empezaron a comprender que el espejo sólo devolvía la imagen de su entorno. Para comprobarlo, los investigadores colocaron un tazón lleno de comida en el cercado instalando además un ventilador para dispersar el olor. El tazón estaba disimulado detrás de una pantalla, pero se veía en el espejo. Todos los cerdos, menos uno, se dirigieron hacia el tazón real en una veintena de segundos. Daniel Broom, quien dirigió el estudio, opina que esta información podría permitir mejorar las condiciones de vida de los cerdos de cría. Con esta proeza intelectual, el cerdo pasa a formar parte del limitado círculo de especies que tienen cierta conciencia de sí mismas. El elefante, la orca, el delfín, el papagayo gris de Gabón, la urraca, varios primates y los seres humanos a partir de los dieciocho meses de edad, forman parte de este “puñado de afortunados” al pasar la famosa etapa del espejo. www.vet.cam.ac.uk/research BREVES Escherichia Coli. Cooperar o morir Un equipo franco-portugués de investigadores del Instituto Pasteur (Francia) y de la Universidad de Lisboa, que publicaron un estudio en la revista Current Biology, estudiaron el mecanismo de cooperación a escala microbiana en el caso de Escherichia Coli. Esta bacteria se encuentra en abundancia en la flora intestinal, coexistiendo en armonía con el organismo humano. Pero al producirse un cambio en las relaciones con este último o con otros microbios se puede volver muy virulenta. Ahora bien, su secretoma (las proteínas de las que dependen sus funciones vitales) puede ser fácilmente utilizado por otros microbios, a través del mecanismo de transferencia horizontal de genes, procedimiento no sexual por el cual una serie de genes muy móviles, codificados en el plásmido de la célula, “saltan” de un organismo a otro. Eso hace que Escherichia Coli sea una colaboradora potencial, de forma involuntaria. Lo que interesaba a los investigadores era comprender por qué este fenómeno seguía dándose, aunque no aportase gran cosa a los organismos colaboradores, llegando incluso a perjudicarlos. Según su estudio, perdura por tres procesos. Los numerosos genes del secretoma tienen características “de cooperación”, que una vez trasladadas a otros organismos, les convierte en cooperadores. Para mantener a esta nueva población, los acompañan genes que imponen una estrategia radical de tipo “cooperar o morir”. Y finalmente, la similitud genética de los individuos infectados favorece la conservación de estas características de una generación a otra gracias a la denominada selección de parentesco. A través del estudio de este proceso se podrán mejorar los conocimientos sobre el crecimiento bacteriológico y sus potenciales manipulaciones. www.cell.com/current-biology Los bebés tienen un acento Ya se sabía que cuando se exponía a los recién nacidos a diferentes lenguas, preferían la lengua más cercana a la que oían desde el vientre de su madre. Ahora se sabe también que sus grititos también reproducen el acento tónico. Un equipo del Centro del desarrollo prelingüístico y de los trastornos del desarrollo de la Universidad de Wurzburgo (Alemania) estudió las melodías formadas por los grititos y los llantos de 30 bebés franceses y de 30 bebés alemanes poco después de su nacimiento. Por lo visto, los recién nacidos franceses tienen la entonación más marcada al final de los grititos, a semejanza de cómo los francófonos acentúan el final de las palabras y las frases, mientras que los pequeños alemanes hacen lo contrario, copiando la entonación del alemán. Por supuesto, no se trata de un acento propiamente dicho, ya que este último tiene que ver con el modo en el que se pronuncian las palabras, pero este estudio confirma la importancia que tienen las melodías en el proceso de aprendizaje de una lengua, y muestra claramente que dicho proceso comienza en el útero, con la percepción y posterior reproducción de las melodías oídas. Según los investigadores se trata también de un paso más en la resolución del enigma de la aparición del lenguaje en nuestros antepasados. www.international.uniwuerzburg.de/en/international El entrañable olor mohoso de los viejos libros es el objeto de estudio de un nuevo método de evaluación del grado de envejecimiento de las obras antiguas. Este método, bautizado con el nombre de “material degradomics”, fue elaborado por un equipo de investigadores ingleses y eslovenos principalmente de la University College London y la Universidad de Ljubljana, y publicado en la revista Analytical Chemistry. A diferencia de las técnicas tradicionales, presenta la gran ventaja de no estropear los documentos analizados, ya que únicamente se basa en el olor que desprenden. © Shutterstock/Valentin Agapov © Inserm © Shutterstock/Ngo Thye Aun El olor de los viejos libros Con el paso del tiempo, los libros desprenden compuestos orgánicos volátiles (COV), responsables del aroma que tienen. Los científicos analizaron los COV desprendidos por 72 obras históricas con composición típica de los siglos XIX y XX. Se escogieron los 15 COV más abundantes como marcadores de degradación y se pusieron en relación estadísticamente con los principales componentes del papel (resina, lignina, carbonilo, etc.) y algunos de sus parámetros químicos, como su acidez (pH). De esta forma, los niveles de cada marcador proporcionan “la huella dactilar” de un libro en un momento dado. Esta información podría ayudar a los museos y las bibliotecas a definir las prioridades en materia de restauración y a revisar sus métodos. http://pubs.acs.org/journal research*eu n°63 | ABRIL DE 2010 5 INFORME ESPECIAL CLIMA ¿Perdimos una oportunidad en Copenhague? El IPCC (Panel Intergubernamental de expertos que abandonar y no sólo porque se están sobre el Cambio Climático) ha tenido que esperar agotando sus reservas). Se han intensificado las diecisiete años para que sus conclusiones se investigaciones sobre otras fuentes de energía. tradujeran en objetivos cifrados, el famoso umbral Y tras unos primeros pasos dados en falso de aumento de temperatura de 2°C. Aunque para (los agrocarburantes de primera generación), su vicepresidente, el climatólogo Jean-Pascal van por los que pagamos un alto precio, los Ypersele, esta cifra aún tiene que considerarse con biocarburantes siguen teniendo un futuro prudencia, no hay que minimizar la importancia prometedor. que ha tenido, puesto que hoy en día se está Pero hay que darse prisa... No dejan de salir ejerciendo presión sobre los gobiernos del mundo a la luz las consecuencias de los efectos del entero para que actúen y revisen sus objetivos, calentamiento sobre los ecosistemas. Por ejemplo, considerados poco ambiciosos. hasta hace poco no sospechábamos que Poco a poco se agota nuestra complacencia con el dióxido de carbono podía modificar relación al petróleo (la energía fósil que tenemos la composición del agua del mar hasta el punto 6 research*eu n°63 | ABRIL DE 2010 © CNRS Photothèque/Erwan Amice Pingüinos (Pygoscelis adeliae) en un pequeño iceberg, a la deriva en Adélie Land (Antártida). de poner en peligro la biodiversidad y los del origen antrópico del calentamiento y/o ecosistemas marinos. Ahora bien, así es de la pertinencia de las medidas propuestas y la acidificación de los océanos se ha añadido para combatirlo. a la lista de los problemas medioambientales En estos últimos años se han hecho llamamientos más inquietantes. por un mayor voluntarismo político y una Las cifras se van afinando, los modelos revisión total de nuestros modos de consumo climáticos van mejorando, las proyecciones sin que hayan tenido los efectos previstos. Los ofrecen previsiones de probabilidad más precisas acuerdos logrados en la Cumbre sobre el clima y, al mismo tiempo, se ensombrecen. La ciencia de Copenhague del pasado mes de diciembre avanza, aunque sin certeza absoluta, y por lo son el último ejemplo de dicha tendencia. tanto, a través del debate, lo cual es positivo. Sin embargo, estos llamamientos han hecho que Prueba de ello: los científicos a los que se por fin dejemos la orilla donde nos encontrábamos, reagrupó bajo el término de “escépticos en la que no se sabía nada y se desperdiciaba del cambio climático” y que siguen dudando todo. Ahora nos queda alcanzar la otra orilla. research*eu n°63 | ABRIL DE 2010 7 “Hemos hecho muy poco para tratar este problema tan inmenso” Jean-Pascal van Ypersele, vicepresidente del IPCC(1), nos habla del calentamiento climático bajo una óptica científica, sin olvidar la interpretación política, a veces sorprendente, que se da del mismo… Puede que ya haya consenso sobre la existencia del calentamiento climático, pero ¿es seguro que las actividades humanas son las culpables del mismo? Existe gran convicción de que el hombre es responsable de este fenómeno y va creciendo con los años. En 1995, el IPCC decía en su informe que “una serie de elementos apuntan a que existe una influencia perceptible de las actividades humanas sobre el clima”. En el 2007, se observó que la mayor parte del calentamiento de los últimos cincuenta años “muy probablemente se debía” a los gases de efecto invernadero causados por el hombre, lo que traduce una probabilidad superior al 90 %. Esta seguridad se basa en numerosas razones. Por supuesto, en los modelos climáticos, que tanto han avanzado. Pero también en la forma característica del calentamiento: se traduce en un enfriamiento de la alta atmósfera, porque los gases de efecto invernadero encierran una parte del calor en la atmósfera baja que, a su vez, se calienta rápidamente. Si, por ejemplo, el calentamiento se debiera a la intensificación de la actividad solar, sería uniforme, incluso mucho mayor en la estratosfera. Además, 8 research*eu n°63 | ABRIL DE 2010 © Jacky Delorme (UCL) INFORME ESPECIAL CLIMA ENTREVISTA Jean-Pascal van Ypersele: “La física del clima no tiene nada que ver con la agenda política…” observamos que los polos se calientan más rápidamente que los trópicos, fenómeno que corrobora la explicación del efecto invernadero. ¿Qué consecuencias hay que temer? El último informe del IPCC destina varios cientos de páginas al resumen de los impactos, que van desde la disminución de los rendimientos agrícolas hasta diferentes problemas sanitarios. Me gustaría destacar la importancia de las modificaciones hidrológicas: los modelos predicen que varias regiones muy pobladas sufrirán una intensa desecación, entre ellas la cuenca mediterránea, donde ya se están dando serios problemas de acceso al agua. Otro aspecto es el deshielo de los glaciares de los Andes y del Himalaya, que son el depósito de agua de centenares de millones de personas para quienes la estación de las lluvias sólo dura de algunas semanas a algunos meses. El resto del año, estos glaciares alimentan los ríos; por lo tanto, su anunciada desaparición es muy preocupante. Otro impacto será la elevación del nivel del mar. Afectará a todos los litorales europeos, sobre todo a las costas bajas como las de los Países Bajos, Bélgica, Alemania… Va a acelerarse la erosión, se infiltrará agua salada en las capas freáticas, aumentarán los daños de las tormentas, etc. Y en el delta del Nilo, diez millones de personas viven a menos de un metro por encima del nivel del mar. Está previsto que en este siglo el nivel del mar suba por lo menos 50 cm, o quizás un metro. ¿Dónde va a ir toda esa gente? ¿Qué posición se debe adoptar frente al “umbral de peligro” fijado en 2°C de calentamiento? El IPCC nunca ha dicho que no se tuviera que exceder los 2°C de calentamiento, ni que se debiesen estabilizar las concentraciones de CO2 atmosférico a menos de 450 ppm (partes por millón). Nuestro trabajo (y este matiz es importante) consiste en decir que a un determinado escenario de emisión le corresponde un calentamiento dado y, por lo tanto, un determinado tipo de impacto. Son las autoridades políticas quienes tienen que definir los impactos aceptables, puesto que eso supone juicios de valor que no incumben a los científicos. Históricamente, la cifra de 2°C empezó a mencionarse en el año 1996, en una reunión del Consejo de ministros de la Unión Europea. Luego fue validada en cierto modo en el informe del 2001 del IPCC, donde se publicó el célebre diagrama “burning embers” (brasas ardientes) que sintetizaba la gravedad de los impactos según diferentes temperaturas. Su código de colores pasaba del blanco al rojo en torno a los 2°C en la mayoría de los impactos, por lo que la cifra se quedó grabada en la mente de todos a pesar de que se basa en datos de hace más de una década. ¿Quiere decir que los últimos datos científicos invalidan este umbral? A petición de los políticos, se han revisado los impactos con minuciosidad. Para los autores del informe del 2007, prácticamente los mismos que en el 2001, los umbrales tendrían que revisarse a la baja en aproximadamente 0,5°C. Su nuevo gráfico [Nota de la redacción: véase el artículo “Las herramientas de diagnóstico” de este número] no fue publicado en el informe, pero acabó por salir en la revista científica estadounidense PNAS (Proceedings of the National Academy of Sciences) en el 2009. Ya le he dicho que no me incumbía, como vicepresidente del IPCC, definir un umbral de peligro. En cambio, sí le puedo decir que si los ministros reunidos hace 13 años para fijar el umbral de 2°C y 450 ppm se reunieran ahora y se basaran en los mismos criterios que entonces, muy probablemente fijarían el umbral de peligro en 1,5°C y en 350 ppm. ¿Cuáles serían las incidencias de tal cambio de “umbral de peligro”? Por el momento, el IPCC no responde a esta pregunta, porque el escenario más “magnánimo” evaluado en términos de emisiones genera de 2°C a 2,4°C de calentamiento. ¡Así que estamos obligados a extrapolar para tener una idea de las emisiones que permitirían quedarse por debajo de 1,5°C! Creo que esta laguna se colmará en el próximo informe, pero evidentemente esto implicará la revisión de todos los objetivos para hacerlos aún más vinculantes. ¿Los políticos han prestado más atención al IPCC desde su último informe? Se ha dado un cambio sumamente positivo (y esto no contradice lo que acabo de decirle), puesto que el objetivo de 2°C ha sido adoptado recientemente, primero en el G8 y luego en el G20. Es un hecho muy importante, a pesar de las reservas que tengo con esta cifra, porque hasta entonces no se había adoptado ninguna cifra en el ámbito internacional, ¡lo peor que podía pasar! La Convención Marco de las Naciones Unidas sobre el Cambio Climático, adoptada en el año 1992 antes de la cumbre de Río, se limitaba a decir que había que estabilizar las concentraciones de gases de efecto invernadero “a un nivel que impida interferencias antropógenas peligrosas en el sistema climático”. Pues ya han pasado 17 años sin objetivo cifrado reconocido internacionalmente. La adopción de una cifra es un avance enorme, puesto que toda una serie de cifras emanan de la misma, principalmente los objetivos de reducción de emisiones. Por lo tanto, ¿el trabajo del IPCC se está traduciendo poco a poco en decisiones políticas? Sí, exceptuando que las interpretaciones que se realizan de nuestras estimaciones a menudo son… selectivas. Por ejemplo, dijimos que para estar entre 2°C y 2,4°C de calentamiento (y, lo repito, ¡no hemos dicho que “por debajo de” 2°C!) haría falta, teniendo en cuenta las incertidumbres científicas, que las emisiones mundiales llegaran a su pico “entre el año 2000 y el 2015”. Para algunos, este intervalo ya ha pasado a “en el 2015”, y lamento que, hace algunas semanas, para el Consejo Europeo, este plazo se transformó inexplicablemente en ¡“antes del 2020”! Posiblemente esto se deba a que el “paquete clima” europeo se ha elaborado con vistas al 2020, pero la física del clima no tiene nada que ver con la agenda política… © ESO El clima terrestre está influenciado por las variaciones de la energía irradiada por la corona solar (muy visible aquí mientras se produce un eclipse) así como por la posición de la Tierra con relación a su estrella. Aunque estos parámetros varíen en el transcurso de grandes escalas de tiempo, no bastarían para explicar el fuerte aumento de las temperaturas observado desde la revolución industrial. Otro ejemplo: el último G8, cuando adoptó el objetivo de 2°C, lo tradujo en “un descenso de las emisiones globales del 50 %”, pero sin dar ningún año de referencia, lo que sugiere que se refiere a las emisiones actuales. Ahora bien, en su informe, el IPCC decía que había que reducir las emisiones mundiales del 50 % al 85 % en relación a las del año 1990. ¡Y desde esta fecha, las emisiones han aumentado en un 40 %! En otras palabras, independientemente de cualquier consideración sobre nuestra capacidad de alcanzarlos, los objetivos actuales contemplados a nivel internacional están por debajo de lo que sería necesario para proteger a las poblaciones y a los ecosistemas. ¿Qué queda por hacer en materia de reducción de las emisiones? A pesar de los avances logrados, hemos hecho muy poco para tratar este problema tan inmenso. Como botón de muestra, el protocolo de Kyoto: el objetivo era reducir las emisiones en un 5 % en 22 años en los países desarrollados (entre 1990 y 2012), y este objetivo quizás se logre a duras penas. Ahora bien, lo que hay que hacer ahora en estos mismos países, es reducir las emisiones en un 80-95 % en 40 años, lo que permitiría una reducción del 50-85 % para todo el planeta. Y a finales del siglo, habría que llegar al objetivo de cero emisiones. Esto supone revisar a fondo la manera en la que consumimos, en la que producimos (no sólo la energía sino todos los bienes), en la que nos desplazamos, nos alojamos, trabajamos… ¡Una auténtica revolución! Entrevista de Yves Sciama (1) IPCC: Panel Intergubernamental de expertos sobre el Cambio Climático. Jean-Pascal van Ypersele es físico, climatólogo y profesor en el Instituto de Astronomía y Geofísica de la Universidad Católica de Lovaina (Bélgica). research*eu n°63 | ABRIL DE 2010 9 INFORME ESPECIAL CLIMA ENTREVISTA OCÉANOS INFORME ESPECIAL CLIMA La acidez del mar azul Las emisiones de CO2 no sólo contribuyen a amplificar el efecto invernadero, sino que también tienen un impacto más insidioso en la acidez de los océanos. Un fenómeno que podría desestabilizar los ecosistemas marinos del planeta. D © Jean-Louis Teyssié/International Atomic Energy Agency e todos es sabido: el océano desempeña un papel determinante en la regulación del clima. Como depósito gigantesco de CO2, almacena una cuarta parte de las emisiones de gas carbónico emitidas por las actividades humanas desde hace 200 años. Esta capacidad de absorción se explica principalmente por un proceso físico (véase el recuadro). La natura- En laboratorio: mediciones de la calcificación y de la migración de trazas metálicas por isótopos. 10 research*eu n°63 | ABRIL DE 2010 leza siempre tiende hacia el equilibrio y, teniendo en cuenta que el CO2 se disuelve en el agua, transita con facilidad desde la atmósfera hasta los océanos. Sin esta reacción, el cambio climático sería mucho mayor. Pero ahí está la otra cara de la moneda: la acidificación de los océanos. “Hasta hace poco, no pensábamos que la química del agua de mar fuese a cambiar hasta el punto de afectar la biología de los organismos y los ecosistemas marinos”, explica Jean-Pierre Gattuso, oceanógrafo y coordinador de EPOCA, un amplio programa de investigación europeo lanzado en el 2008 para determinar el impacto de la acidificación de los océanos en los biotopos marinos. El efecto de bola de nieve El CO2 es un gas ácido. Cuando se disuelve en los océanos, reacciona con el agua y los iones carbonatos para formar iones bicarbonatos. Esta reacción aumenta la cantidad de iones H+ en el agua de mar, lo que implica un aumento de su acidez, que se traduce en una disminución de su pH. Disminuye también la concentración de iones carbonatos, un elemento fundamental para una parte de la fauna marina. Los corales, los bivalvos y los crustáceos son algunos de los organismos directamente amenazados por este fenómeno. ¿Qué tienen en común? Que producen su concha o su esqueleto captando iones calcio e iones carbonatos en el agua del mar. Así obtienen los elementos necesarios para fabricar el carbonato de calcio, es decir, la cal. Con menos carbonato en el agua de mar, los organismos calcáreos deben consumir más energía para desarrollarse. “Al principio, pensábamos que la calcificación, es decir, la capacidad de producir cal, simplemente se reduciría. Pero en realidad es un proceso más complejo. Aunque efectivamente en algunas especies disminuye la calcificación, otras consiguen mantener una calcificación normal pero en detrimento de otras funciones vitales como el crecimiento o la reproducción”, explica Ulf Riebesell, oceanógrafo del Leibniz-Institut für Meereswissenschaften de la Universidad de Kiel (Alemania) y coordinador de BIOACID, proyecto alemán de investigación sobre la acidificación de los océanos lanzado en septiembre de 2009. La reacción de determinados organismos calcáreos clave preocupa especialmente a los investigadores. “En los mares fríos, las comunidades coralinas se encuentran a gran profundidad, donde la concentración de carbonato es baja”, explica Jean-Pierre Gattuso. “Los últimos resultados y modelos de previsión muestran que estas aguas podrían volverse corrosivas por la cal. Por lo tanto, el aumento de la acidez limitaría no sólo el crecimiento de los corales de agua fría, sino que contribuiría también a disolver su estructura”. Como en el caso de los corales tropicales, estos corales de agua fría forman un hábitat y un lugar de reproducción muy importantes para la fauna marina. “Se verán amenazadas numerosas especies cruciales para la industria pesquera, tanto en el Norte como en el Sur. Los impactos socioeconómicos de la desaparición de los corales podrían ser inmensos. A esto se tendrían que añadir los problemas de seguridad porque, en las regiones tropicales, los arrecifes de coral constituyen una barrera natural de protección de las costas contra las amenazas del mar”, destaca Jean-Pierre Gattuso. Otro elemento preocupante es la situación de los pterópodos, unos pequeños caracoles nadadores. “La concha de los pterópodos está formada por aragonita, una forma del carbonato de calcio menos estable y, por consiguiente, más sensible a la acidificación”, explica Ulf Riebesell. “Los pterópodos desempeñan un papel importante en la cadena alimentaria marina. Por ejemplo, el salmón del Pacífico Norte se alimenta de ellos casi exclusivamente durante una etapa de su crecimiento. No se sabe si las especies depredadoras podrán comerse otras presas o si la escasez de pterópodos provocará la disminución de dichas especies”. 2 Una certeza, miles de incógnitas Además de los organismos calcáreos, otras especies marinas podrían sufrir el impacto directo de la acidificación de los océanos, pero la investigación en la materia está sólo en sus inicios. La disminución del pH reduce la capacidad de absorción de los sonidos del océano, lo que podría perturbar la capacidad de los mamíferos marinos de orientarse y localizar a sus presas. Además, pocos estudios han examinado el impacto de la acidificación en los peces. “Una investigación estadounidense pudo sacar a la luz una relación entre la acidificación y el crecimiento de otolitos. Estos huesos del oído interno desempeñan un papel importante en el equilibrio de los peces, pero no sabemos en qué medida un desarrollo anormal podría ser nefasto para ellos”, explica Jean-Pierre Gattuso. Para estudiar los impactos de la acidificación, los investigadores de EPOCA examinan los ecosistemas marinos en los que la concentración de CO2 es elevada por naturaleza, como en los alrededores de la isla de Isquia, en el sur de Italia. Pero la mayoría de las investigaciones se centran en las zonas polares, que captan más CO2 porque este gas se disuelve mejor en las aguas frías. “El proceso de acidificación es más rápido en los polos. Por lo tanto, a priori, se pueden detectar sus impactos en los ecosistemas con más facilidad”, explica Jean-Pierre Gattuso. Es de suma importancia comprender las repercusiones del fenómeno en el biotopo marino para poder determinar el umbral de acidez que no se debería rebasar para mantener el © David Luquet/OOV-CNRS-UPCM 4 © Steeve Comeau/LOV-CNRS 3 © Steeve Comeau/LOV-CNRS © Samir Alliouane/LOV-CNRS 1 INFORME ESPECIAL CLIMA OCÉANOS Estas especies, que tienen una concha o un esqueleto calcáreo, son organismos amenazados por la acidificación de los océanos. 1 Ejemplar de Cavolinia inflexa adulto recogido en la bahía de Villefranche (Francia). Este molusco, que vive en aguas profundas y posee una concha caliza, es muy sensible al pH. 2 Juvenil de pterópodo mediterráneo Cavolinia inflexa. La parte coloreada en verde corresponde a la concha, teñida por la calceina a través de una técnica fluorocrómica. 3 Limacina helicina, caracol nadador que vive en el Ártico, recogido en Kongsfjorden (Spitzberg). 4 Las algas coralinas mediterráneas representan una flora submarina muy afectada por la acidificación de los océanos. equilibrio actual de los océanos. “Hasta ahora no se ha podido fijar ningún umbral máximo de tolerancia. No hemos podido observar este fenómeno el tiempo suficiente. Los primeros estudios sobre la acidificación de los océanos se remontan a una quincena de años como máximo”, precisa Jean-Pierre Gattuso. Una cosa está clara, el proceso de acidificación ya está en marcha, se puede medir y aumenta al mismo tiempo que las emisiones de CO2. De ahí que el pH de los océanos probablemente haya pasado ya de 8,2 a 8,1 desde el principio de la era industrial. Para resolver el problema, sólo existe una solución: reducir las emisiones de CO2. Una necesidad afirmada por más de 150 oceanólogos en la Declaración de Mónaco, un texto publicado en enero de 2009 que insta a los responsables políticos a tener en cuenta la acidificación de los océanos en las conferencias sobre el clima. Julie Van Rossom EPOCA 27 socios, 9 países (BE-CH-DE-FR-IS-NL-NO-SE-UK) www.epoca-project.eu BIOACID 19 socios (DE) http://bioacid.ifm-geomar.de CARBOOCEAN 47 socios, 14 países (BE-CH-DE-DK-ES-FRIS-MO-NL-NO-PO-SE-UK-US) www.carboocean.org Un océano que llega al punto de saturación U n proceso físico es fundamental en la absorción del CO2 por los océanos. Este mecanismo, comúnmente designado bajo el nombre de “bomba física”, está asociado en realidad con un proceso de “bomba biológica”(1) que se da principalmente con la acción de las algas calcáreas. Ellas fijan el CO2 en su concha por fotosíntesis y lo arrastran hacia los fondos marinos cuando se mueren. Actualmente, no sabemos en qué medida la respuesta de estos organismos a la acidificación de los océanos podría perturbar el funcionamiento del sumidero de carbono oceánico. En 2009, finalizó CARBOOCEAN, un amplio proyecto europeo cuyo fin era determinar la capacidad de almacenamiento del carbono por los océanos. Los resultados demuestran la ralentización de la capacidad de absorción del CO2 en el Atlántico Norte y en el océano Austral. Queda por explicar lo que la produce. “Estas variaciones pueden ser el resultado de fenómenos físicos, por ejemplo, un aumento de las temperaturas o también una diferencia de circulación de las corrientes marinas, pero también pueden explicarse de forma biológica”, explica Ulf Riebesell. “Los mecanismos subyacentes a la bomba física se conocen bastante bien. En cambio, los de la bomba biológica se conocen mucho menos. Algunos científicos afirman que la acidificación aumentaría su eficacia, otros prevén lo contrario. Es necesario comprender y cuantificar estos fenómenos para aumentar la fiabilidad de los modelos utilizados para prever la evolución futura del clima”. (1) Para más información sobre las bombas física y biológica, véase el artículo “El CO2 entre el cielo y el mar”, del número especial del research*eu, de diciembre de 2007. research*eu n°63 | ABRIL DE 2010 11 TRANSPORTES INFORME ESPECIAL CLIMA Adiós petróleo Para que avance la investigación sobre los biocarburantes de segunda generación, Europa lanza el proyecto NEMO, en el que se emplean enzimas y microorganismos para convertir los residuos agrícolas y forestales en los carburantes del mañana. E n el 2020, el 10 % de los carburantes consumidos en el transporte en Europa tendrían que ser de origen renovable. Para lograr esta ambición, la Unión Europea acaba de dotarse de una nueva herramienta, el proyecto Novel high-performance enzymes and micro-organisms for conversion of lignocellulosic biomass to bioethanol (NEMO) coordinado por Merja Penttilä, investigador en el Valtion Teknillinen Tutki- El tema “Alimentos, agricultura y pesca y biotecnología” D otado de 1.900 millones de euros, es uno de los temas del programa específico “Cooperación” del Séptimo Programa Marco (7PM). Su objetivo principal es constituir una bioeconomía europea del conocimiento, basada en un modelo sostenible y en una buena gestión de los recursos biológicos. Se trata, entre otras cosas, de optimizar la conversión de la biomasa en productos de alto valor añadido. © INRA/Gérard Paillard Dispositivo experimental de biomasa del INRA en Estrée-Mons (Francia). 12 research*eu n°63 | ABRIL DE 2010 muskeskus (VTT), el Centro de Investigación Técnica de Finlandia. Pretende lograr la fabricación de biocarburantes de segunda generación a partir de los residuos de la agricultura y de la industria forestal. Serían muy diferentes de los biocarburantes de primera generación que, además de presentar un balance ecológico discutible, se fabrican a menudo a partir de productos alimenticios como los cereales y contribuyen a subir los precios de estos recursos, amenazando la estabilidad social y política de los países más pobres(1). Si bien es cierto que la Unión Europea quiere garantizar su posición en este área de investigación estratégica, apuesta también por los nuevos proyectos de este tipo para mejorar su futura independencia energética. cias a nuestros contactos en la Universidad de Frankfurt (Alemania) asistimos a una reunión del proyecto NEMO donde pudimos comprobar que nuestros intereses eran afines”, cuenta Frank Kose, jefe del proyecto en Green Sugar. El presupuesto de la investigación, previsto para cuatro años, asciende a 8,25 millones de euros, 5,9 millones de ellos procedentes del tema “Alimentos, agricultura y pesca y biotecnología” del Séptimo Programa marco (7PM), centrado en el desarrollo de la bioeconomía. Los biocarburantes de segunda generación que NEMO pretende desarrollar están basados en la materia leñosa de las plantas, que se puede encontrar en todas las células vegetales, por lo que se puede utilizar toda la planta: sus tallos, sus hojas, sus residuos (paja) o los desechos vegetales que provienen de la poda de las plantas. De este modo, ya no se utiliza únicamente la parte comestible de la planta para fabricar biocarburante y ya no hay que elegir entre “comer o conducir” como requerían los biocarburantes de la primera generación. Además, explotar los residuos vegetales ofrece ventajas en términos de rentabilidad económica. La ecología como objetivo NEMO agrupa a un total de dieciocho socios de nueve países europeos (Alemania, Bélgica, Finlandia, Francia, Italia, Países Bajos, Eslovenia, Suecia y Suiza), reuniendo a universidades y centros de investigación, pero también a empresas privadas como Green Sugar, una pequeña empresa con sede en Alemania. “Gra- Convertir desechos vegetales Los investigadores se aplicarán para poner a punto nuevas maneras de transformar la materia leñosa (constituida por lignina, por celulosa y por hemicelulosa) de los residuos agrícolas y forestales en biocarburante líquido. Esta transformación habitualmente se hace en cuatro etapas: pretratamiento, extracción, fermentación y destilación. El pretratamiento de la materia leñosa se realiza con vistas a romper la lignina, muy sólida, para extraer de la misma moléculas de celulosa y de hemicelulosa y conseguir glucosa. La fermentación de la glucosa mediante levaduras produce el etanol, es decir, el alcohol que, una vez destilado, servirá para la fabricación de biocarburante. El proyecto NEMO se centrará en la primera etapa. “Su principal objetivo será convertir las cadenas carbonadas como la celulosa y la hemicelulosa en eslabones simples, es decir, en azúcar como la glucosa, con la ayuda de nuevos tipos de enzimas. Es lo que se denomina la sacarificación”, explica Frank Kose. Las enzimas son unas proteínas que aceleran las reacciones químicas y permiten convertir moléculas en otras moléculas. Otra ventaja que tienen es que son poco tóxicas para los microbios encargados del proceso de fermentación de la glucosa. “Para cada proceso enzimático, es necesario realizar un pretratamiento que prepara la biomasa frente a la acción de las enzimas. La tecnología desarrollada por Green Sugar, basada en la utilización de ácidos inorgánicos, podría aumentar su eficacia”, precisa el jefe del proyecto. Además de sus objetivos científicos, NEMO tendrá especial cuidado en comprobar que las enzimas que saquen los laboratorios sean lo bastante eficaces como para emplearse en procesos industriales de interés para las empresas. “Por supuesto, nos orientamos también en base a consideraciones económicas”, explica Frank Kose. “Queremos desarrollar una tecnología de sacarificación que pueda ser implantada en el futuro en fábricas capaces de producir de 50.000 a 100.000 toneladas de azúcar al año. Para ello necesitamos grandes socios industriales. Si NEMO desarrolla una nueva tecnología para transformar la celulosa mediante enzimas que incorpore la tecnología de Green Sugar, los industriales que forman parte del proyecto se beneficiarán de la misma, lo que equivaldrá para nosotros a venderles nuestros conocimientos”. Por lo tanto, NEMO interesa tanto a los industriales como a los investigadores. Porque más allá de la esperanza de contribuir a la resolución del problema mundial de la energía, pretende entrar en el mercado de las bioenergías, un sector económico en plena expansión. Sobre todo sabiendo que, sin esperar las promesas de NEMO, poco a poco va emergiendo la tercera generación de biocarburantes que se basa, entre otras cosas, en la extracción de aceite a partir de algas. Esta tercera generación también intenta abrirse camino fuera de los laboratorios. Stéphane Fay (1) Véase el artículo “Después de tantas promesas, vienen las dudas”, de nuestro número especial “Salir de la era del petróleo” de abril de 2008. NEMO 18 socios, 9 países (BE-CH-DE-FI-FR-IT-NL-SI-SE) www.vtt.fi/news/?lang=en La Iniciativa Tecnológica Conjunta sobre las pilas de combustible y el hidrógeno E uropa explora otras pistas además de los biocarburantes para obtener energía renovable. Es el caso de las pilas de combustible y de las tecnologías que proporcionan energía a partir del hidrógeno, que son objeto de la nueva Iniciativa Tecnológica Conjunta (ITC) “Fuel Cells and Hydrogen” o FCH – una colaboración entre la Comisión Europea, empresas privadas, algunas universidades e institutos de investigación. Aquí también se trata de combatir las emisiones de dióxido de carbono y de reducir la dependencia que tiene Europa de los hidrocarburos contribuyendo al crecimiento económico. La ventaja de la ITC es que reúne a todos los actores y sus medios en un esfuerzo común. De hecho, por ejemplo, las tecnologías necesarias para la difusión de las pilas de combustible aún no están listas para su comercialización y difícilmente pueden ser desarrolladas por un actor aislado. La primera convocatoria de propuestas del ITC FCH fue lanzada en el 2008 y la Comisión Europea participa con 28 millones de euros. La segunda convocatoria de propuestas se cerró el 15 de octubre de 2009, con un presupuesto de 70 millones de euros. http://ec.europa.eu/research/fch/ Mini-glosario Biocarburante: carburante sustitutivo producido a partir de materias vivas vegetales. Bioetanol: etanol que proviene de la fermentación de materias vivas vegetales. Encontramos etanol en todas las bebidas alcohólicas. Ácido inorgánico: ácido que no contiene carbono. research*eu n°63 | ABRIL DE 2010 13 INFORME ESPECIAL CLIMA TRANSPORTES LOS MODELOS CLIMÁTICOS INFORME ESPECIAL CLIMA Las herramientas E de diagnóstico Ahora que están en circulación escenarios catastróficos increíbles, necesitamos técnicas de previsión climática punteras si queremos tomar las decisiones acertadas. Un nuevo modelo climático de gran envergadura permite hoy en día disipar algunas de las incertidumbres sobre el clima de Europa en el siglo XXI, y proporciona la imagen más precisa hasta la fecha de lo que probablemente nos afectará. n “The age of stupid” (o “La era de la estupidez”), película sobre el medio ambiente estrenada en el 2009, Pete Postlethwaite desempeña el papel del último superviviente de una catástrofe climática ocurrida en el 2055. Sentado en el último piso de un rascacielos, contempla el mundo devastado, rodeado de esculturas clásicas y de tesoros culturales salvados de gigantescas inundaciones, y se pregunta por qué los hombres no hicieron lo necesario para impedir la catástrofe medio siglo antes. Aunque la película consigue perfectamente que los espectadores puedan imaginar los posibles futuros acontecimientos climáticos, muchos científicos criticarían sin duda la fecha escogida para el Armagedón. ¿El fin del mundo en el 2055? En su cuarto informe, publicado en el 2007, el Panel Intergubernamental de expertos sobre el Cambio Climático (IPCC) proporciona modelos climáticos que habrían puesto en un aprieto al director de la película. Dichos modelos presentan un abanico de posibilidades de aumento de la temperatura con arreglo a condiciones de emisión determinadas que dependen de factores como el éxito de las políticas relacionadas con el medio ambiente y las ener- Aviso de tormenta L © CNRS Photothèque/Françoise Guichard, Laurent Kergoat © Eumetsat a tarde del 18 de enero de 2007, una violenta tormenta azotó el continente europeo. El viento fue ganando velocidad, llegando a alcanzar los 202 km/h en Alemania, y aumentando hasta que la tormenta llegó a la República Checa. Se declararon a las aseguradoras varios millones de Tormenta Kyrill, a principios del 2007. euros de daños por los edificios deteriorados y los árboles arrancados. En el Reino Unido y en Alemania hubo cortes de suministro eléctrico que afectaron a miles de viviendas. La tormenta, bautizada con el nombre de Kyrill, empezó justo encima de Terranova (Canadá) y atravesó el Océano Atlántico, llegando primero a las Islas Británicas y luego al norte y al centro de Europa. La trayectoria y la configuración de Kyrill son típicas de los ciclones invernales extratropicales (que se forman fueran de los trópicos). Estos ciclones se originan en regiones con diferencias de temperaturas muy elevadas, como entre Florida y Groenlandia, y generalmente empiezan en la costa Este de Norteamérica. Las diferencias de temperaturas generan movimientos de aire y fuertes vientos que pueden provocar una tormenta violenta. Se han dado aproximadamente cinco por década desde hace cuarenta años. Lo importante es saber si van a aumentar debido a los cambios de temperatura, lo que tendría consecuencias para las empresas y los gobiernos. Según el equipo de ENSEMBLES, que utilizó el escenario de emisión A1B, hay un 90 % de probabilidades de que los daños relacionados con las tormentas en el periodo 20172100 aumenten entre un 13 % y un 37 % con relación al período 1961-2000 en el sur de Alemania. 14 research*eu n°63 | ABRIL DE 2010 gías limpias, y el crecimiento demográfico. Un modelo es un programa informático que simula la evolución del clima a partir de un punto preciso y de una serie de escenarios relacionados con estas condiciones de emisión. Cuanto más complejos son los datos, más complejos son los modelos. Pueden incluir hasta 30 parámetros, tales como la velocidad del aire, la humedad ambiental, la humedad del suelo, la temperatura o el punto de rocío. Un modelo puede estar constituido por un millón de líneas de código informático y requerir varios meses para su elaboración, a los cuales hay que añadir el tiempo de análisis, aún mayor, lo que explica que existan sólo cerca de 25 modelos en el mundo. En su escenario más optimista (de bajas emisiones de gases de efecto invernadero), el IPCC pronostica en el mejor de los casos un aumento de temperatura de 1,8°C para los años 20902100 en relación al año 1990 (la temperatura aumentó en 0,7°C desde el principio de la revolución industrial), con un aumento del nivel de los mares de 18 a 38 cm. Con los conocimientos que se tienen actualmente, el escenario más pesimista (de elevadas emisiones) prevé un aumento de 4°C de la temperatura y una elevación del nivel de los mares de 26 a 59 cm. Sea cual sea el escenario que se produzca, el IPCC predice que habrá más daños relacionados con las inundaciones y las tormentas. Un aumento de 3°C conllevaría la pérdida del 30 % de las zonas costeras húmedas. Pero en ninguna parte se habla de inundación mundial en el 2055… Un megamodelo europeo Este tipo de modelización climática está mejorándose y sirve tanto para refutar los discursos alarmistas como para combatir la negación del fenómeno, con vistas a informar a la opinión pública lo mejor posible. Las técnicas de medición y de modelización se han ido desarrollando progresivamente a lo largo de los últimos siglos. Los datos más antiguos provienen de un termómetro climático instalado en el centro de Inglaterra a finales del siglo XVII. En el siglo XIX se realizaron observaciones meteorológicas en muchos otros lugares. En los años veinte del siglo pasado se efectuaban mediciones a través de instrumentos incorporados a globos lanzados en el aire. Treinta años más tarde, se utilizaban aviones para medir la atmósfera y se construían estaciones meteorológicas en el Polo Norte y en el Polo Sur. Hoy en día se recopilan datos por satélite. El proyecto ENSEMBLES, financiado con 15 millones de euros por el Sexto Programa Marco (6PM), engloba toda una serie de nuevos modelos climáticos de gran envergadura. Sus previsiones tienen un mayor grado de fiabilidad, que se debe más a la calidad y la profundidad de la modelización que a la precisión de las observaciones. Los climatólogos afirman que han producido la imagen más clara y más detallada de Europa de finales de este siglo comparada con los demás modelos precedentes, que fueron extraídos con los datos proporcionados por modelos climáticos globales. Por ejemplo, los resultados medios de una previsión de ENSEMBLES basada en el escenario de emisión A1B (en el que nuestras economías equilibran el uso de carburantes fósiles y de otras fuentes de energía, incluyendo las renovables) indican una subida de temperatura de 6°C y una disminución del 50 % de las precipitaciones en verano en el suroeste de Francia entre el año 2080 y el 2099, con relación al período de referencia de 1961-1990. El grado de detalle alcanzado por esos nuevos modelos constituye una de las mayores contribuciones del proyecto a la modelización del cambio climático. “Estamos obteniendo una definición mucho mayor que en los modelos anteriores. Es un gran paso”, afirma Paul van der Linden, director de ENSEMBLES, situado en el Centro Hadley de Exeter (Reino Unido), especializado en el cambio climático. Los resultados llegaron tras cinco años de duro trabajo en esta misteriosa ciencia de la modelización climática. Dominar el factor histórico Se utilizan sobre todo seis de los cuarenta escenarios del IPCC en los modelos. Describen una serie de futuros niveles de emisiones y están elaborados a partir de hipótesis socioeconómicas y de conjeturas sobre la gestión del problema climático. Algunos dan por sentado que nada va a cambiar y por eso son más bien pesimistas; otros se basan en políticas energéticas con mejores resultados. También incluyen estimaciones de la radiación solar y de los aerosoles y, por ejemplo, su alcance puede variar si se integran datos relacionados con 1-2 contaminantes o con 10-15. Los modelos han sido desarrollados durante varias décadas en doce centros diferentes. Los siete centros situados en Europa fueron incluidos en el proyecto ENSEMBLES, que cuenta además con institutos no europeos entre sus 79 socios. Los investigadores empiezan por dividir el globo terráqueo en grandes cuadrados empleando una gruesa malla de aproximadamente tres o cuatro grados. Luego se aplican los modelos a escala planetaria y aparecen los valores de cada bloque o cuadrado. Se utilizan diferentes modelos según la finalidad pretendida: pueden ser solamente atmosféricos, oceánicos o ambos. Además de las características globales del cambio climático, los científicos también pueden modelizar sus impactos. Los datos antiguos y actuales sobre las temperaturas y las precipitaciones se utilizan, por ejemplo, para comprobar el modelo apoyándose en la historia climática de la Tierra, según un procedimiento conocido con el nombre de “hindcasting” (o “simulación retrospectiva”). “Queremos saber hasta qué punto es eficaz el modelo y evaluarlo comparándolo con las observaciones climáticas como las mediciones históricas de los gases de efecto invernadero”, explica Paul van der Linden. Si al probarlo los resultados del modelo difieren significativamente de los datos históricos, se considera que el modelo no es fiable. Como para crear un modelo global se requiere muchísimo tiempo, podemos someter a prueba sólo determinadas partes, en un período más corto. Miles de simulaciones No basta con una sola previsión de un modelo. Para mejorar la precisión, los climatólogos emplean el mismo modelo miles de veces con datos diferentes, y pueden también aplicar varios modelos muchas veces con los mismos datos. Este sistema de predicción de conjunto genera un resultado más fiable, porque las medias de varios modelos son más precisas que el resultado de uno sólo. Una de las razones que hacen que ENSEMBLES sea diferente de los proyectos precedentes estriba en su propia envergadura. “Es el mayor proyecto de este tipo”, afirma Paul van der Linden. El equipo de pronosticadores, diseminado por toda Europa, ha concebido un enorme multimodelo que combina siete modelos de conjunto europeos. Su tamaño le permite proporcionar un nivel de detalle superior a cualquier intento previo. Difiere también de sus predecesores en que pro- research*eu n°63 | ABRIL DE 2010 15 INFORME ESPECIAL CLIMA LOS MODELOS CLIMÁTICOS LOS MODELOS CLIMÁTICOS INFORME ESPECIAL CLIMA Gran aumento Negativo para la mayoría de las regiones Completamente negativo en todas las mediciones. Alto 4 3 Futuro Aumento 2 1 Bajo Fuente: IPCC Riesgos poco elevados Negativo para algunas regiones, positivo para las demás Impacto negativo o positivo en el mercado; la mayoría de las personas salen perjudicadas 0 Pasado -0.6 1 2 3 4 Subida media de las temperaturas por encima del nivel de 1990 (°C) 5 Riesgos elevados Burning embers (brasas ardientes) Del amarillo claro al rojo vivo, este gráfico concebido por el IPCC ilustra los distintos grados de progresión de cinco categorías de riesgos asociados con diferentes niveles de calentamiento del planeta. Publicado por primera vez en el 2001, fue actualizado en el 2007, con un nivel de alerta mucho mayor. 1 Riesgos que corren ciertos ecosistemas (arrecifes de coral, glaciares, especies vivas, etc.). 2 Riesgos meteorológicos extremos (olas de calor, inundaciones, sequías, incendios, huracanes, etc.). 3 Aumento de las desigualdades y de las vulnerabilidades regionales de cara a los impactos (en color amarillo, ciertas zonas que salen favorecidas por el calentamiento pueden contrastar con las que salen perjudicadas; pero en el rojo, todas sufren un impacto negativo). 4 Riesgos de impacto en la economía y los mercados (la misma observación). 5 Riesgos de trastornos a gran escala (subida acelerada del nivel de los mares, acidificación de los océanos, niveles extremos de calor). 5 duce un conjunto a partir de quince modelos regionales que forman parte de siete modelos globales. Los investigadores han estudiado los impactos que podrían tener los cambios climáticos en catorce lugares de Europa. También pueden simular los efectos de un aumento medio de 2°C en Europa sobre la agricultura, la salud, la energía, los recursos hídricos y los seguros. “Tenemos más un enfoque transversal que ‘descendente’”, explica Paul van der Linden. Otra innovación: el desarrollo de un nuevo escenario, llamado E1, que ha sido probado en una serie de modelos climáticos globales. En él se supone que las políticas de reducción de las emisiones resultan ser un éxito y que se logran los objetivos en materia de emisiones. Es un enfoque inverso al de los escenarios del IPCC en el sentido en que se parte de los resultados obtenidos en términos de temperaturas para volver a calcular el nivel de las emisiones. Se llega así a un nivel equivalente CO2 estabilizado a 450 partes por millón en 2140 (los responsables políticos fijaron esta cifra como umbral máximo para que las temperaturas no aumenten más de 2°C). Los resultados implican que 16 research*eu n°63 | ABRIL DE 2010 las emisiones tendrían que bajar a cero al final del siglo, tras haber alcanzado un pico de aproximadamente 12 gigatoneladas de equivalente carbono en el 2010. Está previsto que el próximo informe del IPCC incluya un modelo con el escenario E1. Más precisión en las probabilidades No obstante, no podemos ignorar que, sea cual sea la frecuencia con la que se empleen, los modelos siguen siendo proyecciones, por lo que nunca podrán proporcionar certezas comprobadas. Aunque, a ese respecto, el equipo de ENSEMBLES afirma haber conseguido un logro. El proyecto produce una gama de previsiones evaluadas para decidir qué resultados son más probables. Los investigadores afirman que pueden medir la probabilidad de la exactitud de una proyección determinada, y eso gracias al hecho de que el proyecto recurra a multimodelos. “Por ejemplo, antes podíamos decir que el número de tormentas podría aumentar en un 20 % en una fecha dada. Hoy en día, podemos decir que el 95 % de los resultados refleja que el aumento de las tormentas será del 5 al 20 %”, explica Gregor Leckebusch, climatólogo en el Instituto de Meteorología de Berlín. Fuente: IPCC Subida prevista de las temperaturas durante la última década del siglo (2090-2099) en la hipótesis de que siga el crecimiento económico y que se recurra a una mezcla entre energías fósiles y no fósiles, según uno de los escenarios del IPCC. Según Paul van der Linden, la creación de este modelo constituye un gran paso adelante para la comunidad de los modelizadores climáticos. “Por primera vez, disponemos de probabilidades y, a partir de ahora, los investigadores pueden recurrir a esta base de datos para emplear sus propios modelos”. Sólo queda decir que no hay nada como la realidad para cuestionar los mejores modelos. Por ejemplo, la disminución estival de la banquisa ártica observada en estos últimos años, sólo aparecía como la última etapa de los escenarios de los modelos precedentes, lo que hace temer que se haya subestimado la velocidad de evolución del clima y que tendríamos que revisar de nuevo las previsiones. Elisabeth Jeffries ENSEMBLES 79 socios – 18 países (AT-BE-CH-CZ-DE-DK-ES-FI-FRGR-IE-IT-NL-NO-PL-RO-SE-UK) 2 países no europeos (AU-US) www.ensembles-eu.org ESCEPTICISMO Mientras los científicos del IPCC reúnen, evalúan y sintetizan los estudios que permiten aumentar los conocimientos relacionados con la evolución del clima, algunos ponen en tela de juicio sus conclusiones. E © Shutterstock/Trance Drumer ¿Es la actividad humana la principal causa del calentamiento climático? El debate sigue abierto. n ciencia, una mayoría no forma la verdad. Aunque la mayoría de los expertos en climatología apoyan la tesis general del IPCC (Panel Intergubernamental de expertos sobre el Cambio Climático), que afirma que las actividades humanas muy probablemente están causando un calentamiento climático peligroso, algunos no aceptan esta tesis: los denominados “escépticos del cambio climático”. Sin conocimientos profundos en climatología, el hombre de a pie se suele encontrar desarmado ante los argumentos contradictorios de unos y otros. Además, algunos medios de comunicación, más ávidos de polémica que de auténtica información, aumentan la confusión. Si dejamos de lado a quienes defienden intereses particulares (que emplean estrategias de desinformación que recuerdan las de las tabaqueras de los años ochenta) y a los que consideran el IPCC como el brazo armado de un complot político-ecologista mundial, quedan algunos escépticos sin duda sinceros cuyas declaraciones se basan en argumentos científicos. Aunque dichos argumentos apuntan en todas direcciones, a grandes rasgos podemos clasificar a los escépticos en dos categorías: los que niegan o minimizan el origen antrópico del calentamiento y los que cuestionan su gra- INFORME ESPECIAL CLIMA Todo científico que se precie debe ser escéptico vedad. Los primeros esgrimen elementos que tienden a demostrar que las emisiones de gases de efecto invernadero que proceden de la actividad humana son muy poco responsables (o en absoluto) de la subida de las temperaturas observada desde mediados del siglo XX. Se debería sobre todo a factores naturales. Los segundos, no necesariamente distintos de los primeros, discuten las bases científicas de los escenarios de predicción que proyectan las consecuencias que se pueden esperar del calentamiento. ¿Con qué argumentos cuentan para oponerse así a la opinión de la gran mayoría de los especialistas del clima? La complejidad del sistema terrestre y sus relaciones con el Universo son el punto de partida de la mayoría de las cuestiones y de las incertidumbres que aún puedan existir sobre el origen y las consecuencias del calentamiento climático actual. El sol como motor del calentamiento El argumento más a menudo esgrimido para refutar la tesis del origen humano del calentamiento tiene que ver con la posición de la Tierra en relación al Sol y con la actividad de éste. Desde siempre, lo que ha regido las temperaturas ha sido la intensidad de la actividad solar, la forma de la órbita de la Tierra alrededor del Sol y la inclinación de nuestro planeta en esta órbita. “En el espacio de 800.000 años, si se exceptúan estos dos últimos siglos, efectivamente observamos que los factores naturales, como los cambios muy lentos de la órbita terrestre y la posición de la Tierra en ella, fueron los que desencadenaron los cambios climáticos pasados”, admite Jean-Pascal van Ypersele, vicepresidente del IPCC y climatólogo de la Universidad Católica de Lovaina (Bélgica). Pero aunque estos parámetros varíen en el transcurso de grandes intervalos de tiempo, no bastan para explicar el fuerte aumen- research*eu n°63 | ABRIL DE 2010 17 © CNRS Photothèque/John Pusceddu © CNRS Photothèque/Claude Delhaye Las mediciones de las cantidades de CO2 que se liberan a la atmósfera se realizan en muchos lugares del planeta, con métodos diferentes. © CNRS Photothèque/Jean-Yves Pontailler INFORME ESPECIAL CLIMA ESCEPTICISMO Torre de 35 metros instalada en el bosque de Barbeau (Francia) para medir los flujos de carbono y de agua entre un ecosistema forestal y la atmósfera. Recogida de muestras de agua de mar en el Mediterráneo, efectuadas en el marco del proyecto EPOCA que pretende obtener más información sobre el proceso de acidificación de los océanos. Estos últimos absorben las emisiones de gas carbónico ocasionadas por las actividades humanas, lo que conlleva la acidificación de las aguas. to de las temperaturas registrado desde la revolución industrial. “No mezclemos escalas de tiempo tan diferentes” (1). Y aunque el CO2 seguramente no haya sido el único factor al principio, se piensa que este gas ha tenido un efecto amplificador de los efectos de los cambios producidos a nivel de la distribución y de la cantidad total de energía solar disponible en la superficie de la Tierra. “El punto de partida son los factores astronómicos, y es muy probable que los pequeños cambios climáticos causados por estas fluctuaciones afectasen al ciclo del carbono que a su vez influenció los climas pasados”. Instrumentos incorporados a una cometa que miden la temperatura, el viento y las cantidades de CO2 entre 100 y 200 metros. Este experimento, realizado en Benín, forma parte de la campaña AMMA (Análisis multidisciplinarios del monzón africano). férico. Es una ley química: el CO2 se disuelve mejor en agua fría que en agua caliente. De ahí que una mayor parte de este gas se quede en la atmósfera”. Por lo tanto, la temperatura influye en la concentración de CO2. “Los escépticos tienen razón al decir que en el pasado el CO2 ha tenido una evolución relacionada con la de la temperatura. Pero una vez que se acumula, refuerza el efecto invernadero natural y acentúa el calentamiento. Reforzar la capa de CO2 en la atmósfera es como añadir una manta a la cama: ¡se acaba teniendo más calor!”. Mantener el equilibrio ¿Quién fue primero, la gallina o el huevo? Eso nos lleva a otro punto sensible del debate: la relación entre la concentración de CO2 en la atmósfera y las variaciones de temperatura. Mientras que la mayoría de los climatólogos afirman que una mayor concentración de CO2 en la atmósfera conlleva el aumento de las temperaturas en la Tierra, algunos científicos, por medio de gráficos, argumentan que en el transcurso de los tiempos geológicos, lo que se produjo más bien fue que el aumento de las temperaturas engendró mayores concentraciones de CO2 y no al revés. “De hecho, después de un aumento de temperatura causado por factores astronómicos, los océanos se calientan y son menos aptos para disolver el CO2 atmos- 18 research*eu n°63 | ABRIL DE 2010 Así pues, las relaciones entre los factores astronómicos, la temperatura y la concentración de CO2 en la atmósfera, expuestas por los “escépticos del cambio climático” o por los “convencidos”, si se estudian con detenimiento no parecen diametralmente opuestas. La cuestión clave sería entonces el peso de los gases de efecto invernadero emitidos por el hombre en este complejo sistema terrestre. Y en eso también las opiniones son divergentes. Para los “escépticos” tienen muy poco peso mientras que para los “convencidos” tienen un peso enorme. “La concentración de CO2 en la atmósfera es ridícula comparada con la del vapor de agua, que es el principal gas de efecto invernadero (GEI), y las emisiones naturales de CO2 son mucho mayores que las causadas por las actividades humanas”, suelen argumentar los escépticos. Efectivamente, el efecto invernadero es un fenómeno natural que hace que la vida sea posible en la Tierra. Sin él, en la superficie del planeta haría -18°C en vez de 15°C por término medio. “En realidad, el vapor de agua es el principal gas de efecto invernadero. Pero el problema no es el efecto invernadero en sí, sino su intensificación, bien documentada y registrada por satélite desde hace cuarenta años, que se debe sin duda a las actividades humanas. Los análisis de la composición isotópica del CO2 atmosférico demuestran que el aumento de CO2 en la atmósfera hay que achacarlo a los combustibles fósiles”. No obstante, es verdad que las emisiones naturales de CO2 son mucho mayores que las que se deben a las actividades humanas. “En el año 1997, en una conferencia sobre el ciclo del carbono ofrecida en la Federación petrolera de Bélgica, un climatólogo dijo que los flujos de carbono de origen natural eran aproximadamente de 200 mil millones de toneladas al año, frente a las 8 mil millones de toneladas de origen humano. Por lo tanto, pensaba que era ridículo intentar acabar con esta ridícula cifra del 4 % que representan las emisiones antrópicas”. Pero todo es una cuestión de equilibrio. “Lo que no dijo es que los sistemas naturales reciclan sus emisiones, particularmente gracias a la fotosíntesis”. Parece ser que estos sistemas Un portazo al IPCC Los modelos climáticos(2) en los que se basa el IPCC para hacer sus previsiones también suscitan el debate. ¿Son fiables? Los más escépticos consideran que no se conocen lo suficientemente los parámetros que influyen en el clima terrestre como para sacar conclusiones. “No hay ninguna certeza en la ciencia, pero los modelos climáticos no son simples extrapolaciones estadísticas, a diferencia de lo que algunos piensan”. Los modelos, que se basan en leyes físicas, químicas y biológicas bien establecidas, tienen que poder simular antes que nada el clima actual. La etapa siguiente consiste en comprobar que también pueden reproducir los climas del pasado. “Esto permite validar la herramienta sobre las observaciones del clima de siglos, milenios, e incluso de cientos de miles de años pasados, efectuadas sobre todo gracias a los testigos de hielo. Luego podemos utilizar los modelos, no para predecir el clima futuro, porque eso no es posible, sino para efectuar proyecciones”. Y según los modelos, estas proyecciones varían enormemente con arreglo a los futuros escenarios de emisiones de GEI… En el documental de Martin Durkin, “The Great Global Warming Swindle”, aparecen científicos que dejaron el IPCC por desacuerdo con las proyecciones de los informes destinados a los responsables políticos. Unos expertos en climatología que dan la espalda a sus colegas dan que pensar. “A pesar de que sea un grupo de expertos intergubernamental, el proceso de elaboración de los informes es muy independiente. Los autores redactan los textos basándose en la literatura científica y estos textos se someten a tres ciclos de relectura, por parte de los expertos y de los gobiernos”. Cada comentario asociado con una línea o un párrafo se escribe en un cuadro y los autores indican luego su postura al respecto. Un grupo de relectores garantiza una evaluación honesta de cada comentario por los autores. Y, por razones de transparen- Mil años de clima en Europa E l objetivo del proyecto Millennium European Climate, del Sexto Programa Marco, es determinar si los cambios climáticos actuales exceden la variabilidad natural del clima europeo observada a lo largo de este último milenio. Los investigadores de los 40 institutos de investigación y universidades que participan en dicho proyecto han Extracción de un testigo de hielo aunado sus conocimientos en varios campos para intentar realizada en la Antártida en el marco reconstruir los climas pasados del Viejo Continente. “Es un del programa EPICA. proyecto pluridisciplinario que utiliza diferentes enfoques tales como el análisis de archivos históricos, de anillos de crecimiento de árboles, de sedimentos de lagos, de testigos de hielo, así como la modelización”, indica Rob Wilson, paleoclimatólogo de la Universidad de Saint Andrews, en Escocia (Reino Unido). “Cada enfoque tiene sus puntos fuertes y sus puntos débiles, y utilizamos lo mejor de cada tipo de datos para establecer un historial del clima de Europa a lo largo de los últimos mil años”, continúa. Una vez recopilados y analizados los datos, se comparan con los resultados obtenidos por modelización. “Si estas dos fuentes de información independientes concuerdan, eso nos permite no sólo comprender mejor los cambios climáticos pasados, sino también identificar los factores que dominan estos cambios en los diferentes períodos”, explica el investigador. Como el proyecto Millennium European Climate no acaba hasta junio de 2010, sus resultados finales aún no están disponibles, pero los análisis preliminares efectuados hasta la fecha a escala europea “globalmente van en el sentido de las conclusiones del IPCC”, precisa Rob Wilson. http://137.44.8.181/millennium cia, los cuadros están accesibles a todos en la página web del IPCC. “Un informe es el fruto del trabajo de centenares de autores, y de unos 2.500 expertos que participan en las relecturas. Es inevitable que algunos, en un momento dado, se sientan incómodos por no poder transmitir sus ideas sin que se vean confrontadas con otros aspectos de la literatura o con comentarios, y eso no quiere decir que no sean buenos científicos”. Escepticismo en ambos bandos… ¿Acaso se trate de una simple disputa de expertos? En todo caso, el debate a veces es muy acalorado. Ciertos escépticos hablan del “pensamiento único” del IPCC, mientras que a ellos se les califica de “negacionistas” o de “revisionistas”. Además, la dramatización de la controversia en algunos medios de comunicación y en numerosos blogs contribuye a implantar una visión maniquea de este asunto, como si se redujese a una cuestión de fe. Frente a estas voces fuertes y discordantes, el gran público ya no sabe qué postura adoptar frente al actual “tira y afloja” del debate climatológico, olvidando quizás que la duda es una parte indisociable de la búsqueda de la verdad. “Todo científico que se precie debe ser escéptico. No veo por qué algunos tendrían que tener el monopolio del escepticismo”. Por supuesto, los desafíos económicos, políticos y sociales son enormes. Si la influencia de las actividades humanas sobre el clima es mínima, corremos el riesgo de hacer enormes esfuerzos para nada, aunque sea cierto que los destinados a paliar la futura escasez de recursos fósiles siguen siendo vitales para nuestro futuro energético. Si, por el contrario, el factor antrópico pesa tanto sobre el frágil equilibrio natural hasta el punto de desarreglarlo para siempre, no hacer nada para reducirlo y no prepararse para las consecuencias de su impacto equivale a ser culpable de grave negligencia de cara a las próximas generaciones. Audrey Binet, Jean-Pierre Geets (1) Todas las citas sin atribuir son de Jean-Pascal van Ypersele. (2) Véase el artículo “Las herramientas de diagnóstico” en este número. IPCC www.ipcc.ch Noticias científicas sobre el cambio climático www.realclimate.org research*eu n°63 | ABRIL DE 2010 19 INFORME ESPECIAL CLIMA absorben tanto dióxido de carbono como el que emiten. “Es una balanza en equilibrio: si se añade el CO2 antrópico por un lado, se desequilibra completamente”. Eso por no hablar de la desforestación masiva que está experimentando nuestro planeta y que está disminuyendo el peso al otro lado de la balanza… © CNRS Photothèque/IPEV/Claude Delhaye ESCEPTICISMO BREVES Ofensiva genética contra el Alzheimer © Inserm/Catherine Fallet-Bianco Dos estudios, cuyos resultados han sido publicados conjuntamente en la revista Nature, han permitido identificar tres nuevos genes implicados en la enfermedad de Alzheimer. Los dos primeros, el gen de la clusterina (CLU) y el CR1, fueron descubiertos por el equipo de Philippe Amouyel, profesor de epidemiología y de sanidad pública en la Universidad de Lille 2 (Francia). Las mutaciones de estos genes conllevarían problemas de eliminación del péptido beta-amiloide, nefasto para el sistema nervioso y que se acumula en el cerebro de los que padecen esta enfermedad. permitieron determinar su nivel de presencia en los genes de 20.000 individuos sanos y enfermos. Si bien estos análisis han sacado a la luz la implicación del gen PICALM en la aparición de esta demencia, el papel del mismo está aún por determinar. www.univ-lille2.fr www.alzheimers-research.org.uk Del misterio del litio a los exoplanetas Hace ya más de sesenta años que los científicos se preguntan por qué el Sol contiene menos litio que otras estrellas similares. Según un estudio publicado en noviembre de 2009 en la revista Nature por el equipo del astrofísico Garik Israelian, del Instituto de Astrofísica de Canarias (España), se ha resuelto el misterio: es porque nuestra estrella está rodeada de planetas. Desde hace varios años, el Observatorio Europeo Austral (ESO, por sus siglas en inglés) observa Exoplaneta Gliese 581 (ilustración). Por lo tanto, cualquier investigación que consiguiera la supresión del péptido beta-amiloide sería una pista de tratamiento. Simultáneamente, un equipo británico dirigido por Julie Williams del Alzheimer Research Trust (Reino Unido) también puso las miras en el gen CLU, así como en el tercer gen denominado PICALM. Los chips de ADN utilizados para esta investigación 20 research*eu n°63 | ABRIL DE 2010 © ESO/L.Calçada Corteza cerebral. 500 estrellas, 70 de ellas rodeadas por planetas, con la ayuda del espectrógrafo HARPS (High Accuracy Radial Velocity Planet Searcher) de su telescopio de 3,6 metros de diámetro en La Silla (Chile). Estudiando sólo las estrellas similares al Sol (cerca de una cuarta parte de la muestra), Garik Israelian y su equipo descubrieron que la mayoría de las que estaban rodeadas de planetas contenían alrededor de 100 veces menos litio que las demás. El litio, un elemento ligero, compuesto por tres protones y cuatro neutrones, probablemente surgió poco después del Big Bang, hace aproximadamente 13.700 millones de años, y en teoría tendría que estar presente en la mayoría de las estrellas en proporciones comparables. Por lo tanto, todo apunta a que la formación o la presencia de planetas alrededor de una estrella hace que ésta pierda litio, a través de un mecanismo aún por descubrir. En todo caso, esta constatación seguramente despertará la curiosidad de los “cazadores de exoplanetas”, porque la carencia de litio en las estrellas constituye ahora un serio indicio de la presencia de estos planetas extrasolares. www.eso.org Una bacteria marina contra el cáncer Toda la atención de la sociedad Nereus Pharmaceuticals, con sede en San Diego (Estados Unidos), y de bioquímicos de la Universidad Técnica de Munich (Alemania) se ha centrado en la bacteria Salinispora tropica, por su nombre en latín, una bacteria marina que produce una molécula que podría ser la sustituta idónea de los fármacos inhibidores de proteasomas. Estos últimos, utilizados para impedir la proliferación de las células cancerosas, provocan efectos secundarios graves porque actúan también en las células sanas. © Inserm/Jenny Valladeau NOTICIAS EUROPEAS Fragmentos de células cancerosas. Los proteasomas son unos complejos enzimáticos encargados del tratamiento de los desechos dentro de las células. Al desactivarse se condena a las células a morir asfixiadas en sus propios residuos. La bacteria Salinispora tropica produce una molécula mortífera que tiene exactamente el mismo efecto. Crea una abertura en el proteasoma, luego lo obstruye, como una llave rota en una cerradura. Según los investigadores, se trata de una forma más apropiada de bloquear a los proteasomas. Ahora que se conoce bien el mecanismo, hace falta modificarlo para crear BREVES http://portal.mytum.de/ welcome/ Recuerdos grabados © Shutterstock/Lulu Duraud ¿Por qué determinados recuerdos se quedan grabados para siempre en nuestra memoria, mientras que otros desaparecen rápidamente? Todo se basa en la capacidad de nuestro cerebro de convertir las nuevas impresiones sensoriales en recuerdos perennes. La primera etapa de este proceso consiste en almacenar los recuerdos sólo durante algunas horas, gracias a una alteración de la transmisión neuronal que induce una serie de cambios químicos en las conexiones sinápticas. ¿Pero cómo estos recuerdos recientes se pueden quedar grabados durante mucho tiempo en la corteza cerebral? Investigadores del Karolinska Institutet (Suecia), en colaboración con el National Institute on Drug Abuse (NIDA) estadounidense, han sacado a la luz el papel de la “Y de pronto el recuerdo surge. Ese sabor es el que tenía un trocito de magdalena” (Marcel Proust) molécula receptora nogo receptor 1 (NgR1), tras haber conseguido activar y desactivar la capacidad de formar recuerdos duraderos en ratones genéticamente manipulados. Parece ser que para que se puedan formar recuerdos duraderos se tiene que desactivar el gen responsable de esta molécula. De hecho, cuando los investigadores insertaron un gen NgR1 programado para permanecer activo mientras que el gen NgR1 original de los ratones no lo estaba, los roedores tenían mucha más dificultad en convertir recuerdos inmediatos en recuerdos duraderos. Un descubrimiento en el que pensar como nueva pista para crear tratamientos contra los trastornos de la memoria. Lo que significa que, además de la esterilidad, estos pacientes suelen padecer más problemas de salud que la población fértil. Teniendo en cuenta el pequeño tamaño de la muestra, aún es pronto para sacar conclusiones generales; harán falta estudios a mayor escala para confirmar estos resultados. © Shutterstock/Sebastian Kaulitzki inhibidores de proteasomas dirigidos a las células enfermas. Estos resultados, si se aplicasen al hombre, podrían tener un impacto sobre las técnicas de reproducción humana asistida. Podrían permitir mejorar la protección de los espermatozoides de cara a los fuertes trastornos oxidativos que se dan en el momento de la descongelación que precede la inseminación artificial. www.inserm.fr http://ki.se …y de los hombres La fragilidad de los estériles espermatozoides… Según la Unidad de genética, reproducción y desarrollo, que reúne a investigadores de varios centros franceses, una proteína antioxidante, GPx5, protege a los espermatozoides. Estos últimos adquieren sus capacidades de fecundación en el momento de su maduración dentro del epidídimo. Sin embargo, los más frágiles pueden sufrir una fragmentación de su ADN tras un estrés oxidante. Y es ahí donde interviene la proteína GPx5. Los investigadores descubrieron que algunos ratones machos privados de esta proteína poseían espermatozoides morfológicamente normales, pero que la fecundación en óvulos de hembras silvestres provocaba defectos de desarrollo, así como el aumento del número de abortos y de la mortalidad perinatal. Los hombres estériles tienen una salud más frágil que la población de hombres fértiles, según un artículo publicado en diciembre de 2009 en el boletín de la Asociación Europea de Urología. El artículo se basa en las conclusiones de un estudio prospectivo realizado entre septiembre de 2006 y 2007 en la Universidad de Milán (Italia), por el equipo del urólogo Andrea Salonia, con 344 hombres estériles de 18 a 60 años de edad. En comparación con el grupo de control, que contaba con 293 hombres fértiles de edades análogas, se vio que los hombres menos fértiles alcanzan un índice de comorbilidad mucho mayor en la escala de comorbilidad de Charlson, que cataloga todas las patologías comórbidas (que afectan al paciente de forma simultánea) en las personas mayores. www.europeanurology.com Con la materia negra no se dio en el blanco Hace algunos años, los astrofísicos se preguntaban cuál era el origen de los flujos de electrones y de positrones detectados en la Vía Láctea. La hipótesis más probable en esa época era que estas partículas elementales estaban producidas por la misteriosa materia negra. En realidad, no tiene nada que ver, según un estudio publicado en agosto de 2009 en la revista Physical Review Letters, llevado a cabo por un equipo de investigadores entre los que estaba la astrofísica Julia Becker de la Ruhr-Universitaet Bochum y el físico Wolfgang Rohde de la Technische Universitaet Dortmund de Alemania. Según este estudio, los flujos detectados provienen del plasma eyectado en el momento de la explosión de estrellas macizas cuya masa es más de 15 veces superior a la del Sol. Este plasma acelerado choca con el viento solar constituido por partículas que provienen a su vez de explosiones anteriores, teniendo como consecuencia la formación de una onda de choque. En función de la alineación de la misma con el campo magnético de la estrella remanente, la señal que emerge es unas veces débil, y otras de energía muy alta. Este modelo concuerda perfectamente con las observaciones, lo que hace que los research*eu n°63 | ABRIL DE 2010 21 Centro de la Vía Láctea. Pulmón de ratón. autores afirmen que se tendrá que buscar en otro lugar la prueba de la existencia de la materia negra. reactiva el sistema inmunitario de los pulmones y provoca un estrechamiento de los bronquios que conlleva una mala oxigenación. Por lo tanto, los investigadores emiten la hipótesis de que el desarrollo del asma se deba a una deficiencia de los macrófagos reguladores en un momento dado de la vida de un individuo. www.ruhr-uni-bochum.de www.tu-dortmund.de Células que contrarrestan el asma Investigadores del Grupo Interdisciplinario de Genoproteómica Aplicada (GIGA) de la Universidad de Lieja (Bélgica), dirigidos por el biólogo y veterinario Fabrice Bureau, han descubierto células capaces de impedir las reacciones asmáticas en los pulmones de ratón. Estas células, que son unos macrófagos reguladores, están asociadas con las células dendríticas presentes en los pulmones, cuyo papel es presentar los antígenos a los linfocitos T en los ganglios linfáticos. Parece ser que los macrófagos reguladores detectarían los antígenos que inhalamos sin cesar así como las moléculas inmunoestimuladoras que los acompañan, impidiendo la migración de las células dendríticas hacia los ganglios linfáticos y, por lo tanto, la reacción del sistema inmunitario frente a estos alérgenos inofensivos. La respuesta inmunitaria desarrollada por las personas asmáticas frente a los alérgenos presentes en el aire es inútil, incluso nefasta. De hecho, cada exposición a estos alérgenos 22 research*eu n°63 | ABRIL DE 2010 www.ulg.ac.be La cara beneficiosa del efecto invernadero Hace cuatro mil millones de años, el Sol era tan sólo una joven estrella un 30 % menos caliente que hoy en día, y la Tierra, sin efecto invernadero para calentarla, sin duda no habría podido tener vida. Una vida que se debe al oxisulfuro de carbono (COS) derivado de la actividad volcánica que experimentó durante varios milenios, según un estudio publicado en agosto de 2009 en Proceedings of the National Academy of Sciences (PNAS). Los autores, el químico Matthew Johnson y sus colegas de la Universidad de Copenhague, así como un equipo del Instituto de Tecnología de Tokio, estudiaron unas rocas muy antiguas y descubrieron en ellas una extraña distribución de los isótopos de azufre que no podía haberse dado por procesos geológicos. Persuadidos de que había intervenido un factor atmosférico, irradiaron dióxido de azufre (SO2) con luz solar a diferentes longitudes de onda y, efectivamente, llegaron a reproducir la distribución de los isótopos de azufre de las rocas. Para los investigadores, estos resultados revelan claramente que el oxisulfuro de carbono, formado a partir del azufre arrojado por los volcanes, constituye la mejor pista para explicar el efecto invernadero que experimentó la Tierra en sus inicios. Consideran que una cubierta atmosférica de COS, más eficaz que el CO2, habría bastado para compensar el 30 % de energía que no podía aportar el Sol. Además, habría facilitado la aparición de la vida puesto que, como el ozono (O3), detiene la radiación ultravioleta. ¿Pero cómo explicar, con tal cubierta, la glaciación que habría experimentado la Tierra hace 2.500 millones de años? Precisamente por la aparición de la vida, que se tradujo en la liberación de grandes cantidades de oxígeno. En una atmósfera oxidada, el azufre de los volcanes ya no habría producido COS, sino aerosoles sulfatados que habrían tenido el efecto contrario. En resumidas cuentas, tendremos que tomar en consideración los gases presentes en la atmósfera… www.chem.ku.dk Descubrimiento que arroja luz sobre el VIH La proteína fluorescente verde, cuyo descubrimiento fue coronado con el Premio Nobel de Quími- ca en el 2008, se ha convertido hace poco en una nueva pista a seguir en las investigaciones sobre el SIDA. Gracias a ella, investigadores de las universidades de Munich y de Heidelberg (Alemania) han conseguido observar detalladamente y en tiempo real el proceso de replicación del VIH-1 y cómo se liberan estos nuevos virus para infectar las células próximas. Para logarlo, el biofísico Don Lamb de la Universidad de Munich, quien dirigió las investigaciones, utilizó células de cultivo que contenían 8 de los 9 genes del VIH-1, manipulando a uno de ellos para obtener una forma fluorescente de la proteína GAG (del inglés “group-specific antigen”), que compone la cápside vírica (su cubierta). El estudio, apoyado en parte por el Séptimo Programa Marco y publicado en PloS (Public library of Science) Pathogens, demuestra que al activarse el proceso de © Inserm/Philippe Roingeard © ESO/S. Gillessen et al. © Inserm/Michel Depardieu BREVES Gemación del virus del SIDA. El virus sale de la célula infectada valiéndose de socios celulares del citoesqueleto, muy presentes a nivel de prolongamientos celulares denominados filopodios. ensamblaje del VIH-1, la membrana de la célula huésped se ve recubierta por el virus en tan sólo una o dos horas. Cada uno se ensambla individualmente (y no desde una plataforma de BREVES Courtesy Institute of Physics, University of Stuttgart LA INVESTIGACIÓN VISTA CON LUPA gemación reutilizable, como se piensa que existe en el caso de otros virus) a partir de las proteínas virales sintetizadas por la célula infectada en aproximadamente 25 minutos. Los investigadores también pudieron determinar si los virus visibles en la superficie de una célula fueron producidos por ésta o bien si provenían de células próximas que ya estaban infectadas. Hasta ahora se sabía poco sobre los mecanismos de contaminación intercelular del virus del Sida. Estos descubrimientos aportan una nueva dimensión dinámica a este proceso. www.cup.uni-muenchen.de www.plospathogens.org La paradoja de los agujeros Haga agujeros en una película de oro tan fina que ya sea semitransparente y obtendrá una película… ¡más opaca! Esta es la conclusión del equipo de investigadores del Physikalisches Institut de la Universität Stuttgart (Alemania). ¿Es sorprendente? Sólo a medias, porque se sabe que a causa de su naturaleza ondulatoria, la luz no puede pasar a través de los agujeros con un ancho inferior a su longitud de onda. Sin embargo, los metales a veces se convierten en la excepción de la regla. Hace una década, unos investigadores demostraron así que ante una determinada disposición de los agujeros, la luz incidente creaba ondas, a través de los electrones del metal, que se propagaban por toda la superficie. La interacción de estos plasmones con la luz engendraba la transmisión de ésta a través de la película. No obstante, las películas de oro utilizadas respondían a estas condiciones de transmisión (20 nm de espesor y agujeros de 200 nm de diámetro) y, sin embargo, el nivel de luz transmitida era inferior al de la película no perforada. Los científicos cuestionan la naturaleza semitransparente de la película que deja pasar el 40 % de la luz. El 60 % restante sería insuficiente para permitir que los plasmones desempeñen su papel. Además, el índice de transmisión parece depender enormemente de la longitud de onda, puesto que los infrarrojos generan una absorción muy fuerte. Por lo tanto, el estudio alemán aporta un nuevo enfoque a los conocimientos pasados. El dominio de estas interacciones particulares podría llevar a la elaboración de chips plasmónicos integrados para filtrar determinadas longitudes de onda. www.uni-stuttgart.de ¿Nuevas ciencias? En un artículo publicado en la revista Mi Minerva, A Andrea d B Bonaccorsi,i profesor f de economía de la innovación y de sociología de las ciencias en la Universidad de Pisa (Italia), intenta describir las características de lo que él denomina “las nuevas ciencias”, o sea, conocimientos organizados que se fueron desarrollando después de la segunda guerra mundial: las ciencias de la información, las ciencias de los materiales y las ciencias de la vida basadas en la biología molecular que, según él, son estructuralmente diferentes de disciplinas clásicas como la física, la química o la astronomía. El profesor destaca que, contrariamente a lo que a menudo se dice, el enfoque de las nuevas ciencias no está menos marcado por el “reduccionismo” que el de las antiguas ciencias, la voluntad de “sustituir lo visible complejo por lo invisible simple”, por retomar la célebre expresión del físico francés Jean Perrin. Tampoco se distinguen estas ciencias por su carácter interdisciplinario ni, en lo fundamental en todo caso, por una orientación más aplicada, en respuesta a las necesidades sociales y a las presiones económicas. En su opinión, lo que esencialmente las define es su dinámica de investigación, una dinámica más “industrial”, caracterizada por un índice de crecimiento rápido y una gran diversificación que va de la mano con una tendencia a una ramificación divergente de las problemáticas: cada hipótesis explicativa da lugar a la apertura de un nuevo programa de investigación. Para establecer su tesis, Bonaccorsi explota los resultados de un análisis comparado de la frecuencia de aparición de nuevas palabras en publicaciones científicas que provienen, por una parte, de estos tres nuevos campos de investigación y por otra, de un campo tradicional bien establecido como es la física de altas energías. No obstante, estas opiniones tan interesantes tienen que ser matizadas y completadas. Además, sin duda habría sido posible decir todo esto de forma más breve y simple. Pero no nos quejemos: comparado con muchos de sus colegas universitarios, el estilo de Andrea Bonaccorsi (casi) es el de Voltaire. Michel André research*eu n°63 | ABRIL DE 2010 23 ENTREVISTA Harald zur Hausen – “Como ya teníamos la clave genómica del origen de los VPH, queríamos desarrollar vacunas”. Su premio Nobel corona toda una vida de “investigador de fondo”, dedicada por completo al cáncer y, en particular, a los virus infecciosos que lo provocan. ¿Qué le hizo dedicarse a ello? Desde mi doctorado en medicina, en los años sesenta, me interesé por las investigaciones (por entonces incipientes) sobre el papel de los virus en la aparición del cáncer. En aquella época, aunque ya se había comprobado el origen infeccioso de algunos tumores cancerosos de animales a principios de siglo, aún avanzábamos a tientas entre algunas pistas hipotéticas en lo referente a los procesos virales que podían darse en los seres humanos. En Estados Unidos, empecé trabajando con Gertrude y Werner Henle en el estudio de los linfomas de Burkitt(1) que, en 1964, los biólogos ingleses Michael Epstein y Yvonne Barr habían asociado con el herpesvirus EBV (Epstein-Barr Virus), que lleva su nombre. Para mí, el elemento clave era 24 research*eu n°63 | ABRIL DE 2010 Courtesy Deutsches Krebsforschungszentrum Un “investigador de fondo” El premio Nobel de medicina de 2008 ha destacado la importancia de tres científicos pioneros europeos que contribuyeron, de forma decisiva, a la lucha contra dos grandes plagas infecciosas: el virus VIH del SIDA, descubierto por los franceses Luc Montagnier y Françoise Barré-Sinoussi, y los virus del papiloma humano, identificados como causantes del cáncer de cuello uterino por el virólogo alemán Harald zur Hausen. Entrevista a quien ha hecho posible la creación de las primeras vacunas preventivas para este cáncer. conocer el papel que desempeñaba este virus en el genoma de las células epiteliales. Al regresar a Alemania, pude constituir un grupo de investigación en el Instituto de Virología de Würzburg. Descubrimos que, cuando se efectuaba el contagio, el ADN del virus EBV se podía observar en células del linfoma de Burkitt que aún no producían virus. Fue un resultado importante, puesto que demostraba que el crecimiento posterior de los tumores tenía una causa genómica. ¿A partir de entonces usted se centró en el estudio del cáncer de cuello uterino? En efecto, este bagaje me sirvió para estudiar esta enfermedad (la segunda causa de cáncer en las mujeres), cuyo posible origen infeccioso se solía atribuir por entonces al herpesvirus de la variedad simplex, propagado por vía sexual. Pero las técnicas de identificación de ADN que habíamos conseguido dominar no confirmaban ningún resultado en ese sentido. Frente a estos fracasos, sentí curiosidad por los informes de “pequeñas cirugías” (algunos databan incluso del siglo XIX) relativos a las lesiones provocadas por verrugas genitales, que hasta entonces se asociaban con otro agente infeccioso poco conocido, el virus del papiloma humano, o VPH(2). Muy pocos investigadores explorábamos esta pista. En el año 1974, durante una conferencia de virología que se celebraba en Florida, mi ponencia sobre estas verrugas genitales, en la que descartaba la pista del herpes simplex, suscitó una gran perplejidad. Nuestro grupo (por entonces yo dirigía el Instituto de Virología de la Universidad de Friburgo) estableció una estrecha colaboración con el equipo del francés Gérard Orth. Ellos tenían la misma intuición y estudiaban ENTREVISTA el aspecto hereditario del VPH. Nos reunimos varias veces para intercambiar resultados y debatirlos. Supuso una experiencia fructífera de competición cooperativa. La investigación fue larga. Primero conseguimos extraer ADN de VPH a partir de verrugas plantares. Pero, a nuestro gran pesar, no encontramos ningún rastro similar en las biopsias de verrugas genitales. No obstante, esta constatación nos hizo comprender que el virus VPH tenía múltiples formas diferentes. En 1983, un estudiante de nuestro instituto, Mathias Dürst, fue el primero en conseguir clonar un nuevo tipo específico, el VPH-16, que resultó ser el foco infeccioso directo de aproximadamente la mitad de los cánceres de cuello uterino. Dos años después, aislamos el VPH-18. Hoy en día, se han logrado identificar 115 virus de papiloma humano diferentes, pero ya por entonces habíamos identificado los dos tipos de VPH responsables de siete de cada diez cánceres cervicales(3). Desde hace algunos años, la vacunación preventiva contra estos cánceres, única en su género, se ha ido generalizando. ¿Usted ha participado en el largo camino hacia este avance médico? Como ya teníamos la clave genómica del origen de los VPH, queríamos desarrollar vacunas. En los años ochenta contacté con una empresa farmacéutica alemana, pero tras algunas negociaciones, sus responsables concluyeron que no habría mercado para este producto. Fue un período un poco frustrante. Habíamos difundido ampliamente los conocimientos adquiridos, incluyendo las muestras y los protocolos de laboratorio. Era un poco ingenuo en aquella época y no pensaba en términos de explotación industrial y de transferencia de tecnología. Nuestros resultados y nuestros métodos fueron retomados y patentados por otros. A partir de 1983, fundé el Centro alemán de investigación sobre el cáncer, con sede en Heidelberg, que dirigí durante veinte años, ampliándose mi horizonte de investigación en cancerología. con los cánceres por vía infecciosa, que representan por lo menos un cáncer de cada cinco. Es un área de investigación extremadamente compleja, puesto que existen diferentes posibilidades de infecciones primarias y el desencadenamiento del fenómeno canceroso puede presentarse mucho después. Pero tales vacunas son tan seguras como las demás vacunas administradas a los niños o a los adolescentes. Un estudio australiano sobre el seguimiento de más de 200.000 chicas comprobó que dichas vacunas tenían complicaciones ínfimas. En cuanto a su eficacia, probada en laboratorio, evidentemente es demasiado pronto para confirmarla en términos de resultados. Al ser preventivas y no terapéuticas, estas vacunas deben ser administradas antes de la posibilidad de un contagio, es decir, antes de las primeras relaciones sexuales. Luego, el tiempo de latencia es muy largo. La acción cancerígena del VPH puede darse más de dos décadas después del contagio. No se podrá saber si se han reducido los cánceres cervicales hasta que pase ese plazo. El rechazo a estas vacunas de una parte de la opinión pública es irracional. En el caso del VPH, relacionado con la transmisión sexual en la nubilidad, este rechazo se debe a los tabúes culturales, sociales o religiosos. Sin embargo, la ventaja inmediata de la vacuna contra el VPH es que al impedir el contagio y la aparición de lesiones disminuye las ablaciones quirúrgicas, a menudo ineficaces (el 20 % de las lesiones pasan inadvertidas) y que a veces reducen drásticamente la fertilidad femenina. En cambio, lo que sigue siendo preocupante, es el elevado coste de esta vacuna, lo que impide realizar la prevención en las mujeres de los países en desarrollo, donde se registran más del 80 % de los cánceres cervicales y se estima que causan 250.000 defunciones cada año. Es un reto para la dimensión económica de la política de sanidad. Los países emergentes, como China o la India, posiblemente podrán conseguir este reto. Algunos medios de comunicación europeos han dudado de la pertinencia y la eficacia de ambas vacunas preventivas que se administran desde hace poco tiempo. ¿Qué opina de este recelo? Estas vacunas representan una innovación muy importante. Por primera vez, se trata de prevenir alteraciones genéticas relacionadas Usted ha desarrollado casi toda su carrera de investigador sin abandonar el sistema universitario alemán. ¿Qué piensa del concepto del Espacio Europeo de la Investigación? Cuando regresé de Estados Unidos, el sistema de las fundaciones alemanas me dio una gran libertad de medios para financiar investigaciones cuyos objetivos no eran obvios en términos de resultados. En Estados Unidos, la investigación es muy eficaz, pero está más orientada hacia los campos “con futuro”. Yo diría que, hasta hace poco, Europa a menudo ha sido capaz de dejar un lugar más amplio a las ideas originales de la investigación fundamental. Sin embargo, me temo que se está dejando llevar por un enfoque similar al de Estados Unidos. ¿Qué papel cree que tienen los programas de investigación europeos? El Centro alemán de investigación sobre el cáncer participa activamente en los proyectos europeos. Yo mismo he estado implicado más o menos activamente en numerosos proyectos de virología, de genómica y de biología molecular. No obstante, creo que hay que evitar caer en una trampa, la de querer interconectar a todo el mundo, cueste lo que cueste, multiplicando las redes. Lo indispensable para los científicos es poder elegir. Saben donde están sus competidores y donde están sus aliados, y deben poder decidir cómo extender el campo de sus iniciativas. Por ejemplo, aquí, en Heidelberg, hemos acogido por primera vez a un equipo completo de investigadores procedentes del INSERM (Francia), para realizar trabajos en común. A pesar de los posibles problemas de adaptación cultural y material, este tipo de sólida colaboración entre equipos que abogan por la excelencia me parece muy beneficioso. Entrevista de Didier Buysse. (1) Una forma de tumor canceroso endémico en niños africanos. (2) De Human Papillomavirus. (3) En medicina, el término “cáncer cervical” se aplica al cáncer de cuello uterino. DKFZ – Centro alemán de investigación sobre el cáncer www.dkfz.de/en/zurhausen/ research*eu n°63 | ABRIL DE 2010 25 REPORTAJE © Laurence Buelens “Relájese y escuche mi voz” La Reina Fabiola de Bélgica contribuyó mucho a dar a conocer la anestesia hipnótica, que experimentó en el 2009. Esta práctica, desarrollada en el Centro Hospitalario Universitario de Lieja (Bélgica), ha ido ganando adeptos también en Francia, en Suiza o incluso en Estados Unidos, pero Bélgica sigue siendo la pionera. A continuación, les presentamos un reportaje sobre las Clínicas Universitarias Saint-Luc en Bruselas, donde asistimos a una operación de la carótida bajo hipnosis. U sted está conduciendo su coche. De repente, se da cuenta del camino que ha recorrido, y comprende que durante todo este tiempo tenía la mente en otro lugar. Este estado, extremadamente corriente, es tan sólo un ligero trance hipnótico: un estado de conciencia modificado, otra percepción del mundo, en la cual aflora el inconsciente… “Hay que tener mucho cuidado con los términos que se emplean. El inconsciente no integra las negaciones: si usted le pregunta al paciente si no tiene miedo o si no teme el dolor, va a retener únicamente las palabras ‘miedo’, ‘temor’ y ‘dolor’, que tienen una connotación 26 research*eu n°63 | ABRIL DE 2010 negativa. Eso puede arruinar todo el proceso”, advierte Christine Watremez, anestesista en Saint-Luc, antes de que veamos a Jean, que está a punto de someterse a una endarterectomía(1) para tratar una estenosis carotídea. Ya aquellas palabras se quedaron lejanas cuando, en vísperas de su operación, le preguntamos a este simpático jubilado cómo se encontraba de ánimo: “Tranquilo, relajado… ¡Estoy sorprendido de mí mismo! Ya me he sometido a varias intervenciones bajo anestesia general y siempre me ha sentado mal. Cuando me dijeron que era posible evitarla operándome bajo hipnosis, no lo dudé un instante”. Hace ya seis años que se practica la anestesia hipnótica (o hipnoanestesia) en Saint-Luc. Además de Christine Watremez, la clínica cuenta con otras tres anestesistas especialistas en esta técnica. Realizan por término medio dos operaciones bajo hipnosis al día. Según Fabienne Roelants, una de ellas, los pacientes se clasifican en cuatro categorías: “Algunas personas, como este paciente, no aguantan bien la anestesia general; luego están los trabajadores autónomos que desean volver lo más rápidamente al trabajo; otros pacientes están demasiado débiles y nadie se atreve a anestesiarlos, así que nos los envían, y finalmente están los pacientes que sienten curiosidad por la técnica”. REPORTAJE Los mecanismos de la analgesia hipnótica © Laurence Buelens L Christine Watremez (a la izquierda) y Fabienne Roelants, dos de las cuatro especialistas del Hospital St Luc (de Bruselas) con formación en anestesia hipnótica. Evitar el coma farmacológico La anestesia general consiste nada más y nada menos que en someter al paciente a un coma farmacológico reversible en el que una serie de aparatos médicos se encargan de sus funciones respiratorias y cardíacas. Para ello se le suministra al paciente un cóctel compuesto por sedantes, que provocan la pérdida de conciencia, de analgésicos, que inhiben el dolor y, si es necesario, de curare, un relajante muscular. Por ello, la anestesia general es un acto médico complicado y delicado. La hipnosis, que se puede definir como un estado subjetivo en el que se pueden inducir modificaciones de la percepción por sugerencias, posee un poder analgésico conocido desde hace mucho tiempo. En 1830, se utilizaba ya en cirugía como tratamiento complementario. Pero cayó rápidamente en el olvido, eclipsada por la llegada del éter algunos años más tarde. En 1992, Marie-Elisabeth Faymonville, anestesista del Centro Hospitalario Universitario de Lieja (Bélgica), se interesó por los trabajos realizados en Suiza por un anestesista que recurría a la hipnosis para aliviar a los grandes quemados. “Descubrí que la hipnosis no era un don y que se podía aprender a practicarla. Pensé entonces que se podría mejorar hasta convertirla en una técnica de anestesia por sí sola”, recuerda. Aquel año, volvió a introducir esta práctica en cirugía, primero en la estética y luego en la endocrina. “Actualmente, la utilizamos también en cirugía mamaria, vascular, oftalmológica, otorrinolaringológica. También con ella podemos quitar tumores periféricos u operar hernias”, añade. En resumen, podemos decir que la práctica conviene a todas las intervenciones superficiales donde una anestesia local es realizable pero insuficiente para garantizar la comodidad del paciente. Hasta la fecha, el equipo operatorio del Centro Hospitalario Universitario (CHU) de Lieja ha realizado más de 7.000 operaciones bajo hipnosis y varios estudios clínicos han evaluado sus efectos. Se realizó un estudio retrospectivo as modernas técnicas de generación de imágenes, tales como la resonancia magnética funcional (IRMF) y la tomografía por emisión de positrones (TEP), han hecho posible explicar de forma objetiva los efectos observados en los pacientes operados con anestesia hipnótica. Cuando aparece un estímulo doloroso, la actividad cerebral difiere significativamente según el paciente se encuentre bajo hipnosis o en el estado de vigilia normal. La corteza cingular anterior, a la que se atribuyen, entre otras cosas, funciones cognitivas como la anticipación de recompensa, la toma de decisiones, la empatía y la emoción, parece desempeñar un papel preponderante en el transcurso de la hipnosis. De hecho se observa una activación de la parte media de la corteza cingular anterior, así como cambios en la conectividad entre ella y las regiones corticales y subcorticales. Esta actividad cerebral especial permitiría una mejor codificación de la información nociceptiva (relacionada con el dolor) y, finalmente, una respuesta más adaptada a la misma. Según algunos investigadores, la hipnosis impediría que la información alcanzara las regiones corticales superiores, responsables de la percepción del dolor. Otros opinan que permitiría más bien responder mejor a la misma, activando más eficazmente las vías inhibitorias descendentes del dolor. No obstante, los neurotransmisores que intervendrían en estas acciones aún siguen siendo desconocidos. basado en 200 tiroidectomías y 21 exploraciones cervicales para casos de hiperparatiroidismo efectuadas bajo sedación hipnótica (también denominada hipnosedación) en Lieja entre 1994 y 1997. Todos los pacientes dijeron que se había tratado de una “experiencia agradable”. Con relación a una población similar operada bajo anestesia general, su dolor postoperatorio era menor, tomaron menos analgésicos, su convalecencia fue bastante mejor, y su vuelta a la vida social y profesional fue más rápida(2). Otro estudio realizado en Boston y publicado en la revista The Lancet en abril del año 2000(3) también reveló que se habían reducido los costes financieros, la aparición de complicaciones y la duración de las research*eu n°63 | ABRIL DE 2010 27 REPORTAJE intervenciones en los pacientes operados bajo hipnosis. Marie-Elisabeth Faymonville también organizó un programa de formación internacional en Lieja, cursado hasta la fecha por 450 anestesistas, entre ellos, suizos, luxemburgueses, o incluso canadienses, pero sobre todo muchos franceses. Precisamente Francia también cuenta con un gran centro de formación en Rennes. En Alemania y en Austria están empezando a interesarse por esta práctica. 1 2 4 28 research*eu n°63 | ABRIL DE 2010 © Laurence Buelens El quirófano transformado “¿Está usted oyendo lo que pasa por detrás? Ya oímos su corazón. Aún habrá otros ruidos, la puerta que se abre, posiblemente gente que entre, que salga, que hable… Y luego, estarán los olores… Los olores normales de un hospital. 1 2 Operación bajo hipnosis realizada al Hospital St Luc. La anestesista Christine Watremez (fotografía 1), el cirujano Parla Astarci (fotografía 2) y la enfermera instrumentista Rosie Enonyi. © Laurence Buelens 3 © Laurence Buelens Cuando se efectúa una anestesia hipnótica, se puede suprimir la sedación completamente, tratándose entonces de analgesia hipnótica (o hipnoanalgesia), o se puede reducir en gran medida, y en este caso se habla de sedación hipnótica (o hipnosedación). Aunque en Lieja practicamos esta última, en Bruselas prefieren la analgesia hipnótica desde hace algunos años. “No queremos perturbar la hipnosis con un sedante. Si el paciente se siente cómodo, no es necesario”, estima Christine Watremez. Por lo tanto, el día de su operación nuestro paciente recibirá tan sólo analgésicos: un medicamento local para insensibilizar la zona que hay que operar y un derivado suave de la morfina en inyección intravenosa que la anestesista dosificará con arreglo a las necesidades del paciente. “En realidad, a menudo reducimos las dosis y, a veces, hasta dejamos de administrarla”, explica Christine Watremez. La mente de Jean estará vagando por Sicilia. “En el momento de la consulta preoperatoria, le expliqué lo que era la hipnosis, dejando claro que no dormiría y que estaría consciente. Le dije que podría cambiar de opinión cuando quisiera. Se puede emplear la anestesia general en cualquier momento, ya sea por razones quirúrgicas o porque el paciente lo reclame. Todo nuestro material está listo para eso y la vigilancia es exactamente la misma. Jean sólo tiene que hacer una cosa: escoger un recuerdo agradable que desee revivir”. En este caso, sus bodas de oro, en la tierra de Bellini. © Laurence Buelens ¿Hipnosedación o hipnoanalgesia? 3 Clampaje de la arteria y abertura de la misma con el fin de realizar la endarterectomía (retirada de la placa de aterosclerosis que induce el estrechamiento del diámetro del vaso sanguíneo). 4 El paciente, al despertar, con la enfermera Sophie Mertz, el doctor Parla Astarci y la doctora Christine Watremez (de izquierda a derecha). REPORTAJE La conciencia de sí mismo, amplio campo de investigación F inalmente sabemos pocas cosas sobre los efectos de una anestesia general sobre el organismo. Algunos la soportan, otros no. ¿Por qué ocurre eso? ¿Qué pasa a nivel celular y genético? Precisamente porque no tenía todas las respuestas a estas preguntas, Marie-Elisabeth Faymonville desarrolló las técnicas de anestesia hipnótica en 1992 y actualmente lleva a cabo investigaciones sobre la cognición. “Lo que se sabe es que las personas debilitadas pueden sufrir perturbaciones cognitivas tras una anestesia general. Sabemos que la memoria de trabajo (la que permite memorizar los códigos de las tarjetas bancarias, por ejemplo) se ve menos perturbada tras una operación bajo hipnosis”, explica la anestesista. “Nos gustaría continuar nuestras investigaciones sobre las estructuras de la conciencia de sí mismo en resonancia magnética funcional, evaluar las repercusiones de la supresión de la conciencia tras una anestesia general y después de una sedación hipnótica. ¿En qué se modifica la cognición? ¿En qué influye sobre el envejecimiento una u otra técnica? Sería maravilloso elaborar un proyecto que estudie todo esto”. No obstante, es muy difícil organizar investigaciones postoperatorias de este tipo, porque hay que motivar a los pacientes para que vuelvan y participen en las pruebas después de su intervención. Otro obstáculo metodológico nada despreciable tiene que ver con la imposibilidad de realizar pruebas aleatorias a doble ciego, dado que la hipnosis requiere la participación activa de los pacientes. Todas estas cosas de nuestro día a día, y que van a formar parte de su entorno en las próximas horas. He aquí la primera perfusión, vamos a poner la segunda, como le he explicado. Y tan pronto como hagamos esto, nos pondremos cómodos para irnos de viaje. Usted deseaba un pequeño viaje a Sicilia, ¿no? De todas formas, podrá cambiar de destino si lo desea. Yo me quedaré aquí, al lado de usted. ¿Así está bien? ¿Está usted cómodo?”. Al llegar al quirófano, Christine Watremez se ocupa de Jean. Va a familiarizarle con la sala para que no se desconcentre durante la hipnosis. Por eso el cirujano le detalló en la consulta los gestos que iba a efectuar. Nada debe sorprenderle. Cerca de cinco minutos antes de la llegada del resto del equipo, la anestesista se sienta en un pequeño taburete cerca del oído de su paciente, cogiéndole la mano. Su voz, que se adapta al ritmo de la respiración de Jean, se hace más suave, más lenta, más monocorde. “Mire fijamente un punto en el techo. Al mismo tiempo, concéntrese en cada parte de su cuerpo… Y con cada espiración, su cuerpo se relaja… Ahora irán surgiendo imágenes agradables de viaje… Inspire profundamente y deje que su mente vuele, tranquilamente, en este viaje agradable y cómodo. Muy bien…” Una serenidad sorprendente invade el quirófano. Parla Astarci, el cirujano, entra sin decir una palabra, saluda a todo el mundo con la mirada, y empieza a empapar la zona que hay que operar con Betadine. Jean ya no está allí. El cirujano tiene que adaptar sus movimientos A veces, abre los ojos, murmura algunas palabras, aprieta la mano de la anestesista o parece profundamente dormido. ¿Y si no funcionara? “Si el paciente está motivado, preparado para cooperar y tenemos su confianza, ¡funciona!”, responden sin dudarlo Fabienne Roelants y Christine Watremez, precisando que en seis años, jamás tuvieron ningún fracaso. Salvo Christine Watremez, todo el mundo guarda silencio o casi: algunos murmullos de vez en cuando. A veces, la anestesista se levanta para ver por dónde va la intervención en el campo operatorio, en el que también cambia por completo la práctica. “Hay que intervenir como un músico que ejecuta una obra de arte” afirma Michel Mourad, especialista de la cirugía endocrina y el primero en haber operado a un paciente con esta técnica en Saint-Luc. “El paciente está despierto y está en nuestras manos, siente nuestros movimientos, los vive y lee nuestras emociones. Eso nos impone reglas estrictas”, explica. Antes que nada reglas técnicas: “el cirujano debe evitar las tracciones y efectuar los movimientos suavemente. Hoy en día, disponemos de nuevas herramientas de coagulación y de sección que nos permiten disminuir el número de movimientos y de manipulaciones de instrumentos ruidosos”. Luego está el autocontrol imprescindible. “Si surge una hemorragia durante la intervención, no puedo ponerme nervioso, porque el paciente va a vivirlo y esto va a angustiarle. Debemos tener la pericia técnica que nos permita superar las dificultades con calma. Por eso creo que hace falta tener bastante experiencia antes de trabajar con la anestesia hipnótica”. Al “despertar” La anestesista habló a Jean con esta voz especial durante toda la operación. Una vez suturada la herida, retomó un tono normal y dijo: “Eso es todo señor, la intervención ha terminado”. Él abrió los ojos y le dio las gracias encarecidamente. “Es muy raro que los pacientes nos den las gracias después de una anestesia clásica. Con la anestesia hipnótica, siempre lo hacen”, observa Christine Watremez. “Están sorprendidos por la experiencia, pero contentos de haberla vivido. Sobre todo, se dan cuenta de que no se les puede hacer cualquier cosa, que nadie les manipula”. Algunos instantes más tarde, Jean se enderezó en su cama y le dijo a Parla Astarci: “Dígame doctor, como soporté bien la [carótida, nota de la redacción] izquierda, posiblemente usted podría operarme la derecha también”. Aterrizaje con éxito. En la sala del despertar, confesó: “Estoy gratamente sorprendido. No me esperaba que fuera algo tan cómodo, tan fácil. Pensé en Sicilia todo el tiempo, como si estuviera allí”. ¿Pero sintió algo? “Dos o tres punzadas, pero soportables”. Le costó trabajo explicar esta experiencia que acababa de vivir, salvo algo que tenía claro: “Estaba consciente, pero en otro lugar”. Laurence Buelens (1) La endarterectomía consiste en quitar la placa de ateroma vinculada al exceso de colesterol que obstruye la carótida interna y en suturarla ampliándola para evitar un accidente cerebrovascular. (2) “Hypnoanesthesia for endocrine cervical surgery: a statement of practice”, T. Defechereux, M. Meurisse, E. Hamoir, L. Gollogly, J. Joris, M.-E. Faymonville, J. Altern, Complement Med. 1999 Dic, 5(6):509-20. (3) “Adjunctive non pharmacological analgesia for invasive medical procedures: A randomised trial”, E. Lang et al., Lancet 2000, 355:1486-90. research*eu n°63 | ABRIL DE 2010 29 Viaje al país del hedonismo Comprender la naturaleza del placer para poder ayudar a quienes no lo experimentan: eso es precisamente lo que busca Morten Kringelbach con sus colegas del TrygFonden Research Group. “La falta de placer es un problema muy frecuente en las enfermedades mentales como la depresión. Creemos que conociendo mejor los circuitos cerebrales de los que depende el placer, podremos restablecer el equilibrio de estas redes cerebrales fundamentales a corto y largo plazo”, destaca este investigador en neurociencias de la Universidad de Oxford (Reino Unido) y de la Universidad de Aarhus (Dinamarca). Veamos cómo transcurre esta aventura en busca del país del hedonismo. Alimento, sexo y relaciones sociales “N uestros placeres básicos están provocados por sensaciones íntimamente relacionadas con la comida, el sexo y las interacciones sociales. A nivel cerebral, estas sensaciones son detectadas primero por receptores sensoriales situados por todo nuestro cuerpo y luego son descodificadas en las regiones sensoriales de nuestro cerebro”, explica el psiquiatra Morten Kringelbach(1). Pero, contrariamente a lo que se podría pensar, el placer no se limita a la simple excitación de estos receptores, es el resultado de interacciones entre la anticipación, la evaluación y el recuerdo de las sensaciones. Por lo tanto, el placer sería una suave mezcla de deseo, sensaciones agradables y aprendizaje. “Varias investigaciones realizadas con seres humanos y con animales han permitido identificar las zonas cerebrales indispensables para que se produzca esta mezcla. Algunas están situadas en la parte más profunda de nuestro cerebro, como el núcleo accumbens o el hipotálamo, mientras que otras se sitúan en la corteza 30 research*eu n°63 | ABRIL DE 2010 cerebral”. Precisamente los investigadores del TrygFonden Research Group se han centrado en esta región del cerebro. Dicho grupo de investigación, multidisciplinario e internacional, está compuesto por diez científicos que pertenecen a la Universidad de Oxford y a la Universidad de Aarhus. Investigadores en neurociencias, médicos, psicólogos, ingenieros e informáticos de Escocia, Irlanda, Dinamarca, Bangladesh, Francia, Inglaterra, Alemania y Sudáfrica colaboran para comprender mejor el placer, nuestro placer. “Nuestros trabajos se centran en el estudio y la comprensión de la anatomía funcional del cerebro humano. Para llevarlos a cabo, recurrimos a las últimas técnicas de generación de imágenes neurológicas como la magnetoencefalografía (MEG). Con estas técnicas, los investigadores esperan averiguar el papel que desempeña la corteza orbitofrontal, situada justo detrás de los ojos. ¿Por qué precisamente esta zona? Porque es mucho mayor en los hombres que en los demás primates. Pero, en concreto, ¿qué se puede aprender de esta zona y en qué puede ser útil desde un punto de vista médico? © Isak Hoffmeyer NEUROCIENCIAS Morten Kringelbach Caras de niños De todos es sabido que el rostro de un bebé llama más la atención que el rostro de un adulto. ¡La mayoría de nosotros se extasiará más mirando al retoño de un pariente que mirando a su nueva pareja! Según el equipo de Morten Kringelbach, si se llegase a comprender este fenómeno se podría ayudar a las mujeres que sufren una depresión postparto. Con la ayuda de su homólogo Alan Stein y sus colegas, Morten Kringelbach y su equipo observaron la actividad cerebral de hombres y de mujeres a los que se les mostraban caras de niños y de adultos. Los investigadores detectaron actividad en la corteza orbitofrontal media cerca de un séptimo de segundo después de que se les presentara una cara de niño. En cambio, no vieron nada parecido cuando observaron caras de adultos. “Es evidente que la corteza orbitofrontal media es la encargada de dar una recompensa y es posible que las caras de bebés y los placeres sociales en general sean buenos para nuestro bienestar”. Pero las mujeres que sufren una depresión postparto no reaccionan como los demás ante las caras de los bebés, incluso cuando se trata del suyo. “Puede ser que la actividad de esta zona cerebral cambie durante la depresión postparto, lo que podría servir de señal de alarma para identificar y ayudar a las mujeres susceptibles de padecer este tipo de depresión. Además, ayudar a las madres y a los padres que padecen esta depresión reduciría el riesgo de que sus propios hijos acabaran sufriendo una depresión”. Los placeres del paladar Kringelbach y sus colegas también se han interesado por el papel vital desempeñado por los alimentos en nuestra supervivencia y nuestro placer. En el marco de estas investigaciones, NEUROCIENCIAS Reacción frente a los rostros de niños Reacción frente a los rostros de adultos 40 Del placer a la empatía… Frecuencia (Hz) 35 Corteza orbitofrontal media 30 S 25 20 15 10 40 Frecuencia (Hz) Fuente: Morten Kringelbach 35 Área fusiforme facial derecha 30 25 20 8 15 10 0 -0,2 -0,1 0 0,1 0,2 Tiempo (en segundos) 0,3 0,4 -0,2 -0,1 0 0,1 0,2 0,3 0,4 Tiempo (en segundos) Cuando miramos a los bebés, un área específica de la región media orbitofrontal de nuestro cerebro registra instantáneamente una actividad neuronal, que no se produce ante un adulto (imágenes superiores). El equipo de Morten Kringelbach ve en esta señal una “recompensa” que corresponde a una especie de “instinto parental” inscrito en nuestras neuronas. En una región diferente del cerebro, el área fusiforme facial (imágenes inferiores), se observa otro tipo de reconocimiento, que se manifiesta tanto ante adultos como ante niños. identificaron una red de regiones cerebrales entre las que estaba una vez más la corteza orbitofrontal, la que nos incitaría a buscar el placer de los alimentos. “Todo apunta a que cuando se da algún desequilibrio en esta red puede haber trastornos alimenticios”, precisa el investigador, que también intentó comprender por qué siempre nos queda sitio en el estómago para el postre al final de la comida, incluso cuando ya estamos saciados. “Pudimos comprobar que la corteza orbitofrontal es la principal responsable y que su actividad está relacionada con la atracción subjetiva de los alimentos”. Asimismo, los investigadores demostraron que dicha zona estaba implicada en el disfrute subjetivo de todos los placeres, incluidos aquellos proporcionados por los medicamentos, la música y los orgasmos. “Esta constatación nos hace pensar que la corteza orbitofrontal podrá ayudarnos a tratar los trastornos alimenticios y otros comportamientos adictivos”. Estimulación cerebral profunda “La estimulación de determinadas regiones del cerebro de los animales o de los humanos puede inducir cambios inmediatos en la sensación de placer y de deseo”. Tipu Aziz, un neurocirujano de la Universidad de Oxford, demostró que la estimulación cerebral profunda en la materia gris permitió reducir sensiblemente el dolor en un paciente que sufría dolores crónicos. No obstante, para que tal descubrimiento pudiera ser útil a largo plazo, quedaba por conocerse el efecto de esta estimulación sobre el cerebro. El equipo de Morten Kringelbach observó directamente la acción de la estimulación cerebral profunda con la ayuda de la magnetoencefalografía, comprobando cómo se activaba especialmente la red cerebral implicada en las emociones. Allí también estaba implicada la corteza orbitofrontal. “Lo especialmente interesante en este proyecto, es que se han obtenido los mismos resultados en personas que padecen depresión”. Además, se puede utilizar la estimulación cerebral profunda en numerosas patologías como la distonía, la enfermedad de Parkinson, los trastornos obsesivos compulsivos, los problemas de temblores, etc. “Para que esta técnica sea eficaz, es fundamental que conozcamos el papel de cada zona del cerebro y saber qué zona se debe estimular para atenuar los síntomas de una determinada enfermedad”. Élise Dubuisson i Morten Kringelback se interesa por las personas que tienen dificultades en experimentar el placer, Tania Singer y sus colegas de la Universidad de Zurich se centran en el sentimiento de empatía, la capacidad de comprender y compartir los sentimientos de otras personas. Estos investigadores piensan que, en una sociedad en la que están aumentando la criminalidad y las violaciones de los derechos humanos, poder influir sobre las capacidades de empatía sería algo muy positivo. El proyecto, llamado EMPATHICBRAIN, estudia si se puede reforzar nuestra capacidad de comprender nuestros propios sentimientos y los de los demás. Es el interrogante al que Tania Singer pretende dar respuesta a través de un enfoque multidisciplinario innovador. EMPATHICBRAIN mezcla las neurociencias, la economía, la psicología y la psicobiología (ciencia de las relaciones entre el psiquismo y las funciones biológicas). La primera etapa de este viaje al centro del cerebro consiste en detectar las diferencias funcionales y estructurales de los cerebros de personas con distintas capacidades de empatía. No obstante, los investigadores no se limitan a las observaciones. También están elaborando un programa de aprendizaje de la empatía, que consistiría en aprender a cultivar la impasibilidad, la alegría empática, la compasión y la amabilidad afectuosa. Nada más y nada menos… www.forschungsportal.uzh.ch/unizh/ p11582.htm (1) Todas las citas son de Morten Kringelbach. TrygFonden Research Group www.kringelbach.dk/science.html research*eu n°63 | ABRIL DE 2010 31 ENERGÍA R ecursos inagotables, pocos residuos, bajo impacto medioambiental, seguridad a toda prueba y compatibilidad con las redes eléctricas existentes: los beneficios de la fusión son tales que la humanidad muy difícilmente podría prescindir de la misma. El procedimiento se conoce desde los años cincuenta: un encuentro forzado de los núcleos de deuterio y de tritio para producir helio, neutrones, y una enorme cantidad de energía. Simple en teoría pero complicado en la práctica, puesto que esta reacción se desencadena en condiciones de densidad y temperatura extremas. Los estudios teóricos y experimentales concuerdan en que existen dos posibles pistas para lograrlo. Una de ellas consiste en utilizar una cámara toroidal en la que se confine plasma caliente por la acción de un campo magnético: es el enfoque utilizado en ITER. La otra pista sería el confinamiento inercial, también denominado fusión por láser, que consiste en emplear potentes rayos láser para generar una implosión de pastillas de combustible previamente comprimidas. Éste es el enfoque elegido por los creadores de HiPER. 32 research*eu n°63 | ABRIL DE 2010 Alto valor añadido “Nos alegramos de que, desde 2006, HiPER forme parte de las instalaciones científicas financiadas por el Foro Europeo de la Estrategia sobre Infraestructuras de Investigación (o ESFRI, por sus siglas en inglés)”, declara Mike Dunne, coordinador general del proyecto. “Actualmente, HiPER está en su fase preparatoria, dotado con 3 millones de euros de financiación del apartado ‘Infraestructuras’ del Séptimo Programa Marco (7PM) y una cantidad mucho mayor aportada por las agencias nacionales. La fase de demostración tecnológica empezará en el 2011 para, a finales de la próxima década, acabar con la construcción de las instalaciones, cuyo presupuesto rondaría los mil millones de euros”. Estas inversiones colosales se deben tanto a la complejidad de las innovaciones tecnológicas como a las aplicaciones que se obtendrán de ellas. “Los cincuenta años de experimentación que hemos tenido han demostrado que para producir una fusión autosostenida haría falta una temperatura cercana a los 50 millones de grados y una densidad de al menos 1 kg/cm3, es decir, 50 veces © Agence Free Lens Philippe Labeguerie El acceso a una energía limpia e inagotable ya no es una quimera. Por lo menos eso afirman los partidarios de la fusión, quienes se alegran de que el ambicioso proyecto HiPER (High Power laser Energy Research facility) sea el centro de todas las miradas en el ámbito científico. La fusión por confinamiento inercial desarrollada en HiPER es una alternativa a la vía magnética empleada por su primo ITER(1), igualmente convincente. Queda mucho camino por recorrer pero los últimos resultados experimentales son muy esperanzadores. la del oro”, precisa Mike Dunne. “Además, se trata de una tecnología de alta repetición, puesto que hay que adaptar los pulsos láser de un orden de magnitud de un nanosegundo a pastillas de un milímetro de diámetro, y esto, cinco veces por segundo”. Por lo tanto, para alcanzar el objetivo de una fusión controlada, los científicos están explorando campos de la física que aún no se conocen bien y de los que se espera que salgan futuras aplicaciones. “¡Y la lista de aplicaciones será larga!”, asegura Mike Dunne. “Cuando dominemos una tasa elevada de repetición combinada con tecnología láser de alta energía se abrirá la vía a campos tan diversos como la producción de radioisótopos, la oncología o incluso la próxima generación de focos de luz. En un nivel más fundamental, podremos esperar avances importantes en la ciencia extrema de los materiales, en la física nuclear, así como en la física de los plasmas”. Unión de proyectos Para ganar esta apuesta tecnológica quedan aún numerosas etapas. Cada dificultad ENERGÍA del procedimiento HiPER es objeto de estudios preliminares. Entre ellos, el proyecto PETAL (Petawatt Aquitaine laser) financiado a los niveles europeo (FEDER), nacional (Francia) y regional (Aquitania), cuyo papel principal consiste en poner a punto la estructura láser-blanco adecuada para poner en marcha las reacciones de fusión. Las principales elecciones tecnológicas se han validado con éxito, empleando tecnología innovadora para superar los obstáculos que resultaron evidentes en el estadio experimental, y ha empezado la construcción de la infraestructura. “En 2006, los coordinadores de los proyectos decidieron unir ambos programas PETAL e HiPER dentro de la hoja de ruta del ESFRI”, explica Christine Labaune, directora de investigación en el CNRS (Centro Nacional de la Investigación Científica francés) y miembro del comité científico de ambos programas. “En el plano científico y tecnológico, PETAL desempeña el papel de primera fase de HiPER. Desde su lanzamiento, un comité científico internacional coordina la preparación de los experimentos que permitirán validar los campos de la física que garantizarán el éxito de HiPER. Además, PETAL será una plataforma educativa que dará a los científicos la posibilidad de adquirir la destreza necesaria para la manipulación de láseres de grandes dimensiones. También servirá para que todos colaboren en un programa que aumenta la competitividad de Europa frente a nuestros homólogos estadounidenses y asiáticos”. No obstante, hay que reconocer que, mientras PETAL está programado para el 2011, las instalaciones Omega EP en Estados Unidos y FIREX en Japón ya han llegado a la fase operacional. Técnica de altos vuelos Hasta hace tan sólo algunos años, los científicos pensaban que podrían obtener la fusión utilizando haces de nanosegundo para comprimir el blanco de deuterio-tritio hasta obtener un punto caliente. Pero una inestabilidad demasiado elevada invalidaba este esquema. Los equipos de PETAL e HiPER decidieron seguir otra vía, como lo explica Christine Labaune. “Creemos que es indispensable separar la fase de compresión de la fase de calentamiento. Es lo que se denomina el ‘encendido rápido’. El principio es utilizar haces de petavatio (2) en pulsos cortos que sirvan de ‘chispas’, tras haber comprimido el blanco por medio de otros haces de nanosegundos. El sistema tendría que ser más fiable, con una ganancia energética superior a 1, pudiendo incluso elevarse a 10 o a 100”. Christine Labaune prosigue: “El objetivo de PETAL es demostrar nuestra aptitud para conceptualizar las tecnologías que en el futuro vayan a generar los pulsos cortos y de alta energía necesarios para el encendido. Concretamente, una cadena láser de alta energía consta de tres partes. Un oscilador-preamplificador genera un débil pulso de pequeño diámetro, que atraviesa luego una serie de placas de cristal reforzado con neodimio y bombeado por lámpara flash, lo que va a conllevar la emisión de fotones. Estos últimos son recuperados por el láser de salida que se va intensificando poco a poco. Simultáneamente, se amplía el diámetro del pulso, con el fin de mantener una densidad energética razonable para preservar el instrumental óptico. El pulso de una fracción del picosegundo (3) en la entrada se va estirando durante todo el trayecto, luego comprimiendo de nuevo en una serie de redes, justo antes de la salida. Gracias a este procedimiento, un pulso inicial de algunos milijulios llega a alcanzar cerca de 3.500 julios, conservando su tamaño corto. Esto convertirá a PETAL en la instalación láser con la más elevada relación potencia-energía del mundo”. Concienciar a los inversores A tenor de las cantidades invertidas, PETAL e HiPER supondrán la posibilidad de desplegar un gran programa de investigación fundamental para comprender la materia en sus estados extremos. Sin embargo, el principal objetivo de estas instalaciones seguirá siendo la producción controlada de energía por fusión. Teniendo en cuenta que con el litio (fuente de tritio) de una batería de ordenador portátil y el deuterio presente en media bañera de agua se podrían cubrir las necesidades eléctricas del Reino Unido durante 30 años, es sorprendente el escaso interés del sector privado por invertir masivamente en estos proyectos. “Efectivamente, es lamentable”, confirma Christine Labaune. “La única energía a largo plazo que seguirá siendo inagotable es de origen nuclear. Al plantear la fisión numerosos problemas relacionados con los residuos, la seguridad y la limitación del combustible, la única solución para la humanidad sigue sien- © Agence Free Lens Philippe Labeguerie Observación del estado de la superficie de las redes de difracción en el recinto mecánico de PETAL donde están acondicionadas al vacío. Módulo preamplificador (MPA) que integra ambas etapas de desarrollo paramétrico en banda ancha espectral. En la primera fase del proyecto PETAL, el MPA se emplea como fuente para la demostración de la compresión de pulso. do la fusión. Estamos seguros de que los láseres son excelentes candidatos para reproducirla en la Tierra. Por ello necesitamos la investigación aplicada. Así que sería preferible que las instituciones privadas se interesaran por este tema. Debemos encontrar qué industriales producirán nuestras centrales y obtendrán beneficios de ello en el futuro. Si invierten ahora en las investigaciones, Europa podrá mantener su independencia energética. Si nuestra comunidad científica no dispone de medios suficientes para seguir estando a la cabeza, nos volveremos completamente dependientes de países que hayan dominado el funcionamiento de esta tecnología”. Marie-Françoise Lefèvre (1) ITER (International Thermonuclear Experimental Reactor), véase “ITER salió de la tierra”, research*eu número 61, julio de 2009. (2) Peta = 1015 (3) Pico = 10-12 HiPER 26 socios, 9 países (CZ-DE-ES-FR-GR-IT-PL-PT-UK), 6 países de fuera de la UE (CA-CN-JP-KR-RU-US) www.hiper.org PETAL http://petal.aquitaine.fr research*eu n°63 | ABRIL DE 2010 33 RETRATO © Stephen Faust/Wolfram Research Inc. El algoritmo de los dioses Stephen Wolfram: “Explicar una idea y, afinarla hasta hacerla lo más clara posible, es un excelente método para comprenderla mejor”. D e día, es jefe de empresa. Con cincuenta años de edad dirige Wolfram Research, sociedad propietaria del célebre programa informático de cálculo “Mathematica” y del nuevo motor de búsqueda “Wolfram Alfa”. Por la noche, es investigador. Un científico brillante, de gran renombre. Es matemático, informático y físico de las partículas, pero lo que prefiere investigar son los autómatas celulares, modelos matemáticos que, según Stephen Wolfram, permiten explicar cómo se construye la complejidad del mundo. En su libro “A new kind of science” publicado en 2001, Wolfram vuelve a cuestionar los fundamentos de la ciencia, en todos los campos. ¿Quién es en realidad, un arrogante megalómano o un genio incomprendido? El hijo pródigo Stephen Wolfram nació en Londres en 1959. Muy pronto vieron que tenía una inteligencia prodigiosa. A los trece años de edad consiguió una beca para estudiar en el Eton College, un prestigioso instituto de enseñanza secundaria donde se codeó con la flor y nata de la élite británica. Un año más tarde, Wolfram escribió una obra sobre la física de las partículas. Su primer artículo científico fue publicado en Nuclear Physics en 1975. Por entonces, tenía sólo quince años. “En aquella época, la física era uno de los campos más innovadores de investigación. Se lograron muchos avances, en particular en 34 research*eu n°63 | ABRIL DE 2010 ¿El mundo funciona como un programa informático? ¿Las formas y los estados de la naturaleza están generados a partir de una fórmula fundamental? Eso sostiene Stephen Wolfram, que incluso afirma haber descubierto el código de la fuente de la complejidad del Universo. el área de la física de las partículas, lo que avivó mi interés”, cuenta(1). El joven genio estudió en la Universidad de Oxford (Reino Unido), trasladándose luego al otro lado del Atlántico para trabajar en el Instituto Tecnológico de California - Caltech (Estados Unidos) donde consiguió su título de doctor en física teórica con veinte años. Allí fue donde empezó a forjarse una reputación. Durante este período, publicó más de 25 artículos científicos. Concibió las variables de FoxWolfram y descubrió el límite superior Politzer-Wolfram en la masa de los quarks. En 1981, con veintidós años, se convirtió en el más joven galardonado con el premio MacArthur, el “premio de los genios”, que ofrece cada año una beca a los investigadores con más talento. Wolfram dejó el instituto Caltech en 1982 para ir al Institute for Advanced Study de Princeton (Estados Unidos), un centro consagrado exclusivamente a la investigación científica. Fue allí donde empezó a interesarse por los autómatas celulares. Su objetivo era comprender la complejidad del mundo, una cuestión que ninguna ecuación matemática, ni ninguna teoría física había resuelto jamás. “El origen de la complejidad del Universo es un tema que me apasionó desde la infancia. Esta cuestión se me planteó no sólo cuando me interesaba por la cosmología, sino también por las neurociencias o la inteligencia artificial. Mientras trabajaba en el desarrollo del que sería años más tarde el programa informático Mathematica y ponía a punto las operaciones primitivas sobre las que se pudiese construir toda una serie de operaciones más complejas, tuve la intuición de que existía un principio general similar en el cual se basaba toda la complejidad de la naturaleza, desde la estructura de las galaxias hasta la de las neuronas. Por ello me propuse probar operaciones muy simples que podrían llevar a la formación de estructuras complejas, lo que hizo que me interesara por los autómatas celulares”. ¿Pero qué es exactamente un autómata celular? Tome una serie de compartimentos blancos y negros. Luego, imagine que se genera una nueva línea según una serie de reglas rudimentarias. Por ejemplo, un compartimento blanco jamás podría encontrarse debajo de otro compartimento blanco excepto si este último formara una diagonal de diez compartimentos blancos. El cuadro resultante de este proceso produce de manera aleatoria estructuras que pueden ser extremadamente complejas. Hombre de negocios En los años ochenta, Wolfram descubrió la regla 30, un autómata celular que puede generar formas similares a los motivos de una concha, denominado Conus textile. Se convenció entonces de que había desvelado parte del código universal cuya existencia sospechaba. RETRATO Entusiasmado, publicó una serie de artículos sobre la cuestión y dedicó a la misma una nueva disciplina, la ciencia de los sistemas complejos. Fundó el Centro de Investigación sobre los Sistemas Complejos en la Universidad de Illinois (Estados Unidos), apoyó la creación de un grupo de reflexión sobre esta cuestión en el Santa Fe Institute (Estados Unidos) y fundó la revista científica Complex Systems Journal. “Al crear estos diferentes elementos, esperaba que otros investigadores se animasen a seguir esta pista de investigación. Pero la movilización de la comunidad científica fue demasiado lenta para satisfacer mi curiosidad”. Frustrado, Wolfram abandonó el mundo académico para dedicarse totalmente a la programación informática. “Mi objetivo era sentar las bases de una infraestructura de investigación y una herramienta que me permitiesen seguir mis estudios sobre los sistemas complejos”. En 1987, Wolfram creó la empresa Wolfram Research. Un año más tarde, comercializó Mathematica, un programa informático capaz de ejecutar un amplio abanico de operaciones matemáticas. La empresa ha tenido un gran éxito. Mathematica cuenta actualmente con más de dos millones de usuarios en 90 países, Wolfram Research genera unos 50 millones de dólares de volumen de negocios al año y emplea a más de 300 personas. Al cambiar su bata de investigador por la chaqueta de empresario, Stephen Wolfram se hizo millonario. Una situación que, al principio, fue bastante mal considerada por el mundo académico. “Hace veinte años, los programas que los laboratorios utilizaban eran gratuitos. Por lo tanto, estaba muy mal visto exigir una retribución financiera por una aplicación utilizada para la I+D puntera, actividad principalmente llevada a cabo en las universidades. Hoy en día la mentalidad ha cambiado radicalmente”. ¿Hacker del código universal? En los años noventa, el mundo de la investigación se olvidó de Stephen Wolfram. Pero éste no abandonó por ello la investigación. Por la noche, se encerraba en su laboratorio para continuar sus estudios sobre los sistemas complejos. Con el ordenador en ristre, probaba sin cesar diferentes autómatas celulares para averiguar cuáles reproducían mejor las estructuras presentes en la naturaleza. Así descubrió autómatas celulares capaces de generar la estructura del hielo o incluso de algunas hojas. Diez años más tarde publicó “A new kind of science”, una obra donde exponía los resultados de sus investigaciones y luego demostraba, capítulo por capítulo, en qué medida su teoría cuestionaba las bases de diferentes disciplinas científicas. Escogió deliberadamente no pasar por las vías tradicionales en virtud de las cuales una teoría debe ser publicada en una revista científica. “Quería que mis investigaciones fueran accesibles al mayor número de personas. Este enfoque también me permitió probar mi teoría. Explicar una idea, afinarla hasta hacerla lo más clara posible, es un excelente método para comprenderla mejor”. Tras haber trabajado en el modelo informático de las matemáticas y del mundo, Wolfram se lanzó al universo del conocimiento. En el 2009 lanzó Wolfram Alpha, un motor de búsqueda capaz de dar toda la información específica de un determinado tema a partir de una consulta formulada en una frase. “Siempre pensé que era importante no ocultar las cuestiones de investigación básica suscitadas en el transcurso del desarrollo de una tecnología, en definitiva, adoptar un enfoque integrado de la ciencia. Wolfram Alpha es un proyecto que me gusta muchísimo precisamente porque refleja esta visión integrada del saber”. Hombre de negocios e investigador, una doble función tan fascinante como desconcertante para los demás. “En general, la gente que posee recursos financieros apoya la investigación indirectamente, a través de una fundación, por ejemplo. El hecho de financiar investigaciones básicas aportando también una contribución personal a las mismas aún asusta a algunas personas… ¡aunque no sepan bien por qué!”. Julie Van Rossom (1) Todas las citas son de Stephen Wolfram. Imágenes coloreadas basadas en la regla 30, sacadas del best seller “A New Kind of Science”, de Stephen Wolfram. Wolfram research www.wolfram.com Stephen Wolfram www.stephenwolfram.com research*eu n°63 | ABRIL DE 2010 35 PRISIONES El cáncer de las prisiones Aunque la mayoría de las democracias occidentales se ven enfrentadas al aumento de la criminalidad, la superpoblación carcelaria, las nuevas formas de delincuencia y el fracaso de las políticas de prevención, en un contexto socioeconómico que se va deteriorando, actúan de forma poco contundente frente a estas problemáticas. ¿C ómo se puede salir del círculo vicioso delincuencia-represión? Un proyecto apoyado por la Unión Europea, que finalizó en el 2001 y se tituló Welfare State or Penal State?, ya planteaba el problema del incremento de las penas de cárcel en Europa. Los investigadores observaron que con el final del welfare state (Estado del bienestar) en los años noventa, se fueron debilitando rápidamente las medidas sociales. Son muchos los criminólogos que opinan que existe una relación directa entre el ámbito económico y el penitenciario, demostrada en diversas investigaciones. Charlotte Vanneste, del Instituto Nacional de Criminalística y Criminología de Bélgica, ha estudiado la correlación entre las estadísticas de la población 36 research*eu n°63 | ABRIL DE 2010 penitenciaria belga y la situación socioeconómica del país, en un periodo de 170 años (1). Comprobó que en los ciclos de crecimientorecesión de 20 a 30 años, las depresiones de las recesiones se correspondían con los “picos” de población penitenciaria y al contrario. En el periodo entre las dos guerras mundiales observó cómo se reducía la población penitenciaria al mismo tiempo que mejoraba la economía en general (coyuntura favorable, mejor reglamentación social, indización salarial) mientras que, por el contrario, en la segunda mitad del siglo XX las cifras mostraban claramente una subida de los índices de encarcelamiento y de los del paro. ¿Tolerancia cero o prevención? Las respuestas de los Estados europeos (y de sus ciudadanos) ante la criminalidad han sido estudiadas por los investigadores del proyecto CRCC (Crime repression costs in context), con el fin de evaluar las consecuencias directas e indirectas que tiene la criminalidad en diferentes políticas nacionales. Los socios establecen dos grandes “culturas”. La primera, característica de los regímenes neoconservadores, da prioridad a las políticas jurídico-policiales clásicas, tendiendo cada vez más hacia la tolerancia cero y la justicia expeditiva, sin dar importancia a las causas socioeconómicas subyacentes del delito. La segunda, la del liberalismo avanzado, se basa en la gestión del riesgo criminal y la aplicación del principio de precaución. Esta última estrategia pretende, por un lado, contener la delincuencia potencial (actuando sobre las causas económicas de la criminalidad, modificando el entorno urbano, desarrollando estrategias de control social, etc.) y, por otro, evitar que haya víctimas, animando a la población a protegerse (puertas blindadas, alarmas…). Estas técnicas de autoprotección están ganando terreno rápidamente. Según una encuesta europea sobre la seguridad y la criminalidad (2), el Reino Unido ostenta el récord mundial de los sistemas de videovigilancia y los Países Bajos el de las puertas especiales, mientras que más de una décima parte de las nuevas construcciones de Budapest realizadas entre el 2002 y el 2007 contaban con diferentes dispositivos de seguridad. La sensación de inseguridad L o s i n ve s t i g a d o r e s d e l p r o ye c t o CRIMPREV (3) profundizaron en el estudio del sentimiento de inseguridad (la inseguridad subjetiva, distinta a la real u objetiva) y sus implicaciones en las relaciones sociales, particularmente los fenómenos culturales de rechazo. Este sentimiento varía según los países, las regiones y los barrios. ¿Sentimos angustia al caminar por la calle de noche? Los ciudadanos del Norte de Europa tienen menos miedo que los del Sur y del Este. Los males de la sociedad (especialmente la droga) y el rastro de los actos vandálicos (como basura, grafitis, bandas de jóvenes) alimentan estos temores. “Los gobernantes, conscientes de la importancia de estos desafíos sociales pero también electorales, no dejan de presentar propuestas de acciones destinadas a combatir el sentimiento de inseguridad, a veces considerado tan importante como la inseguridad real que, además, es muy difícil de medir”, explican los investigadores de CRIMPREV. © Shutterstock/Igorsky PRISIONES “Las redes de vigilancia tecnológica, las bases de datos y los servicios privados de seguridad no han hecho que desaparezcan el miedo y la ansiedad”, estima Joe Sim, profesor en la Liverpool John Moores University(4). “Al contrario, se ha reforzado la percepción de una catástrofe inminente, legitimando la escalada de respuestas autoritarias a la criminalidad y también a lo que se considera como amenazas que van en contra del orden público y social”. Esto incluye el miedo a los jóvenes, por ejemplo. Ahora bien, según diferentes estudios británicos, la criminalidad está asociada tan sólo en una proporción ínfima con el aumento de los delitos cometidos por menores. Los guetos lujosos Todos estos miedos y las respuestas que ocasionan han tenido consecuencias sobre la exclusión social y la organización del espacio urbano. La creación de guetos no sólo se da en los barrios más pobres. Desde los años sesenta, en todos los continentes se han ido creando las denominadas “gated communities” (viviendas seguras, custodiadas por vigilantes, rodeadas de verjas o de muros). Las encontramos sobre todo en el Reino Unido, en Francia, en Portugal, o incluso en algunos de los antiguos países comunistas. Esta autoprotección puede ser una forma de prevención, pero no la mejor. En estos últimos años, en algunos países europeos se han hecho intentos de prevención más concretos, especialmente probando colaboraciones entre el sector público y el privado, las asociaciones, las ONGs, la policía local… Pero la idea pocas veces ha tenido el efecto previsto, puesto que los trabajadores sociales no querían transformarse en “confidentes” para la policía. Adam Crawford (Universidad de Leeds, Reino Unido), socio de CRIMPREV, supone que estas iniciativas “ilustran el reconocimiento de que los factores y las causas de la criminalidad van más allá del alcance tradicional del sistema judicial criminal”, aún considerando que “el tiempo ha demostrado que las colaboraciones de carácter preventivo que se ponían en marcha no dejaban de ser una ilusión destinada al fracaso”. La cuestión de las aboliciones Con todo esto, siguen aumentando las penas de prisión, aunque desde hace algunos años se practican determinadas soluciones de sustitución. Entre ellas, la vigilancia electrónica (una pulsera que contiene un chip que permite localizar a un individuo) utilizada particularmente en el Norte de Europa; los trabajos de interés general (al servicio de una asociación, de un hospital, por el medio ambiente) que sustituyen penas cortas; o incluso los regímenes de semilibertad en virtud de los cuales un detenido trabaja fuera de la prisión y vuelve allí por la noche. “El problema social de las prisiones podría encontrar su respuesta en lo que Angela Davis denominaba las ‘alternativas abolicionistas’”, estima Joe Sim. “Creo que estas alternativas tendrían que conllevar el cese de la construcción de prisiones, la reducción de los presupuestos destinados al castigo del crimen a beneficio de la prevención, la creación de regímenes más humanos para las personas encarceladas, la toma en consideración de los daños causados por quienes tienen el poder y el final de las fracturas sociales. Los abolicionistas, contrariamente a los mitos populares y políticos, no sólo luchan por la supresión de los muros. Desean que se efectúe un análisis menos hipócrita del delito y de la criminalidad y la instauración de políticas radicales que ofrecerían una auténtica protección pública a todos los ciudadanos europeos, sean cuales fueren sus condiciones sociales”. Christine Rugemer (1) Charlotte Vanneste, “Les chiffres des prisons – Des logiques économiques à leur traduction pénale”, L’Harmattan, 2001. (2) “European Crime and Safety Survey 2005”, bajo la dirección de Jan van Dijk, Universidad de Tilburg (Países Bajos). Podrá descargar el documento en la página web: www.crimereduction.homeoffice.gov.uk (3) CRIMPREV (Assessing Deviance, Crime and Prevention in Europe), que reúne a 31 socios de diez países europeos, tiene como objetivo recopilar y comparar, en cada uno de estos países, los factores de comportamiento marginales, el proceso de criminalización, la percepción del crimen, así como las políticas públicas de prevención. Este proyecto ha dado pie a un gran número de textos (artículos, folletos) disponibles en la página web: www.gern-cnrs.com/gern/index.php?id=4 (4) Autor muy crítico con los sistemas penitenciarios: “Policing the crisis”, Sage, 1978 – “Western European Penal Systems”, Sage, 1995 – “State Power Crime”, Sage, 2009 – “Punishment and Prisons”, Sage, 2009. Gestión pública de los comportamientos delictivos http://ec.europa.eu/research/ social-sciences/projects/052_en.html CRCC www.ub.edu/ospdh/en/page/ crime-repression-cost-context-crcc CRIMPREV 31 socios, 10 países (BE-DE-ES-FR-GR-IT-NL-PT-SL-UK) www.gern-cnrs.com/gern/index. php?id=4 Bibliografía sobre este tema http://prison.eu.org/rubrique210.html research*eu n°63 | ABRIL DE 2010 37 CIENCIAS HUMANAS El dinero de los contribuyentes europeos no tendría que gastarse en cosas tan raras como en definir a Dios, según el Daily Telegraph(1). Entre otros proyectos subvencionados por la Comisión Europea y presentados como costosos, extravagantes, incluso inútiles, el diario británico señala el programa Explaining Religion (EXREL), beneficiario de una subvención de cerca de dos millones de euros. Sin embargo, este programa no ambiciona en absoluto “definir a Dios”, lo que intenta es arrojar luz sobre los mecanismos cognitivos subyacentes al pensamiento religioso y a los comportamientos sociales que implica. ¿L a ciencia puede explicar la religión? Ambas se basan en enfoques de la realidad generalmente percibidos como radicalmente diferentes. A lo largo de la historia, sus múltiples divergencias fueron suscitando debates unas veces productivos, y otras controvertidos, y fuente de malentendidos así como de emulación. Sin embargo, desde hace algunos años, científicos de diferentes disciplinas como la historia, la antropología, la biología, las neurociencias o incluso la psicología se afanan por bajar a la religión de su pedestal con el fin de abordarla de manera empírica y de constituir un corpus científico de conocimientos en la materia. El programa Explaining Religion (EXREL) sigue esta línea y constituye uno de los proyectos más ambiciosos en el campo de las nuevas ciencias cognitivas de la religión. Según Harvey Whitehouse, antropólogo y coordinador del proyecto: “Pretende explicar cómo se crean los sistemas religiosos y luego se transmiten, y comprender las causas de las variantes religiosas”. EXREL es una plataforma pluridisciplinaria, coordinada por la Universidad de Oxford (Reino Unido) y reúne a diez equipos europeos de investigación puntera en diversos campos (biología, psicología, antropología e historia religiosa), que colaboran en sinergia para explorar los orígenes de la religión. Conceptos universales y familiares a la vez La piedra angular de esta investigación interdisciplinaria, de tres años de duración (2008 – 2010), se basa en la siguiente constatación: el pensamiento y el comportamiento religiosos presentan un conjunto de características universales, entre las cuales figuran la creencia en dioses, espíritus o antepasados, la práctica de rituales llenos de significados simbólicos, la creencia en una “vida” después de la muerte, la atribución de la desgracia o de la suerte a una causa transcendental, la atribución de la autoría de escritos o de otros tipos de testimonios a una entidad divina y de fenómenos naturales a un designio intencional. “Es sorprendente el ver que, independientemente de su entorno cultural, la gente tiene este tipo de ideas en cualquier parte del mundo”, manifiesta entusiasmado Harvey Whitehouse. Sin embargo, nunca se han estudiado de forma sistemática los orígenes de estos parámetros recurrentes a través de la historia y de las culturas, y precisamente EXREL pretende solventar esa falta de datos. Según el investigador, los pensamientos y las creencias comúnmente reagrupadas en el término “religión” tienen sus Disputas parroquiales A demás del equipo de Harvey Whitehouse, otros científicos estudian la cuestión de los orígenes de la religión. Si bien no se cuestionan la existencia y perpetuación de conceptos universales comunes a todas las religiones, su procedencia sigue suscitando un debate acalorado. Así, Justin Barrett(2), también investigador en antropología en la Universidad de Oxford, atribuye la emergencia del pensamiento religioso a un mecanismo cognitivo que se activa en nuestro cerebro, el “hypersensitive agency detection device” (HADD). Cuando el cerebro no puede explicar un fenómeno de manera intuitiva, se lo atribuiría a agentes intencionales no naturales (espíritus, dioses) que le darían una explicación coherente a acontecimientos inhabituales (enfermedad, catástrofe natural, supervivencia inesperada, etc.). Según él, el éxito de la religión podría deberse al hecho de que le da un sentido a los fenómenos de tipo HADD. El filósofo de las ciencias Daniel C. Dennett(3) percibe la religión como el resultado de una simple acumulación mimética de elementos culturales (al igual que las palabras, las canciones, los artefactos) que seguirían el mismo modo de replicación que los genes. Según él, la duplicación y la transmisión de la información se harían de forma automática e inconsciente, sin la menor interferencia de autores intencionales. (2) Justin L. Barrett, “Why Would Anyone Believe in God?”, AltaMira, 2004. (3) Daniel C. Dennett, “Breaking the Spell: Religion as a Natural Phenomenon”, Viking Press, 2006. 38 research*eu n°63 | ABRIL DE 2010 © Shutterstock/Gary Yim ¿De dónde viene el pensami CIENCIAS HUMANAS ento religioso? raíces en la evolución de la historia humana y serían el producto de características inherentes al desarrollo cognitivo de nuestra arquitectura cerebral. Esta es la hipótesis dominante en el campo de investigación de las ciencias cognitivas de la religión. Apoyándose en esta teoría, Harvey Whitehouse y sus colegas intentan comprender por qué la religión responde tan bien a las necesidades del homo sapiens, hasta el punto de poderse considerar como una de sus características fundamentales. La principal finalidad de EXREL consiste en aportar una explicación científica a las características universales presentes en el gran abanico de religiones existentes y restituir los procesos latentes que permitieron su desarrollo y su difusión en el seno de la comunidad humana. y proponer una reconstitución científica del fenómeno religioso de la humanidad prehistórica. Esta recopilación podría aportar información inédita en cuanto a la forma en la que se extendieron por todo el mundo los conceptos y los comportamientos religiosos con el paso del tiempo. El segundo apartado trata de definir las principales causas de la existencia y la supervivencia de las tradiciones religiosas universales e identificar los mecanismos cognitivos que se activan en estos procesos de memorización y de transmisión. Estudiará con más profundidad la producción y las características específicas de los conceptos de la “vida” después de la muerte, la inclinación humana a atribuir la causalidad de acontecimientos a agentes sobrenaturales intencionados, y de las modificaciones de comportamiento inducidas por la creencia en estos agentes. Análisis exhaustivo del fenómeno El tercer apartado del programa intentará dar religioso El proyecto está subdividido en cuatro una explicación al hecho de que, según su apartados que tendrían que arrojar luz sobre las grado de elaboración, cada elemento del repermúltiples facetas del fenómeno religioso. El torio religioso presenta variaciones según las primero consiste en hacer un inventario de diferentes tradiciones religiosas. forma cuantificable de los principales elemenY por último, el cuarto apartado, tan original tos universales de las religiones, exponer sus como ambicioso, pretende explorar el futuro variantes culturales y poner de relieve los que desarrollando modelos que permitan simular no sean universales pero que al menos hayan las futuras trayectorias y transformaciones de los sido recurrentes a lo largo de la historia y las sistemas religiosos. Antes que nada, se tendría culturas. A más largo plazo, los datos recopila- que definir una especie de “paquete básico” de dos tendrían que permitir que el equipo de aptitudes cognitivas y de leyes de interacción investigadores pudiera remontar en el tiempo necesarias para la emergencia de la religión en © Shutterstock/Gail Johnson Los arqueólogos se siguen preguntando cuál es el significado exacto de los vestigios neolíticos de Stonehenge (Reino Unido), con numerosas piedras erguidas, así como el sentido que tienen las figuras gigantes de la Isla de Pascua (moái), erigidas por sus habitantes a partir del siglo X. una determinada sociedad. Estos modelos establecerían una clave de análisis inédita de los fenómenos religiosos pasados y presentes, pero además, sus variantes informáticas podrían permitir simular las futuras transformaciones de las tradiciones religiosas. ¡Nada más y nada menos! Si este programa informático logra resultados convincentes, podría ser una herramienta de planificación política muy valiosa. Aunque la religiosidad comporte un lado positivo en términos de salud mental para un gran número de personas, también es un factor de grandes conflictos. De ahí que las aplicaciones prácticas de este programa podrían ayudar a comprender mejor y, quién sabe, a prevenir adecuadamente la incidencia de la religión en los extremismos y los fundamentalismos religiosos, puesto que nuestra sociedad diariamente refleja la intolerancia a menudo mortífera que les acompaña. Jean-Pierre Geets, Annick M’Kele (1) Artículo publicado en el periódico Daily Telegraph del 13 de septiembre de 2009: www.telegraph.co.uk/ news/worldnews/europe/5268361/EU-wasting-billionson-projects-such-as-defining-God.html EXREL 11 socios – 8 países (UK-FI-DK-NL-FR-AT-CH-BG) www.cam.ox.ac.uk/research/ explaining-religion/ research*eu n°63 | ABRIL DE 2010 39 BREVES Vigilancia remota de los gorilas Courtesy UWA Aún existen en nuestro planeta unos 700 gorilas de montaña. Cerca de la mitad de ellos viven en el “Parque Nacional Impenetrable” de Bwindi, en Uganda; los demás están distribuidos entre Ruanda y la República del Congo. El año pasado, Bwindi y el Parque Nacional de Mgahinga, muy cercano al mismo, atrajeron a 600.000 visitantes. Los gorilas, especie protegida en peligro de extinción, representan un valioso recurso turísticofinanciero, administrado por la Uganda Wildlife Authority (UWA). La UWA vela por que se respeten los espacios reservados para los gorilas, obtiene ingresos de las visitas a los parques nacionales en los que están y redistribuye una parte de sus ganancias a la población local, apoyando, entre otras cosas, escuelas, hospitales, actividades de cría de animales, etc. Para llegar al gran público, la UWA acaba de lanzar la página web Friendagorilla.org, en la que los gorilas son los auténticos protagonistas. Allí se habla de sus costum- 40 research*eu n°63 | ABRIL DE 2010 bres, sus características específicas comparadas con las de otros primates, y quien quiera imitar a la famosa Dian Fossey puede consolidar su “amistad” con algunos gorilas de las montañas. Por la módica suma de un dólar al año, los internautas podrán seguir los desplazamientos de un pequeño grupo de ellos, las veinticuatro horas del día. Una serie de cámaras ocultas en el impenetrable bosque siguen la pista a estos nómadas, que se resguardan en un lugar diferente cada noche. También se pueden visitar in situ. Le costará un poco más intentar verlos en persona en los parques nacionales de Mgahinga. Los “rastreadores” del parque intentarán enseñárselos, aunque no pueden garantizar su avistamiento. Pero incluso si no los viera, el esplendor del paisaje bastaría para eliminar su frustración. www.friendagorilla.org Pasos “agigantados” En Plagne (Francia), entre Lyon y Ginebra, se han descubierto las huellas de dinosaurios más grandes hasta la fecha: alcanzan unas medidas de entre 1,20 m y 1,50 m de diámetro, y dejan un rastro que se extiende por cientos de metros. Jean-Michel Mazin y Pierre Hantzpergue, investigadores de la Universidad Claude Bernard de Lyon, las identificaron como huellas de saurópodos. Estos animales medían más de 25 metros de longitud y podían pesar hasta unas cuarenta toneladas. Sin embargo, no fueron los científicos quienes hicieron este descubrimiento, sino © CNRS Photothèque/Hubert Raguet/UMR5125 LA CIENCIA AL ALCANCE DE LA MANO Sucesión de huellas de dinosaurio en el yacimiento paleontológico de Plagne (Francia). dos “aficionados” apasionados por la paleontología, los fósiles, los volcanes y la naturaleza, MarieHélène Marcaud y Patrice Landry. Su hallazgo no fue fortuito. Es la prueba de que los no profesionales pueden ser asistentes muy valiosos para los investigadores. Nuestros dos descubridores (una profesora jubilada y un geólogo) son miembros de una asociación local de naturalistas aficionados a la paleontología. “Constituimos grupos para explorar diferentes sectores”, explica Patrice Landry. “Conforme fuimos realizando nuestras observaciones y nuestros descubrimientos, determinamos ciertas facies de roca. También estudiamos los mapas geológicos así como fotografías aéreas para identificar los afloramientos rocosos y la manera en la que podíamos alcanzarlos. A partir de ahí, nos centramos en algunos emplazamientos determinados y los exploramos con regularidad. Plagne era uno de ellos y era la primera vez que íbamos allí.” Un bello ejemplo de ciencia de la observación… www2.cnrs.fr/presse/ communique/1691.htm Competición en línea Tome tres palabras claves (neumático, carretera y seguridad). Mézclelas. Agítelas. Dé rienda suelta a su imaginación. Invente un mensaje claro, original y contundente para destacar la relación entre estos tres elementos en el tiempo de un videoclip. ¿El resultado? Un vídeo de cinco minutos como máximo, concebido para Youtube y con perspectivas de un futuro prometedor. Nos estamos refiriendo al concurso propuesto por TyroSafe (Tyre and Road Surface Optimisation for Skid resistance and Further Effects). La obra del ganador será difundida en campañas, acontecimientos, exposiciones, etc., organizados por los socios de este proyecto europeo. El jurado está compuesto por diferentes expertos de la investigación industrial en el área de la seguridad vial. Los creadores pueden elegir libremente el formato de vídeo (videoclip al estilo de una campaña de publicidad, una canción, un vídeo de marketing…) y pueden utilizar los elementos visuales que encontra- www.youtube.com/tyrosafe http://tyrosafe.fehrl.org Navegación por la cultura © Shutterstock/Lori Labrecque Mientras que Google tiene la ambición de digitalizar todos los libros del mundo, Europa pretende agrupar sus propias riquezas bajo la marca Europeana, reuniendo y poniendo en línea el inmenso patrimonio de las colecciones conservadas en las bibliotecas, los centros de archivos y los museos de todo el Viejo Continente. Estas colecciones comprenden un número impresionante de obras y de publicaciones (unos 2.500 millones de documentos contando sólo los de las bibliotecas) y millones de horas de películas y de vídeos sobre la historia y la cultura europeas. Europeana empezó a funcionar en noviembre de 2008 y esta gigantesca colección virtual ya ofrece 4,6 millones de “objetos digitales” (libros, mapas, objetos de arte, pósteres, fotografías, archivos audio-visuales, etc.), en 19 lenguas. Europeana no es sólo un desafío cultural, sino también un desafío tecnológico de comunicación. Está siendo una tarea compleja poner en marcha las múltiples ramificaciones de esta red, que corresponden a contextos de gestión cultural a menudo diferentes. Cada colaborador ha tenido que adaptarse a unas normas indispensables para esta empresa común. Luego ha hecho falta inventar modos de consulta que garanticen el acceso más apropiado para usuarios muy diversos (investigadores, profesores y estudiantes, empresas culturales, o simplemente curiosos). Europeana merece la pena: en la portada aparecen una serie de temas que invitan a embarcarse en la navegación sociocultural. Cada objeto que se visita abre las puertas a otras pistas. También encontramos una máquina del tiempo donde se puede hacer clic en un año (desde 1801 hasta el 2007) y ver imágenes de aquel entonces. Como ya dice Europeana en su portada, su misión es ser “un lugar para la inspiración y las ideas”. Por su parte, la Biblioteca Digital Mundial de la UNESCO, inaugurada en abril de 2009, tiene una dimensión universal. Ofrece a sus visitantes documentos muy diversos que le han sido cedidos por bibliotecas e instituciones culturales de todos los continentes. Actualmente, 26 instituciones de 19 países contribuyen a la misma, en diferentes lenguas: árabe, chino, inglés, francés, portugués, ruso y español. Con esta biblioteca, la UNESCO pretende desarrollar el volumen y la diversidad de los contenidos culturales en Internet y reducir en lo posible las fracturas digitales entre distintos países o regiones. www.europeana.eu www.wdl.org Se rocía con agua una carretera antes de un ensayo de rendimiento de neumáticos realizado por el Laboratoire Central des Ponts et Chaussées de Nantes (Francia). © Shutterstock/Loris rán en la página de TyroSafe. Las creaciones están abiertas a todas las lenguas, pero deben estar subtituladas en inglés. © Austrian Institute of Technology / Roland Spielhofer BREVES El mapa del calentamiento al descubierto La cumbre mundial de Copenhague ha logrado que se reconozca la necesidad de que el aumento de temperatura no exceda los 2ºC con respecto a las temperaturas preindustriales, aunque sin dar un objetivo con cifras para conseguirlo(1). ¿Qué pasaría si todo se quedara en buenas intenciones y franqueáramos el umbral de los 2ºC? Las consecuencias saltan a la vista gracias a un mapa interactivo del planeta propuesto por el gobierno británico en la página web Act on Copenhagen. Este mapa presenta los últimos resultados científicos referentes al calentamiento climático. Podemos abordarlo escogiendo una zona geográfica o una de las causas y/o de las consecuencias de estos cambios: el impacto de las actividades humanas, la evolución de la agricultura, el futuro de la selva amazónica, el ciclo del carbono, el agotamiento progresivo de los recursos hídricos, la elevación del nivel de los océanos. Los escenarios son sobrecogedores: 130 millones de víctimas de inundaciones al año, mil millones de personas con escasez de agua, una subida de 48 centímetros del nivel de los mares (consideramos que actualmente 600 millones de personas viven a menos de diez metros por encima del nivel del mar), grandes zonas de la selva amazónica con sequía… ¿Se trata de hipótesis alarmistas? Los investigadores nos recuerdan que la ola de calor que se dio en Europa en el 2003 causó 35.000 muertes. www.actoncopenhagen. decc.gov.uk/en/ambition/ evidence/4-degrees-map/ (1) Véase también la entrevista de Jean-Pascal van Ypersele en este número. research*eu n°63 | ABRIL DE 2010 41 BREVES PUBLICACIONES EL RINCÓN PEDAGÓGICO Tornado casero U na cacerola llena de agua hirviendo, una barrita de incienso y una gran placa de plexiglás: he aquí todo lo que usted necesitará para crear un minitornado en su cocina. Primero, recorte 4 trozos de plexiglás para formar un paralelepípedo rectangular, de 1m de alto, abierto en la base y en lo alto. Antes de unirlos, haga un corte de aproximadamente 5 cm de ancho a lo largo de los bordes de las cuatro caras, del lado derecho (véase el dibujo). Luego, ponga la cacerola sobre un pequeño hornillo al lado del cual usted habrá colocado la barrita de incienso previamente encendida. Cubra todo con el paralelepípedo y espere. Usted verá poco a poco cómo aparece un tornado. ¿Magia? ¡No, física! Este dispositivo recrea en cierto modo las condiciones naturales propicias para la formación de tornados. A nivel de la cacerola, el aire está a una temperatura cercana a los 100°C mientras que baja a 30°C en la parte alta del paralelepípedo. La variación de temperatura de las diferentes capas de aire engendra una fuerza de empuje, denominada de Arquímedes, que provoca una aceleración vertical del vapor de agua. Simultáneamente, este movimiento produce una succión de aire a través de las 4 grandes hendiduras, lo que da como resultado la rotación del vapor ascendente. El papel de la barrita de incienso es liberar polvo sobre el que se agregan las partículas de agua, haciendo que el fenómeno sea más visible. 42 research*eu n°63 | ABRIL DE 2010 Le monde en 2025 – La montée en puissance de l’Asie et la transition socio-économique 2009, 28 páginas, ISBN 978-92-79-12486-0 Esta obra, que se centra en Europa, destaca las futuras tendencias en términos de transformaciones geopolíticas, de desarrollo económico, de comercio internacional o incluso de pobreza, y pasa después a identificar las posibles futuras tensiones (recursos naturales, migraciones, urbanización, etc.) y a proponer una serie de vías de transición. Collaborative cardiovascular research En la Tierra, los tornados se producen en las regiones calientes, donde las diferencias de temperatura entre el suelo y las capas altas del aire son lo suficientemente elevadas como para engendrar un movimiento ascendente. En cuanto a la rotación, se debe a la fuerza de inercia de Coriolis que refleja la rotación de la Tierra, a la que se superponen efectos geostróficos relacionados con los frotamientos diferenciales con el suelo y las capas sucesivas de aire. Al estar construido de esa forma, el dispositivo engendra un movimiento ascendente cuya rotación es contraria a las agujas del reloj, lo que corresponde a los tornados del hemisferio Norte. Dé la vuelta al paralelepípedo y cambiará de hemisferio… Marie-Françoise Lefèvre 2009, 88 páginas, ISBN 978-92-79-12802-8 Catálogo de las investigaciones cardiovasculares llevadas a cabo entre el 2007 y el 2009 en el Séptimo Programa Marco de Investigación de la Unión Europea. La primera parte de la obra intenta identificar las necesidades de esta amplia área de investigación, así como las posibilidades de colaboración transnacional. People, the economy and our planet 2009, 36 páginas, ISBN 978-92-79-11952-1 Esta publicación destaca la contribución para el desarrollo sostenible de las investigaciones europeas en el área de las ciencias socioeconómicas y humanas. Se basa en las actas de los debates de la conferencia “Sustainable development: a challenge for European research” celebrada en mayo de 2009 en Bruselas. La Science au service de l’Europe 2009, 90 páginas, ISBN 978-92-79-12961-2 No es en absoluto un aburrido listado de cifras, sino que este informe de actividad da una visión sintética y bien ilustrada de la acción de la Dirección General de Investigación de la Comisión Europea en el año 2008 en el Espacio Europeo de la Investigación. Está dividido en unas veinte secciones, que tratan temas tan diversos como la salud, la agricultura, las nanotecnologías, las infraestructuras de investigación, las relaciones entre la ciencia y la sociedad… The EU works for you: environmental research for today and tomorrow 2009, 94 páginas, ISBN 978-92-79-11588-2 Esta obra, impresa en papel reciclado, contiene una selección de 51 proyectos de investigación claves del área de medio ambiente financiados por el Sexto Programa Marco de Investigación de la Unión Europea. Los proyectos aparecen clasificados en diez categorías como el cambio climático, la biodiversidad o incluso la gestión rural y urbana. Gouvernance mondiale de la science 2009, 50 páginas, ISBN 978-92-79-11309-3 Informe del grupo de expertos sobre gobernanza mundial de la ciencia realizado para la Dirección General de Investigación de la Comisión Europea, con las aportaciones de científicos, sociólogos, filósofos y politólogos de Europa, Estados Unidos, China y Sudáfrica. En EU Bookshop pueden consultarse y encargarse más publicaciones sobre la Unión Europea: bookshop.europa.eu IN BRIEF JÓVENES INVESTIGADORES Amoolya, su voz y su camino Trabajo en la Universidad Emory de Atlanta (Estados Unidos). Tras hacer la tesis en Berkeley, obtuve una beca de postdoctorado en la EMBO (European Molecular Biology Laboratory), en Heidelberg (Alemania). Investigo las características de los mecanismos evolutivos de las respuestas al estrés bacteriano, que desempeñan un papel muy importante en las enfermedades humanas y en la biodegradación de los residuos tóxicos. Aunque me gusta lo que hago, mi trayectoria científica en realidad no ha sido lineal. Al ser mis padres biólogos, me animaron a plantear cuestiones y a explorar la naturaleza. También tuve la influencia de la música: estudié canto y diferentes instrumentos desde que era niña. Al final de mis estudios secundarios, en la India, me costó escoger entre una carrera de música o de OPINIÓN Confesiones de un comunicador El 15 de octubre de 2009 aparecía el siguiente titular en el semanario francés Le Nouvel Observateur: “Incidente en la industria nuclear: falta plutonio al hacerse el inventario en Cadarache”. “El suficiente como para fabricar unas cinco bombas nucleares”, se indigna Greenpeace. La realidad es mucho menos grave, pero este hecho ha planteado el interrogante de cómo se informa al público. Antes de analizar sus efectos, un incidente nuclear causa la indignación, la ansiedad, a veces hasta el pánico. Ahora bien, los hechos que suscitan la emoción son los que se quedan más grabados en la memoria. ¿Qué se puede hacer? Nos damos cuenta de que no podemos debatir racionalmente con el público sobre un tema que no ha asimilado de científica. Y luego obtuve una beca científica para ir a Estados Unidos, lo que me hizo poner rumbo hacia el Oeste. Allí, la posibilidad de tocar música en un nuevo entorno me ayudó a soportar el choque cultural y a hacerme nuevos amigos. Recuerdo la etapa de mi doctorado como un periodo alegre y creativo. Los tres años pasados en Europa constituyeron otro maravilloso periodo de transición. Por segunda vez en mi vida cambiaba de continente y tenía que empezar de cero. Siempre asusta un poco eso de irse a miles de kilómetros, pero yo ya lo había hecho una vez y estaba preparada para el choque cultural. Me sorprendió que fuera al revés: Europa, al tener una cultura antigua y una historia larga, me recordaba más a la India y me sentí un poco como en casa cuando descubrí su ambiente forma racional. Por eso, aunque sea útil seguir proporcionando información bien documentada, de esta forma sólo se llega a los más curiosos. Quedará por convencer la gran masa de los indiferentes, que ejerce una influencia notable sobre los políticos. Cicerón enseñó a los oradores romanos que, para hacerse oír, primero tenían que atraer, luego emocionar, y finalmente, convencer. En el sector nuclear nunca se respetó este orden: quiso convencer ante todo, no sedujo a la mayoría del público y la emoción suscitada fue negativa la mayoría de las veces. ¿Pero cómo podría seducir el sector nuclear al gran público? Tendría que verse con este último en su terreno y no intentar atraerlo. ¿Cuándo está más disponible dicho público? Por la noche, mientras ve la televisión, concretamente, su serie favorita. En ella hay que mostrarle las actividades nucleares, la competencia y la conciencia profesional de sus agentes para, progresiva- urbano, con sus plazas y sus calles peatonales. Comprobé que mis colegas europeos eran tan productivos como los estadounidenses, pero que sabían mantener un equilibrio entre el trabajo y la familia, por ejemplo, disfrutando de vacaciones cada año. Al ver este equilibrio, empecé a sentir más ganas de casarme y de tener una familia, mientras que, en el contexto productivista estadounidense, había intentado evitarlo. Ahora que estoy de vuelta a los Estados Unidos, me doy cuenta de que esta transición me ha permitido desarrollar mi propia voz (por tomar una metáfora musical). Aunque sea difícil mantenerla en la cacofonía de las presiones profesionales, posiblemente sea la razón más verdadera y más bella para seguir cantando o investigando. Amoolya Singh Bioinformática mente (lo que llevará años) ir restaurando la confianza por la energía nuclear a través de la presencia cotidiana de los personajes ya familiares. Pero esta serie televisiva “nuclear” ante todo tiene que divertir para lograr una gran audiencia durante años y así, poco a poco, mejorar la imagen de esta energía. Este proyecto ya ha dejado de ser un sueño y se está estudiando. Alain Michel Consultor en estrategia de comunicación (área nuclear) AGENDA Podrá estar al día de los acontecimientos referentes a la investigación y el desarrollo en la página web: ec.europa.eu/research/headlines/ archives_diary_en.cfm research*eu n°63 | ABRIL DE 2010 43 LA CIENCIA EN IMÁGENES KI-AH-09-063-ES-C Un géiser incipiente Estas burbujas de gas anuncian que está a punto de brotar el célebre géiser de Strokkur (Islandia). La imagen fue captada algunas milésimas de segundo antes de la erupción. Le valió a su autor danés de 17 años, Ela Ugur, el “Gold Award” en el concurso de fotografía organizado por el MILSET (Movimiento Internacional concurso anual para los menores de 25 años, su finalidad es “proponer un espacio para que los jóvenes puedan expresar de forma creativa, con imágenes, lo que observan en las ciencias. Para participar sólo tienen que darle al disparador”. http://europe.milset.org Con la autorización de Ela Ugur/Milset para el Recreo Científico y Técnico), en 2009. Para los organizadores de este