¿Perdimos una oportunidad en Copenhague?

Anuncio
N°63 – Abril de 2010
Comisión Europea
Reportaje
“Relájese y escuche mi voz”
Energía
Laser y fusión,
¿la alianza perfecta?
© Shutterstock/Robert HM Voors
Clima
¿Perdimos
una oportunidad
en Copenhague?
ISSN 1830-7396
Revista del Espacio Europeo de la Investigación
research*eu, la revista del Espacio Europeo de la investigación que pretende ampliar el debate democrático entre
la ciencia y la sociedad, está escrita por periodistas profesionales independientes. Presenta y analiza proyectos,
resultados e iniciativas cuyos actores, hombres y mujeres, contribuyen a reforzar y a federar la excelencia científica
y tecnológica de Europa. research*eu se publica en inglés, francés, alemán y español, a razón de diez números
al año, por la Unidad de Comunicación de la DG de Investigación de la Comisión Europea.
research*eu
Redactor jefe
Michel Claessens
Revisores de las versiones lingüísticas
Maria Antonia Jiménez Nevado (español),
Gerard Bradley (inglés), Régine Prunzel
(alemán)
Coordinación general
Jean-Pierre Geets, Charlotte Lemaitre
Muchos científicos recuerdan que las ciencias y los medios de comunicación no van
a la par. La “mediaciencia”, esta ciencia mediatizada, con sus simplificaciones excesivas,
exageraciones y errores no tendría mucho que ver con la “auténtica” ciencia y, en el mejor
de los casos, se trataría de una caricatura…
Sin embargo, al situar las investigaciones dentro de un contexto, la “mediaciencia” contribuye a dar a la ciencia una imagen más completa, viva y humana, entre otras cosas,
proyectando los focos de la actualidad sobre investigaciones en curso y expertos de estos
campos.
Lo vemos en particular en el tema central de este número: el calentamiento climático. La “mediaciencia” aporta
a los trabajos de los científicos lo que actualmente más les falta: una visibilidad pública y política. Sin mediatización
y sin tratamiento “mediacientífico”, el IPCC (Panel Intergubernamental de expertos sobre el Cambio Climático)
quizás no habría sido escuchado por los políticos. Su presidente actual, Rajendra Kumar Pachauri, lo ha reconocido
explícitamente la página web SciDev (Red de Ciencias y Desarrollo) del pasado mes de junio, en la que se publicó su
opinión: “En el transcurso de estos dos últimos años, los medios de comunicación han desempeñado un papel
esencial en la sensibilización a gran escala sobre el cambio climático. Esto es muy positivo. Por lo tanto, se puede afirmar que los medios de comunicación han contribuido a hacer que la opinión pública apoye la adopción
de medidas contra el cambio climático…”.
Todos los investigadores aspiran a que su trabajo no se quede en papel mojado y que aporte a la sociedad
lo mejor, sin consecuencias negativas. La “mediaciencia” ofrece esta posibilidad a la comunidad científica.
Michel Claessens
Redactor jefe
Las opiniones presentadas en este editorial, así como en los artículos de este
número, no comprometen de forma alguna a la Comisión Europea.
La revista research*eu es gratuita. Para abonarse, cambiar la dirección de envío, modificar las modalidades
de su abono o rescindirlo, la forma más rápida y segura es hacerlo en la página web:
http://ec.europa.eu/research/research-eu/
Asimismo, podrá pedir antiguas ediciones, también gratuitas.
También puede rellenar este formulario con letra
de imprenta y enviarlo a la dirección siguiente:
research*eu
ML DG1201
Boîte postale 2201
L-1022 Luxembourg
Nombre : ........................................................................................................................................................
Organización : .....................................................................................................................................
...................................................................................................................................................
...........................................................................................................................................................................................
Código postal :
..........................
Consejero editorial
Didier Buysse
Periodistas
Audrey Binet, Laurence Buelens,
Didier Buysse, Élise Dubuisson,
Stéphane Fay, Jean-Pierre Geets,
Elisabeth Jeffries, Marie-Françoise Lefèvre,
Annick M’Kele, Christine Rugemer,
Yves Sciama, Julie Van Rossom
Traducciones
Andrea Broom (inglés), Martin Clissold
(inglés), Silvia Ebert (alemán),
Michael Lomax (inglés),
Consuelo Manzano (español)
Diseño
Gérald Alary (jefe de proyecto),
Olivier Moulin (paginación),
Sophie Maertens (coordinación
y seguimiento de la producción),
Daniel Wautier (corrección de pruebas
en francés), Richard Jones (corrección de
pruebas en inglés), Sebastian Petrich
(corrección de pruebas en alemán),
D. A Morrell (corrección de pruebas
en español).
Búsqueda de ilustraciones
Christine Rugemer
En portada
Deshielo de la banquisa.
©Shutterstock/Robert HM Voors
Versión en línea
Charlotte Lemaitre
Formulario de suscripción a la versión impresa de research*eu
Dirección :
Coordinación de redacción
Jean-Pierre Geets
© Arion
editorial
¿Caricaturas?
Ciudad : .......................................................................
País : .......................................................................................................................................................................
Versión(es) lingüística(s) que desea recibir:
francesa
inglesa
alemana
española
Si desea recibir varios ejemplares de una versión
lingüística determinada, puede enviar su formulario
con su dirección completa y una breve justificación.
• por correo electrónico: [email protected]
• por fax (+32-2-295 82 20).
Si desea obtener uno o varios ejemplares de números
anteriores, envíe un mensaje por correo electrónico
o por fax.
Impresión
Bietlot, Gilly (Bélgica)
Production générale
PubliResearch
Esta revista ha sido imprimida con papel
que lleva el certificado PEFC (Programa para
el Reconocimiento de Sistemas de Certificación Forestal) para una gestión sostenible
de nuestros bosques.
La tirada de este número
es de 126.000 ejemplares.
Todas las ediciones de research*info se
pueden consultar en línea en la página web
de la DG de Investigación:
http://ec.europa.eu/research/research-eu
Editor responsable:
Michel Claessens
Tel.: +32 2 295 99 71
Fax: +32 2 295 82 20
E-mail: [email protected]
© Comunidades Europeas, 2009
Reproducción autorizada, si se menciona
la fuente.
Ni la Comisión Europea ni ninguna persona
que la represente son responsables del uso
que pueda hacerse de la información que
contiene esta publicación ni de los errores
eventuales que puedan subsistir a pesar del
esmero en la preparación de estos textos.
ÍNDICE
4 Breves
En el aire
INFORME ESPECIAL
CLIMA
20 Breves
Noticias europeas.
La investigación vista con lupa.
Entrevista
24 Un “investigador de fondo”
Entrevistamos a Harald zur Hausen, Premio
Nobel de medicina, cuyos descubrimientos
sobre el VPH permitieron poner a punto
vacunas preventivas contra el cáncer
de útero.
Retrato
34 El algoritmo de los dioses
Stephen Wolfram, investigador emérito
y hombre de negocios con éxito,
ha revolucionado el mundo de las ciencias
con sus teorías y sus métodos de trabajo.
Prisiones
Reportaje
Entrevista
8 “Hemos hecho muy poco para tratar
este problema tan inmenso”
Entrevista a Jean-Pascal van Ypersele,
vicepresidente del IPCC, profesor del
Instituto de Astronomía y Geofísica de la
Universidad Católica de Lovaina (Bélgica).
Océanos
10 La acidez del mar azul
Paralelamente al calentamiento climático
se va desarrollando, de forma menos visible,
la acidificación de los océanos, provocada
por las emisiones de CO2 de origen antrópico.
Transportes
12 Adiós petróleo
Presentación del proyecto NEMO, que tiene
por objetivo la producción de biocarburantes
de segunda generación a partir de desechos
vegetales, entre otras cosas.
26 “Relájese y escuche mi voz”
La anestesia hipnótica se practica desde
hace más de quince años en Bélgica.
Presentación de una técnica ya reconocida.
Escepticismo
Ciencias humanas
Neurociencias
30 Viaje al país del hedonismo
Los investigadores del TrygFonden Research
Group tienen por misión la de comprender
la naturaleza del placer para ayudar
a quienes no lo experimentan.
Energía
38 ¿De dónde viene el pensamiento religioso?
EXREL, un panel de científicos europeos cuya
misión es estudiar los orígenes de la religión
y anticipar su evolución.
40 Breves
La ciencia al alcance de la mano.
El rincón pedagógico. Publicaciones.
Jóvenes investigadores. Opinión.
Los modelos climáticos
14 Las herramientas de diagnóstico
Las previsiones científicas que conciernen al
clima europeo alcanzan un grado de precisión
inédito. Y por primera vez disponemos de
métodos que permiten evaluar su precisión.
36 El cáncer de las prisiones
Superpoblación carcelaria, fractura social,
nuevas formas de delincuencia…
¿Acaso el Estado social ha perdido la batalla
frente al Estado penal? La mayoría de los
criminólogos no lo dudan.
La ciencia en imágenes
32 Láser y fusión, ¿la alianza perfecta?
El acceso a una energía limpia e inagotable,
este es el ambicioso objetivo de los
proyectos PETAL e HiPER sobre la fusión
termonuclear controlada.
44 Un géiser incipiente
17 Todo científico que se precie debe
ser escéptico
¿Qué argumentos esgrimen los “escépticos del
cambio climático”, los científicos que se oponen
a la mayoría de los especialistas del clima?
research*eu n°63 | ABRIL DE 2010
3
BREVES
Europa busca a sus
antepasados
© Joachim Burger
Se diría que en la búsqueda de
nuestras raíces, los estudios de
ADN están añadiendo misterios
conforme los van desvelando.
En el año 2005, investigadores del
Instituto de Antropología Johannes
Gutenberg de la Universidad de
Maguncia (Alemania) demostraron
que los primeros cultivadores
europeos no fueron los antepasados directos de los europeos
modernos. En un nuevo estudio,
siguiendo esta línea de investigación, compararon el ADN de estos
cultivadores con el de los últimos
cazadores-recolectores que poblaron Europa después de la Edad de
Hielo. Parece ser que estos últimos
no tienen más relación con los
primeros cultivadores que con
la población europea actual.
Por lo tanto, los europeos modernos no descenderían de ninguno
Análisis de ADN realizado en
un laboratorio de la Universidad
de Maguncia.
de estos dos grupos, ni de ninguna
mezcla de los dos, puesto que
en los esqueletos analizados
no aparecen determinados tipos
comunes de ADN actuales.
Ante la falta de respuesta, la
cuestión sigue planteada…
4
research*eu n°63 | ABRIL DE 2010
Por otro lado, estos trabajos
de investigación han permitido
desvelar algunas de las incógnitas
sobre cómo se produjo la sedentarización de los nómadas europeos.
Durante mucho tiempo se ha
pensado que los primeros cultivadores eran antiguos cazadoresrecolectores que poco a poco
habían decidido quedarse en
un sitio. Pero, puesto que no existe
ningún vínculo entre estos dos
grupos, los cultivadores debieron
venir de otra parte. Los científicos
han logrado situar y datar esta
inmigración: vinieron de los
Cárpatos 7.500 años antes de
nuestra era. Un origen que les
acerca a regiones donde empezó
la sedentarización de los nómadas:
Anatolia y Oriente Próximo.
www.uni-mainz.de/eng
Los desiertos
amenazados
por el nitrógeno
Investigadores de la universidad
estadounidense Cornell, en
Nueva Jersey (Estados Unidos),
han descubierto algo nada
bueno: los suelos áridos están
perdiendo nitrógeno. Sus experimentos, llevados a cabo en el
desierto de Mojave en el Oeste
de Estados Unidos, revelan que
cuando escasea el agua y las
temperaturas son elevadas se
producen pérdidas de nitrógeno
en forma de gas. Al ser el agua
y el nitrógeno los dos principales
elementos de los que depende la
actividad biológica de los suelos
desérticos, esto significa que cada
vez tendrán menos vegetación.
Además, el fenómeno produce
un círculo vicioso. Los gases
nitrogenados provocan el aumento de las concentraciones de
ozono en la troposfera, que
contamina el aire, pero que sobre
todo contribuye al efecto invernadero y, de ahí, al calentamiento
responsable del cambio climático
y al descenso de las precipitaciones en estas regiones.
Este tipo de pérdida abiótica,
de naturaleza no biológica, nunca
se había tomado en cuenta antes
en el cálculo del balance de
nitrógeno. Por eso los científicos
han insistido en que se tiene que
integrar este nuevo dato en los
modelos climáticos.
www.news.cornell.edu
Espejito, ¿quién es el
cerdito más lindo?
Generalmente se piensa que
si se pone a un cerdo delante
de un espejo, se abalanza contra
lo que pensaría que es otro
cerdo. Pero según un grupo de
investigadores en antropología
zoológica (disciplina que estudia
las relaciones entre los hombres
y los animales) de la Universidad
de Cambridge (Reino Unido),
en realidad eso no es así, por
lo menos si uno se arma de
paciencia para demostrarlo.
Los científicos colocaron a ocho
© Shutterstock/Anat-oli
EN EL AIRE
cerdos por parejas durante cinco
horas en un cercado en el que
había un espejo. Los animales al
principio se pusieron nerviosos
delante de su reflejo, rompiendo
el espejo cada vez. Pero tras
varias horas, parece que empezaron a comprender que el espejo
sólo devolvía la imagen de su
entorno. Para comprobarlo,
los investigadores colocaron
un tazón lleno de comida en
el cercado instalando además un
ventilador para dispersar el olor.
El tazón estaba disimulado
detrás de una pantalla, pero
se veía en el espejo. Todos los
cerdos, menos uno, se dirigieron
hacia el tazón real en una veintena de segundos.
Daniel Broom, quien dirigió el
estudio, opina que esta información podría permitir mejorar las
condiciones de vida de los cerdos
de cría. Con esta proeza intelectual,
el cerdo pasa a formar parte
del limitado círculo de especies
que tienen cierta conciencia de
sí mismas. El elefante, la orca,
el delfín, el papagayo gris de
Gabón, la urraca, varios primates
y los seres humanos a partir
de los dieciocho meses de edad,
forman parte de este “puñado
de afortunados” al pasar la famosa
etapa del espejo.
www.vet.cam.ac.uk/research
BREVES
Escherichia Coli.
Cooperar o morir
Un equipo franco-portugués
de investigadores del Instituto
Pasteur (Francia) y de la Universidad de Lisboa, que publicaron
un estudio en la revista Current
Biology, estudiaron el mecanismo
de cooperación a escala microbiana en el caso de Escherichia Coli.
Esta bacteria se encuentra en
abundancia en la flora intestinal,
coexistiendo en armonía con
el organismo humano. Pero al
producirse un cambio en las
relaciones con este último o con
otros microbios se puede volver
muy virulenta. Ahora bien, su
secretoma (las proteínas de las
que dependen sus funciones
vitales) puede ser fácilmente
utilizado por otros microbios,
a través del mecanismo de transferencia horizontal de genes, procedimiento no sexual por el cual
una serie de genes muy móviles,
codificados en el plásmido de
la célula, “saltan” de un organismo
a otro. Eso hace que Escherichia
Coli sea una colaboradora potencial, de forma involuntaria.
Lo que interesaba a los investigadores era comprender por qué
este fenómeno seguía dándose,
aunque no aportase gran cosa
a los organismos colaboradores,
llegando incluso a perjudicarlos.
Según su estudio, perdura por tres
procesos. Los numerosos genes
del secretoma tienen características “de cooperación”, que una vez
trasladadas a otros organismos,
les convierte en cooperadores.
Para mantener a esta nueva
población, los acompañan genes
que imponen una estrategia
radical de tipo “cooperar o morir”.
Y finalmente, la similitud genética
de los individuos infectados
favorece la conservación de estas
características de una generación
a otra gracias a la denominada
selección de parentesco. A través
del estudio de este proceso
se podrán mejorar los conocimientos sobre el crecimiento
bacteriológico y sus potenciales
manipulaciones.
www.cell.com/current-biology
Los bebés tienen
un acento
Ya se sabía que cuando se exponía
a los recién nacidos a diferentes
lenguas, preferían la lengua más
cercana a la que oían desde el
vientre de su madre. Ahora se sabe
también que sus grititos también
reproducen el acento tónico. Un
equipo del Centro del desarrollo
prelingüístico y de los trastornos
del desarrollo de la Universidad de
Wurzburgo (Alemania) estudió las
melodías formadas por los grititos
y los llantos de 30 bebés franceses
y de 30 bebés alemanes poco
después de su nacimiento.
Por lo visto, los recién nacidos
franceses tienen la entonación
más marcada al final de los grititos,
a semejanza de cómo los francófonos acentúan el final de las palabras y las frases, mientras que los
pequeños alemanes hacen lo
contrario, copiando la entonación
del alemán. Por supuesto, no se
trata de un acento propiamente
dicho, ya que este último tiene
que ver con el modo en el que se
pronuncian las palabras, pero este
estudio confirma la importancia
que tienen las melodías en el
proceso de aprendizaje de una
lengua, y muestra claramente que
dicho proceso comienza en el
útero, con la percepción y posterior reproducción de las melodías
oídas. Según los investigadores se
trata también de un paso más en
la resolución del enigma de la
aparición del lenguaje en nuestros
antepasados.
www.international.uniwuerzburg.de/en/international
El entrañable olor mohoso de los
viejos libros es el objeto de estudio de un nuevo método de
evaluación del grado de envejecimiento de las obras antiguas.
Este método, bautizado con el
nombre de “material degradomics”,
fue elaborado por un equipo de
investigadores ingleses y eslovenos principalmente de la University
College London y la Universidad de
Ljubljana, y publicado en la revista
Analytical Chemistry. A diferencia
de las técnicas tradicionales,
presenta la gran ventaja de no
estropear los documentos analizados, ya que únicamente se basa
en el olor que desprenden.
© Shutterstock/Valentin Agapov
© Inserm
© Shutterstock/Ngo Thye Aun
El olor de los viejos
libros
Con el paso del tiempo, los libros
desprenden compuestos orgánicos
volátiles (COV), responsables del
aroma que tienen. Los científicos
analizaron los COV desprendidos
por 72 obras históricas con composición típica de los siglos XIX y XX.
Se escogieron los 15 COV más
abundantes como marcadores de
degradación y se pusieron en
relación estadísticamente con los
principales componentes del papel
(resina, lignina, carbonilo, etc.) y
algunos de sus parámetros químicos, como su acidez (pH).
De esta forma, los niveles de cada
marcador proporcionan “la huella
dactilar” de un libro en un momento
dado. Esta información podría ayudar
a los museos y las bibliotecas a definir
las prioridades en materia de restauración y a revisar sus métodos.
http://pubs.acs.org/journal
research*eu n°63 | ABRIL DE 2010
5
INFORME ESPECIAL CLIMA
¿Perdimos
una oportunidad
en Copenhague?
El IPCC (Panel Intergubernamental de expertos
que abandonar y no sólo porque se están
sobre el Cambio Climático) ha tenido que esperar
agotando sus reservas). Se han intensificado las
diecisiete años para que sus conclusiones se
investigaciones sobre otras fuentes de energía.
tradujeran en objetivos cifrados, el famoso umbral
Y tras unos primeros pasos dados en falso
de aumento de temperatura de 2°C. Aunque para
(los agrocarburantes de primera generación),
su vicepresidente, el climatólogo Jean-Pascal van
por los que pagamos un alto precio, los
Ypersele, esta cifra aún tiene que considerarse con
biocarburantes siguen teniendo un futuro
prudencia, no hay que minimizar la importancia
prometedor.
que ha tenido, puesto que hoy en día se está
Pero hay que darse prisa... No dejan de salir
ejerciendo presión sobre los gobiernos del mundo
a la luz las consecuencias de los efectos del
entero para que actúen y revisen sus objetivos,
calentamiento sobre los ecosistemas. Por ejemplo,
considerados poco ambiciosos.
hasta hace poco no sospechábamos que
Poco a poco se agota nuestra complacencia con
el dióxido de carbono podía modificar
relación al petróleo (la energía fósil que tenemos
la composición del agua del mar hasta el punto
6
research*eu n°63 | ABRIL DE 2010
© CNRS Photothèque/Erwan Amice
Pingüinos (Pygoscelis
adeliae) en un pequeño
iceberg, a la deriva
en Adélie Land (Antártida).
de poner en peligro la biodiversidad y los
del origen antrópico del calentamiento y/o
ecosistemas marinos. Ahora bien, así es
de la pertinencia de las medidas propuestas
y la acidificación de los océanos se ha añadido
para combatirlo.
a la lista de los problemas medioambientales
En estos últimos años se han hecho llamamientos
más inquietantes.
por un mayor voluntarismo político y una
Las cifras se van afinando, los modelos
revisión total de nuestros modos de consumo
climáticos van mejorando, las proyecciones
sin que hayan tenido los efectos previstos. Los
ofrecen previsiones de probabilidad más precisas
acuerdos logrados en la Cumbre sobre el clima
y, al mismo tiempo, se ensombrecen. La ciencia
de Copenhague del pasado mes de diciembre
avanza, aunque sin certeza absoluta, y por lo
son el último ejemplo de dicha tendencia.
tanto, a través del debate, lo cual es positivo.
Sin embargo, estos llamamientos han hecho que
Prueba de ello: los científicos a los que se
por fin dejemos la orilla donde nos encontrábamos,
reagrupó bajo el término de “escépticos
en la que no se sabía nada y se desperdiciaba
del cambio climático” y que siguen dudando
todo. Ahora nos queda alcanzar la otra orilla.
research*eu n°63 | ABRIL DE 2010
7
“Hemos hecho muy poco
para tratar este problema
tan inmenso”
Jean-Pascal van Ypersele,
vicepresidente del IPCC(1), nos
habla del calentamiento climático bajo una óptica científica,
sin olvidar la interpretación
política, a veces sorprendente,
que se da del mismo…
Puede que ya haya consenso sobre la existencia
del calentamiento climático, pero ¿es seguro que
las actividades humanas son las culpables
del mismo?
Existe gran convicción de que el hombre es
responsable de este fenómeno y va creciendo
con los años. En 1995, el IPCC decía en su
informe que “una serie de elementos apuntan
a que existe una influencia perceptible de las
actividades humanas sobre el clima”. En el 2007,
se observó que la mayor parte del calentamiento
de los últimos cincuenta años “muy probablemente se debía” a los gases de efecto
invernadero causados por el hombre, lo que
traduce una probabilidad superior al 90 %.
Esta seguridad se basa en numerosas razones.
Por supuesto, en los modelos climáticos, que
tanto han avanzado. Pero también en la forma
característica del calentamiento: se traduce en
un enfriamiento de la alta atmósfera, porque los
gases de efecto invernadero encierran una parte
del calor en la atmósfera baja que, a su vez,
se calienta rápidamente. Si, por ejemplo,
el calentamiento se debiera a la intensificación
de la actividad solar, sería uniforme, incluso
mucho mayor en la estratosfera. Además,
8
research*eu n°63 | ABRIL DE 2010
© Jacky Delorme (UCL)
INFORME ESPECIAL CLIMA
ENTREVISTA
Jean-Pascal van Ypersele: “La física del clima
no tiene nada que ver con la agenda política…”
observamos que los polos se calientan más
rápidamente que los trópicos, fenómeno que
corrobora la explicación del efecto invernadero.
¿Qué consecuencias hay que temer?
El último informe del IPCC destina varios
cientos de páginas al resumen de los impactos, que van desde la disminución de los rendimientos agrícolas hasta diferentes problemas
sanitarios. Me gustaría destacar la importancia
de las modificaciones hidrológicas: los modelos predicen que varias regiones muy pobladas sufrirán una intensa desecación, entre ellas
la cuenca mediterránea, donde ya se están dando serios problemas de acceso al agua. Otro
aspecto es el deshielo de los glaciares de los
Andes y del Himalaya, que son el depósito de
agua de centenares de millones de personas
para quienes la estación de las lluvias sólo dura
de algunas semanas a algunos meses. El resto
del año, estos glaciares alimentan los ríos; por
lo tanto, su anunciada desaparición es muy
preocupante.
Otro impacto será la elevación del nivel del
mar. Afectará a todos los litorales europeos,
sobre todo a las costas bajas como las de los
Países Bajos, Bélgica, Alemania… Va a acelerarse la erosión, se infiltrará agua salada en las
capas freáticas, aumentarán los daños de las
tormentas, etc. Y en el delta del Nilo, diez
millones de personas viven a menos de un
metro por encima del nivel del mar. Está previsto que en este siglo el nivel del mar suba
por lo menos 50 cm, o quizás un metro. ¿Dónde va a ir toda esa gente?
¿Qué posición se debe adoptar frente al
“umbral de peligro” fijado en 2°C de calentamiento?
El IPCC nunca ha dicho que no se tuviera
que exceder los 2°C de calentamiento, ni que
se debiesen estabilizar las concentraciones de
CO2 atmosférico a menos de 450 ppm (partes
por millón). Nuestro trabajo (y este matiz es
importante) consiste en decir que a un
determinado escenario de emisión le
corresponde un calentamiento dado y, por lo
tanto, un determinado tipo de impacto. Son las
autoridades políticas quienes tienen que definir
los impactos aceptables, puesto que eso
supone juicios de valor que no incumben a los
científicos. Históricamente, la cifra de 2°C
empezó a mencionarse en el año 1996, en una
reunión del Consejo de ministros de la Unión
Europea. Luego fue validada en cierto modo
en el informe del 2001 del IPCC, donde se
publicó el célebre diagrama “burning embers”
(brasas ardientes) que sintetizaba la gravedad
de los impactos según diferentes temperaturas.
Su código de colores pasaba del blanco al rojo
en torno a los 2°C en la mayoría de los
impactos, por lo que la cifra se quedó grabada
en la mente de todos a pesar de que se basa
en datos de hace más de una década.
¿Quiere decir que los últimos datos científicos
invalidan este umbral?
A petición de los políticos, se han revisado
los impactos con minuciosidad. Para los autores del informe del 2007, prácticamente los
mismos que en el 2001, los umbrales tendrían
que revisarse a la baja en aproximadamente
0,5°C. Su nuevo gráfico [Nota de la redacción:
véase el artículo “Las herramientas de diagnóstico” de este número] no fue publicado en el
informe, pero acabó por salir en la revista científica estadounidense PNAS (Proceedings of the
National Academy of Sciences) en el 2009.
Ya le he dicho que no me incumbía, como
vicepresidente del IPCC, definir un umbral de
peligro. En cambio, sí le puedo decir que si los
ministros reunidos hace 13 años para fijar el
umbral de 2°C y 450 ppm se reunieran ahora
y se basaran en los mismos criterios que entonces, muy probablemente fijarían el umbral de
peligro en 1,5°C y en 350 ppm.
¿Cuáles serían las incidencias de tal cambio
de “umbral de peligro”?
Por el momento, el IPCC no responde
a esta pregunta, porque el escenario más
“magnánimo” evaluado en términos de emisiones genera de 2°C a 2,4°C de calentamiento. ¡Así que estamos obligados a extrapolar
para tener una idea de las emisiones que permitirían quedarse por debajo de 1,5°C! Creo
que esta laguna se colmará en el próximo
informe, pero evidentemente esto implicará
la revisión de todos los objetivos para hacerlos aún más vinculantes.
¿Los políticos han prestado más atención
al IPCC desde su último informe?
Se ha dado un cambio sumamente positivo (y esto no contradice lo que acabo de
decirle), puesto que el objetivo de 2°C ha sido
adoptado recientemente, primero en el G8
y luego en el G20. Es un hecho muy importante, a pesar de las reservas que tengo con
esta cifra, porque hasta entonces no se había
adoptado ninguna cifra en el ámbito internacional, ¡lo peor que podía pasar! La Convención Marco de las Naciones Unidas sobre el
Cambio Climático, adoptada en el año 1992
antes de la cumbre de Río, se limitaba a decir
que había que estabilizar las concentraciones de gases de efecto invernadero “a un
nivel que impida interferencias antropógenas peligrosas en el sistema climático”. Pues
ya han pasado 17 años sin objetivo cifrado
reconocido internacionalmente. La adopción
de una cifra es un avance enorme, puesto
que toda una serie de cifras emanan de la
misma, principalmente los objetivos de
reducción de emisiones.
Por lo tanto, ¿el trabajo del IPCC se está
traduciendo poco a poco en decisiones políticas?
Sí, exceptuando que las interpretaciones
que se realizan de nuestras estimaciones
a menudo son… selectivas. Por ejemplo, dijimos que para estar entre 2°C y 2,4°C de calentamiento (y, lo repito, ¡no hemos dicho que
“por debajo de” 2°C!) haría falta, teniendo en
cuenta las incertidumbres científicas, que las
emisiones mundiales llegaran a su pico “entre
el año 2000 y el 2015”. Para algunos, este intervalo ya ha pasado a “en el 2015”, y lamento
que, hace algunas semanas, para el Consejo
Europeo, este plazo se transformó inexplicablemente en ¡“antes del 2020”! Posiblemente
esto se deba a que el “paquete clima” europeo
se ha elaborado con vistas al 2020, pero la física del clima no tiene nada que ver con la agenda política…
© ESO
El clima terrestre está influenciado por
las variaciones de la energía irradiada
por la corona solar (muy visible aquí
mientras se produce un eclipse) así como
por la posición de la Tierra con relación
a su estrella. Aunque estos parámetros
varíen en el transcurso de grandes escalas
de tiempo, no bastarían para explicar
el fuerte aumento de las temperaturas
observado desde la revolución industrial.
Otro ejemplo: el último G8, cuando adoptó
el objetivo de 2°C, lo tradujo en “un descenso
de las emisiones globales del 50 %”, pero sin
dar ningún año de referencia, lo que sugiere
que se refiere a las emisiones actuales. Ahora
bien, en su informe, el IPCC decía que había
que reducir las emisiones mundiales del 50 %
al 85 % en relación a las del año 1990. ¡Y desde esta fecha, las emisiones han aumentado en
un 40 %! En otras palabras, independientemente de cualquier consideración sobre nuestra
capacidad de alcanzarlos, los objetivos actuales contemplados a nivel internacional están
por debajo de lo que sería necesario para proteger a las poblaciones y a los ecosistemas.
¿Qué queda por hacer en materia de reducción
de las emisiones?
A pesar de los avances logrados, hemos
hecho muy poco para tratar este problema tan
inmenso. Como botón de muestra, el protocolo de Kyoto: el objetivo era reducir las emisiones en un 5 % en 22 años en los países
desarrollados (entre 1990 y 2012), y este objetivo quizás se logre a duras penas. Ahora bien,
lo que hay que hacer ahora en estos mismos
países, es reducir las emisiones en un 80-95 %
en 40 años, lo que permitiría una reducción
del 50-85 % para todo el planeta. Y a finales
del siglo, habría que llegar al objetivo de cero
emisiones. Esto supone revisar a fondo la
manera en la que consumimos, en la que producimos (no sólo la energía sino todos los bienes), en la que nos desplazamos, nos alojamos,
trabajamos… ¡Una auténtica revolución!
Entrevista de Yves Sciama
(1) IPCC: Panel Intergubernamental de expertos sobre el Cambio
Climático. Jean-Pascal van Ypersele es físico, climatólogo
y profesor en el Instituto de Astronomía y Geofísica de la
Universidad Católica de Lovaina (Bélgica).
research*eu n°63 | ABRIL DE 2010
9
INFORME ESPECIAL CLIMA
ENTREVISTA
OCÉANOS
INFORME ESPECIAL CLIMA
La acidez del mar azul
Las emisiones de CO2 no sólo
contribuyen a amplificar
el efecto invernadero,
sino que también tienen
un impacto más insidioso
en la acidez de los océanos.
Un fenómeno que podría
desestabilizar los ecosistemas
marinos del planeta.
D
© Jean-Louis Teyssié/International Atomic Energy Agency
e todos es sabido: el océano desempeña un papel determinante en
la regulación del clima. Como
depósito gigantesco de CO2, almacena una cuarta parte de las emisiones de gas
carbónico emitidas por las actividades humanas desde hace 200 años. Esta capacidad de
absorción se explica principalmente por un
proceso físico (véase el recuadro). La natura-
En laboratorio: mediciones de la calcificación y de la
migración de trazas metálicas por isótopos.
10
research*eu n°63 | ABRIL DE 2010
leza siempre tiende hacia el equilibrio y,
teniendo en cuenta que el CO2 se disuelve en
el agua, transita con facilidad desde la atmósfera hasta los océanos. Sin esta reacción, el
cambio climático sería mucho mayor. Pero ahí
está la otra cara de la moneda: la acidificación
de los océanos.
“Hasta hace poco, no pensábamos que la
química del agua de mar fuese a cambiar hasta el punto de afectar la biología de los organismos y los ecosistemas marinos”, explica
Jean-Pierre Gattuso, oceanógrafo y coordinador de EPOCA, un amplio programa de investigación europeo lanzado en el 2008 para
determinar el impacto de la acidificación de
los océanos en los biotopos marinos.
El efecto de bola de nieve
El CO2 es un gas ácido. Cuando se disuelve
en los océanos, reacciona con el agua y los
iones carbonatos para formar iones bicarbonatos. Esta reacción aumenta la cantidad de iones
H+ en el agua de mar, lo que implica un
aumento de su acidez, que se traduce en una
disminución de su pH. Disminuye también la
concentración de iones carbonatos, un elemento fundamental para una parte de la fauna
marina. Los corales, los bivalvos y los crustáceos son algunos de los organismos directamente amenazados por este fenómeno. ¿Qué
tienen en común? Que producen su concha o
su esqueleto captando iones calcio e iones carbonatos en el agua del mar. Así obtienen los
elementos necesarios para fabricar el carbonato de calcio, es decir, la cal.
Con menos carbonato en el agua de mar,
los organismos calcáreos deben consumir más
energía para desarrollarse. “Al principio, pensábamos que la calcificación, es decir, la capacidad de producir cal, simplemente se
reduciría. Pero en realidad es un proceso más
complejo. Aunque efectivamente en algunas
especies disminuye la calcificación, otras consiguen mantener una calcificación normal pero
en detrimento de otras funciones vitales como
el crecimiento o la reproducción”, explica Ulf
Riebesell, oceanógrafo del Leibniz-Institut für
Meereswissenschaften de la Universidad de Kiel
(Alemania) y coordinador de BIOACID, proyecto alemán de investigación sobre la acidificación de los océanos lanzado en septiembre
de 2009.
La reacción de determinados organismos
calcáreos clave preocupa especialmente a los
investigadores. “En los mares fríos, las comunidades coralinas se encuentran a gran profundidad, donde la concentración de carbonato
es baja”, explica Jean-Pierre Gattuso. “Los últimos resultados y modelos de previsión muestran que estas aguas podrían volverse
corrosivas por la cal. Por lo tanto, el aumento
de la acidez limitaría no sólo el crecimiento de
los corales de agua fría, sino que contribuiría
también a disolver su estructura”. Como en el
caso de los corales tropicales, estos corales de
agua fría forman un hábitat y un lugar de
reproducción muy importantes para la fauna
marina. “Se verán amenazadas numerosas especies cruciales para la industria pesquera, tanto
en el Norte como en el Sur. Los impactos
socioeconómicos de la desaparición de los
corales podrían ser inmensos. A esto se tendrían que añadir los problemas de seguridad
porque, en las regiones tropicales, los arrecifes de coral constituyen una barrera natural de
protección de las costas contra las amenazas
del mar”, destaca Jean-Pierre Gattuso.
Otro elemento preocupante es la situación
de los pterópodos, unos pequeños caracoles
nadadores. “La concha de los pterópodos está
formada por aragonita, una forma del carbonato de calcio menos estable y, por consiguiente, más sensible a la acidificación”, explica Ulf
Riebesell. “Los pterópodos desempeñan un
papel importante en la cadena alimentaria
marina. Por ejemplo, el salmón del Pacífico
Norte se alimenta de ellos casi exclusivamente
durante una etapa de su crecimiento. No se
sabe si las especies depredadoras podrán
comerse otras presas o si la escasez de pterópodos provocará la disminución de dichas
especies”.
2
Una certeza, miles de incógnitas
Además de los organismos calcáreos, otras
especies marinas podrían sufrir el impacto
directo de la acidificación de los océanos, pero
la investigación en la materia está sólo en sus
inicios. La disminución del pH reduce la capacidad de absorción de los sonidos del océano,
lo que podría perturbar la capacidad de los
mamíferos marinos de orientarse y localizar a
sus presas. Además, pocos estudios han examinado el impacto de la acidificación en los
peces. “Una investigación estadounidense
pudo sacar a la luz una relación entre la acidificación y el crecimiento de otolitos. Estos
huesos del oído interno desempeñan un papel
importante en el equilibrio de los peces, pero
no sabemos en qué medida un desarrollo
anormal podría ser nefasto para ellos”, explica Jean-Pierre Gattuso.
Para estudiar los impactos de la acidificación, los investigadores de EPOCA examinan
los ecosistemas marinos en los que la concentración de CO2 es elevada por naturaleza,
como en los alrededores de la isla de Isquia,
en el sur de Italia. Pero la mayoría de las investigaciones se centran en las zonas polares, que
captan más CO2 porque este gas se disuelve
mejor en las aguas frías. “El proceso de acidificación es más rápido en los polos. Por lo tanto, a priori, se pueden detectar sus impactos
en los ecosistemas con más facilidad”, explica
Jean-Pierre Gattuso.
Es de suma importancia comprender las
repercusiones del fenómeno en el biotopo marino para poder determinar el umbral de acidez
que no se debería rebasar para mantener el
© David Luquet/OOV-CNRS-UPCM
4
© Steeve Comeau/LOV-CNRS
3
© Steeve Comeau/LOV-CNRS
© Samir Alliouane/LOV-CNRS
1
INFORME ESPECIAL CLIMA
OCÉANOS
Estas especies, que tienen una concha o un esqueleto calcáreo, son organismos
amenazados por la acidificación de los océanos.
1 Ejemplar de Cavolinia inflexa adulto recogido en la bahía de Villefranche (Francia).
Este molusco, que vive en aguas profundas y posee una concha caliza, es muy
sensible al pH.
2 Juvenil de pterópodo mediterráneo Cavolinia inflexa. La parte coloreada en verde
corresponde a la concha, teñida por la calceina a través de una técnica fluorocrómica.
3 Limacina helicina, caracol nadador que vive en el Ártico, recogido en Kongsfjorden
(Spitzberg).
4 Las algas coralinas mediterráneas representan una flora submarina muy afectada
por la acidificación de los océanos.
equilibrio actual de los océanos. “Hasta ahora
no se ha podido fijar ningún umbral máximo
de tolerancia. No hemos podido observar este
fenómeno el tiempo suficiente. Los primeros
estudios sobre la acidificación de los océanos
se remontan a una quincena de años como
máximo”, precisa Jean-Pierre Gattuso.
Una cosa está clara, el proceso de acidificación ya está en marcha, se puede medir y
aumenta al mismo tiempo que las emisiones
de CO2. De ahí que el pH de los océanos probablemente haya pasado ya de 8,2 a 8,1 desde el principio de la era industrial. Para
resolver el problema, sólo existe una solución: reducir las emisiones de CO2. Una necesidad afirmada por más de 150 oceanólogos
en la Declaración de Mónaco, un texto publicado en enero de 2009 que insta a los responsables políticos a tener en cuenta la
acidificación de los océanos en las conferencias sobre el clima.
Julie Van Rossom
EPOCA
27 socios, 9 países
(BE-CH-DE-FR-IS-NL-NO-SE-UK)
www.epoca-project.eu
BIOACID
19 socios (DE)
http://bioacid.ifm-geomar.de
CARBOOCEAN
47 socios, 14 países (BE-CH-DE-DK-ES-FRIS-MO-NL-NO-PO-SE-UK-US)
www.carboocean.org
Un océano que llega
al punto de saturación
U
n proceso físico es fundamental en la absorción del CO2 por los océanos. Este mecanismo, comúnmente designado bajo el
nombre de “bomba física”, está asociado en realidad con un proceso de “bomba biológica”(1) que
se da principalmente con la acción de las algas calcáreas. Ellas fijan el CO2 en su concha por fotosíntesis y lo arrastran hacia los fondos marinos cuando
se mueren. Actualmente, no sabemos en qué
medida la respuesta de estos organismos a la acidificación de los océanos podría perturbar el funcionamiento del sumidero de carbono oceánico.
En 2009, finalizó CARBOOCEAN, un amplio proyecto europeo cuyo fin era determinar la capacidad de
almacenamiento del carbono por los océanos. Los
resultados demuestran la ralentización de la capacidad de absorción del CO2 en el Atlántico Norte y
en el océano Austral. Queda por explicar lo que la
produce. “Estas variaciones pueden ser el resultado de fenómenos físicos, por ejemplo, un aumento de las temperaturas o también una diferencia de
circulación de las corrientes marinas, pero también
pueden explicarse de forma biológica”, explica Ulf
Riebesell. “Los mecanismos subyacentes a la bomba física se conocen bastante bien. En cambio, los
de la bomba biológica se conocen mucho menos.
Algunos científicos afirman que la acidificación
aumentaría su eficacia, otros prevén lo contrario.
Es necesario comprender y cuantificar estos fenómenos para aumentar la fiabilidad de los modelos
utilizados para prever la evolución futura del clima”.
(1) Para más información sobre las bombas física y biológica,
véase el artículo “El CO2 entre el cielo y el mar”, del número
especial del research*eu, de diciembre de 2007.
research*eu n°63 | ABRIL DE 2010
11
TRANSPORTES
INFORME ESPECIAL CLIMA
Adiós petróleo
Para que avance la investigación sobre los biocarburantes
de segunda generación, Europa lanza el proyecto NEMO, en el
que se emplean enzimas y microorganismos para convertir los
residuos agrícolas y forestales en los carburantes del mañana.
E
n el 2020, el 10 % de los carburantes
consumidos en el transporte en Europa tendrían que ser de origen renovable. Para lograr esta ambición, la
Unión Europea acaba de dotarse de una nueva herramienta, el proyecto Novel high-performance enzymes and micro-organisms for
conversion of lignocellulosic biomass to bioethanol (NEMO) coordinado por Merja Penttilä,
investigador en el Valtion Teknillinen Tutki-
El tema “Alimentos,
agricultura y pesca
y biotecnología”
D
otado de 1.900 millones de euros, es uno
de los temas del programa específico
“Cooperación” del Séptimo Programa
Marco (7PM). Su objetivo principal es constituir
una bioeconomía europea del conocimiento,
basada en un modelo sostenible y en una buena
gestión de los recursos biológicos. Se trata, entre
otras cosas, de optimizar la conversión de la biomasa en productos de alto valor añadido.
© INRA/Gérard Paillard
Dispositivo experimental
de biomasa del INRA en
Estrée-Mons (Francia).
12
research*eu n°63 | ABRIL DE 2010
muskeskus (VTT), el Centro de Investigación
Técnica de Finlandia. Pretende lograr la fabricación de biocarburantes de segunda generación a partir de los residuos de la agricultura
y de la industria forestal. Serían muy diferentes de los biocarburantes de primera generación que, además de presentar un balance
ecológico discutible, se fabrican a menudo
a partir de productos alimenticios como los
cereales y contribuyen a subir los precios de
estos recursos, amenazando la estabilidad
social y política de los países más pobres(1).
Si bien es cierto que la Unión Europea quiere
garantizar su posición en este área de investigación estratégica, apuesta también por los
nuevos proyectos de este tipo para mejorar su
futura independencia energética.
cias a nuestros contactos en la Universidad de
Frankfurt (Alemania) asistimos a una reunión
del proyecto NEMO donde pudimos comprobar que nuestros intereses eran afines”, cuenta
Frank Kose, jefe del proyecto en Green Sugar.
El presupuesto de la investigación, previsto
para cuatro años, asciende a 8,25 millones de
euros, 5,9 millones de ellos procedentes del
tema “Alimentos, agricultura y pesca y biotecnología” del Séptimo Programa marco (7PM),
centrado en el desarrollo de la bioeconomía.
Los biocarburantes de segunda generación
que NEMO pretende desarrollar están basados
en la materia leñosa de las plantas, que se puede encontrar en todas las células vegetales, por
lo que se puede utilizar toda la planta: sus
tallos, sus hojas, sus residuos (paja) o los desechos vegetales que provienen de la poda de
las plantas. De este modo, ya no se utiliza únicamente la parte comestible de la planta para
fabricar biocarburante y ya no hay que elegir
entre “comer o conducir” como requerían los
biocarburantes de la primera generación. Además, explotar los residuos vegetales ofrece ventajas en términos de rentabilidad económica.
La ecología como objetivo
NEMO agrupa a un total de dieciocho socios
de nueve países europeos (Alemania, Bélgica,
Finlandia, Francia, Italia, Países Bajos, Eslovenia, Suecia y Suiza), reuniendo a universidades y centros de investigación, pero también
a empresas privadas como Green Sugar, una
pequeña empresa con sede en Alemania. “Gra-
Convertir desechos vegetales
Los investigadores se aplicarán para poner
a punto nuevas maneras de transformar la
materia leñosa (constituida por lignina, por
celulosa y por hemicelulosa) de los residuos
agrícolas y forestales en biocarburante líquido.
Esta transformación habitualmente se hace en
cuatro etapas: pretratamiento, extracción, fermentación y destilación.
El pretratamiento de la materia leñosa se
realiza con vistas a romper la lignina, muy sólida, para extraer de la misma moléculas de celulosa y de hemicelulosa y conseguir glucosa. La
fermentación de la glucosa mediante levaduras produce el etanol, es decir, el alcohol que,
una vez destilado, servirá para la fabricación
de biocarburante.
El proyecto NEMO se centrará en la primera etapa. “Su principal objetivo será convertir
las cadenas carbonadas como la celulosa y la
hemicelulosa en eslabones simples, es decir,
en azúcar como la glucosa, con la ayuda de
nuevos tipos de enzimas. Es lo que se denomina la sacarificación”, explica Frank Kose. Las
enzimas son unas proteínas que aceleran las
reacciones químicas y permiten convertir moléculas en otras moléculas. Otra ventaja que tienen es que son poco tóxicas para los microbios
encargados del proceso de fermentación de
la glucosa. “Para cada proceso enzimático,
es necesario realizar un pretratamiento que
prepara la biomasa frente a la acción de las
enzimas. La tecnología desarrollada por Green
Sugar, basada en la utilización de ácidos inorgánicos, podría aumentar su eficacia”, precisa
el jefe del proyecto.
Además de sus objetivos científicos, NEMO
tendrá especial cuidado en comprobar que las
enzimas que saquen los laboratorios sean lo
bastante eficaces como para emplearse en procesos industriales de interés para las empresas.
“Por supuesto, nos orientamos también en base
a consideraciones económicas”, explica Frank
Kose. “Queremos desarrollar una tecnología de
sacarificación que pueda ser implantada en el
futuro en fábricas capaces de producir de
50.000 a 100.000 toneladas de azúcar al año.
Para ello necesitamos grandes socios industriales. Si NEMO desarrolla una nueva tecnología
para transformar la celulosa mediante enzimas
que incorpore la tecnología de Green Sugar,
los industriales que forman parte del proyecto
se beneficiarán de la misma, lo que equivaldrá
para nosotros a venderles nuestros conocimientos”.
Por lo tanto, NEMO interesa tanto a los
industriales como a los investigadores. Porque
más allá de la esperanza de contribuir a la resolución del problema mundial de la energía,
pretende entrar en el mercado de las bioenergías, un sector económico en plena expansión.
Sobre todo sabiendo que, sin esperar las promesas de NEMO, poco a poco va emergiendo
la tercera generación de biocarburantes que se
basa, entre otras cosas, en la extracción de
aceite a partir de algas. Esta tercera generación
también intenta abrirse camino fuera de los
laboratorios.
Stéphane Fay
(1) Véase el artículo “Después de tantas promesas,
vienen las dudas”, de nuestro número especial
“Salir de la era del petróleo” de abril de 2008.
NEMO
18 socios, 9 países
(BE-CH-DE-FI-FR-IT-NL-SI-SE)
www.vtt.fi/news/?lang=en
La Iniciativa Tecnológica
Conjunta sobre las
pilas de combustible
y el hidrógeno
E
uropa explora otras pistas además de los
biocarburantes para obtener energía renovable. Es el caso de las pilas de combustible
y de las tecnologías que proporcionan energía
a partir del hidrógeno, que son objeto de la nueva Iniciativa Tecnológica Conjunta (ITC) “Fuel Cells
and Hydrogen” o FCH – una colaboración entre la
Comisión Europea, empresas privadas, algunas
universidades e institutos de investigación.
Aquí también se trata de combatir las emisiones de dióxido de carbono y de reducir la dependencia que tiene Europa de los hidrocarburos
contribuyendo al crecimiento económico. La ventaja de la ITC es que reúne a todos los actores y sus
medios en un esfuerzo común. De hecho, por
ejemplo, las tecnologías necesarias para la difusión de las pilas de combustible aún no están listas para su comercialización y difícilmente pueden
ser desarrolladas por un actor aislado. La primera
convocatoria de propuestas del ITC FCH fue lanzada en el 2008 y la Comisión Europea participa
con 28 millones de euros. La segunda convocatoria de propuestas se cerró el 15 de octubre de
2009, con un presupuesto de 70 millones de euros.
http://ec.europa.eu/research/fch/
Mini-glosario
Biocarburante: carburante sustitutivo producido a partir de materias vivas vegetales.
Bioetanol: etanol que proviene de la fermentación de materias vivas vegetales. Encontramos
etanol en todas las bebidas alcohólicas.
Ácido inorgánico: ácido que no contiene carbono.
research*eu n°63 | ABRIL DE 2010
13
INFORME ESPECIAL CLIMA
TRANSPORTES
LOS MODELOS CLIMÁTICOS
INFORME ESPECIAL CLIMA
Las herramientas E
de diagnóstico
Ahora que están en circulación escenarios catastróficos
increíbles, necesitamos técnicas de previsión climática
punteras si queremos tomar las decisiones acertadas.
Un nuevo modelo climático de gran envergadura permite
hoy en día disipar algunas de las incertidumbres sobre
el clima de Europa en el siglo XXI, y proporciona la
imagen más precisa hasta la fecha de lo que probablemente nos afectará.
n “The age of stupid” (o “La era de la
estupidez”), película sobre el medio
ambiente estrenada en el 2009, Pete
Postlethwaite desempeña el papel del
último superviviente de una catástrofe climática ocurrida en el 2055. Sentado en el último
piso de un rascacielos, contempla el mundo
devastado, rodeado de esculturas clásicas y de
tesoros culturales salvados de gigantescas inundaciones, y se pregunta por qué los hombres
no hicieron lo necesario para impedir la catástrofe medio siglo antes. Aunque la película
consigue perfectamente que los espectadores
puedan imaginar los posibles futuros acontecimientos climáticos, muchos científicos criticarían sin duda la fecha escogida para el
Armagedón.
¿El fin del mundo en el 2055?
En su cuarto informe, publicado en el 2007,
el Panel Intergubernamental de expertos sobre
el Cambio Climático (IPCC) proporciona modelos climáticos que habrían puesto en un aprieto al director de la película. Dichos modelos
presentan un abanico de posibilidades de
aumento de la temperatura con arreglo a condiciones de emisión determinadas que dependen de factores como el éxito de las políticas
relacionadas con el medio ambiente y las ener-
Aviso de tormenta
L
© CNRS Photothèque/Françoise Guichard, Laurent Kergoat
© Eumetsat
a tarde del 18 de enero de 2007, una violenta tormenta
azotó el continente europeo. El viento fue ganando
velocidad, llegando a alcanzar los 202 km/h en Alemania, y aumentando hasta que la tormenta llegó a la República
Checa. Se declararon a las aseguradoras varios millones de
Tormenta Kyrill, a principios del 2007. euros de daños por los edificios deteriorados y los árboles
arrancados. En el Reino Unido y en Alemania hubo cortes de suministro eléctrico que afectaron a
miles de viviendas. La tormenta, bautizada con el nombre de Kyrill, empezó justo encima de Terranova (Canadá) y atravesó el Océano Atlántico, llegando primero a las Islas Británicas y luego al norte y al centro de Europa. La trayectoria y la configuración de Kyrill son típicas de los ciclones
invernales extratropicales (que se forman fueran de los trópicos).
Estos ciclones se originan en regiones con diferencias de temperaturas muy elevadas, como entre
Florida y Groenlandia, y generalmente empiezan en la costa Este de Norteamérica. Las diferencias de
temperaturas generan movimientos de aire y fuertes vientos que pueden provocar una tormenta violenta. Se han dado aproximadamente cinco por década desde hace cuarenta años. Lo importante es
saber si van a aumentar debido a los cambios de temperatura, lo que tendría consecuencias para las
empresas y los gobiernos. Según el equipo de ENSEMBLES, que utilizó el escenario de emisión A1B,
hay un 90 % de probabilidades de que los daños relacionados con las tormentas en el periodo 20172100 aumenten entre un 13 % y un 37 % con relación al período 1961-2000 en el sur de Alemania.
14
research*eu n°63 | ABRIL DE 2010
gías limpias, y el crecimiento demográfico. Un
modelo es un programa informático que simula la evolución del clima a partir de un punto
preciso y de una serie de escenarios relacionados con estas condiciones de emisión. Cuanto
más complejos son los datos, más complejos
son los modelos. Pueden incluir hasta 30 parámetros, tales como la velocidad del aire, la
humedad ambiental, la humedad del suelo, la
temperatura o el punto de rocío. Un modelo
puede estar constituido por un millón de líneas
de código informático y requerir varios meses
para su elaboración, a los cuales hay que añadir el tiempo de análisis, aún mayor, lo que
explica que existan sólo cerca de 25 modelos
en el mundo.
En su escenario más optimista (de bajas emisiones de gases de efecto invernadero), el IPCC
pronostica en el mejor de los casos un aumento de temperatura de 1,8°C para los años 20902100 en relación al año 1990 (la temperatura
aumentó en 0,7°C desde el principio de la revolución industrial), con un aumento del nivel de
los mares de 18 a 38 cm. Con los conocimientos que se tienen actualmente, el escenario más
pesimista (de elevadas emisiones) prevé un
aumento de 4°C de la temperatura y una elevación del nivel de los mares de 26 a 59 cm. Sea
cual sea el escenario que se produzca, el IPCC
predice que habrá más daños relacionados con
las inundaciones y las tormentas. Un aumento
de 3°C conllevaría la pérdida del 30 % de las
zonas costeras húmedas. Pero en ninguna parte se habla de inundación mundial en el 2055…
Un megamodelo europeo
Este tipo de modelización climática está
mejorándose y sirve tanto para refutar los discursos alarmistas como para combatir la negación del fenómeno, con vistas a informar a la
opinión pública lo mejor posible. Las técnicas
de medición y de modelización se han ido desarrollando progresivamente a lo largo de los últimos siglos. Los datos más antiguos provienen
de un termómetro climático instalado en el centro de Inglaterra a finales del siglo XVII. En el
siglo XIX se realizaron observaciones meteorológicas en muchos otros lugares. En los años
veinte del siglo pasado se efectuaban mediciones a través de instrumentos incorporados a globos lanzados en el aire. Treinta años más tarde,
se utilizaban aviones para medir la atmósfera
y se construían estaciones meteorológicas en el
Polo Norte y en el Polo Sur. Hoy en día se recopilan datos por satélite.
El proyecto ENSEMBLES, financiado con
15 millones de euros por el Sexto Programa
Marco (6PM), engloba toda una serie de nuevos
modelos climáticos de gran envergadura. Sus
previsiones tienen un mayor grado de fiabilidad, que se debe más a la calidad y la profundidad de la modelización que a la precisión de
las observaciones. Los climatólogos afirman que
han producido la imagen más clara y más detallada de Europa de finales de este siglo comparada con los demás modelos precedentes, que
fueron extraídos con los datos proporcionados
por modelos climáticos globales.
Por ejemplo, los resultados medios de una
previsión de ENSEMBLES basada en el escenario de emisión A1B (en el que nuestras economías equilibran el uso de carburantes fósiles
y de otras fuentes de energía, incluyendo las
renovables) indican una subida de temperatura
de 6°C y una disminución del 50 % de las precipitaciones en verano en el suroeste de Francia entre el año 2080 y el 2099, con relación al
período de referencia de 1961-1990. El grado
de detalle alcanzado por esos nuevos modelos
constituye una de las mayores contribuciones
del proyecto a la modelización del cambio climático. “Estamos obteniendo una definición
mucho mayor que en los modelos anteriores.
Es un gran paso”, afirma Paul van der Linden,
director de ENSEMBLES, situado en el Centro
Hadley de Exeter (Reino Unido), especializado
en el cambio climático. Los resultados llegaron
tras cinco años de duro trabajo en esta misteriosa ciencia de la modelización climática.
Dominar el factor histórico
Se utilizan sobre todo seis de los cuarenta
escenarios del IPCC en los modelos. Describen
una serie de futuros niveles de emisiones
y están elaborados a partir de hipótesis
socioeconómicas y de conjeturas sobre la gestión del problema climático. Algunos dan por
sentado que nada va a cambiar y por eso son
más bien pesimistas; otros se basan en políticas
energéticas con mejores resultados. También
incluyen estimaciones de la radiación solar y de
los aerosoles y, por ejemplo, su alcance puede
variar si se integran datos relacionados con
1-2 contaminantes o con 10-15.
Los modelos han sido desarrollados durante
varias décadas en doce centros diferentes. Los
siete centros situados en Europa fueron incluidos en el proyecto ENSEMBLES, que cuenta además con institutos no europeos entre sus
79 socios. Los investigadores empiezan por dividir el globo terráqueo en grandes cuadrados
empleando una gruesa malla de aproximadamente tres o cuatro grados. Luego se aplican los
modelos a escala planetaria y aparecen los valores de cada bloque o cuadrado. Se utilizan diferentes modelos según la finalidad pretendida:
pueden ser solamente atmosféricos, oceánicos
o ambos. Además de las características globales
del cambio climático, los científicos también
pueden modelizar sus impactos.
Los datos antiguos y actuales sobre las temperaturas y las precipitaciones se utilizan, por
ejemplo, para comprobar el modelo apoyándose en la historia climática de la Tierra, según un
procedimiento conocido con el nombre de
“hindcasting” (o “simulación retrospectiva”).
“Queremos saber hasta qué punto es eficaz el
modelo y evaluarlo comparándolo con las
observaciones climáticas como las mediciones
históricas de los gases de efecto invernadero”,
explica Paul van der Linden. Si al probarlo los
resultados del modelo difieren significativamente de los datos históricos, se considera que el
modelo no es fiable. Como para crear un modelo global se requiere muchísimo tiempo, podemos someter a prueba sólo determinadas partes,
en un período más corto.
Miles de simulaciones
No basta con una sola previsión de un modelo. Para mejorar la precisión, los climatólogos
emplean el mismo modelo miles de veces con
datos diferentes, y pueden también aplicar
varios modelos muchas veces con los mismos
datos. Este sistema de predicción de conjunto
genera un resultado más fiable, porque las
medias de varios modelos son más precisas que
el resultado de uno sólo. Una de las razones
que hacen que ENSEMBLES sea diferente de los
proyectos precedentes estriba en su propia
envergadura.
“Es el mayor proyecto de este tipo”, afirma
Paul van der Linden. El equipo de pronosticadores, diseminado por toda Europa, ha concebido un enorme multimodelo que combina
siete modelos de conjunto europeos. Su tamaño le permite proporcionar un nivel de detalle
superior a cualquier intento previo. Difiere también de sus predecesores en que pro-
research*eu n°63 | ABRIL DE 2010
15
INFORME ESPECIAL CLIMA
LOS MODELOS CLIMÁTICOS
LOS MODELOS CLIMÁTICOS
INFORME ESPECIAL CLIMA
Gran
aumento
Negativo
para la
mayoría
de las
regiones
Completamente
negativo
en todas
las
mediciones.
Alto
4
3
Futuro
Aumento
2
1
Bajo
Fuente: IPCC
Riesgos
poco
elevados
Negativo
para
algunas
regiones,
positivo
para las
demás
Impacto
negativo
o positivo
en el
mercado;
la mayoría
de las
personas
salen
perjudicadas
0
Pasado
-0.6
1
2
3
4
Subida media de las temperaturas por encima del nivel de 1990 (°C)
5
Riesgos
elevados
 Burning embers (brasas ardientes)
Del amarillo claro al rojo vivo, este gráfico concebido por el IPCC ilustra los distintos
grados de progresión de cinco categorías de riesgos asociados con diferentes
niveles de calentamiento del planeta. Publicado por primera vez en el 2001,
fue actualizado en el 2007, con un nivel de alerta mucho mayor.
1 Riesgos que corren ciertos ecosistemas (arrecifes de coral, glaciares,
especies vivas, etc.).
2 Riesgos meteorológicos extremos (olas de calor, inundaciones, sequías,
incendios, huracanes, etc.).
3 Aumento de las desigualdades y de las vulnerabilidades regionales de cara
a los impactos (en color amarillo, ciertas zonas que salen favorecidas por
el calentamiento pueden contrastar con las que salen perjudicadas; pero
en el rojo, todas sufren un impacto negativo).
4 Riesgos de impacto en la economía y los mercados (la misma observación).
5 Riesgos de trastornos a gran escala (subida acelerada del nivel de los mares,
acidificación de los océanos, niveles extremos de calor).
5
duce un conjunto a partir de quince
modelos regionales que forman parte de siete
modelos globales. Los investigadores han estudiado los impactos que podrían tener los cambios climáticos en catorce lugares de Europa.
También pueden simular los efectos de un
aumento medio de 2°C en Europa sobre la agricultura, la salud, la energía, los recursos hídricos y los seguros. “Tenemos más un enfoque
transversal que ‘descendente’”, explica Paul van
der Linden.
Otra innovación: el desarrollo de un nuevo
escenario, llamado E1, que ha sido probado en
una serie de modelos climáticos globales. En él
se supone que las políticas de reducción de las
emisiones resultan ser un éxito y que se logran
los objetivos en materia de emisiones. Es un
enfoque inverso al de los escenarios del IPCC
en el sentido en que se parte de los resultados
obtenidos en términos de temperaturas para
volver a calcular el nivel de las emisiones. Se
llega así a un nivel equivalente CO2 estabilizado a 450 partes por millón en 2140 (los responsables políticos fijaron esta cifra como umbral
máximo para que las temperaturas no aumenten más de 2°C). Los resultados implican que
16
research*eu n°63 | ABRIL DE 2010
las emisiones tendrían que bajar a cero al final
del siglo, tras haber alcanzado un pico de
aproximadamente 12 gigatoneladas de equivalente carbono en el 2010. Está previsto que el
próximo informe del IPCC incluya un modelo
con el escenario E1.
Más precisión en las probabilidades
No obstante, no podemos ignorar que, sea
cual sea la frecuencia con la que se empleen,
los modelos siguen siendo proyecciones, por lo
que nunca podrán proporcionar certezas comprobadas. Aunque, a ese respecto, el equipo de
ENSEMBLES afirma haber conseguido un logro.
El proyecto produce una gama de previsiones
evaluadas para decidir qué resultados son más
probables. Los investigadores afirman que pueden medir la probabilidad de la exactitud de
una proyección determinada, y eso gracias al
hecho de que el proyecto recurra a multimodelos. “Por ejemplo, antes podíamos decir que el
número de tormentas podría aumentar en un
20 % en una fecha dada. Hoy en día, podemos
decir que el 95 % de los resultados refleja que
el aumento de las tormentas será del 5 al 20 %”,
explica Gregor Leckebusch, climatólogo en el
Instituto de Meteorología de Berlín.
Fuente: IPCC
Subida prevista de las temperaturas durante
la última década del siglo (2090-2099) en la hipótesis
de que siga el crecimiento económico y que se recurra
a una mezcla entre energías fósiles y no fósiles,
según uno de los escenarios del IPCC.
Según Paul van der Linden, la creación de
este modelo constituye un gran paso adelante
para la comunidad de los modelizadores climáticos. “Por primera vez, disponemos de probabilidades y, a partir de ahora, los investigadores
pueden recurrir a esta base de datos para
emplear sus propios modelos”.
Sólo queda decir que no hay nada como la
realidad para cuestionar los mejores modelos.
Por ejemplo, la disminución estival de la banquisa ártica observada en estos últimos años,
sólo aparecía como la última etapa de los escenarios de los modelos precedentes, lo que hace
temer que se haya subestimado la velocidad de
evolución del clima y que tendríamos que revisar de nuevo las previsiones.
Elisabeth Jeffries
ENSEMBLES
79 socios – 18 países
(AT-BE-CH-CZ-DE-DK-ES-FI-FRGR-IE-IT-NL-NO-PL-RO-SE-UK)
2 países no europeos (AU-US)
www.ensembles-eu.org
ESCEPTICISMO
Mientras los científicos
del IPCC reúnen, evalúan
y sintetizan los estudios
que permiten aumentar los
conocimientos relacionados
con la evolución del clima,
algunos ponen en tela de
juicio sus conclusiones.
E
© Shutterstock/Trance Drumer
¿Es la actividad humana
la principal causa del
calentamiento climático?
El debate sigue abierto.
n ciencia, una mayoría no forma la
verdad. Aunque la mayoría de los
expertos en climatología apoyan la
tesis general del IPCC (Panel Intergubernamental de expertos sobre el Cambio Climático), que afirma que las actividades
humanas muy probablemente están causando
un calentamiento climático peligroso, algunos
no aceptan esta tesis: los denominados “escépticos del cambio climático”. Sin conocimientos
profundos en climatología, el hombre de a pie
se suele encontrar desarmado ante los argumentos contradictorios de unos y otros. Además, algunos medios de comunicación, más
ávidos de polémica que de auténtica información, aumentan la confusión.
Si dejamos de lado a quienes defienden intereses particulares (que emplean estrategias de
desinformación que recuerdan las de las tabaqueras de los años ochenta) y a los que consideran el IPCC como el brazo armado de un
complot político-ecologista mundial, quedan
algunos escépticos sin duda sinceros cuyas declaraciones se basan en argumentos científicos.
Aunque dichos argumentos apuntan en
todas direcciones, a grandes rasgos podemos
clasificar a los escépticos en dos categorías: los
que niegan o minimizan el origen antrópico
del calentamiento y los que cuestionan su gra-
INFORME ESPECIAL CLIMA
Todo científico que se
precie debe ser escéptico
vedad. Los primeros esgrimen elementos que
tienden a demostrar que las emisiones de gases
de efecto invernadero que proceden de la actividad humana son muy poco responsables
(o en absoluto) de la subida de las temperaturas observada desde mediados del siglo XX. Se
debería sobre todo a factores naturales. Los
segundos, no necesariamente distintos de los
primeros, discuten las bases científicas de los
escenarios de predicción que proyectan las
consecuencias que se pueden esperar del
calentamiento.
¿Con qué argumentos cuentan para oponerse así a la opinión de la gran mayoría de los
especialistas del clima? La complejidad del sistema terrestre y sus relaciones con el Universo
son el punto de partida de la mayoría de las
cuestiones y de las incertidumbres que aún
puedan existir sobre el origen y las consecuencias del calentamiento climático actual.
El sol como motor del calentamiento
El argumento más a menudo esgrimido para
refutar la tesis del origen humano del calentamiento tiene que ver con la posición de la Tierra en relación al Sol y con la actividad de éste.
Desde siempre, lo que ha regido las temperaturas ha sido la intensidad de la actividad solar,
la forma de la órbita de la Tierra alrededor del
Sol y la inclinación de nuestro planeta en esta
órbita. “En el espacio de 800.000 años, si se
exceptúan estos dos últimos siglos, efectivamente observamos que los factores naturales,
como los cambios muy lentos de la órbita
terrestre y la posición de la Tierra en ella, fueron los que desencadenaron los cambios climáticos pasados”, admite Jean-Pascal van
Ypersele, vicepresidente del IPCC y climatólogo de la Universidad Católica de Lovaina (Bélgica). Pero aunque estos parámetros varíen en
el transcurso de grandes intervalos de tiempo,
no bastan para explicar el fuerte aumen-
research*eu n°63 | ABRIL DE 2010
17
© CNRS Photothèque/John Pusceddu
© CNRS Photothèque/Claude Delhaye
Las mediciones de las cantidades de CO2 que se liberan a la atmósfera se realizan
en muchos lugares del planeta, con métodos diferentes.
© CNRS Photothèque/Jean-Yves Pontailler
INFORME ESPECIAL CLIMA
ESCEPTICISMO
Torre de 35 metros instalada en el bosque
de Barbeau (Francia) para medir los flujos
de carbono y de agua entre un ecosistema
forestal y la atmósfera.
Recogida de muestras de agua de mar en el Mediterráneo,
efectuadas en el marco del proyecto EPOCA que pretende
obtener más información sobre el proceso de acidificación
de los océanos. Estos últimos absorben las emisiones de
gas carbónico ocasionadas por las actividades humanas,
lo que conlleva la acidificación de las aguas.
to de las temperaturas registrado desde
la revolución industrial. “No mezclemos escalas
de tiempo tan diferentes” (1).
Y aunque el CO2 seguramente no haya sido
el único factor al principio, se piensa que este
gas ha tenido un efecto amplificador de los
efectos de los cambios producidos a nivel de
la distribución y de la cantidad total de energía
solar disponible en la superficie de la Tierra.
“El punto de partida son los factores astronómicos, y es muy probable que los pequeños
cambios climáticos causados por estas fluctuaciones afectasen al ciclo del carbono que a su
vez influenció los climas pasados”.
Instrumentos incorporados a una cometa que miden
la temperatura, el viento y las cantidades de CO2
entre 100 y 200 metros. Este experimento, realizado
en Benín, forma parte de la campaña AMMA
(Análisis multidisciplinarios del monzón africano).
férico. Es una ley química: el CO2 se disuelve
mejor en agua fría que en agua caliente. De ahí
que una mayor parte de este gas se quede en
la atmósfera”.
Por lo tanto, la temperatura influye en la concentración de CO2. “Los escépticos tienen razón
al decir que en el pasado el CO2 ha tenido una
evolución relacionada con la de la temperatura.
Pero una vez que se acumula, refuerza el efecto
invernadero natural y acentúa el calentamiento.
Reforzar la capa de CO2 en la atmósfera es como
añadir una manta a la cama: ¡se acaba teniendo
más calor!”.
Mantener el equilibrio
¿Quién fue primero, la gallina
o el huevo?
Eso nos lleva a otro punto sensible del debate: la relación entre la concentración de CO2 en
la atmósfera y las variaciones de temperatura.
Mientras que la mayoría de los climatólogos afirman que una mayor concentración de CO2 en
la atmósfera conlleva el aumento de las temperaturas en la Tierra, algunos científicos, por
medio de gráficos, argumentan que en el transcurso de los tiempos geológicos, lo que se produjo más bien fue que el aumento de las
temperaturas engendró mayores concentraciones de CO2 y no al revés. “De hecho, después
de un aumento de temperatura causado por factores astronómicos, los océanos se calientan
y son menos aptos para disolver el CO2 atmos-
18
research*eu n°63 | ABRIL DE 2010
Así pues, las relaciones entre los factores
astronómicos, la temperatura y la concentración de CO2 en la atmósfera, expuestas por los
“escépticos del cambio climático” o por los
“convencidos”, si se estudian con detenimiento no parecen diametralmente opuestas.
La cuestión clave sería entonces el peso de los
gases de efecto invernadero emitidos por el
hombre en este complejo sistema terrestre.
Y en eso también las opiniones son divergentes. Para los “escépticos” tienen muy poco peso
mientras que para los “convencidos” tienen un
peso enorme.
“La concentración de CO2 en la atmósfera es
ridícula comparada con la del vapor de agua,
que es el principal gas de efecto invernadero
(GEI), y las emisiones naturales de CO2 son
mucho mayores que las causadas por las actividades humanas”, suelen argumentar los escépticos. Efectivamente, el efecto invernadero es un
fenómeno natural que hace que la vida sea posible en la Tierra. Sin él, en la superficie del planeta haría -18°C en vez de 15°C por término
medio. “En realidad, el vapor de agua es el principal gas de efecto invernadero. Pero el problema no es el efecto invernadero en sí, sino su
intensificación, bien documentada y registrada
por satélite desde hace cuarenta años, que se
debe sin duda a las actividades humanas. Los
análisis de la composición isotópica del CO2
atmosférico demuestran que el aumento de CO2
en la atmósfera hay que achacarlo a los combustibles fósiles”.
No obstante, es verdad que las emisiones
naturales de CO2 son mucho mayores que las
que se deben a las actividades humanas. “En el
año 1997, en una conferencia sobre el ciclo del
carbono ofrecida en la Federación petrolera de
Bélgica, un climatólogo dijo que los flujos de
carbono de origen natural eran aproximadamente de 200 mil millones de toneladas al año,
frente a las 8 mil millones de toneladas de origen humano. Por lo tanto, pensaba que era ridículo intentar acabar con esta ridícula cifra del
4 % que representan las emisiones antrópicas”.
Pero todo es una cuestión de equilibrio.
“Lo que no dijo es que los sistemas naturales
reciclan sus emisiones, particularmente gracias
a la fotosíntesis”. Parece ser que estos sistemas
Un portazo al IPCC
Los modelos climáticos(2) en los que se
basa el IPCC para hacer sus previsiones también suscitan el debate. ¿Son fiables? Los más
escépticos consideran que no se conocen lo
suficientemente los parámetros que influyen
en el clima terrestre como para sacar conclusiones. “No hay ninguna certeza en la ciencia,
pero los modelos climáticos no son simples
extrapolaciones estadísticas, a diferencia de
lo que algunos piensan”. Los modelos, que se
basan en leyes físicas, químicas y biológicas
bien establecidas, tienen que poder simular
antes que nada el clima actual. La etapa
siguiente consiste en comprobar que también
pueden reproducir los climas del pasado.
“Esto permite validar la herramienta sobre las
observaciones del clima de siglos, milenios,
e incluso de cientos de miles de años pasados,
efectuadas sobre todo gracias a los testigos de
hielo. Luego podemos utilizar los modelos, no
para predecir el clima futuro, porque eso no
es posible, sino para efectuar proyecciones”.
Y según los modelos, estas proyecciones varían
enormemente con arreglo a los futuros escenarios de emisiones de GEI…
En el documental de Martin Durkin, “The
Great Global Warming Swindle”, aparecen
científicos que dejaron el IPCC por desacuerdo con las proyecciones de los informes destinados a los responsables políticos. Unos
expertos en climatología que dan la espalda
a sus colegas dan que pensar. “A pesar de que
sea un grupo de expertos intergubernamental, el proceso de elaboración de los informes
es muy independiente. Los autores redactan
los textos basándose en la literatura científica
y estos textos se someten a tres ciclos de
relectura, por parte de los expertos y de los
gobiernos”. Cada comentario asociado con
una línea o un párrafo se escribe en un cuadro y los autores indican luego su postura al
respecto. Un grupo de relectores garantiza
una evaluación honesta de cada comentario
por los autores. Y, por razones de transparen-
Mil años de clima en Europa
E
l objetivo del proyecto Millennium European Climate,
del Sexto Programa Marco, es determinar si los cambios climáticos actuales exceden la variabilidad natural del clima europeo observada a lo largo de este último
milenio. Los investigadores de los 40 institutos de investigación y universidades que participan en dicho proyecto han
Extracción de un testigo de hielo
aunado sus conocimientos en varios campos para intentar
realizada en la Antártida en el marco
reconstruir los climas pasados del Viejo Continente. “Es un
del programa EPICA.
proyecto pluridisciplinario que utiliza diferentes enfoques
tales como el análisis de archivos históricos, de anillos de crecimiento de árboles, de sedimentos de
lagos, de testigos de hielo, así como la modelización”, indica Rob Wilson, paleoclimatólogo de la Universidad de Saint Andrews, en Escocia (Reino Unido). “Cada enfoque tiene sus puntos fuertes y sus
puntos débiles, y utilizamos lo mejor de cada tipo de datos para establecer un historial del clima de
Europa a lo largo de los últimos mil años”, continúa.
Una vez recopilados y analizados los datos, se comparan con los resultados obtenidos por modelización. “Si estas dos fuentes de información independientes concuerdan, eso nos permite no sólo
comprender mejor los cambios climáticos pasados, sino también identificar los factores que dominan estos cambios en los diferentes períodos”, explica el investigador. Como el proyecto Millennium
European Climate no acaba hasta junio de 2010, sus resultados finales aún no están disponibles, pero
los análisis preliminares efectuados hasta la fecha a escala europea “globalmente van en el sentido
de las conclusiones del IPCC”, precisa Rob Wilson.
http://137.44.8.181/millennium
cia, los cuadros están accesibles a todos en la
página web del IPCC.
“Un informe es el fruto del trabajo de centenares de autores, y de unos 2.500 expertos que
participan en las relecturas. Es inevitable que
algunos, en un momento dado, se sientan incómodos por no poder transmitir sus ideas sin
que se vean confrontadas con otros aspectos
de la literatura o con comentarios, y eso no
quiere decir que no sean buenos científicos”.
Escepticismo en ambos bandos…
¿Acaso se trate de una simple disputa de
expertos? En todo caso, el debate a veces es muy
acalorado. Ciertos escépticos hablan del “pensamiento único” del IPCC, mientras que a ellos se
les califica de “negacionistas” o de “revisionistas”.
Además, la dramatización de la controversia en
algunos medios de comunicación y en numerosos blogs contribuye a implantar una visión maniquea de este asunto, como si se redujese a una
cuestión de fe. Frente a estas voces fuertes y discordantes, el gran público ya no sabe qué postura adoptar frente al actual “tira y afloja” del
debate climatológico, olvidando quizás que la
duda es una parte indisociable de la búsqueda
de la verdad. “Todo científico que se precie debe
ser escéptico. No veo por qué algunos tendrían
que tener el monopolio del escepticismo”.
Por supuesto, los desafíos económicos, políticos y sociales son enormes. Si la influencia de
las actividades humanas sobre el clima es mínima, corremos el riesgo de hacer enormes esfuerzos para nada, aunque sea cierto que los
destinados a paliar la futura escasez de recursos fósiles siguen siendo vitales para nuestro
futuro energético. Si, por el contrario, el factor
antrópico pesa tanto sobre el frágil equilibrio
natural hasta el punto de desarreglarlo para
siempre, no hacer nada para reducirlo y no prepararse para las consecuencias de su impacto
equivale a ser culpable de grave negligencia de
cara a las próximas generaciones.
Audrey Binet, Jean-Pierre Geets
(1) Todas las citas sin atribuir son de Jean-Pascal van Ypersele.
(2) Véase el artículo “Las herramientas de diagnóstico” en este
número.
IPCC
www.ipcc.ch
Noticias científicas sobre
el cambio climático
www.realclimate.org
research*eu n°63 | ABRIL DE 2010
19
INFORME ESPECIAL CLIMA
absorben tanto dióxido de carbono como el
que emiten. “Es una balanza en equilibrio: si se
añade el CO2 antrópico por un lado, se desequilibra completamente”. Eso por no hablar
de la desforestación masiva que está experimentando nuestro planeta y que está disminuyendo el peso al otro lado de la balanza…
© CNRS Photothèque/IPEV/Claude Delhaye
ESCEPTICISMO
BREVES
Ofensiva genética
contra el Alzheimer
© Inserm/Catherine Fallet-Bianco
Dos estudios, cuyos resultados
han sido publicados conjuntamente en la revista Nature, han
permitido identificar tres nuevos
genes implicados en la enfermedad de Alzheimer. Los dos primeros, el gen de la clusterina (CLU)
y el CR1, fueron descubiertos por
el equipo de Philippe Amouyel,
profesor de epidemiología y de
sanidad pública en la Universidad
de Lille 2 (Francia). Las mutaciones de estos genes conllevarían
problemas de eliminación del
péptido beta-amiloide, nefasto
para el sistema nervioso y que
se acumula en el cerebro de los
que padecen esta enfermedad.
permitieron determinar su nivel
de presencia en los genes de
20.000 individuos sanos y enfermos. Si bien estos análisis han
sacado a la luz la implicación
del gen PICALM en la aparición
de esta demencia, el papel del
mismo está aún por determinar.
www.univ-lille2.fr
www.alzheimers-research.org.uk
Del misterio del litio
a los exoplanetas
Hace ya más de sesenta años que
los científicos se preguntan por
qué el Sol contiene menos litio
que otras estrellas similares. Según
un estudio publicado en noviembre de 2009 en la revista Nature
por el equipo del astrofísico Garik
Israelian, del Instituto de Astrofísica de Canarias (España), se ha
resuelto el misterio: es porque
nuestra estrella está rodeada
de planetas.
Desde hace varios años, el Observatorio Europeo Austral (ESO,
por sus siglas en inglés) observa
Exoplaneta Gliese 581 (ilustración).
Por lo tanto, cualquier investigación que consiguiera la supresión
del péptido beta-amiloide sería
una pista de tratamiento.
Simultáneamente, un equipo
británico dirigido por Julie
Williams del Alzheimer Research
Trust (Reino Unido) también puso
las miras en el gen CLU, así como
en el tercer gen denominado
PICALM. Los chips de ADN utilizados para esta investigación
20
research*eu n°63 | ABRIL DE 2010
© ESO/L.Calçada
Corteza cerebral.
500 estrellas, 70 de ellas rodeadas
por planetas, con la ayuda del
espectrógrafo HARPS (High
Accuracy Radial Velocity Planet
Searcher) de su telescopio de
3,6 metros de diámetro en La Silla
(Chile). Estudiando sólo las estrellas similares al Sol (cerca de una
cuarta parte de la muestra), Garik
Israelian y su equipo descubrieron
que la mayoría de las que estaban
rodeadas de planetas contenían
alrededor de 100 veces menos
litio que las demás.
El litio, un elemento ligero, compuesto por tres protones y cuatro
neutrones, probablemente surgió
poco después del Big Bang, hace
aproximadamente 13.700 millones
de años, y en teoría tendría que
estar presente en la mayoría de
las estrellas en proporciones
comparables. Por lo tanto, todo
apunta a que la formación o la
presencia de planetas alrededor de
una estrella hace que ésta pierda
litio, a través de un mecanismo aún
por descubrir. En todo caso, esta
constatación seguramente despertará la curiosidad de los “cazadores
de exoplanetas”, porque la carencia
de litio en las estrellas constituye
ahora un serio indicio de la presencia de estos planetas extrasolares.
www.eso.org
Una bacteria marina
contra el cáncer
Toda la atención de la sociedad
Nereus Pharmaceuticals, con sede
en San Diego (Estados Unidos),
y de bioquímicos de la Universidad
Técnica de Munich (Alemania)
se ha centrado en la bacteria
Salinispora tropica, por su nombre
en latín, una bacteria marina
que produce una molécula que
podría ser la sustituta idónea
de los fármacos inhibidores
de proteasomas. Estos últimos,
utilizados para impedir la proliferación de las células cancerosas,
provocan efectos secundarios
graves porque actúan también
en las células sanas.
© Inserm/Jenny Valladeau
NOTICIAS EUROPEAS
Fragmentos de células cancerosas.
Los proteasomas son unos complejos enzimáticos encargados
del tratamiento de los desechos
dentro de las células. Al desactivarse se condena a las células a morir
asfixiadas en sus propios residuos.
La bacteria Salinispora tropica
produce una molécula mortífera
que tiene exactamente el mismo
efecto. Crea una abertura en el
proteasoma, luego lo obstruye,
como una llave rota en una
cerradura. Según los investigadores, se trata de una forma más
apropiada de bloquear a los
proteasomas. Ahora que se
conoce bien el mecanismo,
hace falta modificarlo para crear
BREVES
http://portal.mytum.de/
welcome/
Recuerdos grabados
© Shutterstock/Lulu Duraud
¿Por qué determinados recuerdos
se quedan grabados para siempre
en nuestra memoria, mientras que
otros desaparecen rápidamente?
Todo se basa en la capacidad de
nuestro cerebro de convertir las
nuevas impresiones sensoriales
en recuerdos perennes. La primera
etapa de este proceso consiste
en almacenar los recuerdos sólo
durante algunas horas, gracias a
una alteración de la transmisión
neuronal que induce una serie de
cambios químicos en las conexiones sinápticas. ¿Pero cómo estos
recuerdos recientes se pueden
quedar grabados durante mucho
tiempo en la corteza cerebral?
Investigadores del Karolinska
Institutet (Suecia), en colaboración
con el National Institute on Drug
Abuse (NIDA) estadounidense,
han sacado a la luz el papel de la
“Y de pronto el recuerdo surge. Ese sabor
es el que tenía un trocito de magdalena”
(Marcel Proust)
molécula receptora nogo receptor
1 (NgR1), tras haber conseguido
activar y desactivar la capacidad
de formar recuerdos duraderos
en ratones genéticamente manipulados. Parece ser que para que
se puedan formar recuerdos
duraderos se tiene que desactivar
el gen responsable de esta molécula. De hecho, cuando los investigadores insertaron un gen NgR1
programado para permanecer
activo mientras que el gen NgR1
original de los ratones no lo
estaba, los roedores tenían mucha
más dificultad en convertir recuerdos inmediatos en recuerdos
duraderos. Un descubrimiento en
el que pensar como nueva pista
para crear tratamientos contra
los trastornos de la memoria.
Lo que significa que, además de la
esterilidad, estos pacientes suelen
padecer más problemas de salud
que la población fértil. Teniendo
en cuenta el pequeño tamaño
de la muestra, aún es pronto para
sacar conclusiones generales;
harán falta estudios a mayor escala
para confirmar estos resultados.
© Shutterstock/Sebastian Kaulitzki
inhibidores de proteasomas
dirigidos a las células enfermas.
Estos resultados, si se aplicasen al
hombre, podrían tener un impacto
sobre las técnicas de reproducción
humana asistida. Podrían permitir
mejorar la protección de los
espermatozoides de cara a los
fuertes trastornos oxidativos que
se dan en el momento de la
descongelación que precede
la inseminación artificial.
www.inserm.fr
http://ki.se
…y de los hombres
La fragilidad de los estériles
espermatozoides…
Según la Unidad de genética,
reproducción y desarrollo, que
reúne a investigadores de varios
centros franceses, una proteína
antioxidante, GPx5, protege a los
espermatozoides. Estos últimos
adquieren sus capacidades de
fecundación en el momento de su
maduración dentro del epidídimo.
Sin embargo, los más frágiles
pueden sufrir una fragmentación
de su ADN tras un estrés oxidante.
Y es ahí donde interviene la
proteína GPx5.
Los investigadores descubrieron
que algunos ratones machos
privados de esta proteína poseían
espermatozoides morfológicamente normales, pero que la
fecundación en óvulos de hembras silvestres provocaba defectos
de desarrollo, así como el aumento
del número de abortos y de la
mortalidad perinatal.
Los hombres estériles tienen una
salud más frágil que la población
de hombres fértiles, según un
artículo publicado en diciembre
de 2009 en el boletín de la
Asociación Europea de Urología.
El artículo se basa en las conclusiones de un estudio prospectivo
realizado entre septiembre de
2006 y 2007 en la Universidad
de Milán (Italia), por el equipo
del urólogo Andrea Salonia, con
344 hombres estériles de 18
a 60 años de edad. En comparación con el grupo de control, que
contaba con 293 hombres fértiles
de edades análogas, se vio que
los hombres menos fértiles alcanzan un índice de comorbilidad
mucho mayor en la escala de
comorbilidad de Charlson, que
cataloga todas las patologías
comórbidas (que afectan al
paciente de forma simultánea)
en las personas mayores.
www.europeanurology.com
Con la materia negra
no se dio en el blanco
Hace algunos años, los astrofísicos
se preguntaban cuál era el origen
de los flujos de electrones y de
positrones detectados en la Vía
Láctea. La hipótesis más probable
en esa época era que estas partículas elementales estaban producidas
por la misteriosa materia negra.
En realidad, no tiene nada que ver,
según un estudio publicado en
agosto de 2009 en la revista Physical
Review Letters, llevado a cabo por un
equipo de investigadores entre los
que estaba la astrofísica Julia Becker
de la Ruhr-Universitaet Bochum
y el físico Wolfgang Rohde de la
Technische Universitaet Dortmund
de Alemania.
Según este estudio, los flujos
detectados provienen del plasma
eyectado en el momento de la
explosión de estrellas macizas cuya
masa es más de 15 veces superior
a la del Sol. Este plasma acelerado
choca con el viento solar constituido por partículas que provienen
a su vez de explosiones anteriores,
teniendo como consecuencia la
formación de una onda de choque.
En función de la alineación de la
misma con el campo magnético de
la estrella remanente, la señal que
emerge es unas veces débil, y otras
de energía muy alta. Este modelo
concuerda perfectamente con las
observaciones, lo que hace que los
research*eu n°63 | ABRIL DE 2010
21
Centro de la Vía Láctea.
Pulmón de ratón.
autores afirmen que se tendrá que
buscar en otro lugar la prueba de
la existencia de la materia negra.
reactiva el sistema inmunitario de
los pulmones y provoca un estrechamiento de los bronquios que
conlleva una mala oxigenación.
Por lo tanto, los investigadores
emiten la hipótesis de que el
desarrollo del asma se deba a
una deficiencia de los macrófagos
reguladores en un momento dado
de la vida de un individuo.
www.ruhr-uni-bochum.de
www.tu-dortmund.de
Células que
contrarrestan el asma
Investigadores del Grupo Interdisciplinario de Genoproteómica
Aplicada (GIGA) de la Universidad
de Lieja (Bélgica), dirigidos por el
biólogo y veterinario Fabrice Bureau,
han descubierto células capaces de
impedir las reacciones asmáticas en
los pulmones de ratón. Estas células,
que son unos macrófagos reguladores, están asociadas con las células
dendríticas presentes en los pulmones, cuyo papel es presentar los
antígenos a los linfocitos T en los
ganglios linfáticos. Parece ser que
los macrófagos reguladores detectarían los antígenos que inhalamos
sin cesar así como las moléculas
inmunoestimuladoras que los
acompañan, impidiendo la migración de las células dendríticas hacia
los ganglios linfáticos y, por lo tanto,
la reacción del sistema inmunitario
frente a estos alérgenos inofensivos.
La respuesta inmunitaria desarrollada por las personas asmáticas frente
a los alérgenos presentes en el aire
es inútil, incluso nefasta. De hecho,
cada exposición a estos alérgenos
22
research*eu n°63 | ABRIL DE 2010
www.ulg.ac.be
La cara beneficiosa
del efecto
invernadero
Hace cuatro mil millones de años,
el Sol era tan sólo una joven estrella
un 30 % menos caliente que hoy en
día, y la Tierra, sin efecto invernadero para calentarla, sin duda no
habría podido tener vida. Una vida
que se debe al oxisulfuro de
carbono (COS) derivado de la actividad volcánica que experimentó
durante varios milenios, según un
estudio publicado en agosto de
2009 en Proceedings of the National
Academy of Sciences (PNAS).
Los autores, el químico Matthew
Johnson y sus colegas de la Universidad de Copenhague, así como un
equipo del Instituto de Tecnología
de Tokio, estudiaron unas rocas
muy antiguas y descubrieron en
ellas una extraña distribución de
los isótopos de azufre que no
podía haberse dado por procesos
geológicos. Persuadidos de que
había intervenido un factor
atmosférico, irradiaron dióxido de
azufre (SO2) con luz solar a diferentes longitudes de onda y, efectivamente, llegaron a reproducir la
distribución de los isótopos de
azufre de las rocas.
Para los investigadores, estos
resultados revelan claramente que
el oxisulfuro de carbono, formado
a partir del azufre arrojado por los
volcanes, constituye la mejor pista
para explicar el efecto invernadero
que experimentó la Tierra en sus
inicios. Consideran que una
cubierta atmosférica de COS, más
eficaz que el CO2, habría bastado
para compensar el 30 % de energía
que no podía aportar el Sol.
Además, habría facilitado la
aparición de la vida puesto que,
como el ozono (O3), detiene la
radiación ultravioleta.
¿Pero cómo explicar, con tal cubierta, la glaciación que habría experimentado la Tierra hace 2.500
millones de años? Precisamente
por la aparición de la vida, que se
tradujo en la liberación de grandes
cantidades de oxígeno. En una
atmósfera oxidada, el azufre de los
volcanes ya no habría producido
COS, sino aerosoles sulfatados que
habrían tenido el efecto contrario.
En resumidas cuentas, tendremos
que tomar en consideración los
gases presentes en la atmósfera…
www.chem.ku.dk
Descubrimiento
que arroja luz
sobre el VIH
La proteína fluorescente verde,
cuyo descubrimiento fue coronado con el Premio Nobel de Quími-
ca en el 2008, se ha convertido
hace poco en una nueva pista
a seguir en las investigaciones
sobre el SIDA. Gracias a ella,
investigadores de las universidades de Munich y de Heidelberg
(Alemania) han conseguido
observar detalladamente y en
tiempo real el proceso de replicación del VIH-1 y cómo se liberan
estos nuevos virus para infectar
las células próximas. Para logarlo,
el biofísico Don Lamb de la Universidad de Munich, quien dirigió las
investigaciones, utilizó células de
cultivo que contenían 8 de los
9 genes del VIH-1, manipulando
a uno de ellos para obtener una
forma fluorescente de la proteína
GAG (del inglés “group-specific
antigen”), que compone la cápside
vírica (su cubierta).
El estudio, apoyado en parte
por el Séptimo Programa Marco
y publicado en PloS (Public library
of Science) Pathogens, demuestra
que al activarse el proceso de
© Inserm/Philippe Roingeard
© ESO/S. Gillessen et al.
© Inserm/Michel Depardieu
BREVES
Gemación del virus del SIDA.
El virus sale de la célula infectada
valiéndose de socios celulares del
citoesqueleto, muy presentes a nivel
de prolongamientos celulares
denominados filopodios.
ensamblaje del VIH-1, la membrana de la célula huésped se ve
recubierta por el virus en tan sólo
una o dos horas. Cada uno se
ensambla individualmente
(y no desde una plataforma de
BREVES
Courtesy Institute of Physics, University of Stuttgart
LA INVESTIGACIÓN
VISTA CON LUPA
gemación reutilizable, como se
piensa que existe en el caso de
otros virus) a partir de las proteínas virales sintetizadas por la
célula infectada en aproximadamente 25 minutos. Los investigadores también pudieron
determinar si los virus visibles en
la superficie de una célula fueron
producidos por ésta o bien si
provenían de células próximas que
ya estaban infectadas. Hasta ahora
se sabía poco sobre los mecanismos de contaminación intercelular
del virus del Sida. Estos descubrimientos aportan una nueva
dimensión dinámica a este proceso.
www.cup.uni-muenchen.de
www.plospathogens.org
La paradoja
de los agujeros
Haga agujeros en una película de
oro tan fina que ya sea semitransparente y obtendrá una película…
¡más opaca! Esta es la conclusión
del equipo de investigadores del
Physikalisches Institut de la Universität Stuttgart (Alemania). ¿Es sorprendente? Sólo a medias, porque
se sabe que a causa de su naturaleza ondulatoria, la luz no puede
pasar a través de los agujeros
con un ancho inferior a su longitud de onda. Sin embargo, los
metales a veces se convierten
en la excepción de la regla. Hace
una década, unos investigadores
demostraron así que ante una
determinada disposición de los
agujeros, la luz incidente creaba
ondas, a través de los electrones
del metal, que se propagaban por
toda la superficie. La interacción
de estos plasmones con la luz
engendraba la transmisión de ésta
a través de la película.
No obstante, las películas de oro
utilizadas respondían a estas
condiciones de transmisión
(20 nm de espesor y agujeros de
200 nm de diámetro) y, sin embargo, el nivel de luz transmitida era
inferior al de la película no perforada. Los científicos cuestionan
la naturaleza semitransparente de
la película que deja pasar el 40 %
de la luz. El 60 % restante sería
insuficiente para permitir que los
plasmones desempeñen su papel.
Además, el índice de transmisión
parece depender enormemente
de la longitud de onda, puesto
que los infrarrojos generan una
absorción muy fuerte. Por lo tanto,
el estudio alemán aporta un
nuevo enfoque a los conocimientos pasados. El dominio de estas
interacciones particulares podría
llevar a la elaboración de chips
plasmónicos integrados para filtrar
determinadas longitudes de onda.
www.uni-stuttgart.de
¿Nuevas ciencias?
En un artículo publicado en la revista Mi
Minerva, A
Andrea
d
B
Bonaccorsi,i profesor
f
de economía de la innovación y de sociología de las ciencias en
la Universidad de Pisa (Italia), intenta describir las características de lo que
él denomina “las nuevas ciencias”, o sea, conocimientos organizados que
se fueron desarrollando después de la segunda guerra mundial: las ciencias
de la información, las ciencias de los materiales y las ciencias de la vida
basadas en la biología molecular que, según él, son estructuralmente
diferentes de disciplinas clásicas como la física, la química o la astronomía.
El profesor destaca que, contrariamente a lo que a menudo se dice,
el enfoque de las nuevas ciencias no está menos marcado por el “reduccionismo” que el de las antiguas ciencias, la voluntad de “sustituir lo visible
complejo por lo invisible simple”, por retomar la célebre expresión del físico
francés Jean Perrin. Tampoco se distinguen estas ciencias por su carácter
interdisciplinario ni, en lo fundamental en todo caso, por una orientación
más aplicada, en respuesta a las necesidades sociales y a las presiones
económicas.
En su opinión, lo que esencialmente las define es su dinámica de investigación, una dinámica más “industrial”, caracterizada por un índice de
crecimiento rápido y una gran diversificación que va de la mano con una
tendencia a una ramificación divergente de las problemáticas: cada hipótesis
explicativa da lugar a la apertura de un nuevo programa de investigación.
Para establecer su tesis, Bonaccorsi explota los resultados de un análisis
comparado de la frecuencia de aparición de nuevas palabras en publicaciones científicas que provienen, por una parte, de estos tres nuevos
campos de investigación y por otra, de un campo tradicional bien establecido como es la física de altas energías.
No obstante, estas opiniones tan interesantes tienen que ser matizadas
y completadas. Además, sin duda habría sido posible decir todo esto de
forma más breve y simple. Pero no nos quejemos: comparado con muchos
de sus colegas universitarios, el estilo de Andrea Bonaccorsi (casi) es el
de Voltaire.
Michel André
research*eu n°63 | ABRIL DE 2010
23
ENTREVISTA
Harald zur Hausen –
“Como ya teníamos
la clave genómica
del origen de los VPH,
queríamos desarrollar
vacunas”.
Su premio Nobel corona toda una vida de
“investigador de fondo”, dedicada por completo
al cáncer y, en particular, a los virus infecciosos
que lo provocan. ¿Qué le hizo dedicarse a ello?
Desde mi doctorado en medicina, en los años
sesenta, me interesé por las investigaciones (por
entonces incipientes) sobre el papel de los virus
en la aparición del cáncer. En aquella época,
aunque ya se había comprobado el origen infeccioso de algunos tumores cancerosos de animales a principios de siglo, aún avanzábamos
a tientas entre algunas pistas hipotéticas en lo
referente a los procesos virales que podían darse en los seres humanos. En Estados Unidos,
empecé trabajando con Gertrude y Werner
Henle en el estudio de los linfomas de Burkitt(1)
que, en 1964, los biólogos ingleses Michael
Epstein y Yvonne Barr habían asociado con
el herpesvirus EBV (Epstein-Barr Virus), que lleva su nombre. Para mí, el elemento clave era
24
research*eu n°63 | ABRIL DE 2010
Courtesy Deutsches Krebsforschungszentrum
Un “investigador
de fondo”
El premio Nobel de medicina de 2008 ha destacado
la importancia de tres científicos pioneros europeos
que contribuyeron, de forma decisiva, a la lucha contra
dos grandes plagas infecciosas: el virus VIH del SIDA,
descubierto por los franceses Luc Montagnier y Françoise
Barré-Sinoussi, y los virus del papiloma humano,
identificados como causantes del cáncer de cuello uterino
por el virólogo alemán Harald zur Hausen. Entrevista
a quien ha hecho posible la creación de las primeras
vacunas preventivas para este cáncer.
conocer el papel que desempeñaba este virus
en el genoma de las células epiteliales. Al regresar a Alemania, pude constituir un grupo de
investigación en el Instituto de Virología de
Würzburg. Descubrimos que, cuando se efectuaba el contagio, el ADN del virus EBV se
podía observar en células del linfoma de Burkitt
que aún no producían virus. Fue un resultado
importante, puesto que demostraba que el crecimiento posterior de los tumores tenía una causa genómica.
¿A partir de entonces usted se centró
en el estudio del cáncer de cuello uterino?
En efecto, este bagaje me sirvió para estudiar esta enfermedad (la segunda causa de cáncer en las mujeres), cuyo posible origen
infeccioso se solía atribuir por entonces al herpesvirus de la variedad simplex, propagado por
vía sexual. Pero las técnicas de identificación
de ADN que habíamos conseguido dominar
no confirmaban ningún resultado en ese sentido. Frente a estos fracasos, sentí curiosidad
por los informes de “pequeñas cirugías” (algunos databan incluso del siglo XIX) relativos
a las lesiones provocadas por verrugas genitales, que hasta entonces se asociaban con otro
agente infeccioso poco conocido, el virus del
papiloma humano, o VPH(2). Muy pocos investigadores explorábamos esta pista. En el año
1974, durante una conferencia de virología que
se celebraba en Florida, mi ponencia sobre
estas verrugas genitales, en la que descartaba
la pista del herpes simplex, suscitó una gran
perplejidad.
Nuestro grupo (por entonces yo dirigía el
Instituto de Virología de la Universidad de
Friburgo) estableció una estrecha colaboración con el equipo del francés Gérard Orth.
Ellos tenían la misma intuición y estudiaban
ENTREVISTA
el aspecto hereditario del VPH. Nos reunimos
varias veces para intercambiar resultados
y debatirlos. Supuso una experiencia fructífera de competición cooperativa.
La investigación fue larga. Primero conseguimos extraer ADN de VPH a partir de verrugas plantares. Pero, a nuestro gran pesar, no
encontramos ningún rastro similar en las biopsias de verrugas genitales. No obstante, esta
constatación nos hizo comprender que el
virus VPH tenía múltiples formas diferentes.
En 1983, un estudiante de nuestro instituto,
Mathias Dürst, fue el primero en conseguir
clonar un nuevo tipo específico, el VPH-16,
que resultó ser el foco infeccioso directo de
aproximadamente la mitad de los cánceres de
cuello uterino. Dos años después, aislamos el
VPH-18. Hoy en día, se han logrado identificar 115 virus de papiloma humano diferentes,
pero ya por entonces habíamos identificado
los dos tipos de VPH responsables de siete
de cada diez cánceres cervicales(3).
Desde hace algunos años, la vacunación preventiva contra estos cánceres, única en su género, se ha ido generalizando. ¿Usted ha participado
en el largo camino hacia este avance médico?
Como ya teníamos la clave genómica del origen de los VPH, queríamos desarrollar vacunas.
En los años ochenta contacté con una empresa
farmacéutica alemana, pero tras algunas negociaciones, sus responsables concluyeron que no
habría mercado para este producto. Fue un
período un poco frustrante. Habíamos difundido ampliamente los conocimientos adquiridos,
incluyendo las muestras y los protocolos de
laboratorio. Era un poco ingenuo en aquella
época y no pensaba en términos de explotación
industrial y de transferencia de tecnología.
Nuestros resultados y nuestros métodos fueron
retomados y patentados por otros. A partir de
1983, fundé el Centro alemán de investigación
sobre el cáncer, con sede en Heidelberg, que
dirigí durante veinte años, ampliándose mi horizonte de investigación en cancerología.
con los cánceres por vía infecciosa, que representan por lo menos un cáncer de cada cinco.
Es un área de investigación extremadamente
compleja, puesto que existen diferentes posibilidades de infecciones primarias y el desencadenamiento del fenómeno canceroso puede
presentarse mucho después.
Pero tales vacunas son tan seguras como las
demás vacunas administradas a los niños
o a los adolescentes. Un estudio australiano
sobre el seguimiento de más de 200.000 chicas
comprobó que dichas vacunas tenían complicaciones ínfimas. En cuanto a su eficacia,
probada en laboratorio, evidentemente es
demasiado pronto para confirmarla en términos de resultados. Al ser preventivas y no terapéuticas, estas vacunas deben ser administradas
antes de la posibilidad de un contagio, es decir,
antes de las primeras relaciones sexuales.
Luego, el tiempo de latencia es muy largo.
La acción cancerígena del VPH puede darse
más de dos décadas después del contagio.
No se podrá saber si se han reducido los cánceres cervicales hasta que pase ese plazo.
El rechazo a estas vacunas de una parte de
la opinión pública es irracional. En el caso del
VPH, relacionado con la transmisión sexual en
la nubilidad, este rechazo se debe a los tabúes
culturales, sociales o religiosos. Sin embargo,
la ventaja inmediata de la vacuna contra el VPH
es que al impedir el contagio y la aparición de
lesiones disminuye las ablaciones quirúrgicas,
a menudo ineficaces (el 20 % de las lesiones
pasan inadvertidas) y que a veces reducen
drásticamente la fertilidad femenina.
En cambio, lo que sigue siendo preocupante, es el elevado coste de esta vacuna, lo que
impide realizar la prevención en las mujeres
de los países en desarrollo, donde se registran
más del 80 % de los cánceres cervicales y se
estima que causan 250.000 defunciones cada
año. Es un reto para la dimensión económica
de la política de sanidad. Los países emergentes, como China o la India, posiblemente
podrán conseguir este reto.
Algunos medios de comunicación europeos
han dudado de la pertinencia y la eficacia de
ambas vacunas preventivas que se administran
desde hace poco tiempo. ¿Qué opina de este recelo?
Estas vacunas representan una innovación
muy importante. Por primera vez, se trata de
prevenir alteraciones genéticas relacionadas
Usted ha desarrollado casi toda su carrera de
investigador sin abandonar el sistema universitario alemán. ¿Qué piensa del concepto del Espacio
Europeo de la Investigación?
Cuando regresé de Estados Unidos, el sistema de las fundaciones alemanas me dio
una gran libertad de medios para financiar
investigaciones cuyos objetivos no eran
obvios en términos de resultados. En Estados
Unidos, la investigación es muy eficaz, pero
está más orientada hacia los campos “con
futuro”. Yo diría que, hasta hace poco,
Europa a menudo ha sido capaz de dejar un
lugar más amplio a las ideas originales de la
investigación fundamental. Sin embargo, me
temo que se está dejando llevar por un enfoque similar al de Estados Unidos.
¿Qué papel cree que tienen los programas
de investigación europeos?
El Centro alemán de investigación sobre el
cáncer participa activamente en los proyectos
europeos. Yo mismo he estado implicado más
o menos activamente en numerosos proyectos
de virología, de genómica y de biología molecular. No obstante, creo que hay que evitar caer
en una trampa, la de querer interconectar
a todo el mundo, cueste lo que cueste, multiplicando las redes. Lo indispensable para los
científicos es poder elegir. Saben donde están
sus competidores y donde están sus aliados,
y deben poder decidir cómo extender el campo de sus iniciativas. Por ejemplo, aquí, en
Heidelberg, hemos acogido por primera vez
a un equipo completo de investigadores procedentes del INSERM (Francia), para realizar
trabajos en común. A pesar de los posibles
problemas de adaptación cultural y material,
este tipo de sólida colaboración entre equipos que abogan por la excelencia me parece
muy beneficioso.
Entrevista de Didier Buysse.
(1) Una forma de tumor canceroso endémico en niños africanos.
(2) De Human Papillomavirus.
(3) En medicina, el término “cáncer cervical” se aplica al cáncer
de cuello uterino.
DKFZ – Centro alemán de investigación sobre el cáncer
www.dkfz.de/en/zurhausen/
research*eu n°63 | ABRIL DE 2010
25
REPORTAJE
© Laurence Buelens
“Relájese y escuche
mi voz”
La Reina Fabiola de Bélgica contribuyó
mucho a dar a conocer la anestesia
hipnótica, que experimentó en el 2009.
Esta práctica, desarrollada en el Centro
Hospitalario Universitario de Lieja
(Bélgica), ha ido ganando adeptos
también en Francia, en Suiza
o incluso en Estados Unidos, pero
Bélgica sigue siendo la pionera.
A continuación, les presentamos
un reportaje sobre las Clínicas
Universitarias Saint-Luc en
Bruselas, donde asistimos
a una operación de la
carótida bajo hipnosis.
U
sted está conduciendo su coche. De
repente, se da cuenta del camino
que ha recorrido, y comprende que
durante todo este tiempo tenía la
mente en otro lugar. Este estado, extremadamente corriente, es tan sólo un ligero trance
hipnótico: un estado de conciencia modificado,
otra percepción del mundo, en la cual aflora el
inconsciente…
“Hay que tener mucho cuidado con los términos que se emplean. El inconsciente no integra las negaciones: si usted le pregunta al
paciente si no tiene miedo o si no teme el dolor,
va a retener únicamente las palabras ‘miedo’,
‘temor’ y ‘dolor’, que tienen una connotación
26
research*eu n°63 | ABRIL DE 2010
negativa. Eso puede arruinar todo el proceso”,
advierte Christine Watremez, anestesista en
Saint-Luc, antes de que veamos a Jean, que está
a punto de someterse a una endarterectomía(1)
para tratar una estenosis carotídea.
Ya aquellas palabras se quedaron lejanas
cuando, en vísperas de su operación, le preguntamos a este simpático jubilado cómo se
encontraba de ánimo: “Tranquilo, relajado…
¡Estoy sorprendido de mí mismo! Ya me he
sometido a varias intervenciones bajo anestesia general y siempre me ha sentado mal.
Cuando me dijeron que era posible evitarla
operándome bajo hipnosis, no lo dudé un
instante”.
Hace ya seis años que se practica la anestesia hipnótica (o hipnoanestesia) en Saint-Luc.
Además de Christine Watremez, la clínica cuenta con otras tres anestesistas especialistas en esta
técnica. Realizan por término medio dos operaciones bajo hipnosis al día. Según Fabienne
Roelants, una de ellas, los pacientes se clasifican en cuatro categorías: “Algunas personas,
como este paciente, no aguantan bien la anestesia general; luego están los trabajadores autónomos que desean volver lo más rápidamente
al trabajo; otros pacientes están demasiado débiles y nadie se atreve a anestesiarlos, así que nos
los envían, y finalmente están los pacientes que
sienten curiosidad por la técnica”.
REPORTAJE
Los mecanismos de la
analgesia hipnótica
© Laurence Buelens
L
Christine Watremez (a la izquierda) y Fabienne Roelants, dos de las cuatro especialistas del Hospital
St Luc (de Bruselas) con formación en anestesia hipnótica.
Evitar el coma farmacológico
La anestesia general consiste nada más
y nada menos que en someter al paciente a un
coma farmacológico reversible en el que una
serie de aparatos médicos se encargan de sus
funciones respiratorias y cardíacas. Para ello se
le suministra al paciente un cóctel compuesto
por sedantes, que provocan la pérdida de conciencia, de analgésicos, que inhiben el dolor
y, si es necesario, de curare, un relajante muscular. Por ello, la anestesia general es un acto
médico complicado y delicado.
La hipnosis, que se puede definir como un
estado subjetivo en el que se pueden inducir
modificaciones de la percepción por sugerencias, posee un poder analgésico conocido desde hace mucho tiempo. En 1830, se utilizaba
ya en cirugía como tratamiento complementario. Pero cayó rápidamente en el olvido,
eclipsada por la llegada del éter algunos años
más tarde.
En 1992, Marie-Elisabeth Faymonville, anestesista del Centro Hospitalario Universitario de
Lieja (Bélgica), se interesó por los trabajos realizados en Suiza por un anestesista que recurría a la hipnosis para aliviar a los grandes
quemados. “Descubrí que la hipnosis no era
un don y que se podía aprender a practicarla.
Pensé entonces que se podría mejorar hasta
convertirla en una técnica de anestesia por sí
sola”, recuerda. Aquel año, volvió a introducir
esta práctica en cirugía, primero en la estética
y luego en la endocrina. “Actualmente, la utilizamos también en cirugía mamaria, vascular,
oftalmológica, otorrinolaringológica. También
con ella podemos quitar tumores periféricos
u operar hernias”, añade. En resumen, podemos decir que la práctica conviene a todas las
intervenciones superficiales donde una anestesia local es realizable pero insuficiente para
garantizar la comodidad del paciente.
Hasta la fecha, el equipo operatorio del
Centro Hospitalario Universitario (CHU) de Lieja
ha realizado más de 7.000 operaciones bajo hipnosis y varios estudios clínicos han evaluado
sus efectos. Se realizó un estudio retrospectivo
as modernas técnicas de generación de imágenes, tales como la resonancia magnética
funcional (IRMF) y la tomografía por emisión
de positrones (TEP), han hecho posible explicar
de forma objetiva los efectos observados en los
pacientes operados con anestesia hipnótica.
Cuando aparece un estímulo doloroso, la actividad cerebral difiere significativamente según el
paciente se encuentre bajo hipnosis o en el estado de vigilia normal. La corteza cingular anterior,
a la que se atribuyen, entre otras cosas, funciones
cognitivas como la anticipación de recompensa,
la toma de decisiones, la empatía y la emoción,
parece desempeñar un papel preponderante en
el transcurso de la hipnosis. De hecho se observa
una activación de la parte media de la corteza
cingular anterior, así como cambios en la conectividad entre ella y las regiones corticales y subcorticales.
Esta actividad cerebral especial permitiría una
mejor codificación de la información nociceptiva
(relacionada con el dolor) y, finalmente, una respuesta más adaptada a la misma. Según algunos
investigadores, la hipnosis impediría que la información alcanzara las regiones corticales superiores, responsables de la percepción del dolor. Otros
opinan que permitiría más bien responder mejor
a la misma, activando más eficazmente las vías
inhibitorias descendentes del dolor. No obstante,
los neurotransmisores que intervendrían en estas
acciones aún siguen siendo desconocidos.
basado en 200 tiroidectomías y 21 exploraciones cervicales para casos de hiperparatiroidismo efectuadas bajo sedación hipnótica
(también denominada hipnosedación) en Lieja
entre 1994 y 1997. Todos los pacientes dijeron
que se había tratado de una “experiencia agradable”. Con relación a una población similar
operada bajo anestesia general, su dolor postoperatorio era menor, tomaron menos analgésicos, su convalecencia fue bastante mejor, y su
vuelta a la vida social y profesional fue más
rápida(2). Otro estudio realizado en Boston y
publicado en la revista The Lancet en abril del
año 2000(3) también reveló que se habían reducido los costes financieros, la aparición de
complicaciones y la duración de las
research*eu n°63 | ABRIL DE 2010
27
REPORTAJE
intervenciones en los pacientes operados bajo hipnosis.
Marie-Elisabeth Faymonville también organizó un programa de formación internacional
en Lieja, cursado hasta la fecha por 450 anestesistas, entre ellos, suizos, luxemburgueses,
o incluso canadienses, pero sobre todo muchos
franceses. Precisamente Francia también cuenta con un gran centro de formación en Rennes.
En Alemania y en Austria están empezando
a interesarse por esta práctica.
1
2
4
28
research*eu n°63 | ABRIL DE 2010
© Laurence Buelens
El quirófano transformado
“¿Está usted oyendo lo que pasa por detrás?
Ya oímos su corazón. Aún habrá otros ruidos, la
puerta que se abre, posiblemente gente que
entre, que salga, que hable… Y luego, estarán
los olores… Los olores normales de un hospital.
1 2
Operación bajo hipnosis realizada al Hospital St Luc.
La anestesista Christine Watremez (fotografía 1),
el cirujano Parla Astarci (fotografía 2) y la enfermera
instrumentista Rosie Enonyi.
© Laurence Buelens
3
© Laurence Buelens
Cuando se efectúa una anestesia hipnótica,
se puede suprimir la sedación completamente,
tratándose entonces de analgesia hipnótica
(o hipnoanalgesia), o se puede reducir en gran
medida, y en este caso se habla de sedación
hipnótica (o hipnosedación). Aunque en Lieja
practicamos esta última, en Bruselas prefieren
la analgesia hipnótica desde hace algunos
años. “No queremos perturbar la hipnosis con
un sedante. Si el paciente se siente cómodo,
no es necesario”, estima Christine Watremez.
Por lo tanto, el día de su operación nuestro
paciente recibirá tan sólo analgésicos: un medicamento local para insensibilizar la zona que
hay que operar y un derivado suave de la morfina en inyección intravenosa que la anestesista dosificará con arreglo a las necesidades del
paciente. “En realidad, a menudo reducimos
las dosis y, a veces, hasta dejamos de administrarla”, explica Christine Watremez. La mente
de Jean estará vagando por Sicilia. “En el
momento de la consulta preoperatoria, le expliqué lo que era la hipnosis, dejando claro que
no dormiría y que estaría consciente. Le dije
que podría cambiar de opinión cuando quisiera. Se puede emplear la anestesia general en
cualquier momento, ya sea por razones quirúrgicas o porque el paciente lo reclame. Todo
nuestro material está listo para eso y la vigilancia es exactamente la misma. Jean sólo tiene
que hacer una cosa: escoger un recuerdo agradable que desee revivir”. En este caso, sus
bodas de oro, en la tierra de Bellini.
© Laurence Buelens
¿Hipnosedación o hipnoanalgesia?
3
Clampaje de la arteria y abertura
de la misma con el fin de realizar
la endarterectomía (retirada de la
placa de aterosclerosis que induce
el estrechamiento del diámetro
del vaso sanguíneo).
4
El paciente, al despertar, con
la enfermera Sophie Mertz,
el doctor Parla Astarci y la doctora
Christine Watremez (de izquierda
a derecha).
REPORTAJE
La conciencia de sí mismo, amplio campo
de investigación
F
inalmente sabemos pocas cosas sobre los efectos de una anestesia general sobre el
organismo. Algunos la soportan, otros no. ¿Por qué ocurre eso? ¿Qué pasa a nivel celular y genético?
Precisamente porque no tenía todas las respuestas a estas preguntas, Marie-Elisabeth Faymonville desarrolló las técnicas de anestesia hipnótica en 1992 y actualmente lleva a cabo investigaciones
sobre la cognición. “Lo que se sabe es que las personas debilitadas pueden sufrir perturbaciones cognitivas tras una anestesia general. Sabemos que la memoria de trabajo (la que permite memorizar
los códigos de las tarjetas bancarias, por ejemplo) se ve menos perturbada tras una operación bajo
hipnosis”, explica la anestesista.
“Nos gustaría continuar nuestras investigaciones sobre las estructuras de la conciencia de sí mismo en resonancia magnética funcional, evaluar las repercusiones de la supresión de la conciencia
tras una anestesia general y después de una sedación hipnótica. ¿En qué se modifica la cognición?
¿En qué influye sobre el envejecimiento una u otra técnica? Sería maravilloso elaborar un proyecto
que estudie todo esto”.
No obstante, es muy difícil organizar investigaciones postoperatorias de este tipo, porque hay que
motivar a los pacientes para que vuelvan y participen en las pruebas después de su intervención.
Otro obstáculo metodológico nada despreciable tiene que ver con la imposibilidad de realizar pruebas aleatorias a doble ciego, dado que la hipnosis requiere la participación activa de los pacientes.
Todas estas cosas de nuestro día a día, y que van
a formar parte de su entorno en las próximas
horas. He aquí la primera perfusión, vamos
a poner la segunda, como le he explicado. Y tan
pronto como hagamos esto, nos pondremos
cómodos para irnos de viaje. Usted deseaba un
pequeño viaje a Sicilia, ¿no? De todas formas,
podrá cambiar de destino si lo desea. Yo me quedaré aquí, al lado de usted. ¿Así está bien? ¿Está
usted cómodo?”. Al llegar al quirófano, Christine
Watremez se ocupa de Jean. Va a familiarizarle
con la sala para que no se desconcentre durante la hipnosis. Por eso el cirujano le detalló en la
consulta los gestos que iba a efectuar. Nada debe
sorprenderle.
Cerca de cinco minutos antes de la llegada
del resto del equipo, la anestesista se sienta en
un pequeño taburete cerca del oído de su
paciente, cogiéndole la mano. Su voz, que se
adapta al ritmo de la respiración de Jean, se
hace más suave, más lenta, más monocorde.
“Mire fijamente un punto en el techo. Al mismo
tiempo, concéntrese en cada parte de su cuerpo… Y con cada espiración, su cuerpo se relaja… Ahora irán surgiendo imágenes agradables
de viaje… Inspire profundamente y deje que su
mente vuele, tranquilamente, en este viaje agradable y cómodo. Muy bien…” Una serenidad
sorprendente invade el quirófano. Parla Astarci,
el cirujano, entra sin decir una palabra, saluda
a todo el mundo con la mirada, y empieza a
empapar la zona que hay que operar con
Betadine. Jean ya no está allí.
El cirujano tiene que adaptar sus
movimientos
A veces, abre los ojos, murmura algunas palabras, aprieta la mano de la anestesista o parece
profundamente dormido. ¿Y si no funcionara?
“Si el paciente está motivado, preparado para
cooperar y tenemos su confianza, ¡funciona!”,
responden sin dudarlo Fabienne Roelants
y Christine Watremez, precisando que en seis
años, jamás tuvieron ningún fracaso.
Salvo Christine Watremez, todo el mundo
guarda silencio o casi: algunos murmullos de
vez en cuando. A veces, la anestesista se levanta para ver por dónde va la intervención en el
campo operatorio, en el que también cambia
por completo la práctica.
“Hay que intervenir como un músico que ejecuta una obra de arte” afirma Michel Mourad,
especialista de la cirugía endocrina y el primero en haber operado a un paciente con esta técnica en Saint-Luc. “El paciente está despierto
y está en nuestras manos, siente nuestros movimientos, los vive y lee nuestras emociones. Eso
nos impone reglas estrictas”, explica.
Antes que nada reglas técnicas: “el cirujano
debe evitar las tracciones y efectuar los movimientos suavemente. Hoy en día, disponemos
de nuevas herramientas de coagulación y de
sección que nos permiten disminuir el número
de movimientos y de manipulaciones de instrumentos ruidosos”. Luego está el autocontrol
imprescindible. “Si surge una hemorragia durante la intervención, no puedo ponerme nervioso, porque el paciente va a vivirlo y esto va a
angustiarle. Debemos tener la pericia técnica
que nos permita superar las dificultades con
calma. Por eso creo que hace falta tener bastante experiencia antes de trabajar con la anestesia hipnótica”.
Al “despertar”
La anestesista habló a Jean con esta voz
especial durante toda la operación. Una vez
suturada la herida, retomó un tono normal
y dijo: “Eso es todo señor, la intervención ha
terminado”. Él abrió los ojos y le dio las gracias encarecidamente. “Es muy raro que los
pacientes nos den las gracias después de una
anestesia clásica. Con la anestesia hipnótica,
siempre lo hacen”, observa Christine Watremez.
“Están sorprendidos por la experiencia, pero
contentos de haberla vivido. Sobre todo, se dan
cuenta de que no se les puede hacer cualquier
cosa, que nadie les manipula”. Algunos instantes más tarde, Jean se enderezó en su cama
y le dijo a Parla Astarci: “Dígame doctor, como
soporté bien la [carótida, nota de la redacción]
izquierda, posiblemente usted podría operarme la derecha también”. Aterrizaje con éxito.
En la sala del despertar, confesó: “Estoy
gratamente sorprendido. No me esperaba que
fuera algo tan cómodo, tan fácil. Pensé en
Sicilia todo el tiempo, como si estuviera allí”.
¿Pero sintió algo? “Dos o tres punzadas, pero
soportables”. Le costó trabajo explicar esta
experiencia que acababa de vivir, salvo algo
que tenía claro: “Estaba consciente, pero en
otro lugar”.
Laurence Buelens
(1) La endarterectomía consiste en quitar la placa de ateroma
vinculada al exceso de colesterol que obstruye la carótida
interna y en suturarla ampliándola para evitar un accidente
cerebrovascular.
(2) “Hypnoanesthesia for endocrine cervical surgery: a statement of practice”, T. Defechereux, M. Meurisse, E. Hamoir,
L. Gollogly, J. Joris, M.-E. Faymonville, J. Altern,
Complement Med. 1999 Dic, 5(6):509-20.
(3) “Adjunctive non pharmacological analgesia for invasive
medical procedures: A randomised trial”, E. Lang et al.,
Lancet 2000, 355:1486-90.
research*eu n°63 | ABRIL DE 2010
29
Viaje al país
del hedonismo
Comprender la naturaleza del placer para poder ayudar
a quienes no lo experimentan: eso es precisamente lo que busca
Morten Kringelbach con sus colegas del TrygFonden Research
Group. “La falta de placer es un problema muy frecuente en las
enfermedades mentales como la depresión. Creemos que conociendo mejor los circuitos cerebrales de los que depende el placer, podremos restablecer el equilibrio de estas redes cerebrales
fundamentales a corto y largo plazo”, destaca este investigador
en neurociencias de la Universidad de Oxford (Reino Unido)
y de la Universidad de Aarhus (Dinamarca). Veamos cómo
transcurre esta aventura en busca del país del hedonismo.
Alimento, sexo y relaciones sociales
“N
uestros placeres básicos están
provocados por sensaciones
íntimamente relacionadas con
la comida, el sexo y las interacciones sociales. A nivel cerebral, estas sensaciones son detectadas primero por receptores
sensoriales situados por todo nuestro cuerpo
y luego son descodificadas en las regiones sensoriales de nuestro cerebro”, explica el psiquiatra Morten Kringelbach(1). Pero, contrariamente
a lo que se podría pensar, el placer no se limita
a la simple excitación de estos receptores, es el
resultado de interacciones entre la anticipación,
la evaluación y el recuerdo de las sensaciones.
Por lo tanto, el placer sería una suave mezcla de
deseo, sensaciones agradables y aprendizaje.
“Varias investigaciones realizadas con seres
humanos y con animales han permitido identificar las zonas cerebrales indispensables para que
se produzca esta mezcla. Algunas están situadas
en la parte más profunda de nuestro cerebro,
como el núcleo accumbens o el hipotálamo,
mientras que otras se sitúan en la corteza
30
research*eu n°63 | ABRIL DE 2010
cerebral”. Precisamente los investigadores del
TrygFonden Research Group se han centrado en
esta región del cerebro. Dicho grupo de investigación, multidisciplinario e internacional, está
compuesto por diez científicos que pertenecen
a la Universidad de Oxford y a la Universidad de
Aarhus. Investigadores en neurociencias, médicos, psicólogos, ingenieros e informáticos de
Escocia, Irlanda, Dinamarca, Bangladesh, Francia,
Inglaterra, Alemania y Sudáfrica colaboran para
comprender mejor el placer, nuestro placer.
“Nuestros trabajos se centran en el estudio
y la comprensión de la anatomía funcional del
cerebro humano. Para llevarlos a cabo, recurrimos a las últimas técnicas de generación
de imágenes neurológicas como la magnetoencefalografía (MEG). Con estas técnicas, los
investigadores esperan averiguar el papel que
desempeña la corteza orbitofrontal, situada justo
detrás de los ojos. ¿Por qué precisamente esta
zona? Porque es mucho mayor en los hombres
que en los demás primates. Pero, en concreto,
¿qué se puede aprender de esta zona y en qué
puede ser útil desde un punto de vista médico?
© Isak Hoffmeyer
NEUROCIENCIAS
Morten Kringelbach
Caras de niños
De todos es sabido que el rostro de un bebé
llama más la atención que el rostro de un adulto.
¡La mayoría de nosotros se extasiará más mirando
al retoño de un pariente que mirando a su nueva
pareja! Según el equipo de Morten Kringelbach,
si se llegase a comprender este fenómeno se
podría ayudar a las mujeres que sufren una
depresión postparto. Con la ayuda de su homólogo Alan Stein y sus colegas, Morten Kringelbach
y su equipo observaron la actividad cerebral de
hombres y de mujeres a los que se les mostraban caras de niños y de adultos. Los investigadores detectaron actividad en la corteza
orbitofrontal media cerca de un séptimo de
segundo después de que se les presentara una
cara de niño. En cambio, no vieron nada parecido cuando observaron caras de adultos.
“Es evidente que la corteza orbitofrontal
media es la encargada de dar una recompensa
y es posible que las caras de bebés y los placeres sociales en general sean buenos para nuestro bienestar”. Pero las mujeres que sufren una
depresión postparto no reaccionan como los
demás ante las caras de los bebés, incluso
cuando se trata del suyo. “Puede ser que la actividad de esta zona cerebral cambie durante la
depresión postparto, lo que podría servir de
señal de alarma para identificar y ayudar a las
mujeres susceptibles de padecer este tipo de
depresión. Además, ayudar a las madres y a los
padres que padecen esta depresión reduciría el
riesgo de que sus propios hijos acabaran
sufriendo una depresión”.
Los placeres del paladar
Kringelbach y sus colegas también se han
interesado por el papel vital desempeñado por
los alimentos en nuestra supervivencia y nuestro placer. En el marco de estas investigaciones,
NEUROCIENCIAS
Reacción frente a los rostros de niños
Reacción frente a los rostros de adultos
40
Del placer
a la empatía…
Frecuencia (Hz)
35
Corteza orbitofrontal
media
30
S
25
20
15
10
40
Frecuencia (Hz)
Fuente: Morten Kringelbach
35
Área fusiforme
facial derecha
30
25
20
8
15
10
0
-0,2
-0,1
0
0,1
0,2
Tiempo (en segundos)
0,3
0,4 -0,2
-0,1
0
0,1
0,2
0,3
0,4
Tiempo (en segundos)
Cuando miramos a los bebés, un área específica de la región media orbitofrontal de nuestro cerebro registra instantáneamente una actividad neuronal, que no se produce ante un adulto (imágenes superiores). El equipo de
Morten Kringelbach ve en esta señal una “recompensa” que corresponde a una especie de “instinto parental” inscrito en nuestras neuronas. En una región diferente del cerebro, el área fusiforme facial (imágenes inferiores),
se observa otro tipo de reconocimiento, que se manifiesta tanto ante adultos como ante niños.
identificaron una red de regiones cerebrales
entre las que estaba una vez más la corteza orbitofrontal, la que nos incitaría a buscar el placer
de los alimentos. “Todo apunta a que cuando se
da algún desequilibrio en esta red puede haber
trastornos alimenticios”, precisa el investigador, que también intentó comprender por qué
siempre nos queda sitio en el estómago para
el postre al final de la comida, incluso cuando
ya estamos saciados. “Pudimos comprobar que
la corteza orbitofrontal es la principal responsable y que su actividad está relacionada con la
atracción subjetiva de los alimentos”. Asimismo,
los investigadores demostraron que dicha zona
estaba implicada en el disfrute subjetivo de
todos los placeres, incluidos aquellos proporcionados por los medicamentos, la música y los
orgasmos. “Esta constatación nos hace pensar
que la corteza orbitofrontal podrá ayudarnos a
tratar los trastornos alimenticios y otros comportamientos adictivos”.
Estimulación cerebral profunda
“La estimulación de determinadas regiones
del cerebro de los animales o de los humanos puede inducir cambios inmediatos en la
sensación de placer y de deseo”. Tipu Aziz,
un neurocirujano de la Universidad de Oxford,
demostró que la estimulación cerebral profunda en la materia gris permitió reducir sensiblemente el dolor en un paciente que sufría
dolores crónicos. No obstante, para que tal
descubrimiento pudiera ser útil a largo plazo,
quedaba por conocerse el efecto de esta estimulación sobre el cerebro. El equipo de Morten
Kringelbach observó directamente la acción
de la estimulación cerebral profunda con la
ayuda de la magnetoencefalografía, comprobando cómo se activaba especialmente la red
cerebral implicada en las emociones. Allí también estaba implicada la corteza orbitofrontal.
“Lo especialmente interesante en este proyecto, es que se han obtenido los mismos resultados en personas que padecen depresión”.
Además, se puede utilizar la estimulación cerebral profunda en numerosas patologías como
la distonía, la enfermedad de Parkinson, los trastornos obsesivos compulsivos, los problemas de
temblores, etc. “Para que esta técnica sea eficaz,
es fundamental que conozcamos el papel de
cada zona del cerebro y saber qué zona se debe
estimular para atenuar los síntomas de una
determinada enfermedad”.
Élise Dubuisson
i Morten Kringelback se interesa por las
personas que tienen dificultades en experimentar el placer, Tania Singer y sus colegas de la Universidad de Zurich se centran en el
sentimiento de empatía, la capacidad de comprender y compartir los sentimientos de otras
personas. Estos investigadores piensan que, en
una sociedad en la que están aumentando la criminalidad y las violaciones de los derechos
humanos, poder influir sobre las capacidades de
empatía sería algo muy positivo.
El proyecto, llamado EMPATHICBRAIN, estudia
si se puede reforzar nuestra capacidad de comprender nuestros propios sentimientos y los de
los demás. Es el interrogante al que Tania Singer
pretende dar respuesta a través de un enfoque
multidisciplinario innovador. EMPATHICBRAIN
mezcla las neurociencias, la economía, la psicología y la psicobiología (ciencia de las relaciones
entre el psiquismo y las funciones biológicas).
La primera etapa de este viaje al centro del
cerebro consiste en detectar las diferencias funcionales y estructurales de los cerebros de personas con distintas capacidades de empatía.
No obstante, los investigadores no se limitan a
las observaciones. También están elaborando
un programa de aprendizaje de la empatía, que
consistiría en aprender a cultivar la impasibilidad, la alegría empática, la compasión y la amabilidad afectuosa. Nada más y nada menos…
www.forschungsportal.uzh.ch/unizh/
p11582.htm
(1) Todas las citas son de Morten Kringelbach.
TrygFonden Research Group
www.kringelbach.dk/science.html
research*eu n°63 | ABRIL DE 2010
31
ENERGÍA
R
ecursos inagotables, pocos residuos,
bajo impacto medioambiental, seguridad a toda prueba y compatibilidad
con las redes eléctricas existentes: los
beneficios de la fusión son tales que la humanidad muy difícilmente podría prescindir de la
misma. El procedimiento se conoce desde los
años cincuenta: un encuentro forzado de los
núcleos de deuterio y de tritio para producir
helio, neutrones, y una enorme cantidad de
energía. Simple en teoría pero complicado en
la práctica, puesto que esta reacción se desencadena en condiciones de densidad y temperatura extremas.
Los estudios teóricos y experimentales concuerdan en que existen dos posibles pistas para
lograrlo. Una de ellas consiste en utilizar una
cámara toroidal en la que se confine plasma
caliente por la acción de un campo magnético:
es el enfoque utilizado en ITER. La otra pista
sería el confinamiento inercial, también denominado fusión por láser, que consiste en
emplear potentes rayos láser para generar una
implosión de pastillas de combustible previamente comprimidas. Éste es el enfoque elegido
por los creadores de HiPER.
32
research*eu n°63 | ABRIL DE 2010
Alto valor añadido
“Nos alegramos de que, desde 2006, HiPER
forme parte de las instalaciones científicas
financiadas por el Foro Europeo de la Estrategia sobre Infraestructuras de Investigación
(o ESFRI, por sus siglas en inglés)”, declara
Mike Dunne, coordinador general del proyecto. “Actualmente, HiPER está en su fase preparatoria, dotado con 3 millones de euros de
financiación del apartado ‘Infraestructuras’ del
Séptimo Programa Marco (7PM) y una cantidad mucho mayor aportada por las agencias
nacionales. La fase de demostración tecnológica empezará en el 2011 para, a finales de la
próxima década, acabar con la construcción
de las instalaciones, cuyo presupuesto rondaría los mil millones de euros”.
Estas inversiones colosales se deben tanto
a la complejidad de las innovaciones tecnológicas como a las aplicaciones que se obtendrán de ellas. “Los cincuenta años de
experimentación que hemos tenido han
demostrado que para producir una fusión
autosostenida haría falta una temperatura cercana a los 50 millones de grados y una densidad de al menos 1 kg/cm3, es decir, 50 veces
© Agence Free Lens Philippe Labeguerie
El acceso a una energía limpia e inagotable ya no es una
quimera. Por lo menos eso afirman los partidarios de la fusión,
quienes se alegran de que el ambicioso proyecto HiPER (High
Power laser Energy Research facility) sea el centro de todas las
miradas en el ámbito científico. La fusión por confinamiento
inercial desarrollada en HiPER es una alternativa a la vía
magnética empleada por su primo ITER(1), igualmente
convincente. Queda mucho camino por recorrer pero los
últimos resultados experimentales son muy esperanzadores.
la del oro”, precisa Mike Dunne. “Además, se
trata de una tecnología de alta repetición,
puesto que hay que adaptar los pulsos láser
de un orden de magnitud de un nanosegundo a pastillas de un milímetro de diámetro, y
esto, cinco veces por segundo”. Por lo tanto,
para alcanzar el objetivo de una fusión controlada, los científicos están explorando campos de la física que aún no se conocen bien
y de los que se espera que salgan futuras aplicaciones.
“¡Y la lista de aplicaciones será larga!”, asegura Mike Dunne. “Cuando dominemos una
tasa elevada de repetición combinada con tecnología láser de alta energía se abrirá la vía a
campos tan diversos como la producción de
radioisótopos, la oncología o incluso la próxima generación de focos de luz. En un nivel
más fundamental, podremos esperar avances
importantes en la ciencia extrema de los materiales, en la física nuclear, así como en la física de los plasmas”.
Unión de proyectos
Para ganar esta apuesta tecnológica quedan aún numerosas etapas. Cada dificultad
ENERGÍA
del procedimiento HiPER es objeto de estudios preliminares. Entre ellos, el proyecto
PETAL (Petawatt Aquitaine laser) financiado
a los niveles europeo (FEDER), nacional
(Francia) y regional (Aquitania), cuyo papel
principal consiste en poner a punto la estructura láser-blanco adecuada para poner en
marcha las reacciones de fusión. Las principales elecciones tecnológicas se han validado con éxito, empleando tecnología
innovadora para superar los obstáculos que
resultaron evidentes en el estadio experimental, y ha empezado la construcción de la
infraestructura.
“En 2006, los coordinadores de los proyectos decidieron unir ambos programas
PETAL e HiPER dentro de la hoja de ruta del
ESFRI”, explica Christine Labaune, directora
de investigación en el CNRS (Centro Nacional de la Investigación Científica francés) y
miembro del comité científico de ambos programas. “En el plano científico y tecnológico, PETAL desempeña el papel de primera
fase de HiPER. Desde su lanzamiento, un
comité científico internacional coordina la
preparación de los experimentos que permitirán validar los campos de la física que
garantizarán el éxito de HiPER. Además,
PETAL será una plataforma educativa que
dará a los científicos la posibilidad de adquirir la destreza necesaria para la manipulación
de láseres de grandes dimensiones. También
servirá para que todos colaboren en un programa que aumenta la competitividad de
Europa frente a nuestros homólogos estadounidenses y asiáticos”. No obstante, hay que
reconocer que, mientras PETAL está programado para el 2011, las instalaciones Omega
EP en Estados Unidos y FIREX en Japón ya
han llegado a la fase operacional.
Técnica de altos vuelos
Hasta hace tan sólo algunos años, los científicos pensaban que podrían obtener la fusión
utilizando haces de nanosegundo para comprimir el blanco de deuterio-tritio hasta obtener un
punto caliente. Pero una inestabilidad demasiado elevada invalidaba este esquema. Los equipos de PETAL e HiPER decidieron seguir otra
vía, como lo explica Christine Labaune. “Creemos que es indispensable separar la fase de
compresión de la fase de calentamiento. Es lo
que se denomina el ‘encendido rápido’. El principio es utilizar haces de petavatio (2) en pulsos
cortos que sirvan de ‘chispas’, tras haber comprimido el blanco por medio de otros haces de
nanosegundos. El sistema tendría que ser más
fiable, con una ganancia energética superior a
1, pudiendo incluso elevarse a 10 o a 100”.
Christine Labaune prosigue: “El objetivo de
PETAL es demostrar nuestra aptitud para conceptualizar las tecnologías que en el futuro
vayan a generar los pulsos cortos y de alta energía necesarios para el encendido. Concretamente, una cadena láser de alta energía consta de
tres partes. Un oscilador-preamplificador genera un débil pulso de pequeño diámetro, que
atraviesa luego una serie de placas de cristal
reforzado con neodimio y bombeado por lámpara flash, lo que va a conllevar la emisión de
fotones. Estos últimos son recuperados por el
láser de salida que se va intensificando poco a
poco. Simultáneamente, se amplía el diámetro
del pulso, con el fin de mantener una densidad
energética razonable para preservar el instrumental óptico. El pulso de una fracción del picosegundo (3) en la entrada se va estirando
durante todo el trayecto, luego comprimiendo
de nuevo en una serie de redes, justo antes de
la salida. Gracias a este procedimiento, un pulso inicial de algunos milijulios llega a alcanzar
cerca de 3.500 julios, conservando su tamaño
corto. Esto convertirá a PETAL en la instalación
láser con la más elevada relación potencia-energía del mundo”.
Concienciar a los inversores
A tenor de las cantidades invertidas, PETAL
e HiPER supondrán la posibilidad de desplegar un gran programa de investigación fundamental para comprender la materia en sus
estados extremos. Sin embargo, el principal
objetivo de estas instalaciones seguirá siendo
la producción controlada de energía por fusión.
Teniendo en cuenta que con el litio (fuente de
tritio) de una batería de ordenador portátil y
el deuterio presente en media bañera de agua
se podrían cubrir las necesidades eléctricas del
Reino Unido durante 30 años, es sorprendente el escaso interés del sector privado por
invertir masivamente en estos proyectos.
“Efectivamente, es lamentable”, confirma
Christine Labaune. “La única energía a largo
plazo que seguirá siendo inagotable es de origen nuclear. Al plantear la fisión numerosos
problemas relacionados con los residuos, la
seguridad y la limitación del combustible, la
única solución para la humanidad sigue sien-
© Agence Free Lens Philippe Labeguerie
 Observación del estado de la superficie
de las redes de difracción en el recinto
mecánico de PETAL donde están acondicionadas al vacío.
Módulo preamplificador (MPA)
que integra ambas etapas de desarrollo
paramétrico en banda ancha espectral.
En la primera fase del proyecto PETAL,
el MPA se emplea como fuente para
la demostración de la compresión de pulso.
do la fusión. Estamos seguros de que los láseres son excelentes candidatos para
reproducirla en la Tierra. Por ello necesitamos
la investigación aplicada. Así que sería preferible que las instituciones privadas se interesaran por este tema. Debemos encontrar qué
industriales producirán nuestras centrales y
obtendrán beneficios de ello en el futuro. Si
invierten ahora en las investigaciones, Europa
podrá mantener su independencia energética.
Si nuestra comunidad científica no dispone de
medios suficientes para seguir estando a la
cabeza, nos volveremos completamente dependientes de países que hayan dominado el funcionamiento de esta tecnología”.
Marie-Françoise Lefèvre
(1) ITER (International Thermonuclear Experimental Reactor), véase
“ITER salió de la tierra”, research*eu número 61, julio de 2009.
(2) Peta = 1015
(3) Pico = 10-12
HiPER
26 socios, 9 países
(CZ-DE-ES-FR-GR-IT-PL-PT-UK),
6 países de fuera de la UE
(CA-CN-JP-KR-RU-US)
www.hiper.org
PETAL
http://petal.aquitaine.fr
research*eu n°63 | ABRIL DE 2010
33
RETRATO
© Stephen Faust/Wolfram Research Inc.
El algoritmo
de los dioses
Stephen Wolfram:
“Explicar una idea y, afinarla
hasta hacerla lo más clara
posible, es un excelente
método para comprenderla
mejor”.
D
e día, es jefe de empresa. Con cincuenta años de edad dirige Wolfram
Research, sociedad propietaria del
célebre programa informático de
cálculo “Mathematica” y del nuevo motor de
búsqueda “Wolfram Alfa”. Por la noche, es investigador. Un científico brillante, de gran renombre. Es matemático, informático y físico de las
partículas, pero lo que prefiere investigar son
los autómatas celulares, modelos matemáticos
que, según Stephen Wolfram, permiten explicar
cómo se construye la complejidad del mundo.
En su libro “A new kind of science” publicado
en 2001, Wolfram vuelve a cuestionar los fundamentos de la ciencia, en todos los campos.
¿Quién es en realidad, un arrogante megalómano o un genio incomprendido?
El hijo pródigo
Stephen Wolfram nació en Londres en 1959.
Muy pronto vieron que tenía una inteligencia
prodigiosa. A los trece años de edad consiguió
una beca para estudiar en el Eton College, un
prestigioso instituto de enseñanza secundaria
donde se codeó con la flor y nata de la élite británica. Un año más tarde, Wolfram escribió una
obra sobre la física de las partículas. Su primer
artículo científico fue publicado en Nuclear
Physics en 1975. Por entonces, tenía sólo quince años. “En aquella época, la física era uno de
los campos más innovadores de investigación.
Se lograron muchos avances, en particular en
34
research*eu n°63 | ABRIL DE 2010
¿El mundo funciona como un programa informático?
¿Las formas y los estados de la naturaleza están generados
a partir de una fórmula fundamental? Eso sostiene
Stephen Wolfram, que incluso afirma haber descubierto
el código de la fuente de la complejidad del Universo.
el área de la física de las partículas, lo que avivó mi interés”, cuenta(1).
El joven genio estudió en la Universidad de
Oxford (Reino Unido), trasladándose luego al
otro lado del Atlántico para trabajar en el
Instituto Tecnológico de California - Caltech
(Estados Unidos) donde consiguió su título de
doctor en física teórica con veinte años. Allí fue
donde empezó a forjarse una reputación.
Durante este período, publicó más de 25 artículos científicos. Concibió las variables de FoxWolfram y descubrió el límite superior
Politzer-Wolfram en la masa de los quarks. En
1981, con veintidós años, se convirtió en el más
joven galardonado con el premio MacArthur, el
“premio de los genios”, que ofrece cada año una
beca a los investigadores con más talento.
Wolfram dejó el instituto Caltech en 1982
para ir al Institute for Advanced Study de
Princeton (Estados Unidos), un centro consagrado exclusivamente a la investigación científica. Fue allí donde empezó a interesarse por
los autómatas celulares. Su objetivo era comprender la complejidad del mundo, una cuestión que ninguna ecuación matemática, ni
ninguna teoría física había resuelto jamás.
“El origen de la complejidad del Universo es un
tema que me apasionó desde la infancia. Esta
cuestión se me planteó no sólo cuando me interesaba por la cosmología, sino también por las
neurociencias o la inteligencia artificial. Mientras
trabajaba en el desarrollo del que sería años más
tarde el programa informático Mathematica
y ponía a punto las operaciones primitivas sobre
las que se pudiese construir toda una serie de
operaciones más complejas, tuve la intuición de
que existía un principio general similar en el
cual se basaba toda la complejidad de la naturaleza, desde la estructura de las galaxias hasta
la de las neuronas. Por ello me propuse probar
operaciones muy simples que podrían llevar
a la formación de estructuras complejas, lo que
hizo que me interesara por los autómatas
celulares”.
¿Pero qué es exactamente un autómata celular? Tome una serie de compartimentos blancos
y negros. Luego, imagine que se genera una
nueva línea según una serie de reglas rudimentarias. Por ejemplo, un compartimento blanco
jamás podría encontrarse debajo de otro compartimento blanco excepto si este último formara una diagonal de diez compartimentos
blancos. El cuadro resultante de este proceso
produce de manera aleatoria estructuras que
pueden ser extremadamente complejas.
Hombre de negocios
En los años ochenta, Wolfram descubrió la
regla 30, un autómata celular que puede generar formas similares a los motivos de una concha, denominado Conus textile. Se convenció
entonces de que había desvelado parte del
código universal cuya existencia sospechaba.
RETRATO
Entusiasmado, publicó una serie de artículos sobre la cuestión y dedicó a la misma una
nueva disciplina, la ciencia de los sistemas
complejos. Fundó el Centro de Investigación
sobre los Sistemas Complejos en la Universidad
de Illinois (Estados Unidos), apoyó la creación
de un grupo de reflexión sobre esta cuestión
en el Santa Fe Institute (Estados Unidos) y fundó la revista científica Complex Systems Journal.
“Al crear estos diferentes elementos, esperaba
que otros investigadores se animasen a seguir
esta pista de investigación. Pero la movilización de la comunidad científica fue demasiado
lenta para satisfacer mi curiosidad”.
Frustrado, Wolfram abandonó el mundo académico para dedicarse totalmente a la programación informática. “Mi objetivo era sentar las
bases de una infraestructura de investigación
y una herramienta que me permitiesen seguir
mis estudios sobre los sistemas complejos”. En
1987, Wolfram creó la empresa Wolfram
Research. Un año más tarde, comercializó
Mathematica, un programa informático capaz
de ejecutar un amplio abanico de operaciones
matemáticas.
La empresa ha tenido un gran éxito.
Mathematica cuenta actualmente con más de
dos millones de usuarios en 90 países, Wolfram
Research genera unos 50 millones de dólares
de volumen de negocios al año y emplea a más
de 300 personas. Al cambiar su bata de investigador por la chaqueta de empresario, Stephen
Wolfram se hizo millonario. Una situación que,
al principio, fue bastante mal considerada por
el mundo académico. “Hace veinte años, los
programas que los laboratorios utilizaban eran
gratuitos. Por lo tanto, estaba muy mal visto
exigir una retribución financiera por una aplicación utilizada para la I+D puntera, actividad
principalmente llevada a cabo en las universidades. Hoy en día la mentalidad ha cambiado
radicalmente”.
¿Hacker del código universal?
En los años noventa, el mundo de la investigación se olvidó de Stephen Wolfram. Pero
éste no abandonó por ello la investigación.
Por la noche, se encerraba en su laboratorio
para continuar sus estudios sobre los sistemas
complejos. Con el ordenador en ristre, probaba sin cesar diferentes autómatas celulares
para averiguar cuáles reproducían mejor las
estructuras presentes en la naturaleza. Así descubrió autómatas celulares capaces de
generar la estructura del hielo o incluso de
algunas hojas. Diez años más tarde publicó
“A new kind of science”, una obra donde
exponía los resultados de sus investigaciones
y luego demostraba, capítulo por capítulo, en
qué medida su teoría cuestionaba las bases
de diferentes disciplinas científicas.
Escogió deliberadamente no pasar por las
vías tradicionales en virtud de las cuales una
teoría debe ser publicada en una revista científica. “Quería que mis investigaciones fueran accesibles al mayor número de personas.
Este enfoque también me permitió probar mi
teoría. Explicar una idea, afinarla hasta hacerla lo más clara posible, es un excelente método para comprenderla mejor”.
Tras haber trabajado en el modelo informático de las matemáticas y del mundo,
Wolfram se lanzó al universo del conocimiento. En el 2009 lanzó Wolfram Alpha, un
motor de búsqueda capaz de dar toda la
información específica de un determinado
tema a partir de una consulta formulada en
una frase. “Siempre pensé que era importante no ocultar las cuestiones de investigación
básica suscitadas en el transcurso del desarrollo de una tecnología, en definitiva, adoptar un enfoque integrado de la ciencia.
Wolfram Alpha es un proyecto que me gusta muchísimo precisamente porque refleja
esta visión integrada del saber”.
Hombre de negocios e investigador, una
doble función tan fascinante como desconcertante para los demás. “En general, la gente que posee recursos financieros apoya la
investigación indirectamente, a través de una
fundación, por ejemplo. El hecho de financiar investigaciones básicas aportando también una contribución personal a las mismas
aún asusta a algunas personas… ¡aunque no
sepan bien por qué!”.
Julie Van Rossom
(1) Todas las citas son de Stephen Wolfram.
Imágenes coloreadas
basadas en la regla 30,
sacadas del best seller
“A New Kind of Science”,
de Stephen Wolfram.
Wolfram research
www.wolfram.com
Stephen Wolfram
www.stephenwolfram.com
research*eu n°63 | ABRIL DE 2010
35
PRISIONES
El cáncer
de las prisiones
Aunque la mayoría de las
democracias occidentales
se ven enfrentadas al aumento
de la criminalidad, la superpoblación carcelaria, las
nuevas formas de delincuencia y el fracaso de las
políticas de prevención, en un
contexto socioeconómico que
se va deteriorando, actúan
de forma poco contundente
frente a estas problemáticas.
¿C
ómo se puede salir del círculo
vicioso delincuencia-represión? Un proyecto apoyado
por la Unión Europea, que
finalizó en el 2001 y se tituló Welfare State or
Penal State?, ya planteaba el problema del
incremento de las penas de cárcel en Europa.
Los investigadores observaron que con el final
del welfare state (Estado del bienestar) en los
años noventa, se fueron debilitando rápidamente las medidas sociales.
Son muchos los criminólogos que opinan que existe una relación directa entre el
ámbito económico y el penitenciario, demostrada en diversas investigaciones. Charlotte
Vanneste, del Instituto Nacional de Criminalística
y Criminología de Bélgica, ha estudiado la correlación entre las estadísticas de la población
36
research*eu n°63 | ABRIL DE 2010
penitenciaria belga y la situación socioeconómica del país, en un periodo de 170 años (1).
Comprobó que en los ciclos de crecimientorecesión de 20 a 30 años, las depresiones de
las recesiones se correspondían con los “picos”
de población penitenciaria y al contrario. En el
periodo entre las dos guerras mundiales observó
cómo se reducía la población penitenciaria al
mismo tiempo que mejoraba la economía en
general (coyuntura favorable, mejor reglamentación social, indización salarial) mientras que, por
el contrario, en la segunda mitad del siglo XX
las cifras mostraban claramente una subida de
los índices de encarcelamiento y de los del paro.
¿Tolerancia cero o prevención?
Las respuestas de los Estados europeos
(y de sus ciudadanos) ante la criminalidad han
sido estudiadas por los investigadores del proyecto CRCC (Crime repression costs in context),
con el fin de evaluar las consecuencias directas
e indirectas que tiene la criminalidad en diferentes políticas nacionales. Los socios establecen dos
grandes “culturas”. La primera, característica de
los regímenes neoconservadores, da prioridad a
las políticas jurídico-policiales clásicas, tendiendo
cada vez más hacia la tolerancia cero y la justicia
expeditiva, sin dar importancia a las causas
socioeconómicas subyacentes del delito. La
segunda, la del liberalismo avanzado, se basa en
la gestión del riesgo criminal y la aplicación del
principio de precaución. Esta última estrategia
pretende, por un lado, contener la delincuencia
potencial (actuando sobre las causas económicas de la criminalidad, modificando el entorno
urbano, desarrollando estrategias de control
social, etc.) y, por otro, evitar que haya víctimas,
animando a la población a protegerse (puertas
blindadas, alarmas…). Estas técnicas de autoprotección están ganando terreno rápidamente.
Según una encuesta europea sobre la seguridad
y la criminalidad (2), el Reino Unido ostenta el
récord mundial de los sistemas de videovigilancia y los Países Bajos el de las puertas especiales, mientras que más de una décima parte de
las nuevas construcciones de Budapest realizadas entre el 2002 y el 2007 contaban con diferentes dispositivos de seguridad.
La sensación de inseguridad
L o s i n ve s t i g a d o r e s d e l p r o ye c t o
CRIMPREV (3) profundizaron en el estudio del
sentimiento de inseguridad (la inseguridad
subjetiva, distinta a la real u objetiva) y sus
implicaciones en las relaciones sociales, particularmente los fenómenos culturales de
rechazo. Este sentimiento varía según los países, las regiones y los barrios. ¿Sentimos angustia al caminar por la calle de noche? Los
ciudadanos del Norte de Europa tienen menos
miedo que los del Sur y del Este. Los males
de la sociedad (especialmente la droga) y el
rastro de los actos vandálicos (como basura,
grafitis, bandas de jóvenes) alimentan estos
temores. “Los gobernantes, conscientes de la
importancia de estos desafíos sociales pero
también electorales, no dejan de presentar
propuestas de acciones destinadas a combatir
el sentimiento de inseguridad, a veces considerado tan importante como la inseguridad
real que, además, es muy difícil de medir”,
explican los investigadores de CRIMPREV.
© Shutterstock/Igorsky
PRISIONES
“Las redes de vigilancia tecnológica, las
bases de datos y los servicios privados de seguridad no han hecho que desaparezcan el miedo
y la ansiedad”, estima Joe Sim, profesor en la
Liverpool John Moores University(4). “Al contrario, se ha reforzado la percepción de una catástrofe inminente, legitimando la escalada de
respuestas autoritarias a la criminalidad y también a lo que se considera como amenazas que
van en contra del orden público y social”. Esto
incluye el miedo a los jóvenes, por ejemplo.
Ahora bien, según diferentes estudios británicos, la criminalidad está asociada tan sólo en
una proporción ínfima con el aumento de los
delitos cometidos por menores.
Los guetos lujosos
Todos estos miedos y las respuestas que
ocasionan han tenido consecuencias sobre la
exclusión social y la organización del espacio
urbano. La creación de guetos no sólo se da
en los barrios más pobres. Desde los años
sesenta, en todos los continentes se han ido
creando las denominadas “gated communities”
(viviendas seguras, custodiadas por vigilantes,
rodeadas de verjas o de muros). Las encontramos sobre todo en el Reino Unido, en Francia,
en Portugal, o incluso en algunos de los antiguos países comunistas.
Esta autoprotección puede ser una forma de
prevención, pero no la mejor. En estos últimos
años, en algunos países europeos se han hecho
intentos de prevención más concretos, especialmente probando colaboraciones entre el sector
público y el privado, las asociaciones, las ONGs,
la policía local… Pero la idea pocas veces ha
tenido el efecto previsto, puesto que los trabajadores sociales no querían transformarse en
“confidentes” para la policía. Adam Crawford
(Universidad de Leeds, Reino Unido), socio de
CRIMPREV, supone que estas iniciativas “ilustran
el reconocimiento de que los factores y las causas de la criminalidad van más allá del alcance
tradicional del sistema judicial criminal”, aún
considerando que “el tiempo ha demostrado que
las colaboraciones de carácter preventivo que se
ponían en marcha no dejaban de ser una ilusión
destinada al fracaso”.
La cuestión de las aboliciones
Con todo esto, siguen aumentando las penas
de prisión, aunque desde hace algunos años se
practican determinadas soluciones de sustitución. Entre ellas, la vigilancia electrónica (una
pulsera que contiene un chip que permite localizar a un individuo) utilizada particularmente
en el Norte de Europa; los trabajos de interés
general (al servicio de una asociación, de un
hospital, por el medio ambiente) que sustituyen
penas cortas; o incluso los regímenes de semilibertad en virtud de los cuales un detenido trabaja fuera de la prisión y vuelve allí por la noche.
“El problema social de las prisiones podría
encontrar su respuesta en lo que Angela Davis
denominaba las ‘alternativas abolicionistas’”,
estima Joe Sim. “Creo que estas alternativas tendrían que conllevar el cese de la construcción de
prisiones, la reducción de los presupuestos destinados al castigo del crimen a beneficio de la
prevención, la creación de regímenes más humanos para las personas encarceladas, la toma en
consideración de los daños causados por
quienes tienen el poder y el final de las fracturas
sociales. Los abolicionistas, contrariamente a los
mitos populares y políticos, no sólo luchan por
la supresión de los muros. Desean que se efectúe un análisis menos hipócrita del delito y de la
criminalidad y la instauración de políticas radicales que ofrecerían una auténtica protección
pública a todos los ciudadanos europeos, sean
cuales fueren sus condiciones sociales”.
Christine Rugemer
(1) Charlotte Vanneste, “Les chiffres des prisons – Des logiques
économiques à leur traduction pénale”, L’Harmattan, 2001.
(2) “European Crime and Safety Survey 2005”, bajo la dirección
de Jan van Dijk, Universidad de Tilburg (Países Bajos).
Podrá descargar el documento en la página web:
www.crimereduction.homeoffice.gov.uk
(3) CRIMPREV (Assessing Deviance, Crime and Prevention in
Europe), que reúne a 31 socios de diez países europeos, tiene
como objetivo recopilar y comparar, en cada uno de estos
países, los factores de comportamiento marginales, el proceso
de criminalización, la percepción del crimen, así como las
políticas públicas de prevención. Este proyecto ha dado pie
a un gran número de textos (artículos, folletos) disponibles
en la página web: www.gern-cnrs.com/gern/index.php?id=4
(4) Autor muy crítico con los sistemas penitenciarios: “Policing
the crisis”, Sage, 1978 – “Western European Penal Systems”,
Sage, 1995 – “State Power Crime”, Sage, 2009 – “Punishment
and Prisons”, Sage, 2009.
Gestión pública de los comportamientos delictivos
http://ec.europa.eu/research/
social-sciences/projects/052_en.html
CRCC
www.ub.edu/ospdh/en/page/
crime-repression-cost-context-crcc
CRIMPREV
31 socios, 10 países
(BE-DE-ES-FR-GR-IT-NL-PT-SL-UK)
www.gern-cnrs.com/gern/index.
php?id=4
Bibliografía sobre este tema
http://prison.eu.org/rubrique210.html
research*eu n°63 | ABRIL DE 2010
37
CIENCIAS HUMANAS
El dinero de los contribuyentes europeos no tendría que gastarse en cosas
tan raras como en definir a Dios, según el Daily Telegraph(1). Entre otros
proyectos subvencionados por la Comisión Europea y presentados como
costosos, extravagantes, incluso inútiles, el diario británico señala
el programa Explaining Religion (EXREL), beneficiario de una subvención
de cerca de dos millones de euros. Sin embargo, este programa no
ambiciona en absoluto “definir a Dios”, lo que intenta es arrojar luz sobre
los mecanismos cognitivos subyacentes al pensamiento religioso
y a los comportamientos sociales que implica.
¿L
a ciencia puede explicar la religión? Ambas se basan en enfoques de la realidad generalmente
percibidos como radicalmente
diferentes. A lo largo de la historia, sus múltiples divergencias fueron suscitando debates
unas veces productivos, y otras controvertidos, y fuente de malentendidos así como de
emulación. Sin embargo, desde hace algunos años, científicos de diferentes disciplinas
como la historia, la antropología, la biología,
las neurociencias o incluso la psicología se
afanan por bajar a la religión de su pedestal
con el fin de abordarla de manera empírica y
de constituir un corpus científico de conocimientos en la materia.
El programa Explaining Religion (EXREL)
sigue esta línea y constituye uno de los proyectos más ambiciosos en el campo de las nuevas ciencias cognitivas de la religión. Según
Harvey Whitehouse, antropólogo y coordinador del proyecto: “Pretende explicar cómo se
crean los sistemas religiosos y luego se transmiten, y comprender las causas de las variantes
religiosas”. EXREL es una plataforma pluridisciplinaria, coordinada por la Universidad de
Oxford (Reino Unido) y reúne a diez equipos
europeos de investigación puntera en diversos campos (biología, psicología, antropología
e historia religiosa), que colaboran en sinergia para explorar los orígenes de la religión.
Conceptos universales y familiares a la vez
La piedra angular de esta investigación interdisciplinaria, de tres años de duración (2008 –
2010), se basa en la siguiente constatación: el
pensamiento y el comportamiento religiosos
presentan un conjunto de características universales, entre las cuales figuran la creencia en dioses, espíritus o antepasados, la práctica de
rituales llenos de significados simbólicos, la
creencia en una “vida” después de la muerte, la
atribución de la desgracia o de la suerte a una
causa transcendental, la atribución de la autoría
de escritos o de otros tipos de testimonios a una
entidad divina y de fenómenos naturales a un
designio intencional.
“Es sorprendente el ver que, independientemente de su entorno cultural, la gente tiene este
tipo de ideas en cualquier parte del mundo”,
manifiesta entusiasmado Harvey Whitehouse.
Sin embargo, nunca se han estudiado de forma
sistemática los orígenes de estos parámetros
recurrentes a través de la historia y de las culturas, y precisamente EXREL pretende solventar
esa falta de datos. Según el investigador, los
pensamientos y las creencias comúnmente
reagrupadas en el término “religión” tienen sus
Disputas parroquiales
A
demás del equipo de Harvey Whitehouse, otros científicos estudian la cuestión de los orígenes de la religión. Si bien no se cuestionan la existencia y perpetuación de conceptos universales comunes a todas las religiones, su procedencia sigue suscitando un debate
acalorado. Así, Justin Barrett(2), también investigador en antropología en la Universidad de Oxford,
atribuye la emergencia del pensamiento religioso a un mecanismo cognitivo que se activa en nuestro cerebro, el “hypersensitive agency detection device” (HADD). Cuando el cerebro no puede explicar
un fenómeno de manera intuitiva, se lo atribuiría a agentes intencionales no naturales (espíritus,
dioses) que le darían una explicación coherente a acontecimientos inhabituales (enfermedad, catástrofe natural, supervivencia inesperada, etc.). Según él, el éxito de la religión podría deberse al hecho
de que le da un sentido a los fenómenos de tipo HADD.
El filósofo de las ciencias Daniel C. Dennett(3) percibe la religión como el resultado de una simple
acumulación mimética de elementos culturales (al igual que las palabras, las canciones, los artefactos) que seguirían el mismo modo de replicación que los genes. Según él, la duplicación y la transmisión de la información se harían de forma automática e inconsciente, sin la menor interferencia
de autores intencionales.
(2) Justin L. Barrett, “Why Would Anyone Believe in God?”, AltaMira, 2004.
(3) Daniel C. Dennett, “Breaking the Spell: Religion as a Natural Phenomenon”, Viking Press, 2006.
38
research*eu n°63 | ABRIL DE 2010
© Shutterstock/Gary Yim
¿De dónde viene el pensami
CIENCIAS HUMANAS
ento religioso?
raíces en la evolución de la historia humana
y serían el producto de características inherentes al desarrollo cognitivo de nuestra arquitectura cerebral. Esta es la hipótesis dominante en
el campo de investigación de las ciencias cognitivas de la religión. Apoyándose en esta teoría, Harvey Whitehouse y sus colegas intentan
comprender por qué la religión responde tan
bien a las necesidades del homo sapiens, hasta
el punto de poderse considerar como una de
sus características fundamentales.
La principal finalidad de EXREL consiste en
aportar una explicación científica a las características universales presentes en el gran abanico
de religiones existentes y restituir los procesos
latentes que permitieron su desarrollo y su difusión en el seno de la comunidad humana.
y proponer una reconstitución científica del fenómeno religioso de la humanidad prehistórica. Esta
recopilación podría aportar información inédita
en cuanto a la forma en la que se extendieron
por todo el mundo los conceptos y los comportamientos religiosos con el paso del tiempo.
El segundo apartado trata de definir las principales causas de la existencia y la supervivencia de las tradiciones religiosas universales
e identificar los mecanismos cognitivos que se
activan en estos procesos de memorización
y de transmisión. Estudiará con más profundidad la producción y las características específicas de los conceptos de la “vida” después de la
muerte, la inclinación humana a atribuir la causalidad de acontecimientos a agentes sobrenaturales intencionados, y de las modificaciones
de comportamiento inducidas por la creencia
en estos agentes.
Análisis exhaustivo del fenómeno
El tercer apartado del programa intentará dar
religioso
El proyecto está subdividido en cuatro una explicación al hecho de que, según su
apartados que tendrían que arrojar luz sobre las grado de elaboración, cada elemento del repermúltiples facetas del fenómeno religioso. El torio religioso presenta variaciones según las
primero consiste en hacer un inventario de diferentes tradiciones religiosas.
forma cuantificable de los principales elemenY por último, el cuarto apartado, tan original
tos universales de las religiones, exponer sus como ambicioso, pretende explorar el futuro
variantes culturales y poner de relieve los que desarrollando modelos que permitan simular
no sean universales pero que al menos hayan las futuras trayectorias y transformaciones de los
sido recurrentes a lo largo de la historia y las sistemas religiosos. Antes que nada, se tendría
culturas. A más largo plazo, los datos recopila- que definir una especie de “paquete básico” de
dos tendrían que permitir que el equipo de aptitudes cognitivas y de leyes de interacción
investigadores pudiera remontar en el tiempo necesarias para la emergencia de la religión en
© Shutterstock/Gail Johnson
Los arqueólogos se siguen preguntando cuál
es el significado exacto de los vestigios neolíticos
de Stonehenge (Reino Unido), con numerosas
piedras erguidas, así como el sentido que tienen
las figuras gigantes de la Isla de Pascua (moái),
erigidas por sus habitantes a partir del siglo X.
una determinada sociedad. Estos modelos
establecerían una clave de análisis inédita de
los fenómenos religiosos pasados y presentes, pero además, sus variantes informáticas
podrían permitir simular las futuras transformaciones de las tradiciones religiosas. ¡Nada
más y nada menos!
Si este programa informático logra resultados convincentes, podría ser una herramienta
de planificación política muy valiosa. Aunque
la religiosidad comporte un lado positivo en
términos de salud mental para un gran número
de personas, también es un factor de grandes
conflictos. De ahí que las aplicaciones prácticas
de este programa podrían ayudar a comprender mejor y, quién sabe, a prevenir adecuadamente la incidencia de la religión en los
extremismos y los fundamentalismos religiosos,
puesto que nuestra sociedad diariamente refleja
la intolerancia a menudo mortífera que les
acompaña.
Jean-Pierre Geets, Annick M’Kele
(1) Artículo publicado en el periódico Daily Telegraph
del 13 de septiembre de 2009: www.telegraph.co.uk/
news/worldnews/europe/5268361/EU-wasting-billionson-projects-such-as-defining-God.html
EXREL
11 socios – 8 países
(UK-FI-DK-NL-FR-AT-CH-BG)
www.cam.ox.ac.uk/research/
explaining-religion/
research*eu n°63 | ABRIL DE 2010
39
BREVES
Vigilancia remota
de los gorilas
Courtesy UWA
Aún existen en nuestro planeta
unos 700 gorilas de montaña.
Cerca de la mitad de ellos viven en
el “Parque Nacional Impenetrable”
de Bwindi, en Uganda; los demás
están distribuidos entre Ruanda
y la República del Congo. El año
pasado, Bwindi y el Parque Nacional de Mgahinga, muy cercano al
mismo, atrajeron a 600.000 visitantes. Los gorilas, especie protegida
en peligro de extinción, representan un valioso recurso turísticofinanciero, administrado por la
Uganda Wildlife Authority (UWA).
La UWA vela por que se respeten
los espacios reservados para los
gorilas, obtiene ingresos de las
visitas a los parques nacionales en
los que están y redistribuye una
parte de sus ganancias a la población local, apoyando, entre otras
cosas, escuelas, hospitales, actividades de cría de animales, etc.
Para llegar al gran público, la UWA
acaba de lanzar la página web
Friendagorilla.org, en la que los
gorilas son los auténticos protagonistas. Allí se habla de sus costum-
40
research*eu n°63 | ABRIL DE 2010
bres, sus características específicas
comparadas con las de otros
primates, y quien quiera imitar a la
famosa Dian Fossey puede consolidar su “amistad” con algunos gorilas
de las montañas. Por la módica
suma de un dólar al año, los internautas podrán seguir los desplazamientos de un pequeño grupo de
ellos, las veinticuatro horas del día.
Una serie de cámaras ocultas en el
impenetrable bosque siguen la pista
a estos nómadas, que se resguardan
en un lugar diferente cada noche.
También se pueden visitar in situ.
Le costará un poco más intentar
verlos en persona en los parques
nacionales de Mgahinga. Los
“rastreadores” del parque intentarán
enseñárselos, aunque no pueden
garantizar su avistamiento. Pero
incluso si no los viera, el esplendor
del paisaje bastaría para eliminar su
frustración.
www.friendagorilla.org
Pasos “agigantados”
En Plagne (Francia), entre Lyon
y Ginebra, se han descubierto las
huellas de dinosaurios más grandes
hasta la fecha: alcanzan unas
medidas de entre 1,20 m y 1,50 m
de diámetro, y dejan un rastro que
se extiende por cientos de metros.
Jean-Michel Mazin y Pierre Hantzpergue, investigadores de la
Universidad Claude Bernard de
Lyon, las identificaron como huellas
de saurópodos. Estos animales
medían más de 25 metros de
longitud y podían pesar hasta unas
cuarenta toneladas. Sin embargo,
no fueron los científicos quienes
hicieron este descubrimiento, sino
© CNRS Photothèque/Hubert Raguet/UMR5125
LA CIENCIA AL ALCANCE
DE LA MANO
Sucesión de huellas de dinosaurio en el yacimiento paleontológico
de Plagne (Francia).
dos “aficionados” apasionados
por la paleontología, los fósiles,
los volcanes y la naturaleza, MarieHélène Marcaud y Patrice Landry.
Su hallazgo no fue fortuito. Es la
prueba de que los no profesionales
pueden ser asistentes muy valiosos
para los investigadores. Nuestros
dos descubridores (una profesora
jubilada y un geólogo) son miembros de una asociación local de
naturalistas aficionados a la paleontología. “Constituimos grupos para
explorar diferentes sectores”, explica
Patrice Landry. “Conforme fuimos
realizando nuestras observaciones
y nuestros descubrimientos, determinamos ciertas facies de roca.
También estudiamos los mapas geológicos así como fotografías aéreas
para identificar los afloramientos
rocosos y la manera en la que
podíamos alcanzarlos. A partir de
ahí, nos centramos en algunos
emplazamientos determinados y los
exploramos con regularidad. Plagne
era uno de ellos y era la primera vez
que íbamos allí.” Un bello ejemplo
de ciencia de la observación…
www2.cnrs.fr/presse/
communique/1691.htm
Competición en línea
Tome tres palabras claves (neumático, carretera y seguridad).
Mézclelas. Agítelas. Dé rienda
suelta a su imaginación. Invente
un mensaje claro, original
y contundente para destacar la
relación entre estos tres elementos
en el tiempo de un videoclip.
¿El resultado? Un vídeo de cinco
minutos como máximo, concebido
para Youtube y con perspectivas
de un futuro prometedor.
Nos estamos refiriendo al concurso
propuesto por TyroSafe (Tyre and
Road Surface Optimisation for Skid
resistance and Further Effects).
La obra del ganador será difundida
en campañas, acontecimientos,
exposiciones, etc., organizados
por los socios de este proyecto
europeo. El jurado está compuesto
por diferentes expertos de la
investigación industrial en el área
de la seguridad vial. Los creadores
pueden elegir libremente el
formato de vídeo (videoclip al
estilo de una campaña de publicidad, una canción, un vídeo de
marketing…) y pueden utilizar los
elementos visuales que encontra-
www.youtube.com/tyrosafe
http://tyrosafe.fehrl.org
Navegación
por la cultura
© Shutterstock/Lori Labrecque
Mientras que Google tiene la
ambición de digitalizar todos los
libros del mundo, Europa pretende
agrupar sus propias riquezas bajo
la marca Europeana, reuniendo
y poniendo en línea el inmenso
patrimonio de las colecciones
conservadas en las bibliotecas, los
centros de archivos y los museos
de todo el Viejo Continente. Estas
colecciones comprenden un
número impresionante de obras
y de publicaciones (unos 2.500
millones de documentos contando
sólo los de las bibliotecas) y millones
de horas de películas y de vídeos
sobre la historia y la cultura europeas. Europeana empezó a funcionar en noviembre de 2008 y esta
gigantesca colección virtual ya
ofrece 4,6 millones de “objetos
digitales” (libros, mapas, objetos de
arte, pósteres, fotografías, archivos
audio-visuales, etc.), en 19 lenguas.
Europeana no es sólo un desafío
cultural, sino también un desafío
tecnológico de comunicación.
Está siendo una tarea compleja
poner en marcha las múltiples
ramificaciones de esta red, que
corresponden a contextos de
gestión cultural a menudo diferentes. Cada colaborador ha tenido
que adaptarse a unas normas
indispensables para esta empresa
común. Luego ha hecho falta
inventar modos de consulta que
garanticen el acceso más apropiado para usuarios muy diversos
(investigadores, profesores
y estudiantes, empresas culturales,
o simplemente curiosos).
Europeana merece la pena: en la
portada aparecen una serie de
temas que invitan a embarcarse
en la navegación sociocultural. Cada
objeto que se visita abre las puertas
a otras pistas. También encontramos
una máquina del tiempo donde se
puede hacer clic en un año (desde
1801 hasta el 2007) y ver imágenes
de aquel entonces. Como ya dice
Europeana en su portada, su misión
es ser “un lugar para la inspiración
y las ideas”.
Por su parte, la Biblioteca Digital
Mundial de la UNESCO, inaugurada en abril de 2009, tiene una
dimensión universal. Ofrece a sus
visitantes documentos muy
diversos que le han sido cedidos
por bibliotecas e instituciones
culturales de todos los continentes. Actualmente, 26 instituciones
de 19 países contribuyen a la
misma, en diferentes lenguas:
árabe, chino, inglés, francés,
portugués, ruso y español.
Con esta biblioteca, la UNESCO
pretende desarrollar el volumen
y la diversidad de los contenidos
culturales en Internet y reducir
en lo posible las fracturas digitales
entre distintos países o regiones.
www.europeana.eu
www.wdl.org
Se rocía con agua una carretera antes de un ensayo de rendimiento de neumáticos realizado por el Laboratoire Central des Ponts et Chaussées de Nantes (Francia).
© Shutterstock/Loris
rán en la página de TyroSafe. Las
creaciones están abiertas a todas
las lenguas, pero deben estar
subtituladas en inglés.
© Austrian Institute of Technology / Roland Spielhofer
BREVES
El mapa del
calentamiento
al descubierto
La cumbre mundial de Copenhague ha logrado que se reconozca
la necesidad de que el aumento
de temperatura no exceda los 2ºC
con respecto a las temperaturas
preindustriales, aunque sin dar un
objetivo con cifras para conseguirlo(1). ¿Qué pasaría si todo se
quedara en buenas intenciones
y franqueáramos el umbral de los
2ºC? Las consecuencias saltan a la
vista gracias a un mapa interactivo
del planeta propuesto por el
gobierno británico en la página
web Act on Copenhagen.
Este mapa presenta los últimos
resultados científicos referentes al
calentamiento climático. Podemos
abordarlo escogiendo una zona
geográfica o una de las causas
y/o de las consecuencias de estos
cambios: el impacto de las actividades humanas, la evolución
de la agricultura, el futuro de la
selva amazónica, el ciclo del
carbono, el agotamiento progresivo de los recursos hídricos, la
elevación del nivel de los océanos.
Los escenarios son sobrecogedores: 130 millones de víctimas de
inundaciones al año, mil millones
de personas con escasez de agua,
una subida de 48 centímetros del
nivel de los mares (consideramos
que actualmente 600 millones
de personas viven a menos
de diez metros por encima del
nivel del mar), grandes zonas de
la selva amazónica con sequía…
¿Se trata de hipótesis alarmistas?
Los investigadores nos recuerdan
que la ola de calor que se dio
en Europa en el 2003 causó
35.000 muertes.
www.actoncopenhagen.
decc.gov.uk/en/ambition/
evidence/4-degrees-map/
(1) Véase también la entrevista de Jean-Pascal
van Ypersele en este número.
research*eu n°63 | ABRIL DE 2010
41
BREVES
PUBLICACIONES
EL RINCÓN
PEDAGÓGICO
Tornado casero
U
na cacerola llena de agua
hirviendo, una barrita de
incienso y una gran placa
de plexiglás: he aquí todo lo que
usted necesitará para crear un
minitornado en su cocina. Primero,
recorte 4 trozos de plexiglás para
formar un paralelepípedo rectangular, de 1m de alto, abierto en la
base y en lo alto. Antes de unirlos,
haga un corte de aproximadamente 5 cm de ancho a lo largo de los
bordes de las cuatro caras, del lado
derecho (véase el dibujo). Luego,
ponga la cacerola sobre un pequeño hornillo al lado del cual usted
habrá colocado la barrita de
incienso previamente encendida.
Cubra todo con el paralelepípedo
y espere. Usted verá poco a poco
cómo aparece un tornado.
¿Magia? ¡No, física! Este dispositivo recrea en cierto modo las
condiciones naturales propicias
para la formación de tornados.
A nivel de la cacerola, el aire está
a una temperatura cercana a los
100°C mientras que baja a 30°C
en la parte alta del paralelepípedo.
La variación de temperatura de las
diferentes capas de aire engendra
una fuerza de empuje, denominada de Arquímedes, que provoca
una aceleración vertical del vapor
de agua. Simultáneamente, este
movimiento produce una succión
de aire a través de las 4 grandes
hendiduras, lo que da como
resultado la rotación del vapor
ascendente. El papel de la barrita
de incienso es liberar polvo sobre
el que se agregan las partículas de
agua, haciendo que el fenómeno
sea más visible.
42
research*eu n°63 | ABRIL DE 2010
Le monde en 2025 –
La montée en
puissance de l’Asie
et la transition
socio-économique
2009, 28 páginas,
ISBN 978-92-79-12486-0
Esta obra, que se centra en Europa,
destaca las futuras tendencias
en términos de transformaciones
geopolíticas, de desarrollo económico,
de comercio internacional o incluso
de pobreza, y pasa después a identificar las posibles futuras tensiones
(recursos naturales, migraciones,
urbanización, etc.) y a proponer
una serie de vías de transición.
Collaborative
cardiovascular
research
En la Tierra, los tornados se
producen en las regiones calientes, donde las diferencias de
temperatura entre el suelo
y las capas altas del aire son lo
suficientemente elevadas como
para engendrar un movimiento
ascendente. En cuanto a la rotación, se debe a la fuerza de inercia
de Coriolis que refleja la rotación
de la Tierra, a la que se superponen efectos geostróficos relacionados con los frotamientos
diferenciales con el suelo y las
capas sucesivas de aire. Al estar
construido de esa forma, el dispositivo engendra un movimiento
ascendente cuya rotación es
contraria a las agujas del reloj,
lo que corresponde a los tornados
del hemisferio Norte. Dé la vuelta
al paralelepípedo y cambiará de
hemisferio…
Marie-Françoise Lefèvre
2009, 88 páginas,
ISBN 978-92-79-12802-8
Catálogo de las investigaciones
cardiovasculares llevadas a cabo
entre el 2007 y el 2009 en el Séptimo
Programa Marco de Investigación
de la Unión Europea. La primera
parte de la obra intenta identificar
las necesidades de esta amplia
área de investigación, así como
las posibilidades de colaboración
transnacional.
People, the economy
and our planet
2009, 36 páginas,
ISBN 978-92-79-11952-1
Esta publicación destaca la contribución para el desarrollo sostenible
de las investigaciones europeas
en el área de las ciencias socioeconómicas y humanas. Se basa en las actas
de los debates de la conferencia
“Sustainable development: a challenge
for European research” celebrada
en mayo de 2009 en Bruselas.
La Science au service
de l’Europe
2009, 90 páginas,
ISBN 978-92-79-12961-2
No es en absoluto un aburrido listado
de cifras, sino que este informe
de actividad da una visión sintética
y bien ilustrada de la acción de la
Dirección General de Investigación de
la Comisión Europea en el año 2008
en el Espacio Europeo de la Investigación. Está dividido en unas veinte
secciones, que tratan temas tan
diversos como la salud, la agricultura,
las nanotecnologías, las infraestructuras de investigación, las relaciones
entre la ciencia y la sociedad…
The EU works for you:
environmental
research for today
and tomorrow
2009, 94 páginas,
ISBN 978-92-79-11588-2
Esta obra, impresa en papel reciclado,
contiene una selección de 51 proyectos de investigación claves del área
de medio ambiente financiados por
el Sexto Programa Marco de Investigación de la Unión Europea.
Los proyectos aparecen clasificados
en diez categorías como el cambio
climático, la biodiversidad o incluso
la gestión rural y urbana.
Gouvernance mondiale
de la science
2009, 50 páginas,
ISBN 978-92-79-11309-3
Informe del grupo de expertos sobre
gobernanza mundial de la ciencia
realizado para la Dirección General de
Investigación de la Comisión Europea,
con las aportaciones de científicos,
sociólogos, filósofos y politólogos
de Europa, Estados Unidos, China
y Sudáfrica.
En EU Bookshop pueden consultarse y encargarse más
publicaciones sobre la Unión Europea: bookshop.europa.eu
IN BRIEF
JÓVENES INVESTIGADORES
Amoolya, su voz y su camino
Trabajo en la Universidad Emory de
Atlanta (Estados Unidos). Tras hacer
la tesis en Berkeley, obtuve una
beca de postdoctorado en la EMBO
(European Molecular Biology Laboratory), en Heidelberg (Alemania).
Investigo las características de los
mecanismos evolutivos de las
respuestas al estrés bacteriano, que
desempeñan un papel muy importante en las enfermedades humanas y en la biodegradación de los
residuos tóxicos.
Aunque me gusta lo que hago,
mi trayectoria científica en realidad
no ha sido lineal. Al ser mis padres
biólogos, me animaron a plantear
cuestiones y a explorar la naturaleza. También tuve la influencia de la
música: estudié canto y diferentes
instrumentos desde que era niña.
Al final de mis estudios secundarios, en la India, me costó escoger
entre una carrera de música o de
OPINIÓN
Confesiones de un comunicador
El 15 de octubre de 2009 aparecía el siguiente titular en el semanario francés Le Nouvel
Observateur: “Incidente en la industria nuclear:
falta plutonio al hacerse el inventario en Cadarache”. “El suficiente como para fabricar unas
cinco bombas nucleares”, se indigna Greenpeace. La realidad es mucho menos grave, pero
este hecho ha planteado el interrogante de
cómo se informa al público. Antes de analizar
sus efectos, un incidente nuclear causa la indignación, la ansiedad, a veces hasta el pánico.
Ahora bien, los hechos que suscitan la emoción son los que se quedan más grabados en
la memoria.
¿Qué se puede hacer? Nos damos cuenta de
que no podemos debatir racionalmente con el
público sobre un tema que no ha asimilado de
científica. Y luego obtuve una beca
científica para ir a Estados Unidos,
lo que me hizo poner rumbo hacia
el Oeste. Allí, la posibilidad de tocar
música en un nuevo entorno me
ayudó a soportar el choque cultural
y a hacerme nuevos amigos.
Recuerdo la etapa de mi doctorado
como un periodo alegre y creativo.
Los tres años pasados en Europa
constituyeron otro maravilloso
periodo de transición. Por segunda
vez en mi vida cambiaba de
continente y tenía que empezar
de cero. Siempre asusta un poco
eso de irse a miles de kilómetros,
pero yo ya lo había hecho una vez
y estaba preparada para el choque
cultural. Me sorprendió que fuera
al revés: Europa, al tener una
cultura antigua y una historia larga,
me recordaba más a la India y me
sentí un poco como en casa
cuando descubrí su ambiente
forma racional. Por eso, aunque sea útil seguir
proporcionando información bien documentada, de esta forma sólo se llega a los más curiosos. Quedará por convencer la gran masa de
los indiferentes, que ejerce una influencia notable sobre los políticos.
Cicerón enseñó a los oradores romanos que,
para hacerse oír, primero tenían que atraer, luego emocionar, y finalmente, convencer. En el
sector nuclear nunca se respetó este orden: quiso convencer ante todo, no sedujo a la mayoría
del público y la emoción suscitada fue negativa
la mayoría de las veces. ¿Pero cómo podría
seducir el sector nuclear al gran público?
Tendría que verse con este último en su
terreno y no intentar atraerlo. ¿Cuándo está más
disponible dicho público? Por la noche, mientras ve la televisión, concretamente, su serie
favorita. En ella hay que mostrarle las actividades nucleares, la competencia y la conciencia
profesional de sus agentes para, progresiva-
urbano, con sus plazas y sus calles
peatonales. Comprobé que mis
colegas europeos eran tan productivos como los estadounidenses,
pero que sabían mantener un
equilibrio entre el trabajo y la
familia, por ejemplo, disfrutando
de vacaciones cada año. Al ver este
equilibrio, empecé a sentir más
ganas de casarme y de tener una
familia, mientras que, en el contexto productivista estadounidense,
había intentado evitarlo.
Ahora que estoy de vuelta a los
Estados Unidos, me doy cuenta
de que esta transición me ha
permitido desarrollar mi propia voz
(por tomar una metáfora musical).
Aunque sea difícil mantenerla en
la cacofonía de las presiones
profesionales, posiblemente sea
la razón más verdadera y más
bella para seguir cantando
o investigando.
Amoolya Singh
Bioinformática
mente (lo que llevará años) ir restaurando la
confianza por la energía nuclear a través de la
presencia cotidiana de los personajes ya familiares. Pero esta serie televisiva “nuclear” ante
todo tiene que divertir para lograr una gran
audiencia durante años y así, poco a poco,
mejorar la imagen de esta energía. Este proyecto ya ha dejado de ser un sueño y se está
estudiando.
Alain Michel
Consultor en estrategia
de comunicación (área nuclear)
AGENDA
Podrá estar al día de los acontecimientos
referentes a la investigación y el desarrollo
en la página web:
ec.europa.eu/research/headlines/
archives_diary_en.cfm
research*eu n°63 | ABRIL DE 2010
43
LA CIENCIA EN IMÁGENES
KI-AH-09-063-ES-C
Un géiser
incipiente
Estas burbujas de gas anuncian que está a punto de brotar el célebre géiser de
Strokkur (Islandia). La imagen fue captada algunas milésimas de segundo antes
de la erupción. Le valió a su autor danés de 17 años, Ela Ugur, el “Gold Award”
en el concurso de fotografía organizado por el MILSET (Movimiento Internacional
concurso anual para los menores de 25 años, su finalidad es “proponer un espacio
para que los jóvenes puedan expresar de forma creativa, con imágenes, lo que
observan en las ciencias. Para participar sólo tienen que darle al disparador”.
http://europe.milset.org
Con la autorización de Ela Ugur/Milset
para el Recreo Científico y Técnico), en 2009. Para los organizadores de este
Descargar