Nuevos fármacos para la menopausia

Anuncio
Finalista del
Premio Descartes de la UE de
2003
Campo de investigación: Ciencias de la vida
Nuevos fármacos para la menopausia
Conforme aumenta la longevidad crece también el número de mujeres que recurren al tratamiento hormonal
sustitutivo para luchar con problemas como la pérdida de la memoria, la disminución de la densidad ósea y las
enfermedades cardiovasculares. El proyecto Animalpharm ha contribuido considerablemente a aclarar la
relación de una hormona sexual femenina, el estrógeno, con estas cuestiones, y ha desarrollado un método de
ensayo con gran impacto en las investigaciones sobre nuevos fármacos, los estudios sobre toxicología e
incluso el bienestar de los animales.
Además de controlar la función reproductora femenina, los estrógenos influyen en la función, la diferenciación y el
crecimiento celular de otros tejidos corporales, como el cerebral y el óseo. Con la menopausia, son muchas las mujeres
que, al dejar de generar estrógenos naturales, han de someterse a un tratamiento hormonal sustitutivo (THS). Dicho
tratamiento se prescribe para mitigar los síntomas de la propia menopausia, así como para abordar problemas a más
largo plazo, como la osteoporosis, la arteriosclerosis y la demencia. Ante la perspectiva de seguir un THS durante más
de un tercio de sus vidas, las mujeres están cada vez más preocupadas por sus efectos secundarios, algunos de los
cuales afectan a las glándulas mamarias, el útero y los ovarios.
El objetivo del proyecto Animalpharm era llegar a conocer mejor los mecanismos de la actividad estrógena y explorar
pistas prometedoras hacia tratamientos alternativos. Los investigadores querían averiguar por qué el mecanismo de
activación de los receptores de estrógenos era el mismo en los tejidos no reproductores y en los órganos reproductores.
Si pueden llegar a ser activos sin necesidad de estrógenos, podrían convertirse en objetivos interesantes para el
desarrollo de nuevos fármacos más específicos.
Para demostrar esta teoría, los investigadores tenían que comprobar in vivo que el receptor de estrógenos se puede
activar durante el ciclo estral natural (periodo de receptividad sexual o fertilidad). Para observar el efecto en diferentes
órganos, el grupo necesitaba un ratón «transgénico» con un gen «indicador» fácil de seguir por todo el cuerpo. Esto era
algo que nunca se había hecho. Además, los investigadores tenían que observar y medir la actividad en tiempo real, y
con el animal vivo.
El grupo de Milán consiguió criar un ratón transgénico llamado ERE-LUC en el que una proteína, la «luciferasa» se
sintetizaba en todo el cuerpo cuando se estimulaba el receptor de estrógenos. Al mismo tiempo, sus colegas de Leiden
inventaron una técnica no invasiva en la que una cámara sensible registraba las emisiones de fotones procedentes de
ratones anestesiados tras inyectarles luciferina.
Los resultados demostraron que los receptores sólo se activan con niveles elevados de estrógenos en los órganos
reproductores, mientras que en el resto de los tejidos la hormona no es el desencadenante esencial. Las observaciones
del grupo tienen grandes consecuencias en el tratamiento de las mujeres menopáusicas, cuya principal preocupación
es la continuidad de los efectos de los estrógenos en los órganos no reproductores.
Según los investigadores, el ratón ERE-LUC es de gran ayuda para que entendamos mejor los mecanismos de
activación del receptor. Será una herramienta indispensable para el diseño de THS innovadores y más seguros.
Además, hay otros sectores de la sanidad que también se pueden beneficiar de estos descubrimientos. De hecho, la
elevada sensibilidad del indicador sugiere que el sistema se podría usar en la detección de compuestos de baja
actividad estrógena, tales como los disruptores endocrinos presentes en los herbicidas y plaguicidas que impregnan el
medio ambiente. Además de permitirnos determinar los resultados de las variaciones de concentración en estos
agentes contaminantes, estos métodos nos ayudarán a detectar dónde sienten sus efectos los animales, y
posteriormente extrapolar los resultados al ser humano.
El equipo señala que otro ámbito de investigación con interés potencial es el de los ensayos toxicológicos. Esta
cuestión es de gran actualidad, pues la Unión Europea está introduciendo una normativa cada vez más estricta para la
detección de todo tipo de productos químicos.
Coordinación del proyecto: Profesora Adriana Maggi, de la Universidad de Milán (Italia), en coordinación con el
Profesor Lowik, del Centro Médico de la Universidad de Leiden (Países Bajos), y el Profesor Parker, del Imperial
College of Science, Technology and Medicine de Londres (Reino Unido).
Sitio en Internet: http://www.unimi.it
Finalista del
Premio Descartes de la UE de 2003
Campo de investigación: Tecnologías de la
información
La primera red mundial que ofrece servicios a medida a
los internautas
Las previsiones apuntan a que Internet evolucionará hacia un medio más inteligente, en el que las necesidades
de los usuarios se interpretarán y satisfarán automáticamente, sin necesidad de intervención humana para
combinar grandes volúmenes de información y servicios de diferentes fuentes. La iniciativa Agentcities ha
establecido la primera red global en la que pueden interactuar aplicaciones de software autónomas para ofrecer
soluciones a medida en ámbitos que van de la educación electrónica y la diversión a la asistencia sanitaria y
los negocios electrónicos.
Los ordenadores actuales son básicamente terminales pasivas: no hacen nada si no hay alguien que les da órdenes
concretas. Durante la última década o algo más, los investigadores en inteligencia artificial y cálculo distribuido han
trabajado para que el usuario ya no tenga que ejercer un control completo, sino que pueda interactuar con agentes de
software inteligentes capaces de iniciar comunicaciones, controlar acontecimientos y llevar a cabo tareas dirigidas a
alcanzar sus objetivos componiendo dinámicamente recursos de la red, aun sin que el interesado sea consciente de
ello.
De mismo modo que pasa en el mundo humano con los agentes de viajes e inmobiliarios, los agentes de software se
caracterizan por trabajar en nombre de otros. Imaginemos una visita a una extraña ciudad en la que se organiza una
velada según los gustos del visitante en cuanto a bares, restaurantes y espectáculos. Unos agentes interactivos se
encargarían, entre bastidores, de las reservas, los pagos y las compras, interactuando directamente en cada caso con
otros agentes representantes de las diferentes organizaciones implicadas para ponerse de acuerdo o, en caso
necesario, cambiar lo acordado.
Agentcities ha dado un importante primer paso para acercar esta situación a la realidad. Los principales logros de las
investigaciones han consistido en dar una idea clara de cómo serán los sistemas de agentes, cómo funcionarán y para
qué servirán. Los investigadores están utilizando tecnologías normalizadas de mensajería por Internet, más una serie
de tecnologías de agentes para el diseño de programas informáticos, incluidas las normas de la Fundación para los
Agentes Físicos Inteligentes (FIPA) para lenguajes semánticos, protocolos de interacción y herramientas adecuadas.
Junto con la tecnología de web semántica (un método de representación de datos significativo), esto permite la
interoperabilidad entre agentes/servicios de diferentes organizaciones.
Aunque muchos de los demostradores activos aún son de pequeña escala, incluyen aplicaciones que combinan más de
100 agentes individuales que prestan diferentes servicios desde nodos de la red alojados en toda Europa, los EE.UU. y
Japón. Los demostradores de la red cubren una amplia gama de servicios, como mercados electrónicos, guías de
museos, noticias de entretenimiento, organización de actos y alojamiento de agentes. Algunos de los sectores de
aplicación que se están estudiando activamente son la asistencia sanitaria, la gestión de la cadena de suministros, la
contratación y la búsqueda de empleo, la gestión de los conocimientos, los viajes de negocios, las visitas culturales y
los servicios de entretenimiento que integran a pequeñas y medianas empresas.
Desde su lanzamiento en 2001, esta red global ha crecido de una manera espectacular. En marzo de 2003 contaba con
más de 150 plataformas registradas. La iniciativa se ha convertido en un enorme esfuerzo de cooperación internacional
en el que participan más de 100 organizaciones de todo el mundo. Ya se están desarrollando y financiando varios
proyectos de continuación y parece muy probable que en los próximos cinco años algunos elementos de estas
tecnologías evolucionen para convertirse en aplicaciones reales, lo que sin duda cambiará nuestro modo de usar
Internet.
Coordinación del proyecto: Doctor Steven Willmott y Doctor Ulises Cortés, de la Universitat Politècnica de Catalunya,
Barcelona (España) y David Bonnefoy y Patricia Charlton, de Motorola S.A.S, Gif-sur-Yvette (Francia), en asociación
con investigadores de la Associação para o Desenvolvimento das Telecomunicações e Técnicas de Informática, Lisboa
(Portugal); Btexact, Londres, y las Universidades de Bath y Liverpool (Reino Unido); Comtec, Sendai (Japón);
Deutsches Forschungszentrum für Künstliche Intelligenz, Saarbrücken (Alemania); el Instituto Federal Suizo de
Tecnología de Lausana, Whitestein Technologies AG, Zurich y la Universidad de Ginebra (Suiza); Fujitsu Laboratories
of America, Hewlett-Packard California y la Universidad de Maryland (EE.UU.); la RMIT University - School of Computer
Science and Information Technology de Melbourne (Australia); la Universidad de Girona y la Universidad Rovira i Virgili
de Tarragona (España); la Universidad de Otago, Dunedin (Nueva Zelanda), y la Università degli Studi di Parma (Italia).
Sitio en Internet: http://www.agentcities.org/descartes/
Finalista del
Premio Descartes de la UE de 2003
Campo de investigación: Ciencias de la vida
Descubrimientos genéticos que allanan el
camino hacia la curación de la enfermedad de
Alzheimer
La enfermedad de Alzheimer, una forma de demencia aún incurable y muy difícil de sobrellevar tanto para
quienes la padecen como para sus familiares, supone además una gran carga para los sistemas de apoyo
social. En el proyecto Eurosecretase, una colaboración entre Bélgica y Alemania supuso un paso adelante en
las investigaciones sobre las causas de esta condición debilitadora, al identificar nuevas pistas para el
tratamiento y la prevención del Alzheimer.
La enfermedad de Alzheimer afecta a más del 10 % de las personas de más de 65 años, lo que supone entre 4 y 5
millones de europeos. Esta compleja enfermedad provoca una destrucción gradual de las células cerebrales. Sus
síntomas más comunes son la pérdida de la memoria, los problemas de razonamiento o de juicio, la desorientación, las
dificultades de aprendizaje, la pérdida de capacidad lingüística y la disminución de la capacidad de llevar a cabo tareas
rutinarias. Las personas que la padecen sufren también cambios de personalidad y problemas de comportamiento,
como agitación, ansiedad, delirios y alucinaciones. No tiene cura, y los tratamientos actuales sólo sirven para retrasar el
deterioro. Aunque el Alzheimer es una enfermedad muy debilitadora, sus víctimas suelen sobrevivir varios años. Esto
plantea graves problemas a quienes cuidan a los enfermos y supone una carga financiera considerable para los
sistemas sanitarios nacionales.
El proyecto Eurosecretase ha avanzado considerablemente en la confirmación del mecanismo causante de la
enfermedad, lo que resulta esperanzador para el desarrollo de una curación efectiva. Tanto la rara forma hereditaria de
la enfermedad como la forma esporádica, más común, son consecuencia de lesiones cerebrales causadas por la
formación de la llamada «placa amiloide». Esta placa está formada por fragmentos de péptidos amiloides (Aβ)
derivados de mutaciones de la proteína precursora del amiloide (APPβ) y de unos genes llamados presenilina 1 (PS1) y
presenilina 2 (PS2). La responsabilidad de cortar fragmentos de Aβ de las cadenas moleculares más largas se atribuía
a unas sustancias llamadas secretasas que actúan como unas «tijeras químicas». Pero antes de que se desarrollara
este proyecto eso no era más que una hipótesis y se desconocía la naturaleza exacta de las secretasas.
Los investigadores consiguieron probar que las presenilinas tienen una función muy importante en la generación de Aβ
neurotóxicos, lo que resultó ser un adelanto fundamental para entender todo el fenómeno. Además desarrollaron un
ingenioso sistema experimental in vivo/in vitro con el que se podían analizar células cerebrales vivas cultivadas para
confirmar que la ausencia de secretasas bloqueaba la reacción de las «tijeras». Finalmente, los socios consiguieron
demostrar que la ausencia de PS1 no inhibe la escisión de APPβ por todos los tipos de secretasa, pero que contribuye
decisivamente a que la producción de Aβ se divida por cinco. De hecho, descubrieron que el propio PS1 es una de las
secretasas, y como tal un objetivo potencial importante para el desarrollo de un fármaco que cure la enfermedad.
La muerte prematura de los embriones de ratón genéticamente modificados les indicó que las presenilinas realizan
otras funciones vitales en el desarrollo celular y la respuesta inmune, por lo que su eliminación completa para la
curación de la enfermedad de Alzheimer no es posible. Los investigadores descubrieron que una inhibición parcial de la
función de la presenilina puede bastar para reducir la producción de Aβ a un nivel en el que no se siga formando la
placa amiloide.
Muchos otros científicos de todo el mundo están continuando el trabajo pionero del proyecto Eurosecretase, lo que
ayuda a conocer el papel que desempeñan las secretasas en la biología. La industria farmacéutica las considera
objetivos de primer orden en el desarrollo de fármacos y está usando las técnicas derivadas del proyecto como
herramientas para optimizar el equilibrio final entre eficacia y riesgo. Los investigadores prestan servicios de consultoría
a numerosas empresas, y sus laboratorios colaboran con la valoración de compuestos candidatos y el establecimiento
de un gran número de ensayos para la selección de medicamentos. La combinación de sofisticadas técnicas
transgénicas y métodos avanzados de biología celular permitió a los investigadores producir datos esenciales que se
consideran hitos en este ámbito tan competitivo.
Coordinación del proyecto: Profesor Bart de Strooper, de la Universidad Católica de Lovaina (Bélgica), y Profesor
Paul Saftig, de la Christian-Albrechts-Universität de Kiel (Alemania).
Sitios en Internet: http://www.kuleuven.ac.be/med/ncbgtl/ y
http://www.uni-kiel.de/Biochemie/agsaftig/index.html
Finalista del
Premio Descartes de la UE de
2003
Campo de investigación: Ingeniería
Diseño de la próxima generación de aviones ecológicos
El concepto de diseño del que surgió el avión civil convencional actual ya ha dado de sí todo lo que podía. Para
tener en cuenta la creciente preocupación por el ruido y la contaminación atmosférica, el sector aeronáutico
necesita explorar diseños originales, como la configuración de fuselaje y ala combinados. El proyecto MOB
reunió a ingenieros de toda la UE para investigar el desarrollo de nuevos métodos de diseño de productos
complejos en un entorno distribuido y aplicarlos al diseño de un modelo de avión de fuselaje y ala combinados.
El resultado fue un innovador motor de diseño computacional basado en Internet: una novedosa herramienta
de optimización y diseño multidisciplinario con capacidad y flexibilidad de múltiples niveles que contribuirá
considerablemente al desarrollo de la próxima generación de aviones civiles ecológicos.
Los socios del proyecto afrontaron el problema de diseñar un nuevo avión mediante un equipo distribuido de expertos y
eligieron un avión de carga de fuselaje y ala combinados como objeto de estudio para la investigación de un nuevo
proceso de diseño. Cuando se combinan fuselaje y ala, el área de carga útil se fusiona con las alas de sustentación
formando una unidad integrada que constituye una de las opciones investigadas como método para aumentar la
eficacia aerodinámica. Dada la complejidad de su forma, los investigadores han tenido que adoptar un planteamiento
holístico que va más allá del ámbito de acción de las herramientas de diseño y optimización existentes desarrolladas
durante las dos últimas décadas. Para solucionar este problema, el profesor Alan Morris, de la Universidad de Cranfield,
Reino Unido reunió, como coordinador del proyecto, los recursos de cuatro institutos de investigación europeos, ocho
importantes universidades y tres empresas aeroespaciales, formando así un grupo de ingenieros y científicos imposible
de encontrar en una única organización.
El resultado fue un motor de diseño computacional basado en Internet: una nueva forma de optimización y diseño
multidisciplinario con capacidad en niveles múltiples y dotado de la flexibilidad necesaria para aceptar herramientas y
módulos tipo «conectar y usar» (plug-and-play) apropiados para cada fase del ciclo de diseño. Un generador
multimodelo especialmente adaptado y dotado de una capacidad de conocimiento considerable enlaza las herramientas
específicas de esta disciplina, crea las representaciones geométricas necesarias y contiene los datos relativos al
diseño. Puede contener toda la información generada sobre el modelo de fuselaje y ala combinados y extraer
submodelos específicos para alimentar las herramientas de análisis del motor de diseño. De este modo, los
diseñadores pueden variar los parámetros de configuración principales y observar las consecuencias en las primeras
fases de desarrollo.
Cuando se desarrolló el motor de diseño computacional quedaron patentes los graves problemas de estabilidad que
presenta el diseño de fuselaje y ala combinados, y que dan como resultado un avión de vuelo peligroso. Entonces el
motor de diseño se utilizó para solucionar este problema. El resultado final lo probaron en Berlín pilotos de Airbus
alemanes en un simulador de vuelo y se validará mediante vuelos de prueba con un modelo de control remoto.
Una de las claras ventajas conseguidas con el desarrollo del motor de diseño es la posibilidad de detectar y reparar
fallos en las fases iniciales, pues el coste de la modificación aumenta enormemente conforme se avanza en la cadena
de diseño y la libertad de maniobra se ve más limitada. Otra de las ventajas es la capacidad de integrar herramientas
procedentes de distintas fuentes, que permitirá a las PYME del sector de la alta tecnología participar directamente en
estos programas de investigación a gran escala.
El proyecto abre las puertas a una nueva forma de trabajo en la que fabricantes, distribuidores y usuarios pueden
cooperar dentro de una única entidad «virtual» para la creación de productos complejos. Los resultados del proyecto ya
constituyen la base de dos propuestas aeroespaciales de proyectos integrados en el sexto programa marco de
investigación y desarrollo de la Unión Europea. Con un esfuerzo adicional, esta metodología podría aplicarse a otras
industrias como la naval, la automovilística y la de los trenes de alta velocidad.
Coordinación del proyecto: Profesor Alan Morris, de la Universidad de Cranfield, Bedford (Reino Unido), en
asociación con investigadores de QinetiQ Limited, Farnborough, el Laboratorio central de los Consejos de investigación
de Didcot, BAE Systems (Operations) Ltd, Preston (Reino Unido); la Universidad Tecnológica de Delft y Stichting
Nationaal Lucht- en Ruimtevaartlaboratorium, Marknesse (Países Bajos); Deutsches Zentrum für Luft- und Raumfahrt,
Gotinga, EADS Deutschland GmbH, Munich, Technische Universität Braunschweig, Technische Universität München,
las Universidades de Stuttgart y Siegen y el Institut für Luft- und Raumfahrt der Technischen Universität Berlin
(Alemania), y SAAB AB, Linköping y Kungliga Tekniska Högskolan, Estocolmo (Suecia).
Finalista del
Premio Descartes de la UE de 2003
Campo de investigación: Ciencia básica
Primeros pasos hacia las máquinas moleculares de
autoensamblado controlable
El desarrollo de motores moleculares y mecanismos de autoensamblado controlable es fundamental de cara a
la revolución industrial nanotecnológica del siglo XXI. A partir de un resultado experimental inesperado, los
equipos de investigación han realizado un nuevo descubrimiento basado en la detección de movimientos
submoleculares que responden a estímulos como la luz o los campos eléctricos. Además, han presentado el
primer ejemplo de moléculas que se organizan en estructuras funcionales a través de escalas de longitud
variada.
Aunque las moléculas se encuentran en continuo movimiento, las tecnologías químicas actuales se basan casi
completamente en sus propiedades «estáticas». Por otro lado, muchos fenómenos biológicos naturales se originan
directamente a partir de movimientos mecánicos a nivel molecular. La transferencia de dichos efectos al mundo
macroscópico podría aportar importantes adelantos muy beneficiosos para la sociedad, por ejemplo, mediante la
creación de nuevos catalizadores o la transferencia de moléculas a través de membranas, con vistas a la administración
de fármacos. Esto ha dado un gran impulso a las iniciativas de investigación que intentan desarrollar análogos
moleculares de los elementos de una máquina, tales como dientes de un engranaje, ruedas, lanzaderas y pistones, con
el fin de producir materiales o aparatos que puedan desarrollar una función útil.
Los descubrimientos más importantes en este campo surgen del resultado inesperado de un experimento dirigido por el
equipo de Edimburgo, que pretendía desarrollar un sensor químico para el dióxido de carbono (CO2). En lugar de los
productos habituales, aislaron un catenano, un tipo de compuesto en el que las moléculas tienen dos o más anillos
entrelazados como los eslabones de una cadena. Se demostró que la reacción era versátil y tolerante y que los anillos
podían controlarse mediante luz, calor o energía electrónica.
Los investigadores pretendían pasar un filamento molecular por un agujero de tan sólo una millonésima de milímetro de
diámetro, para influir en los movimientos de la estructura molecular, y producir reacciones químicas que afectasen
únicamente a ciertas partes de dicha estructura. Para controlar la posición de los componentes moleculares, el equipo
empleó un enlace fuerte de hidrógeno que impide al anillo desplazarse a otro lugar del catenano. Pero al diseñar las
moléculas de modo que reaccionen a la aplicación de cualquier estímulo, se puede modificar la capacidad de enlace y,
por lo tanto, iniciar un movimiento predecible.
A continuación, los socios del proyecto aplicaron esa misma metodología a la síntesis de rotaxanos, que también
mostraron unas características muy inusuales. Se comprobó que el ensamblado era posible mediante el empleo de
péptidos como filamento, lo que podría tener consecuencias importantes en el campo de la medicina. Utilizando otros
filamentos más rígidos, el equipo obtuvo una alta producción de rotaxanos que podrían emplearse como sustitutivos
sintéticos de fármacos naturales.
Esta investigación constituye el primer paso en el desarrollo de motores moleculares y un avance importante en el
campo de la nanotecnología. Por vez primera, las moléculas podían, una vez en movimiento, organizarse a través de
escalas de longitud variada en estructuras funcionales de tamaño y posición controlables. La capacidad de controlar
estos movimientos mediante el diseño y la fabricación de moléculas que responden de manera predecible a un estímulo
podría conducir a importantes adelantos tecnológicos en ámbitos como la creación de nuevos catalizadores, el
almacenamiento en DVD y la administración de fármacos a través de membranas.
Coordinación del proyecto: Profesor David Leigh, de la Universidad de Edimburgo (Reino Unido), en asociación con
investigadores del Consiglio Nazionale delle Ricerche, Sezione di Bologna y la Università di Bologna (Italia); la
Universidad de Amsterdam y la Rijksuniversiteit de Groninga (Países Bajos), y el Commissariat à l’Énergie Atomique de
Gif-sur-Yvette (Francia).
Sitios en Internet: http://www.catenane.net y http://www.cranfield.ac.uk
Finalista del
Premio Descartes de la UE de 2003
Campo de investigación: Ciencia básica
Localización de una posición en un mundo que se
mueve
Existe en la sociedad una demanda creciente de sistemas de navegación y de posicionamiento preciso, para
mejorar la fiabilidad de los viajes, la seguridad personal y la exactitud de las mediciones geofísicas. El
Observatorio Real de Bélgica, en colaboración con grupos de investigadores de ocho países europeos, ha
logrado crear un marco de referencia de gran exactitud mediante el cálculo detallado de las variaciones que
experimenta la rotación de la tierra en el espacio.
Durante mucho tiempo, la rotación de la Tierra se ha empleado para medir el tiempo y las estrellas han sido puntos de
referencia para determinar la posición de los viajeros en el globo. Actualmente, los sistemas globales de
posicionamiento reciben información enviada desde satélites en órbita que a continuación se procesa en estaciones de
recepción fijas situadas en la Tierra capaces de localizar la posición de una persona o un vehículo con un margen de
error de tan sólo unos metros.
Las investigaciones de los equipos internacionales llevaron al desarrollo de un marco referencial de posicionamiento
global mejorado con una precisión sin precedentes: se pasó de dos metros a entre dos y tres centímetros de margen de
error. El posicionamiento se determina mediante dos marcos de referencia: el terrestre, que se fija en relación con la
corteza de la Tierra y rota de manera sincronizada con el planeta, y el celeste, que permanece inmóvil en el espacio. La
relación que existe entre ambos marcos es complicada, pues la rotación y la orientación de la Tierra están sujetas a
irregularidades causadas por la atracción gravitatoria del sol y la luna y por otros factores que los geodestas van
identificando progresivamente. Dado que la Tierra es un cuerpo elipsoidal achatado por los polos, las fuerzas
combinadas que actúan sobre ella modifican tanto su velocidad de rotación como la orientación de su eje de giro. El
término «precesión» describe la tendencia a largo plazo de este último movimiento, mientras que «nutación» es el
nombre que reciben las variaciones periódicas a corto plazo, que fueron el objetivo principal del proyecto.
La nutación y la precesión se miden mediante la interferometría de muy larga base (más conocida por las siglas
inglesas VLBI, very long baseline interferometry), técnica que emplea enormes radiotelescopios para observar cuásares
extragalácticos. Los investigadores observaron diferencias significativas entre las observaciones de la VLBI y los
resultados de la aplicación de un modelo teórico adoptado por la Unión Astronómica Internacional en 1980, que partía
de la idea de que la Tierra se comporta como un objeto deformable. Sin embargo, la Tierra es un objeto complejo, y el
objetivo del grupo de trabajo establecido en 1996 y dirigido por el profesor Dehant era proporcionar un modelo nuevo
que relacionase la nutación y la precesión con el sofisticado concepto de una Tierra no rígida con un núcleo central
sólido, un núcleo externo líquido y un manto deformable. El estudio requirió la colaboración de especialistas en
mecánica celeste, geofísica, dinámica atmosférica y oceánica y astronomía. En 2000 el grupo había logrado un modelo
mejorado de nutación que presentó ese mismo año a la Unión Astronómica Internacional y en julio de este año a la
Unión Internacional de Geodesia y Geofísica (IUGG), para que lo adoptasen. El Servicio Internacional de Rotación
Terrestre (IERS) está aplicando este modelo en todas las técnicas geodésicas.
Los investigadores han hecho grandes progresos en la modelización y el entendimiento de los procesos físicos
asociados con la nutación. Por ejemplo, el modelo anterior podía calcular la amplitud de las nutaciones con una
precisión de unos 2 metros, pero actualmente el equipo ha conseguido un margen de error sin precedentes, de entre 2
y 3 centímetros. Esto será de gran utilidad para las misiones de satélites europeos e internacionales y permite a los
científicos aprender muchas cosas sobre el interior de la Tierra y de su campo magnético que no se pueden observar
directamente desde la superficie.
Como próximo paso, el grupo piensa aplicar la misma metodología a un estudio sobre Marte para determinar si éste
también tiene un núcleo líquido. Los experimentos forman parte de una red de misiones científicas prevista para 2009
para construir cuatro estaciones meteorológicas y geofísicas en Marte.
Coordinación del proyecto: Profesora Véronique Dehant, del Observatorio Real de Bélgica, en asociación con
investigadores del Bureau International des Poids et Mesures de Sèvres, el Institut de Mécanique Céleste et de Calcul
des Ephémérides de París y el Observatorio de París (Francia); el Centro de Investigación Espacial de la Academia de
las Ciencias de Polonia, Varsovia (Polonia); la Universidad Complutense de Madrid y las Universidades de Alicante y
Valladolid (España); las Universidades Técnicas de Dresde y Munich y el GeoForschungsZentrum Potsdam (Alemania);
la Universidad Técnica de Viena (Austria); el Instituto Astronómico de la Academia de las Ciencias de la República
Checa de Praga (República Checa); el Observatorio Astronómico Principal de la Academia Nacional de Ciencias de
Ucrania, Kiev (Ucrania), y el Instituto Astronómico Estatal Sternberg, de la Universidad Estatal de Moscú (Rusia).
Sitio en Internet: http://www.astro.oma.be
Finalista del Premio
Descartes de la UE de 2003
Campo de investigación: Ciencia básica
La llegada de las pantallas enrollables y el papel de
empapelar luminoso
Este proyecto se centró en la investigación y el desarrollo del revolucionario potencial de los diodos
electroluminiscentes de polímero (conocidos por las siglas inglesas PLED) para pantallas luminosas y de
imagen. La sustitución de las omnipresentes pantallas de cristal líquido por las pantallas de PLED permitiría un
proceso de producción más barato y, dada la flexibilidad del material, una serie de aplicaciones innovadoras.
Se han logrado grandes progresos en la aplicación de esta tecnología (Philips la ha incorporado a su máquina
de afeitar de gama alta «Spectra») y no pasará mucho tiempo antes de que podamos disfrutar de pantallas de
ordenador y de televisión enrollables y de papel de empapelar luminoso.
En 1989, el grupo de Cambridge descubrió casualmente que la estimulación eléctrica de algunos plásticos
semiconductores provocaba en éstos la emisión de luz. Poco después pensaron que las pantallas compuestas por
diodos electroluminiscentes de polímero (PLED) podrían reemplazar a las antiguas y omnipresentes pantallas de cristal
líquido. En superficies de fácil recubrimiento, mediante impresión por chorro de tinta, por ejemplo, no existen
limitaciones teóricas para el tamaño de las pantallas que se quieran fabricar. Es un concepto revolucionario, consistente
en una capa fina de plástico que contiene electrodos a ambos lados. Los electrodos encargados de inyectar la carga
eléctrica en el plástico y la energía asociada a dicha carga se utilizan para provocar la estimulación del polímero
semiconductor, que, a continuación, genera la imagen mediante la emisión de luz.
Dado que los aparatos anteriores sólo eran moderadamente eficaces y apenas duraban unas horas, estaba claro que el
proceso de distribución de tecnología manufacturable, iniciado en Cambridge con la creación de la empresa Cambridge
Display Technology, requería una coordinación de la actividad a nivel europeo. Con apoyo de la UE se ha creado un
fuerte consorcio de académicos e industriales.
Covion, empresa alemana asociada al proyecto, ha contribuido, con sus progresos en la síntesis de los polímeros, a
aumentar la eficacia de la luminiscencia. Uno de los hallazgos más sorprendentes ha sido que materiales como los
derivados del poli(p-fenileno-vinileno) (PPV) no manifiestan el efecto esperado de quenching o desactivación en estado
sólido, por el que las sustancias de fluorescencia viva en solución pierden esta propiedad en dicho estado. Actualmente
los PLED pueden fabricarse con niveles de eficacia comparables a los de la bombilla de tungsteno. Por lo tanto, los
futuros dispositivos no se utilizarán únicamente en pantallas, sino también en aplicaciones de luz. Otro de los ámbitos
en que se han obtenido resultados muy prometedores es el de las interfaces entre polímeros y electrodos metálicos. La
química interfacial, evaluada en Mons y medida en Linköping, revela propiedades sorprendentemente favorables.
Philips fue la primera marca en comercializar un producto derivado de este trabajo: un línea piloto de su fábrica de
Heerlen, Países Bajos, está fabricando pantallas monocromas de matriz pasiva para la maquina de afeitar de gama alta
«Spectra» (que en 2002 aparecía en la película de James Bond «Muere otro día»). Sin embargo, el verdadero éxito
comercial llegará con la introducción de pantallas a todo color. El consorcio ha presentado una pantalla pequeña con
resultados satisfactorios a velocidades de vídeo. La viabilidad de la producción de los tres colores primarios necesarios
depende de la capacidad de duración del diodo. La durabilidad (tiempo transcurrido hasta que el nivel de brillo
desciende a la mitad) supera en la actualidad las 20 000 horas en los diodos rojos y en los verdes/amarillos; los
emisores azules están requiriendo un esfuerzo mayor, pero actualmente se acercan a niveles similares. Las pantallas
de PLED para ordenadores y televisores podrían funcionar esta misma década.
Actualmente, las pantallas se limitan a respaldos de cristal o silicona, pero los sustratos plásticos flexibles permitirían
incluso el uso del sistema de bobinas. Esto resolvería eficazmente el problema de las limitaciones de tamaño, además
de proporcionar las ventajas de las economías de escala de una producción masiva continua y la conveniencia y los
beneficios medioambientales de trabajar en condiciones ambientales. Cambridge Display Technology y Philips están
trabajando activamente en el uso de la impresión directa por chorro de tinta. Las impresoras de gama alta ya ofrecen un
nivel de resolución y uniformidad satisfactorio; sólo queda desarrollar «tintas» adecuadas y el cabezal de impresión que
corresponda.
Coordinación del proyecto: Profesor Richard Friend, de la Universidad de Cambridge (Reino Unido), en asociación
con investigadores de Cambridge Display Technology (Reino Unido); Materia Nova, Mons (Bélgica); la Universidad de
Linköping (Suecia); Philips Electronics Nederland, Eindhoven (Países Bajos), y Covion Organic Semiconductors,
Frankfurt del Main (Alemania).
Sitio en Internet: http://www-oe.phy.cam.ac.uk.
Finalista del
Premio Descartes de la UE de 2003
Campo de investigación: Ciencias de la
Tierra
Protección de las comunidades costeras europeas frente a
los maremotos
Los tsunamis, olas gigantescas que azotan violentamente y sin previo aviso el litoral desprotegido, diezmando
su población, no son sólo cosa de cine de catástrofes, sino que constituyen una amenaza real. Hasta hace unos
años, Europa quedaba muy por detrás de los países del Pacífico en cuanto a conocimientos sobre este
fenómeno. Ahora el proyecto Thams ha restablecido el equilibrio, al lograr importantes avances para mitigar el
peligro que corren, por sus vidas y sus propiedades, los habitantes de las zonas afectadas.
Los tsunamis (palabra japonesa que significa «grandes olas en el puerto») constituyen la amenaza natural más
importante que sufren las zonas costeras de muchos lugares del mundo. Aunque los más afectados son los países del
Pacífico, en Europa también se producen un buen número de tsunamis, sobre todo en las costas mediterráneas,
atlánticas y del Mar de Mármara. Sólo en los últimos cuatro siglos se registraron en Europa cientos de tsunamis, uno de
los cuales se cobró 60 000 vidas en Lisboa en 1755. Sin embargo, apenas se habían estudiado en la región hasta los
años ochenta.
La magnitud de los tsunamis europeos, por lo general más pequeña, los diferencia considerablemente de los japoneses
y estadounidenses, por lo que se consideró muy adecuado desarrollar una base de conocimiento local al respecto. En
1992 se formó un consorcio transnacional financiado por la Unión Europea en el que participaban el coordinador de
Thams, doctor Gerassimos Papadopoulos, del Observatorio Nacional de Atenas, la Universidad de Bolonia y la
Universidad Técnica de Ankara, con la valiosa colaboración de la Universidad de Tohoku, Japón, líder mundial en la
cuestión. Poco a poco se fueron uniendo a la red otros muchos institutos de investigación, especialistas y jóvenes
científicos de la Unión.
La primera tarea de los investigadores consistió en adquirir conocimientos básicos acerca de los mecanismos de
generación de los tsunamis, sus modelos de propagación y los efectos de las inundaciones que provocan, basándose
en el estudio de casos pasados. Un resultado notable del proyecto es la compilación del primer catálogo europeo
unificado de los tsunamis ocurridos desde el siglo XVII, y la subsiguiente evaluación de la fiabilidad de los datos
recopilados. Una segunda fase se dedicó al desarrollo de métodos de evaluación y mitigación del riesgo. La experiencia
japonesa en el acceso a códigos informáticos de simulación numérica de olas, la formación del personal y la aportación
de conocimientos técnicos acerca de sistemas auxiliares de alerta resultó crucial. Se ha probado con éxito y propuesto
a la comunidad internacional una nueva escala para medir la intensidad de los tsunamis (comparable a la escala de
Richter para medir la intensidad de los terremotos) y se ha establecido una metodología innovadora para trazar mapas
de riesgos de catástrofe.
Durante el programa se realizaron excursiones a Grecia, Italia y Turquía que, combinadas con trabajo analítico de
laboratorio y con el uso de técnicas de radiodatación, identificaron varios fuertes paleotsunamis. En particular, el
descubrimiento de un estrato de piedra pómez en un yacimiento arqueológico del norte de Creta aportó la primera
prueba concreta de la ola minoica, aunque entre 150 y 200 años antes de la fecha previamente aceptada. Aunque
alcanzó alturas de entre 20 y 30 metros en las Cíclades, se estima que en ese lugar el tsunami no superó los 15 metros,
lo que arroja dudas sobre la posibilidad de que acabara con la civilización de la época.
Volviendo a la actualidad, tanto las autoridades locales como la industria de la construcción y las aseguradoras están
muy interesadas en los descubrimientos del consorcio. Tras las olas que golpearon Rodas en marzo de 2002 y
Estrómboli, Italia, en diciembre de 2002, los investigadores han establecido sistemas experimentales para alertar a la
población civil en caso de réplicas.
Coordinación del proyecto: Doctor Gerassimos Papadopoulos, del Instituto de Geodinámica del Observatorio
Nacional de Atenas (Grecia), en colaboración con investigadores de la Universidad de Bolonia (Italia); la Universidad
Técnica del Medio Oriente, Ankara (Turquía), y la Universidad Tohoku, Sendai (Japón).
Sitio en Internet: http://www.noa.gr
Descargar