Finalista del Premio Descartes de la UE de 2003 Campo de investigación: Ciencias de la vida Nuevos fármacos para la menopausia Conforme aumenta la longevidad crece también el número de mujeres que recurren al tratamiento hormonal sustitutivo para luchar con problemas como la pérdida de la memoria, la disminución de la densidad ósea y las enfermedades cardiovasculares. El proyecto Animalpharm ha contribuido considerablemente a aclarar la relación de una hormona sexual femenina, el estrógeno, con estas cuestiones, y ha desarrollado un método de ensayo con gran impacto en las investigaciones sobre nuevos fármacos, los estudios sobre toxicología e incluso el bienestar de los animales. Además de controlar la función reproductora femenina, los estrógenos influyen en la función, la diferenciación y el crecimiento celular de otros tejidos corporales, como el cerebral y el óseo. Con la menopausia, son muchas las mujeres que, al dejar de generar estrógenos naturales, han de someterse a un tratamiento hormonal sustitutivo (THS). Dicho tratamiento se prescribe para mitigar los síntomas de la propia menopausia, así como para abordar problemas a más largo plazo, como la osteoporosis, la arteriosclerosis y la demencia. Ante la perspectiva de seguir un THS durante más de un tercio de sus vidas, las mujeres están cada vez más preocupadas por sus efectos secundarios, algunos de los cuales afectan a las glándulas mamarias, el útero y los ovarios. El objetivo del proyecto Animalpharm era llegar a conocer mejor los mecanismos de la actividad estrógena y explorar pistas prometedoras hacia tratamientos alternativos. Los investigadores querían averiguar por qué el mecanismo de activación de los receptores de estrógenos era el mismo en los tejidos no reproductores y en los órganos reproductores. Si pueden llegar a ser activos sin necesidad de estrógenos, podrían convertirse en objetivos interesantes para el desarrollo de nuevos fármacos más específicos. Para demostrar esta teoría, los investigadores tenían que comprobar in vivo que el receptor de estrógenos se puede activar durante el ciclo estral natural (periodo de receptividad sexual o fertilidad). Para observar el efecto en diferentes órganos, el grupo necesitaba un ratón «transgénico» con un gen «indicador» fácil de seguir por todo el cuerpo. Esto era algo que nunca se había hecho. Además, los investigadores tenían que observar y medir la actividad en tiempo real, y con el animal vivo. El grupo de Milán consiguió criar un ratón transgénico llamado ERE-LUC en el que una proteína, la «luciferasa» se sintetizaba en todo el cuerpo cuando se estimulaba el receptor de estrógenos. Al mismo tiempo, sus colegas de Leiden inventaron una técnica no invasiva en la que una cámara sensible registraba las emisiones de fotones procedentes de ratones anestesiados tras inyectarles luciferina. Los resultados demostraron que los receptores sólo se activan con niveles elevados de estrógenos en los órganos reproductores, mientras que en el resto de los tejidos la hormona no es el desencadenante esencial. Las observaciones del grupo tienen grandes consecuencias en el tratamiento de las mujeres menopáusicas, cuya principal preocupación es la continuidad de los efectos de los estrógenos en los órganos no reproductores. Según los investigadores, el ratón ERE-LUC es de gran ayuda para que entendamos mejor los mecanismos de activación del receptor. Será una herramienta indispensable para el diseño de THS innovadores y más seguros. Además, hay otros sectores de la sanidad que también se pueden beneficiar de estos descubrimientos. De hecho, la elevada sensibilidad del indicador sugiere que el sistema se podría usar en la detección de compuestos de baja actividad estrógena, tales como los disruptores endocrinos presentes en los herbicidas y plaguicidas que impregnan el medio ambiente. Además de permitirnos determinar los resultados de las variaciones de concentración en estos agentes contaminantes, estos métodos nos ayudarán a detectar dónde sienten sus efectos los animales, y posteriormente extrapolar los resultados al ser humano. El equipo señala que otro ámbito de investigación con interés potencial es el de los ensayos toxicológicos. Esta cuestión es de gran actualidad, pues la Unión Europea está introduciendo una normativa cada vez más estricta para la detección de todo tipo de productos químicos. Coordinación del proyecto: Profesora Adriana Maggi, de la Universidad de Milán (Italia), en coordinación con el Profesor Lowik, del Centro Médico de la Universidad de Leiden (Países Bajos), y el Profesor Parker, del Imperial College of Science, Technology and Medicine de Londres (Reino Unido). Sitio en Internet: http://www.unimi.it Finalista del Premio Descartes de la UE de 2003 Campo de investigación: Tecnologías de la información La primera red mundial que ofrece servicios a medida a los internautas Las previsiones apuntan a que Internet evolucionará hacia un medio más inteligente, en el que las necesidades de los usuarios se interpretarán y satisfarán automáticamente, sin necesidad de intervención humana para combinar grandes volúmenes de información y servicios de diferentes fuentes. La iniciativa Agentcities ha establecido la primera red global en la que pueden interactuar aplicaciones de software autónomas para ofrecer soluciones a medida en ámbitos que van de la educación electrónica y la diversión a la asistencia sanitaria y los negocios electrónicos. Los ordenadores actuales son básicamente terminales pasivas: no hacen nada si no hay alguien que les da órdenes concretas. Durante la última década o algo más, los investigadores en inteligencia artificial y cálculo distribuido han trabajado para que el usuario ya no tenga que ejercer un control completo, sino que pueda interactuar con agentes de software inteligentes capaces de iniciar comunicaciones, controlar acontecimientos y llevar a cabo tareas dirigidas a alcanzar sus objetivos componiendo dinámicamente recursos de la red, aun sin que el interesado sea consciente de ello. De mismo modo que pasa en el mundo humano con los agentes de viajes e inmobiliarios, los agentes de software se caracterizan por trabajar en nombre de otros. Imaginemos una visita a una extraña ciudad en la que se organiza una velada según los gustos del visitante en cuanto a bares, restaurantes y espectáculos. Unos agentes interactivos se encargarían, entre bastidores, de las reservas, los pagos y las compras, interactuando directamente en cada caso con otros agentes representantes de las diferentes organizaciones implicadas para ponerse de acuerdo o, en caso necesario, cambiar lo acordado. Agentcities ha dado un importante primer paso para acercar esta situación a la realidad. Los principales logros de las investigaciones han consistido en dar una idea clara de cómo serán los sistemas de agentes, cómo funcionarán y para qué servirán. Los investigadores están utilizando tecnologías normalizadas de mensajería por Internet, más una serie de tecnologías de agentes para el diseño de programas informáticos, incluidas las normas de la Fundación para los Agentes Físicos Inteligentes (FIPA) para lenguajes semánticos, protocolos de interacción y herramientas adecuadas. Junto con la tecnología de web semántica (un método de representación de datos significativo), esto permite la interoperabilidad entre agentes/servicios de diferentes organizaciones. Aunque muchos de los demostradores activos aún son de pequeña escala, incluyen aplicaciones que combinan más de 100 agentes individuales que prestan diferentes servicios desde nodos de la red alojados en toda Europa, los EE.UU. y Japón. Los demostradores de la red cubren una amplia gama de servicios, como mercados electrónicos, guías de museos, noticias de entretenimiento, organización de actos y alojamiento de agentes. Algunos de los sectores de aplicación que se están estudiando activamente son la asistencia sanitaria, la gestión de la cadena de suministros, la contratación y la búsqueda de empleo, la gestión de los conocimientos, los viajes de negocios, las visitas culturales y los servicios de entretenimiento que integran a pequeñas y medianas empresas. Desde su lanzamiento en 2001, esta red global ha crecido de una manera espectacular. En marzo de 2003 contaba con más de 150 plataformas registradas. La iniciativa se ha convertido en un enorme esfuerzo de cooperación internacional en el que participan más de 100 organizaciones de todo el mundo. Ya se están desarrollando y financiando varios proyectos de continuación y parece muy probable que en los próximos cinco años algunos elementos de estas tecnologías evolucionen para convertirse en aplicaciones reales, lo que sin duda cambiará nuestro modo de usar Internet. Coordinación del proyecto: Doctor Steven Willmott y Doctor Ulises Cortés, de la Universitat Politècnica de Catalunya, Barcelona (España) y David Bonnefoy y Patricia Charlton, de Motorola S.A.S, Gif-sur-Yvette (Francia), en asociación con investigadores de la Associação para o Desenvolvimento das Telecomunicações e Técnicas de Informática, Lisboa (Portugal); Btexact, Londres, y las Universidades de Bath y Liverpool (Reino Unido); Comtec, Sendai (Japón); Deutsches Forschungszentrum für Künstliche Intelligenz, Saarbrücken (Alemania); el Instituto Federal Suizo de Tecnología de Lausana, Whitestein Technologies AG, Zurich y la Universidad de Ginebra (Suiza); Fujitsu Laboratories of America, Hewlett-Packard California y la Universidad de Maryland (EE.UU.); la RMIT University - School of Computer Science and Information Technology de Melbourne (Australia); la Universidad de Girona y la Universidad Rovira i Virgili de Tarragona (España); la Universidad de Otago, Dunedin (Nueva Zelanda), y la Università degli Studi di Parma (Italia). Sitio en Internet: http://www.agentcities.org/descartes/ Finalista del Premio Descartes de la UE de 2003 Campo de investigación: Ciencias de la vida Descubrimientos genéticos que allanan el camino hacia la curación de la enfermedad de Alzheimer La enfermedad de Alzheimer, una forma de demencia aún incurable y muy difícil de sobrellevar tanto para quienes la padecen como para sus familiares, supone además una gran carga para los sistemas de apoyo social. En el proyecto Eurosecretase, una colaboración entre Bélgica y Alemania supuso un paso adelante en las investigaciones sobre las causas de esta condición debilitadora, al identificar nuevas pistas para el tratamiento y la prevención del Alzheimer. La enfermedad de Alzheimer afecta a más del 10 % de las personas de más de 65 años, lo que supone entre 4 y 5 millones de europeos. Esta compleja enfermedad provoca una destrucción gradual de las células cerebrales. Sus síntomas más comunes son la pérdida de la memoria, los problemas de razonamiento o de juicio, la desorientación, las dificultades de aprendizaje, la pérdida de capacidad lingüística y la disminución de la capacidad de llevar a cabo tareas rutinarias. Las personas que la padecen sufren también cambios de personalidad y problemas de comportamiento, como agitación, ansiedad, delirios y alucinaciones. No tiene cura, y los tratamientos actuales sólo sirven para retrasar el deterioro. Aunque el Alzheimer es una enfermedad muy debilitadora, sus víctimas suelen sobrevivir varios años. Esto plantea graves problemas a quienes cuidan a los enfermos y supone una carga financiera considerable para los sistemas sanitarios nacionales. El proyecto Eurosecretase ha avanzado considerablemente en la confirmación del mecanismo causante de la enfermedad, lo que resulta esperanzador para el desarrollo de una curación efectiva. Tanto la rara forma hereditaria de la enfermedad como la forma esporádica, más común, son consecuencia de lesiones cerebrales causadas por la formación de la llamada «placa amiloide». Esta placa está formada por fragmentos de péptidos amiloides (Aβ) derivados de mutaciones de la proteína precursora del amiloide (APPβ) y de unos genes llamados presenilina 1 (PS1) y presenilina 2 (PS2). La responsabilidad de cortar fragmentos de Aβ de las cadenas moleculares más largas se atribuía a unas sustancias llamadas secretasas que actúan como unas «tijeras químicas». Pero antes de que se desarrollara este proyecto eso no era más que una hipótesis y se desconocía la naturaleza exacta de las secretasas. Los investigadores consiguieron probar que las presenilinas tienen una función muy importante en la generación de Aβ neurotóxicos, lo que resultó ser un adelanto fundamental para entender todo el fenómeno. Además desarrollaron un ingenioso sistema experimental in vivo/in vitro con el que se podían analizar células cerebrales vivas cultivadas para confirmar que la ausencia de secretasas bloqueaba la reacción de las «tijeras». Finalmente, los socios consiguieron demostrar que la ausencia de PS1 no inhibe la escisión de APPβ por todos los tipos de secretasa, pero que contribuye decisivamente a que la producción de Aβ se divida por cinco. De hecho, descubrieron que el propio PS1 es una de las secretasas, y como tal un objetivo potencial importante para el desarrollo de un fármaco que cure la enfermedad. La muerte prematura de los embriones de ratón genéticamente modificados les indicó que las presenilinas realizan otras funciones vitales en el desarrollo celular y la respuesta inmune, por lo que su eliminación completa para la curación de la enfermedad de Alzheimer no es posible. Los investigadores descubrieron que una inhibición parcial de la función de la presenilina puede bastar para reducir la producción de Aβ a un nivel en el que no se siga formando la placa amiloide. Muchos otros científicos de todo el mundo están continuando el trabajo pionero del proyecto Eurosecretase, lo que ayuda a conocer el papel que desempeñan las secretasas en la biología. La industria farmacéutica las considera objetivos de primer orden en el desarrollo de fármacos y está usando las técnicas derivadas del proyecto como herramientas para optimizar el equilibrio final entre eficacia y riesgo. Los investigadores prestan servicios de consultoría a numerosas empresas, y sus laboratorios colaboran con la valoración de compuestos candidatos y el establecimiento de un gran número de ensayos para la selección de medicamentos. La combinación de sofisticadas técnicas transgénicas y métodos avanzados de biología celular permitió a los investigadores producir datos esenciales que se consideran hitos en este ámbito tan competitivo. Coordinación del proyecto: Profesor Bart de Strooper, de la Universidad Católica de Lovaina (Bélgica), y Profesor Paul Saftig, de la Christian-Albrechts-Universität de Kiel (Alemania). Sitios en Internet: http://www.kuleuven.ac.be/med/ncbgtl/ y http://www.uni-kiel.de/Biochemie/agsaftig/index.html Finalista del Premio Descartes de la UE de 2003 Campo de investigación: Ingeniería Diseño de la próxima generación de aviones ecológicos El concepto de diseño del que surgió el avión civil convencional actual ya ha dado de sí todo lo que podía. Para tener en cuenta la creciente preocupación por el ruido y la contaminación atmosférica, el sector aeronáutico necesita explorar diseños originales, como la configuración de fuselaje y ala combinados. El proyecto MOB reunió a ingenieros de toda la UE para investigar el desarrollo de nuevos métodos de diseño de productos complejos en un entorno distribuido y aplicarlos al diseño de un modelo de avión de fuselaje y ala combinados. El resultado fue un innovador motor de diseño computacional basado en Internet: una novedosa herramienta de optimización y diseño multidisciplinario con capacidad y flexibilidad de múltiples niveles que contribuirá considerablemente al desarrollo de la próxima generación de aviones civiles ecológicos. Los socios del proyecto afrontaron el problema de diseñar un nuevo avión mediante un equipo distribuido de expertos y eligieron un avión de carga de fuselaje y ala combinados como objeto de estudio para la investigación de un nuevo proceso de diseño. Cuando se combinan fuselaje y ala, el área de carga útil se fusiona con las alas de sustentación formando una unidad integrada que constituye una de las opciones investigadas como método para aumentar la eficacia aerodinámica. Dada la complejidad de su forma, los investigadores han tenido que adoptar un planteamiento holístico que va más allá del ámbito de acción de las herramientas de diseño y optimización existentes desarrolladas durante las dos últimas décadas. Para solucionar este problema, el profesor Alan Morris, de la Universidad de Cranfield, Reino Unido reunió, como coordinador del proyecto, los recursos de cuatro institutos de investigación europeos, ocho importantes universidades y tres empresas aeroespaciales, formando así un grupo de ingenieros y científicos imposible de encontrar en una única organización. El resultado fue un motor de diseño computacional basado en Internet: una nueva forma de optimización y diseño multidisciplinario con capacidad en niveles múltiples y dotado de la flexibilidad necesaria para aceptar herramientas y módulos tipo «conectar y usar» (plug-and-play) apropiados para cada fase del ciclo de diseño. Un generador multimodelo especialmente adaptado y dotado de una capacidad de conocimiento considerable enlaza las herramientas específicas de esta disciplina, crea las representaciones geométricas necesarias y contiene los datos relativos al diseño. Puede contener toda la información generada sobre el modelo de fuselaje y ala combinados y extraer submodelos específicos para alimentar las herramientas de análisis del motor de diseño. De este modo, los diseñadores pueden variar los parámetros de configuración principales y observar las consecuencias en las primeras fases de desarrollo. Cuando se desarrolló el motor de diseño computacional quedaron patentes los graves problemas de estabilidad que presenta el diseño de fuselaje y ala combinados, y que dan como resultado un avión de vuelo peligroso. Entonces el motor de diseño se utilizó para solucionar este problema. El resultado final lo probaron en Berlín pilotos de Airbus alemanes en un simulador de vuelo y se validará mediante vuelos de prueba con un modelo de control remoto. Una de las claras ventajas conseguidas con el desarrollo del motor de diseño es la posibilidad de detectar y reparar fallos en las fases iniciales, pues el coste de la modificación aumenta enormemente conforme se avanza en la cadena de diseño y la libertad de maniobra se ve más limitada. Otra de las ventajas es la capacidad de integrar herramientas procedentes de distintas fuentes, que permitirá a las PYME del sector de la alta tecnología participar directamente en estos programas de investigación a gran escala. El proyecto abre las puertas a una nueva forma de trabajo en la que fabricantes, distribuidores y usuarios pueden cooperar dentro de una única entidad «virtual» para la creación de productos complejos. Los resultados del proyecto ya constituyen la base de dos propuestas aeroespaciales de proyectos integrados en el sexto programa marco de investigación y desarrollo de la Unión Europea. Con un esfuerzo adicional, esta metodología podría aplicarse a otras industrias como la naval, la automovilística y la de los trenes de alta velocidad. Coordinación del proyecto: Profesor Alan Morris, de la Universidad de Cranfield, Bedford (Reino Unido), en asociación con investigadores de QinetiQ Limited, Farnborough, el Laboratorio central de los Consejos de investigación de Didcot, BAE Systems (Operations) Ltd, Preston (Reino Unido); la Universidad Tecnológica de Delft y Stichting Nationaal Lucht- en Ruimtevaartlaboratorium, Marknesse (Países Bajos); Deutsches Zentrum für Luft- und Raumfahrt, Gotinga, EADS Deutschland GmbH, Munich, Technische Universität Braunschweig, Technische Universität München, las Universidades de Stuttgart y Siegen y el Institut für Luft- und Raumfahrt der Technischen Universität Berlin (Alemania), y SAAB AB, Linköping y Kungliga Tekniska Högskolan, Estocolmo (Suecia). Finalista del Premio Descartes de la UE de 2003 Campo de investigación: Ciencia básica Primeros pasos hacia las máquinas moleculares de autoensamblado controlable El desarrollo de motores moleculares y mecanismos de autoensamblado controlable es fundamental de cara a la revolución industrial nanotecnológica del siglo XXI. A partir de un resultado experimental inesperado, los equipos de investigación han realizado un nuevo descubrimiento basado en la detección de movimientos submoleculares que responden a estímulos como la luz o los campos eléctricos. Además, han presentado el primer ejemplo de moléculas que se organizan en estructuras funcionales a través de escalas de longitud variada. Aunque las moléculas se encuentran en continuo movimiento, las tecnologías químicas actuales se basan casi completamente en sus propiedades «estáticas». Por otro lado, muchos fenómenos biológicos naturales se originan directamente a partir de movimientos mecánicos a nivel molecular. La transferencia de dichos efectos al mundo macroscópico podría aportar importantes adelantos muy beneficiosos para la sociedad, por ejemplo, mediante la creación de nuevos catalizadores o la transferencia de moléculas a través de membranas, con vistas a la administración de fármacos. Esto ha dado un gran impulso a las iniciativas de investigación que intentan desarrollar análogos moleculares de los elementos de una máquina, tales como dientes de un engranaje, ruedas, lanzaderas y pistones, con el fin de producir materiales o aparatos que puedan desarrollar una función útil. Los descubrimientos más importantes en este campo surgen del resultado inesperado de un experimento dirigido por el equipo de Edimburgo, que pretendía desarrollar un sensor químico para el dióxido de carbono (CO2). En lugar de los productos habituales, aislaron un catenano, un tipo de compuesto en el que las moléculas tienen dos o más anillos entrelazados como los eslabones de una cadena. Se demostró que la reacción era versátil y tolerante y que los anillos podían controlarse mediante luz, calor o energía electrónica. Los investigadores pretendían pasar un filamento molecular por un agujero de tan sólo una millonésima de milímetro de diámetro, para influir en los movimientos de la estructura molecular, y producir reacciones químicas que afectasen únicamente a ciertas partes de dicha estructura. Para controlar la posición de los componentes moleculares, el equipo empleó un enlace fuerte de hidrógeno que impide al anillo desplazarse a otro lugar del catenano. Pero al diseñar las moléculas de modo que reaccionen a la aplicación de cualquier estímulo, se puede modificar la capacidad de enlace y, por lo tanto, iniciar un movimiento predecible. A continuación, los socios del proyecto aplicaron esa misma metodología a la síntesis de rotaxanos, que también mostraron unas características muy inusuales. Se comprobó que el ensamblado era posible mediante el empleo de péptidos como filamento, lo que podría tener consecuencias importantes en el campo de la medicina. Utilizando otros filamentos más rígidos, el equipo obtuvo una alta producción de rotaxanos que podrían emplearse como sustitutivos sintéticos de fármacos naturales. Esta investigación constituye el primer paso en el desarrollo de motores moleculares y un avance importante en el campo de la nanotecnología. Por vez primera, las moléculas podían, una vez en movimiento, organizarse a través de escalas de longitud variada en estructuras funcionales de tamaño y posición controlables. La capacidad de controlar estos movimientos mediante el diseño y la fabricación de moléculas que responden de manera predecible a un estímulo podría conducir a importantes adelantos tecnológicos en ámbitos como la creación de nuevos catalizadores, el almacenamiento en DVD y la administración de fármacos a través de membranas. Coordinación del proyecto: Profesor David Leigh, de la Universidad de Edimburgo (Reino Unido), en asociación con investigadores del Consiglio Nazionale delle Ricerche, Sezione di Bologna y la Università di Bologna (Italia); la Universidad de Amsterdam y la Rijksuniversiteit de Groninga (Países Bajos), y el Commissariat à l’Énergie Atomique de Gif-sur-Yvette (Francia). Sitios en Internet: http://www.catenane.net y http://www.cranfield.ac.uk Finalista del Premio Descartes de la UE de 2003 Campo de investigación: Ciencia básica Localización de una posición en un mundo que se mueve Existe en la sociedad una demanda creciente de sistemas de navegación y de posicionamiento preciso, para mejorar la fiabilidad de los viajes, la seguridad personal y la exactitud de las mediciones geofísicas. El Observatorio Real de Bélgica, en colaboración con grupos de investigadores de ocho países europeos, ha logrado crear un marco de referencia de gran exactitud mediante el cálculo detallado de las variaciones que experimenta la rotación de la tierra en el espacio. Durante mucho tiempo, la rotación de la Tierra se ha empleado para medir el tiempo y las estrellas han sido puntos de referencia para determinar la posición de los viajeros en el globo. Actualmente, los sistemas globales de posicionamiento reciben información enviada desde satélites en órbita que a continuación se procesa en estaciones de recepción fijas situadas en la Tierra capaces de localizar la posición de una persona o un vehículo con un margen de error de tan sólo unos metros. Las investigaciones de los equipos internacionales llevaron al desarrollo de un marco referencial de posicionamiento global mejorado con una precisión sin precedentes: se pasó de dos metros a entre dos y tres centímetros de margen de error. El posicionamiento se determina mediante dos marcos de referencia: el terrestre, que se fija en relación con la corteza de la Tierra y rota de manera sincronizada con el planeta, y el celeste, que permanece inmóvil en el espacio. La relación que existe entre ambos marcos es complicada, pues la rotación y la orientación de la Tierra están sujetas a irregularidades causadas por la atracción gravitatoria del sol y la luna y por otros factores que los geodestas van identificando progresivamente. Dado que la Tierra es un cuerpo elipsoidal achatado por los polos, las fuerzas combinadas que actúan sobre ella modifican tanto su velocidad de rotación como la orientación de su eje de giro. El término «precesión» describe la tendencia a largo plazo de este último movimiento, mientras que «nutación» es el nombre que reciben las variaciones periódicas a corto plazo, que fueron el objetivo principal del proyecto. La nutación y la precesión se miden mediante la interferometría de muy larga base (más conocida por las siglas inglesas VLBI, very long baseline interferometry), técnica que emplea enormes radiotelescopios para observar cuásares extragalácticos. Los investigadores observaron diferencias significativas entre las observaciones de la VLBI y los resultados de la aplicación de un modelo teórico adoptado por la Unión Astronómica Internacional en 1980, que partía de la idea de que la Tierra se comporta como un objeto deformable. Sin embargo, la Tierra es un objeto complejo, y el objetivo del grupo de trabajo establecido en 1996 y dirigido por el profesor Dehant era proporcionar un modelo nuevo que relacionase la nutación y la precesión con el sofisticado concepto de una Tierra no rígida con un núcleo central sólido, un núcleo externo líquido y un manto deformable. El estudio requirió la colaboración de especialistas en mecánica celeste, geofísica, dinámica atmosférica y oceánica y astronomía. En 2000 el grupo había logrado un modelo mejorado de nutación que presentó ese mismo año a la Unión Astronómica Internacional y en julio de este año a la Unión Internacional de Geodesia y Geofísica (IUGG), para que lo adoptasen. El Servicio Internacional de Rotación Terrestre (IERS) está aplicando este modelo en todas las técnicas geodésicas. Los investigadores han hecho grandes progresos en la modelización y el entendimiento de los procesos físicos asociados con la nutación. Por ejemplo, el modelo anterior podía calcular la amplitud de las nutaciones con una precisión de unos 2 metros, pero actualmente el equipo ha conseguido un margen de error sin precedentes, de entre 2 y 3 centímetros. Esto será de gran utilidad para las misiones de satélites europeos e internacionales y permite a los científicos aprender muchas cosas sobre el interior de la Tierra y de su campo magnético que no se pueden observar directamente desde la superficie. Como próximo paso, el grupo piensa aplicar la misma metodología a un estudio sobre Marte para determinar si éste también tiene un núcleo líquido. Los experimentos forman parte de una red de misiones científicas prevista para 2009 para construir cuatro estaciones meteorológicas y geofísicas en Marte. Coordinación del proyecto: Profesora Véronique Dehant, del Observatorio Real de Bélgica, en asociación con investigadores del Bureau International des Poids et Mesures de Sèvres, el Institut de Mécanique Céleste et de Calcul des Ephémérides de París y el Observatorio de París (Francia); el Centro de Investigación Espacial de la Academia de las Ciencias de Polonia, Varsovia (Polonia); la Universidad Complutense de Madrid y las Universidades de Alicante y Valladolid (España); las Universidades Técnicas de Dresde y Munich y el GeoForschungsZentrum Potsdam (Alemania); la Universidad Técnica de Viena (Austria); el Instituto Astronómico de la Academia de las Ciencias de la República Checa de Praga (República Checa); el Observatorio Astronómico Principal de la Academia Nacional de Ciencias de Ucrania, Kiev (Ucrania), y el Instituto Astronómico Estatal Sternberg, de la Universidad Estatal de Moscú (Rusia). Sitio en Internet: http://www.astro.oma.be Finalista del Premio Descartes de la UE de 2003 Campo de investigación: Ciencia básica La llegada de las pantallas enrollables y el papel de empapelar luminoso Este proyecto se centró en la investigación y el desarrollo del revolucionario potencial de los diodos electroluminiscentes de polímero (conocidos por las siglas inglesas PLED) para pantallas luminosas y de imagen. La sustitución de las omnipresentes pantallas de cristal líquido por las pantallas de PLED permitiría un proceso de producción más barato y, dada la flexibilidad del material, una serie de aplicaciones innovadoras. Se han logrado grandes progresos en la aplicación de esta tecnología (Philips la ha incorporado a su máquina de afeitar de gama alta «Spectra») y no pasará mucho tiempo antes de que podamos disfrutar de pantallas de ordenador y de televisión enrollables y de papel de empapelar luminoso. En 1989, el grupo de Cambridge descubrió casualmente que la estimulación eléctrica de algunos plásticos semiconductores provocaba en éstos la emisión de luz. Poco después pensaron que las pantallas compuestas por diodos electroluminiscentes de polímero (PLED) podrían reemplazar a las antiguas y omnipresentes pantallas de cristal líquido. En superficies de fácil recubrimiento, mediante impresión por chorro de tinta, por ejemplo, no existen limitaciones teóricas para el tamaño de las pantallas que se quieran fabricar. Es un concepto revolucionario, consistente en una capa fina de plástico que contiene electrodos a ambos lados. Los electrodos encargados de inyectar la carga eléctrica en el plástico y la energía asociada a dicha carga se utilizan para provocar la estimulación del polímero semiconductor, que, a continuación, genera la imagen mediante la emisión de luz. Dado que los aparatos anteriores sólo eran moderadamente eficaces y apenas duraban unas horas, estaba claro que el proceso de distribución de tecnología manufacturable, iniciado en Cambridge con la creación de la empresa Cambridge Display Technology, requería una coordinación de la actividad a nivel europeo. Con apoyo de la UE se ha creado un fuerte consorcio de académicos e industriales. Covion, empresa alemana asociada al proyecto, ha contribuido, con sus progresos en la síntesis de los polímeros, a aumentar la eficacia de la luminiscencia. Uno de los hallazgos más sorprendentes ha sido que materiales como los derivados del poli(p-fenileno-vinileno) (PPV) no manifiestan el efecto esperado de quenching o desactivación en estado sólido, por el que las sustancias de fluorescencia viva en solución pierden esta propiedad en dicho estado. Actualmente los PLED pueden fabricarse con niveles de eficacia comparables a los de la bombilla de tungsteno. Por lo tanto, los futuros dispositivos no se utilizarán únicamente en pantallas, sino también en aplicaciones de luz. Otro de los ámbitos en que se han obtenido resultados muy prometedores es el de las interfaces entre polímeros y electrodos metálicos. La química interfacial, evaluada en Mons y medida en Linköping, revela propiedades sorprendentemente favorables. Philips fue la primera marca en comercializar un producto derivado de este trabajo: un línea piloto de su fábrica de Heerlen, Países Bajos, está fabricando pantallas monocromas de matriz pasiva para la maquina de afeitar de gama alta «Spectra» (que en 2002 aparecía en la película de James Bond «Muere otro día»). Sin embargo, el verdadero éxito comercial llegará con la introducción de pantallas a todo color. El consorcio ha presentado una pantalla pequeña con resultados satisfactorios a velocidades de vídeo. La viabilidad de la producción de los tres colores primarios necesarios depende de la capacidad de duración del diodo. La durabilidad (tiempo transcurrido hasta que el nivel de brillo desciende a la mitad) supera en la actualidad las 20 000 horas en los diodos rojos y en los verdes/amarillos; los emisores azules están requiriendo un esfuerzo mayor, pero actualmente se acercan a niveles similares. Las pantallas de PLED para ordenadores y televisores podrían funcionar esta misma década. Actualmente, las pantallas se limitan a respaldos de cristal o silicona, pero los sustratos plásticos flexibles permitirían incluso el uso del sistema de bobinas. Esto resolvería eficazmente el problema de las limitaciones de tamaño, además de proporcionar las ventajas de las economías de escala de una producción masiva continua y la conveniencia y los beneficios medioambientales de trabajar en condiciones ambientales. Cambridge Display Technology y Philips están trabajando activamente en el uso de la impresión directa por chorro de tinta. Las impresoras de gama alta ya ofrecen un nivel de resolución y uniformidad satisfactorio; sólo queda desarrollar «tintas» adecuadas y el cabezal de impresión que corresponda. Coordinación del proyecto: Profesor Richard Friend, de la Universidad de Cambridge (Reino Unido), en asociación con investigadores de Cambridge Display Technology (Reino Unido); Materia Nova, Mons (Bélgica); la Universidad de Linköping (Suecia); Philips Electronics Nederland, Eindhoven (Países Bajos), y Covion Organic Semiconductors, Frankfurt del Main (Alemania). Sitio en Internet: http://www-oe.phy.cam.ac.uk. Finalista del Premio Descartes de la UE de 2003 Campo de investigación: Ciencias de la Tierra Protección de las comunidades costeras europeas frente a los maremotos Los tsunamis, olas gigantescas que azotan violentamente y sin previo aviso el litoral desprotegido, diezmando su población, no son sólo cosa de cine de catástrofes, sino que constituyen una amenaza real. Hasta hace unos años, Europa quedaba muy por detrás de los países del Pacífico en cuanto a conocimientos sobre este fenómeno. Ahora el proyecto Thams ha restablecido el equilibrio, al lograr importantes avances para mitigar el peligro que corren, por sus vidas y sus propiedades, los habitantes de las zonas afectadas. Los tsunamis (palabra japonesa que significa «grandes olas en el puerto») constituyen la amenaza natural más importante que sufren las zonas costeras de muchos lugares del mundo. Aunque los más afectados son los países del Pacífico, en Europa también se producen un buen número de tsunamis, sobre todo en las costas mediterráneas, atlánticas y del Mar de Mármara. Sólo en los últimos cuatro siglos se registraron en Europa cientos de tsunamis, uno de los cuales se cobró 60 000 vidas en Lisboa en 1755. Sin embargo, apenas se habían estudiado en la región hasta los años ochenta. La magnitud de los tsunamis europeos, por lo general más pequeña, los diferencia considerablemente de los japoneses y estadounidenses, por lo que se consideró muy adecuado desarrollar una base de conocimiento local al respecto. En 1992 se formó un consorcio transnacional financiado por la Unión Europea en el que participaban el coordinador de Thams, doctor Gerassimos Papadopoulos, del Observatorio Nacional de Atenas, la Universidad de Bolonia y la Universidad Técnica de Ankara, con la valiosa colaboración de la Universidad de Tohoku, Japón, líder mundial en la cuestión. Poco a poco se fueron uniendo a la red otros muchos institutos de investigación, especialistas y jóvenes científicos de la Unión. La primera tarea de los investigadores consistió en adquirir conocimientos básicos acerca de los mecanismos de generación de los tsunamis, sus modelos de propagación y los efectos de las inundaciones que provocan, basándose en el estudio de casos pasados. Un resultado notable del proyecto es la compilación del primer catálogo europeo unificado de los tsunamis ocurridos desde el siglo XVII, y la subsiguiente evaluación de la fiabilidad de los datos recopilados. Una segunda fase se dedicó al desarrollo de métodos de evaluación y mitigación del riesgo. La experiencia japonesa en el acceso a códigos informáticos de simulación numérica de olas, la formación del personal y la aportación de conocimientos técnicos acerca de sistemas auxiliares de alerta resultó crucial. Se ha probado con éxito y propuesto a la comunidad internacional una nueva escala para medir la intensidad de los tsunamis (comparable a la escala de Richter para medir la intensidad de los terremotos) y se ha establecido una metodología innovadora para trazar mapas de riesgos de catástrofe. Durante el programa se realizaron excursiones a Grecia, Italia y Turquía que, combinadas con trabajo analítico de laboratorio y con el uso de técnicas de radiodatación, identificaron varios fuertes paleotsunamis. En particular, el descubrimiento de un estrato de piedra pómez en un yacimiento arqueológico del norte de Creta aportó la primera prueba concreta de la ola minoica, aunque entre 150 y 200 años antes de la fecha previamente aceptada. Aunque alcanzó alturas de entre 20 y 30 metros en las Cíclades, se estima que en ese lugar el tsunami no superó los 15 metros, lo que arroja dudas sobre la posibilidad de que acabara con la civilización de la época. Volviendo a la actualidad, tanto las autoridades locales como la industria de la construcción y las aseguradoras están muy interesadas en los descubrimientos del consorcio. Tras las olas que golpearon Rodas en marzo de 2002 y Estrómboli, Italia, en diciembre de 2002, los investigadores han establecido sistemas experimentales para alertar a la población civil en caso de réplicas. Coordinación del proyecto: Doctor Gerassimos Papadopoulos, del Instituto de Geodinámica del Observatorio Nacional de Atenas (Grecia), en colaboración con investigadores de la Universidad de Bolonia (Italia); la Universidad Técnica del Medio Oriente, Ankara (Turquía), y la Universidad Tohoku, Sendai (Japón). Sitio en Internet: http://www.noa.gr