100cias@uned N.º 2 (nueva época) | 2009 ISSN: 1989-7189 REVISTA DE LA FACULTAD DE CIENCIAS DE LA UNED http://e-spacio.uned.es:8080/fedora/get/bibliuned:revista100cias-2009-numero2ne/PDF digital Nuestra Facultad Festival: Ciencia para la juventud en la UNED Vida científica Dos grandes efemérides: Galileo y el Año Internacional de la Astronomía Darwin y la evolución de las especies Enseñanza Diez años de Ciencia en Acción El Portal FisL@bs 100cias@uned REVISTA DE LA FACULTAD DE CIENCIAS N.º 2 (nueva época) — 2009 EDITOR Universidad Nacional de Educación a Distancia PRESIDENTE Víctor Fairén Le Lay Decano de la Facultad de Ciencias DIRECTORA Carmen Carreras Béjar CONSEJO DE REDACCIÓN Carmen Carreras Béjar (Dpto. de Física de los Materiales) Rosa M.ª Claramunt Vallespí (Dpto. de Química Orgánica y Bio-Orgánica) Pedro Córdoba Torres (Dpto. de Física Matemática y de Fluidos) Fernando Peral Fernández (Dpto. de Ciencias y Técnicas Fisicoquímicas) Miguel Delgado Pineda (Dpto. de Matemáticas Fundamentales) Pilar Fernández Hernando (Dpto. de Ciencias Analíticas) J. Javier García Sanz (Dpto. de Física Fundamental) Hilario Navarro Veguillas (Dpto. de Estadística, Investigación Operativa y Cálculo Numérico) Eloísa Ortega Cantero (Dpto. de Química Inorgánica y Química Técnica) Manuel Yuste Llandres (Dpto. de Física de los Materiales) Esta revista está dedicada a aspectos generales de la Ciencia y a su enseñanza en la Facultad de Ciencias de la UNED. Pretende servir de vehículo de información entre los diferentes estamentos que constituyen la comunidad universitaria de la Facultad, desde los profesores hasta los alumnos, pasando por todos y cada uno de los eslabones: Centros Asociados, profesores-tutores, personal de la administración y servicios…, ofreciendo un canal de información, discusión y debate sobre los problemas que conlleva nuestra razón de ser, la enseñanza de la Ciencia. También pretende dar a conocer las actividades que cada uno de los estamentos realiza, las relaciones que mantiene con otras instituciones docentes e investigadoras, tanto nacionales como internacionales. En definitiva, acortar la «distancia» que nos separa a través de un mayor conocimiento de lo que hacemos. 100cias@uned N.º 2 Índice Editorial ........................................................................ Noticias del Decanato ....................................................... — Festival: Ciencia para la juventud en la UNED, por M.ª Luisa Rojas Cervantes .................... — San Alberto Magno 2009: • Docencia e investigación en la universidad: ¿hay intereses contrapuestos?, por Sebastián Dormido Bencomo ................. • IX Concurso de Fotografía Científica .... Información de los Departamentos ......................... Resúmenes de Tesis Doctorales ................................... Seminarios, reuniones científicas y cursos de verano ......................................................................................... Premios y distinciones a profesores y estudiantes de la Facultad de Ciencias ............................................. El Grupo de Astronomía de la Facultad de Ciencias ................................................................................................ Vida científica | 2009 ISSN: 1989-7189 ............................................................................................. Nuestra Facultad (nueva época) .............................................................................. Colaboraciones ....................................................................... — En Ciencias de la Naturaleza: .............................. • El agua, fuente de vida y de problemas, por Pilar Fernández Hernando .................... • Aportaciones de Darwin a la Biología moderna, por Rosario Planelló Carro ....... — En Física: Los rayos cósmicos, las partículas más energéticas de la naturaleza, por Fernando Arqueros Martínez (UCM) .............. — En Química: «Una breve historia de los átomos: la evolución química del Universo», por Enrique Pérez Jiménez (IAA, CSIC) ....... Novedades científicas en 2009: ................................... — En Ciencias Medioambientales, por Consuelo Escolástico León ........................................................... — En Química, por Fernando Peral Fernández . Semblanzas de los Premios Nobel: — Premio Nobel de Física 2008, por Pablo García González ........................................................... — Premio Nobel de Química 2008, por Jesús López Sanz, Elena Pérez Mayoral, Antonio J. López Peinado y Rosa M.ª Martín Aranda .. Efemérides: — 1609, Galileo: el telescopio y las primeras disputas astronómicas, por J. Javier García Sanz ..................................................................................... 109 — 1809, Charles Robert Darwin, por Fernando Escaso Santos ................................................................ 117 — 1989, Hace veinte años que se implantó el primer ventrículo artificial totalmente español por un equipo multidisciplinar en el Hospital de La Princesa de Madrid, por J. Carlos Antoranz y M. Mar Desco ............... 121 — 2009, Adiós al Año Internacional de la Astronomía, por Montserrat Villar Martín (IAA, CSIC) .................................................................................... 125 Las mujeres y la Ciencia: ................................................. 131 — Mujeres y Astronomía, por Josefa Masegosa Gallego (IAA, CSIC) ................................................... 131 4 5 6 6 9 17 20 30 37 41 Enseñanza 50 Enseñanza (y Divulgación) de las Ciencias: ....... — Granada, la última cita. Y seguimos con Ciencia en Acción, por Rosa M.ª Ros Ferré (UPC), Directora de Ciencia en Acción ......... — Historia de la Astronomía a través de los instrumentos de observación, por Enrique Teso Vilar ......................................................................... Taller y Laboratorio: .......................................................... — Experimento histórico: El descubrimiento del del neutrón, por Amalia Williart Torres ....... — Experimento casero: Un espectroscopio casero para observar las líneas de Fraunhofer, por Manuel Yuste Llandres, Carmen Carreras Béjar y Juan Pedro Sánchez Fernández ........................................................... — Laboratorio de matemáticas vía Internet: Un recurso inacabado, por Miguel Delgado Pineda ............................................................................... Nuevas Tecnologías en la Enseñanza: ................... — El portal FisL@bs: Una red de laboratorios virtuales y remotos de Física, por Luis de la Torre Cubillo y Juan Pedro Sánchez Fernández ....................................................................... 56 57 57 57 63 66 76 83 83 88 95 141 142 142 149 163 163 167 175 185 185 Recensiones de libros: ......................................... 195 104 100cias@uned ........................................................................................ 3 Índice 100cias@uned N.º 2 Editorial (nueva época) | 2009 ISSN: 1989-7189 bian y la vida evoluciona. Esta teoría tuvo una gran influencia en todas las áreas relacionadas con las Ciencias Naturales, la Zoología, la Botánica,… y con otros campos del pensamiento, la Filosofía, la Psicología,… Por todo ello el año 2009 fue declarado Año Internacional de la Astronomía y Año Darwin. 100cias@uned se ha sumado a ambos acontecimientos y dedica un parte considerable de este número a trabajos relacionados con la Astronomía y la Biología. Durante el curso pasado tuvimos la desgracia de perder a la profesora Daniela Martín Nevskaia, de la Sección de Químicas, y al profesor Ignacio Carmelo Garijo Amilburu, de la Sección de Matemáticas. Se fueron demasiado pronto. El Consejo de Redacción quiere dejar constancia de su más sentido pésame a sus familiares y compañeros de los Departamentos de Química Inorgánica y Química Técnica y de Matemáticas Fundamentales. Éste es el segundo número de nuestra etapa digital. Aunque con un poco de retraso, justificado por el mucho trabajo que todos tenemos que afrontar, fundamentalmente la preparación de materiales para los nuevos grados que comienzan el curso próximo, contiene información detallada de gran parte de las actividades no curriculares realizadas por la comunidad universitaria de la Facultad de Ciencias. En el año 2009 se conmemoraron dos grandes efemérides y muchas de las actividades organizadas giraron en torno a ellas: el cuarto centenario de la utilización por parte de Galileo Galilei del telescopio para observar el cielo, y el bicentenario del nacimiento de Charles R. Darwin y el 150 aniversario de la publicación de El origen de las Especies. Ambos acontecimientos supusieron una revolución científica que cambió drásticamente la concepción del Universo y de los seres vivos que habitan la Tierra. Galileo se queda asombrado de los millares de estrellas que ve al apuntar al cielo con su telescopio; la Luna, el cuerpo celeste más cercano, presenta una superficie rugosa en la que se aprecian montañas, cuya altura calculó y resultó ser mucho mayor que la montaña más alta de Europa, el Mont Blanc; logró asignar el carácter de satélites a las estrellas móviles alrededor de Júpiter; y un largo etcétera que supuso una concepción nueva del Universo y del lugar que nuestro planeta ocupa en él. La Astronomía se convierte en una ciencia nueva, muy interesante, a la que se dedican muchos esfuerzos humanos y económicos y cuyo desarrollo no ha dejado de crecer. Hoy es uno de los campos científicos con mayor futuro, en el que los Estados invierten grandes cantidades de dinero y en el que trabajan millares de hombres y mujeres por todo el mundo, esclareciendo cada día un poquito más las incógnitas de nuestro origen. Doscientos cincuenta años después otra teoría revolucionó la concepción del origen del hombre, y aunque hoy siguen existiendo grupos poderosos que se oponen a ella, los científicos creen firmemente en la evolución de las especies, tal y como predijo Darwin: las especies cam- 100cias@uned Ignacio Carmelo Garijo Amilburu Daniela Martín Nevskaia Por último, nos congratulamos del éxito de visitas que ha tenido el primer número digital de 100cias@uned, pues ha superado las 6000 y, además, ha habido más de 3000 descargas de los trabajos que en él aparecen. Esto nos da ánimo para seguir por esta vía. 4 Editorial 100cias@uned N.º 2 Nuestra Facultad | 2009 ISSN: 1989-7189 Se inicia esta sección describiendo dos de las actividades más importantes, desde el punto de vista divulgativo, realizadas por la Facultad de Ciencias: el ya tradicional acto de celebración de la festividad de nuestro patrón, San Alberto Magno, en el que además de la lección magistral, que trató sobre el papel de la enseñanza y la investigación dentro de la Universidad, en cuyo marco el profesor Dormido se preguntaba si ambas actividades tenían intereses contrapuestos (debate muy interesante por lo que animamos a nuestros lectores a que lean con atención los argumentos expuestos), se proclamaron los ganadores del IX Concurso de Fotografía Científica, que cada año cuenta con un número mayor de aspirantes. La segunda actividad es el Festival de Ciencia para la Juventud, que se celebró a lo largo de los meses de 100cias@uned (nueva época) noviembre y diciembre de 2009, tanto en la Sede Central como en dieciséis Centros Asociados de la UNED. A continuación se encuentran los apartados ya habituales en esta sección, a saber: los informes de las actividades más importantes que han realizado algunos departamentos a lo largo del año; los resúmenes de las tesis doctorales de algunos de los doctorandos que las han defendido en 2009; asimismo, están incluidos los premios recibidos por los miembros de la comunidad universitaria de la Facultad, los congresos, cursos de verano, seminarios, …, organizados por algunos de sus miembros; y, por último, las actividades del Grupo de Astronomía que durante el año 2009, Año Internacional de la Astronomía, han sido muchas y muy variadas: ciclo de conferencias, exposiciones, observaciones astronómicas, cursos de verano, … 5 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad (nueva época) | 2009 ISSN: 1989-7189 NOTICIAS DEL DECANATO vidades, establecimiento del cronograma definitivo, contactos con los directores de los Centros Asociados… Por fin, el día 2 de noviembre estábamos listos para comenFESTIVAL: CIENCIA PARA LA zar una nueva andadura de divulgación científica. JUVENTUD EN LA UNED Así, durante nueve días, del 2 al 13 de noviembre (incluyendo parte de la Semana de la Ciencia), nuestra FaAl igual que en años anteriores, la FECYT (Fundacultad se convirtió en un punto de encuentro entre cientíción Española de Ciencia y Tecnología) publicó en el ficos y escolares, estos con edades comprendidas entre mes de marzo una convocatoria a nivel nacional para la 11 y 14 años (desde 6.º de Enseñanza Primaria hasta 3.° concesión de una serie de proyectos de divulgación cienESO). Se realizaron un total de 32 sesiones, participando tífica. En el año 2007, en la Facultad de Ciencias de la unos 800 escolares de 13 colegios diferentes de la ComuUNED ya desarrollamos un proyecto financiado por la nidad de Madrid, que eran trasladados gratuitamente en misma entidad, llevando a cabo la divulgación de una autocar junto con sus profesores desde sus respectivos serie de actividades científicas con escolares de la Cocentros hasta nuestra Facultad. Se editaron carteles anunmunidad de Madrid y en diferentes Centros Asociados de ciadores de la acción, que se repartieron por todos los la UNED. El éxito fue tal que nos animó a volver solicitar colegios y Centros Asociados participantes, así como trípde nuevo este año otro proyecto de características simiticos que recogían el programa completo y detallado de lares al anterior. En el mes de mayo nos fue concedido y las dos semanas. Se organizaron sesiones de mañana y en septiembre comenzamos con los planes de organizatarde, asistiendo a cada sesión un número aproximado ción del mismo: búsqueda de colegios de contacto, disede 50 escolares, que eran divididos en dos grupos. En las ño de los carteles anunciadores y de las camisetas de resesiones de mañana, que comenzaban a las 10:30 h, se galo para los escolares, contratación de autocares, diseño realizaban tres actividades seguidas, cada una de ellas y edición de los dípticos con información sobre las acticon una duración aproximada de 30 minutos. Las sesiones de tarde comenzaban a las 15:00 h y duraban aproximadamente una hora y media, participando los alumnos en dos actividades diferentes, de unos 30 minutos cada una. Durante la última media hora, tanto en sesiones de mañana como de tarde, los escolares podían visitar la exposición de «Momentos matemáticos», colección de pósters divulgativos editados por la American Mathematical Society (AMS), expuesta en la primera planta de nuestra Facultad. Estos pósters ponían de manifiesto el papel relevante que las matemáticas desempeñan en la ciencia, la naturaleza, la tecnología y la cultura. Por último, antes de marcharse, Presentación de la conferencia «Cuando los dinosaurios dominaban la península», impartida por el los chicos recibían como regalo un profesor Francisco Ortega, dentro del área temática «Esencias de nuestro entorno natural». 100cias@uned 6 Nuestra Facultad El taller experimental «La luz, el láser, los colores y la materia», impartido por los profesores Manuel Yuste, Carmen Carreras y Juan Pedro Sánchez, dentro del área temática «Por una Física más cercana». kit formado por una camiseta, un bolígrafo y unos pos-it de colores, impresos con los logos del Proyecto, además de una baraja de Familias Astronómicas, realizadas por el Grupo de Astronomía de la UNED (gracias al apoyo económico de todos los Departamentos de la Facultad, el Decanato y el Vicerrectorado de Formación Continua y Extensión Universitaria).. Este año se han realizado un total de 41 actividades científicas, que abarcaban desde conferencias hasta experimentos de laboratorio, pasando por talleres con ordenador, juegos, etc. Las áreas temáticas que englobaban a las actividades eran las siguientes: «Jugando con las Matemáticas» (6 actividades), «Por una Física más cercana» (8 actividades), «Experimentando con la Química» (15 actividades); «Esencias de nuestro entorno natural» (6 actividades) y «El desarrollo sostenible» (5 actividades). Además, la exposición de «Momentos matemáticos» se encontraba abierta al gran público, en horario de 10:00 a 14:00 h y de 15:00 a 18:00 h. De cada una de las actividades se editaron unos dípticos que incluían información detallada acerca del contenido de la actividad y del autor de la misma. La participación e implicación de los profesores de la Facultad fue muy buena, siendo 46 los profesores que colaboraron en la realización de las distintas actividades, Algunos de ellos descubrieron su faceta docente dirigida a un público más joven del que estaban acostumbrados y lo gratificante que resultaba transmitir sus conocimientos a los chicos. Como colaboradores externos a la Facultad, hay que destacar la participación de tres profesores de la Universidad Jaume I de Castellón, que impartieron la actividad «La realidad aumentada» (ofrecida también a todos los miembros de la Facultad, fuera del horario de las actividades) y de Francisco Plou, Investigador Científico del CSIC, que impartió la conferencia. ¿Para qué sirven las enzimas?, además de ceder gustosamente los juegos de «La tabla periódica» y «El concurso de los catalizadores». Por otra parte, es de agradecer la estrecha colaboración que prestaron los bedeles en todo momento, tanto en los días previos a la Semana de la Ciencia como durante el transcurso de la misma (preparación de las bolsas de regalo, distribución de las sillas y mesas en las aulas necesarias, reparto de las camisetas, etc.). Especialmente quiero agradecer a Nacho su esfuerzo en preparar los carteles con los cronogramas de las actividades y en «estar al quite” cuando la llegada de los chicos a la Facultad se adelantaba… Y también a Fernando, el ad- El juego: «El gran concurso de los catalizadores», llevado a cabo por Francisco José Plou (CSIC) y M.ª Luisa Rojas, M.ª Jesús Ávila y Ángel Maroto (UNED), dentro del área «Experimentando con la Química». 100cias@uned 7 Nuestra Facultad El profesor Antonio Costa impartiendo la conferencia «La simetría» dentro del área temática «Jugando con las Matemáticas», en el IES Pere Alsius de Banyoles. Escolares de 3.º de la ESO, del IES Pere Alsius de Banyoles, muy atentos en la actividad «El juego de la Tabla periódica», dentro del área temática «Experimentando con la Química». ministrador, por gestionar todo el tema económico que implica el proyecto, siempre con buen talante… Respecto a las actividades en los Centros Asociados, se llevaron a cabo en unas fechas comprendidas entre el 15 de octubre y el 16 de diciembre. Fueron un total de 33 actividades las que se realizaron en 16 Centros Asociados de la UNED, a los que se desplazaron los profesores responsables de las mismas, desarrollándose 2, 3, e incluso 4 actividades en cada Centro. En algunos casos, en lugar de realizar la actividad en la ciudad sede del Centro Asociado, se llevó a cabo en otra localidad cercana, con objeto de intentar favorecer a escolares que habitualmente tienen menos oportunidades de acceder a actividades de divulgación científica. Este fue, por ejemplo, el caso de las tres actividades programadas a través del Centro Asociado de Girona, que se realizaron los días 30 de noviembre y 1 de diciembre en Banyoles, y a las que asistió un total de 180 escolares de 2.º y 3.º de la ESO, repartidos en grupos de 30 alumnos. En la mayoría de los casos ha existido una gran acogida por parte de los centros implicados, siendo muy elevado el número de participantes y recogiéndose la noticia en ciertos medios locales de comunicación, como prensa y radio. En cuanto a la divulgación y publicidad del proyecto, hay que indicar que la Televisión Educativa de la UNED grabó un programa1 el día 5 de noviembre (emi- tido el día 27), en el que se mostraba la participación de profesores y estudiantes durante el desarrollo de las actividades. Se realizó también un programa de radio en el que se contaba la génesis y los objetivos del proyecto. Además de los dípticos de las actividades, trípticos con el programa y carteles anunciadores de la acción, se publicitó todo el proyecto a través de un enlace en la página Web de la Facultad, que incluía información detallada de las actividades, el cronograma completo y la relación de actividades a realizar en cada uno de los Centros Asociados. Han sido muchos los mensajes de agradecimiento y felicitación recibidos de parte de los colegios participantes, tanto en Madrid como en los Centros Asociados y en general, los profesores responsables de las actividades científicas han quedado muy satisfechos con la experiencia. A pesar de ciertas dificultades y malos ratos (relacionados principalmente con el tema del transporte de los escolares en autocar) al final «siempre queda lo bueno…” y de esto último ha habido bastante, así que como dicen aquello de «no hay dos sin tres…” probablemente estemos dentro de poco inmersos en una nueva andadura de divulgación científica… M.ª Luisa Rojas Cervantes Vicedecana de Químicas y Coordinadora del Proyecto 1 Los interesados pueden ver el programa en la siguiente URL: http://www.canaluned.com/#frontaleID=F_RC&sectionID=S_TELEUNE&videoID=3626. 100cias@uned 8 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad | 2009 ISSN: 1989-7189 NOTICIAS DEL DECANATO to que siempre me he considerado un miembro más de la misma. Así me he sentido y así me han tratado y por eso me produjo una íntima satisfacción la designación con la que el Decano me honró. Gracias de corazón Víctor por tu llamada que inmediatamente acepté. El tema que elegí tiene que ver con los intereses contrapuestos que se plantean en la Universidad entre la investigación y la docencia. Es un tema que a todos nos concierne, que suscita un gran debate y para el que no hay respuestas definitivas. Llevo más de 40 años enseñando en la Universidad (de ellos, más de 25 en la Universidad Nacional de Educación a Distancia). El ejercicio diario de la profesión, la prudencia que nos viene con el paso de los años, el cambio gradual de énfasis doctrinal desde el «qué» hacia el «cómo», un mayor distanciamiento entre lo que realmente se sabe y lo que en último término se transmite creo modestamente, y sin ninguna petulancia, que me ha ido mejorando como docente y, en definitiva, como profesor. Contamos al comenzar este nuevo milenio con una sociedad científica más vertebrada y vigorosa, más motivada que la que los de mi generación nos encontramos cuando a mediados de los años 60 llegamos a la Universidad. Una sociedad con producción científica más ajustada en volumen y calidad media a nuestro entorno occidental. Parece pues fuera de cuestión que la Universidad más adecuada en el presente es la Universidad científica en la que la gran mayoría de sus académicos investigan y enseñan. Pero ¿cuánto se investiga y cuánto se enseña?, ¿dónde está el equilibrio que debe mantener un profesor entre ambas actividades?, ¿cuál se considera que es la función preferente de la universidad: enseñar o investigar?, ¿la Universidad debe rendir cuentas a la sociedad en general y acoplarse a sus demandas o debe fijarse con independencia sus propias metas?, ¿debe buscar el saber por el saber o la aplicabilidad de la investigación y la empleabilidad de sus estudiantes?, ¿debe primarse una evolución similar, en busca de la calidad para todas las universidades o es preferible centrar los esfuerzos en las más avanzadas? Éstas y otras muchas preguntas nos surgen de inmediato cuando tratamos de analizar con espíritu crítico el papel de la Universidad en la sociedad actual. SAN ALBERTO MAGNO 2009 DOCENCIA E INVESTIGACIÓN EN LA UNIVERSIDAD: ¿HAY INTERESES CONTRAPUESTOS? 1. INTRODUCCIÓN Estas notas recogen las reflexiones que expresé en la conferencia que con ocasión de la celebración del día de San Alberto Magno tuve el honor de impartir en la Facultad de Ciencias en un acto que se ha convertido ya en tradicional. Lo hago con gusto y siguiendo el requerimiento que con tal fin me ha hecho la directora y «alma mater» de la revista 100cias@uned, mi buena amiga la profesora Carmen Carreras. Dice el saber popular que es de «bien nacido ser agradecido» y por eso para empezar quisiera expresar mi agradecimiento al Decano de la Facultad, profesor Víctor Fairén, que muy amablemente me invitó para participar en este acto en el que lo habitual es que sea un profesor de la Facultad quien sea el encargado de tomar la palabra. He sido miembro de la Facultad de Ciencias desde mi incorporación a la UNED en el año 1982 hasta que se creó la Escuela Técnica Superior de Ingeniería Informática hace ya algunos años. Muchos de mis afectos y recuerdos se sitúan en esta Facultad y no les ocul- El profesor Dormido impartiendo la lección magistral en el acto académico de celebración del patrón de la Facultad. 100cias@uned (nueva época) 9 Nuestra Facultad En un libro1 escrito a mediados de los años 90, Bill Reading, destacado profesor de la Universidad de Harvard, califica como de «estado en ruinas» a la universidad tradicional enfrentando la concepción de la Universidad de la Cultura con la de la Universidad de la Excelencia. El título elegido por Reading es más una provocación al lector que una convicción. La llamada de atención de su autor por una universidad de la excelencia la trata de acentuar a partir de una institución que considera sobrepasada al seguir anclada en los valores tradicionales de una universidad de la cultura. Naturalmente, Reading no propone renunciar a la herencia del pasado sino dar una preponderancia a la excelencia como justificación social de su existencia y es aquí donde comienza, desde mi modesto punto de vista, el gran debate sobre las diversas «universidades» que pueden configurarse en un futuro más o menos inmediato. La excelencia per se no es un referente claro de las funciones universitarias. En primer lugar habrá que decidir qué queremos hacer y después intentar hacerlo con calidad, que nunca podrá ser lo mismo para todas las instituciones universitarias. En segundo término, muchos pensamos que existe y seguirá existiendo una misión cultural en las universidades, que incluye la transmisión de conocimiento y valores a la sociedad así como un compromiso en la resolución de problemas que afectan al entorno en que cada centro se localiza. Como decía Ortega y Gasset2 la función de la Universidad es difundir la cultura ya que es necesario disponer de ella y no hay otro camino para moverse por la jungla de la vida. Incluso avisaba de que el predominio absoluto de la investigación puede llevar a descuidar tanto la educación de profesionales como la transmisión de la cultura, aunque inmediatamente matizaba que una atmósfera cargada de entusiasmo y esfuerzo científico es el supuesto radical para la existencia de la universidad. La Universidad de hoy se enfrenta a grandes retos a los que debe dar respuesta: • La globalización. • Una competencia creciente. • Las nuevas tecnologías de la sociedad del conocimiento. • Nuevos tipos de estudiantes. Hay pues que adoptar una actitud pro activa para adelantarse a las nuevas situaciones que se nos avecinan. De todas formas, lo que a nosotros nos parecen nuevos problemas son en realidad viejos problemas adaptados a la situación actual que han sido consustanciales con la historia de la institución universitaria desde que a finales del siglo XVIII Wilhelm von Humboldt sentó las bases de la Universidad tal como la concebimos hoy día. 2. ORÍGENES DE LA UNIVERSIDAD MODERNA La pretensión de que las universidades existen para enseñar e investigar parece un hecho incontrovertible a muchos, aunque la importancia relativa de cada uno y la relación entre ambos ha sido fuertemente debatida por los intereses contrapuestos que se manifiestan entre ambos3. Los orígenes de la institución universitaria probablemente se inician en la cultura árabe como centros de formación y enseñanza en el período medieval. Así, el grado de bachiller deriva de un énfasis por la enseñanza y toma su nombre del vocablo árabe baccalaureus que significa «con el derecho a enseñar por la autoridad de otro». Newman4, en su obra La Idea de una Universidad, consideraba que «descubrir y enseñar son funciones distintas; son también dones distintos y no se encuentran normalmente unidos en la misma persona. Quien emplea su tiempo en otorgar sus conocimientos a otros es poco probable que tenga o el tiempo o la energía para adquirir lo nuevo». Newman recomendaba que el objetivo principal de 3 J. Hattie and H. W. Marsh: The relation between research and teaching: A meta-analysis. Review of Educational Research, 66 (4), 507-542 (1996). 4 J. H. Newman: The idea of a university. Garden City, NY, Doubleday (1853). 1 Bill Reading: The University in Ruins. Harvard University Press (1996). Ortega y Gasset: Misión de la Universidad, Obras Completas (12 vol.), t. IV, pp. 313-353, Alianza, (Madrid, 1987). 2 100cias@uned 10 Nuestra Facultad similar a otras de su tipo. Pero Liebig estaba determinado a hacer investigación para contribuir al nuevo conocimiento. Al hacerlo siguiendo los esquemas de Humboldt le dio a su laboratorio una ventaja competitiva sobre los que ya existían y rivalizaban con él en otras universidades. Liebig concentraba las clases en el semestre del verano, lo que le dejaba libre todo el invierno para concentrarse en el trabajo práctico en el laboratorio. Proponía problemas de investigación a sus alumnos, inventó instrumentación más sencilla y fiable para el análisis químico que hacían posible que todos los integrantes del grupo pudiesen realizar su trabajo experimental de forma más rápida. La investigación de los estudiantes se convirtió en la norma del laboratorio, primero centrada en los problemas que planteaba el director y luego dando cierta libertad de acción a todos sus componentes. Hacia 1840 la ventaja competitiva del grupo de Liebig era evidente. La creación del grupo le permitió explorar nuevas avenidas en la investigación con una rapidez que no les era posible seguir a los químicos que trabajaban de forma solitaria o con un muy reducido equipo de colaboradores. Esta misma línea de acción rápidamente fue seguida por otros influyentes profesores como Bunsen en Heidelberg, Kolbe en Leipzig, Bayer en Munich o Franz Neuman en Konigsberg. La enseñanza no se basaba ya esencialmente en la clase magistral y en textos escritos. Ahora giraba alrededor de ejercicios prácticos con técnicas de cuantificación, diseño de instrumentos innovadores y la revisión de los problemas y resultados en el seno del propio grupo. Los estudiantes aprendían a seguir ciertas reglas, protocolos y técnicas rigurosas propias del campo de investigación. Se había producido un cambio de paradigma donde el profesor no presentaba el conocimiento totalmente codificado y estructurado a sus alumnos confiando que estos absorbieran lo mejor del pasado para a partir de ahí intentar construir el futuro. Desde esta base germana, la idea y la práctica de educar por medio del proceso de descubrir se expandió a otros lugares durante la segunda mitad del siglo XIX y primera parte del siglo XX a través de los países mas desarrollados. Pero dos hechos básicos aparecen en la escena en la segunda mitad del siglo XX que ponen en cuestión esta estructura como esquema universal de funcionamiento en la educación superior: una universidad era enseñar conocimiento universal, mientras que la investigación se hacía mejor fuera de ella, estableciendo así una clara distinción entre enseñanza e investigación. Su idea de universidad está relacionada con la idea de una educación liberal. Por su parte von Humboldt, político, ministro de Educación, filósofo y lingüista, al que se le reconoce como el arquitecto del sistema de educación prusiano y fundador de la Universidad Humboldt en Berlín, representa una corriente más idealista donde la relación entre investigación y docencia se considera esencial porque ambas están intrínsecamente relacionadas. En sus propias palabras5 «la universidad no es un lugar donde los estudiantes aprenden a través de la enseñanza si no un lugar donde los estudiantes aprenden a través de su participación en la investigación.» Su modelo fue utilizado como referencia de los sistemas de educación superior en paises tales como Estados Unidos y Japón. En palabras de Margarita Bertilsson el pensamiento «humboldtiano» era una ideología extravagante. En su concepción la relación entre profesor y alumno se hace diferente. En la educación superior el profesor como tal desde una visión tradicional no existe; ambos, profesores y estudiantes, tienen su justificación en la persecución común del conocimiento como co-investigadores. Su ideología sirvió para abrir nuevos espacios conceptuales y, especialmente, racionalizar las intenciones y acciones de las nuevas disciplinas que emergieron con fuerza en las décadas entre 1820 y 1870 en el sistema alemán y, muy especialmente, en la Química y en la Física. Aquí encuentra sus raíces el grupo de investigación académico como una unidad básica de organización en la educación superior. La herramienta principal de esta nueva estructura no fue ni la clase magistral ni la lectura de textos canónicos sino la actividad orientada al descubrimiento en los nuevos laboratorios y seminarios de enseñanza-investigación. El primer ejemplo claro de esta nueva concepción fue el laboratorio organizado y dirigido por el químico Justus Liebig en la pequeña universidad de provincia de Giessen que comenzó a funcionar en 1836 y que perduró durante 3 décadas. El laboratorio comenzó como una escuela de entrenamiento para farmacéuticos de forma 5 W. Humboldt: On the spirit and the organizational framework of intellectual institutions in Berlin. Minerva, 8, 242-267 (1970). (El trabajo original fue publicado en 1809.) 100cias@uned 11 Nuestra Facultad 1. La investigación tiene el potencial de ser capaz de ayudar a mejorar la enseñanza. 2. La investigación se ha demostrado en la práctica que ayuda a mejorar la enseñanza. Aquellos que argumentan que la investigación mejora la enseñanza ofrecen evidencias en línea con la primera proposición, apuntando todas las formas y mecanismos con que los profesores podrían mejorar sus métodos de enseñanza, tales como mantener el contenido del curso actualizado o educar a los estudiantes en la curiosidad intelectual y el pensamiento crítico que caracteriza a la buena investigación. La mayoría de los que argumentan de acuerdo con la segunda proposición rápidamente conceden que enseñanza e investigación pueden ser actividades complementarias, pero inmediatamente citan los numerosos estudios empíricos que se han realizado y que de forma consistente muestran una correlación casi nula entre la productividad de la investigación y el rendimiento de la enseñanza. En esta línea argumentan que la investigación y la enseñanza tienen objetivos diferentes y requieren atributos y habilidades personales distintas. El fin fundamental de la investigación es avanzar en el conocimiento mientras que el de la enseñanza es desarrollar y mejorar las capacidades de los que aprenden. A los investigadores se les reconoce principalmente por lo que descubren y por los problemas que resuelven. Aquellos investigadores que consideramos de primer nivel suelen ser observantes, objetivos, entrenados en realizar inferencias y tolerantes con la ambigüedad, mientras que un profesor excelente debe de tener dotes de buen comunicador y tener una cierta empatía con sus alumnos. Teniendo bosquejados el conjunto de trazos que delinean ambos perfiles es claramente posible y deseable aunque no necesario que tengamos un comportamiento satisfactorio en un dominio o en el otro. La enseñanza y la investigación de calidad son tareas de dedicación completa de forma que el tiempo que empleamos en una de ellas generalmente se lo quitamos a la otra. No debería pues sorprendernos si los estudios empíricos no revelan una correlación significativa entre la investigación de un profesor y la efectividad de su enseñanza. Aunque la productividad investigadora no excluye la calidad de la enseñanza, las dos no están relacionadas a nivel individual. Son posibles todas las combinaciones: excelentes profesores e investigadores, aquellos que destacan solo en una faceta y finalmente quien no lo hace en ninguna de ellas. El «mito del profesor super humano» 1. El paso de una educación de élite a una educación de masas en la educación superior que hacían que este modelo no resultase viable a nivel de una educación de grado. 2. La tendencia de ir de lo simple a lo complejo complica enormemente cada disciplina colocando barreras en la investigación que requieren niveles avanzados de formación que quedan muy lejos del conocimiento bastante más rudimentario que se lograba en una educación al nivel de grado. Es el llamado problema de poner en las condiciones iniciales adecuadas a los componentes de un grupo para poder hacer investigación en un campo. Las ciencias biomédicas ofrecen el ejemplo más espectacular de un cambio muy rápido en el conocimiento en las últimas décadas. La investigación cada vez más requiere de una especialización más dirigida, lo que plantea otros tipos de problemas que pueden encontrar cierto alivio en un sistema, que combine de forma armónica investigación y docencia. Las cifras son importantes. Por dar un ejemplo en matemáticas, la clasificación de temas de investigación incluyen 4.500 subtópicos dispuestos en 62 grandes áreas y esto es la norma en todas las disciplinas de ciencias e ingeniería. Los costes en la educación superior se disparan y los gobiernos de los estados más avanzados de manera cada vez más creciente indican que no están preparados para sufragar los costes unitarios de una educción superior de masas con los niveles de la educación de elite. 3. RELACIÓN ENTRE DOCENCIA E INVESTIGACIÓN Hay quienes opinan que el poner el énfasis de una institución universitaria en la investigación encuentra una de sus justificaciones en la creencia de que con ello se mejora la enseñanza. En realidad hay un fuerte debate y una gran controversia al respecto sobre este tema que, en mi modesta opinión, no tiene todavía una respuesta definitiva a pesar de la ingente y documentada bibliografía que hay sobre el tema. Se puede afirmar que una gran parte del mundo académico y de los responsables de la administración de universidades con perfil investigador apoyan esta creencia que otros muchos cuestionan. En realidad lo que está pasando es que ambas partes están debatiendo dos proposiciones que a mi juicio son diferentes: 100cias@uned 12 Nuestra Facultad ba haciendo y si podrían haber alternativas para mejorar su tarea como profesor. En los años siguientes vino a concluir que nadie aprende cualquier cosa no trivial simplemente porque alguien se la cuente, aunque esté muy bien explicada. Para que los estudiantes aprendan de una forma significativa deben estar activamente comprometidos en su propio proceso de aprendizaje. Un compromiso activo es lo que hay que intentar conseguir en la clase. En lugar de emplear todo el tiempo escribiendo deducciones detalladas y soluciones a los problemas en la pizarra para que los estudiantes la copien, lo que hay que hacer es que algunas veces trabajen individualmente, otras en pequeños grupos para que confronten ellos mismos las soluciones de sus problemas durante la clase. Algunos de ellos son directos, con una solución correcta y otros tienen diversas soluciones que son posibles que los estudiantes deben primero pensar y luego evaluar críticamente para determinar cual es la mejor. El que obtengan o no la respuesta correcta no es tan importante, lo que realmente es fundamental es que ellos se encuentren implicados de forma activa en su búsqueda. A menudo lo logran y cuando no lo hacen están preparados para escuchar de una forma que no sería posible en una clase impartida al modo tradicional. Las asignaciones de tareas para después de las clases así como los tests que ahora realiza Felder son también diferentes. Antes solían consistir casi en su totalidad en sustituciones de fórmulas del tipo «dado esto y esto calcular aquello» y en deducciones de determinadas expresiones. También asigna nuevas tareas de formulación de problemas y algunos ejercicios que requieren que el alumno «piense» poniendo lo mejor de sí en buscar una solución y que implican la lectura de material que explícitamente no se ha considerado en las clases. Quizás el cambio más grande de cómo ahora enseña Felder ha sido su adopción del aprendizaje cooperativo6 como el estilo vehicular que impregna toda su enseñanza. Esta sinergia entre investigación y docencia que se suele proclamar es incluso más difícil de justificar a nivel institucional que a nivel individual. es que no tenemos suficientes profesores-investigadores de la primera categoría para poder poblar todas las aulas de nuestras universidades. La realidad es bastante diferente. A este respecto quisiera comentar la experiencia personal de Richard Felder, profesor de Ingeniería Química durante los últimos 40 años en la Universidad de Carolina del Norte, que personalmente comparto ya que refleja en buena medida mi propia trayectoria personal como profesor. Felder entra en la profesión de «profesor universitario» en 1968 con el entrenamiento y formación en pedagogía que la mayoría de los profesores reciben, es decir, ninguno y por defecto procede a hacer con sus estudiantes lo que habían hecho antes con él sus profesores. Felder preparaba sus notas de clase y las transcribía en la pizarra para que sus estudiantes las copiasen. Algunas veces planteaba preguntas que ocasionalmente obtenían respuestas de sus alumnos menos temerosos y periódicamente les hacía unos tests que en promedio obtenían unas calificaciones de 55 puntos sobre 100 con algunas puntuaciones por debajo de 20. Después de una década con esta rutina, comienza a pensar que las cosas no estaban yendo exactamente de la forma en que se las había imaginado. Siempre había considerado las bajas calificaciones en los tests como el orden natural de las cosas en ingeniería, pero ahora comenzaba a preguntarse si la responsabilidad de este bajo rendimiento de algunos de sus estudiantes podía ser parcialmente suya. No es que Felder se considerase un profesor no preocupado y carente de interés por sus alumnos. En realidad empleaba mucho tiempo preparando las notas de sus clases y se las entregaba de una forma clara y bien organizada a sus estudiantes. De manera consistente obtenía excelentes evaluaciones docentes e incluso había ganado algún premio de enseñanza. La verdadera medida de la efectividad de la enseñanza es la calidad del aprendizaje de los alumnos y así cuanto más pensaba Felder en las bajas calificaciones más tenía que reconocer que sus enseñanzas no eran efectivas. Estaba haciendo todo el trabajo intelectual de organizar e ilustrar los conceptos del curso, lo cual lo apreciaban realmente los estudiantes, pero haciendo todo esto era lo que le llevaba a él a una comprensión de la materia que estaba enseñando. El resultado era que el profesor, ¡estaba aprendiendo el material del curso extremadamente bien! pero no así sus alumnos. En ese punto de reflexión comenzó por primera vez en su carrera a pensar seriamente acerca de lo que esta- 100cias@uned 6 Es un subconjunto del aprendizaje colaborativo que tiene por objetivo que los alumnos aprendan trabajando en equipo. Estas actividades se estructuran de forma que cumplan 5 criterios: a) interdependencia positiva, b) rendición de cuentas individual, c) interacción cara a cara, d) uso apropiado de las habilidades interpersonales, y e) auto-evaluación regular del funcionamiento del equipo. 7 A. W. Astin: What matters in college? Four critical years revisited, San Francisco, Jossey-Bass (1993). 13 Nuestra Facultad Hay que cambiar la cultura de estudiantes de grado «receptores de información» a la de estudiantes de grado «inquisidores del saber y el conocimiento», un escenario en definitiva en el que profesores y alumnos compartan la apasionante aventura del descubrimiento. Es preciso disponer de un marco donde se premie el interés por descubrir lo nuevo, de forma que cada una de las materias de un programa de grado debería ser una ocasión de proporcionar una oportunidad para que los estudiantes se superen a través de métodos basados en el descubrimiento. Se trata de logar un equilibrio razonable con la mirada puesta en el ideal de Humboldt en el nacimiento de la universidad moderna. En su monumental estudio sobre la educación superior en Estados Unidos, A. W. Astin7 encontró una correlación negativa significativa entre el perfil investigador de una universidad y el número de objetivos educativos alcanzados. Concluía su trabajo en los términos siguientes: «Asistir a un centro universitario cuyo profesorado está volcado esencialmente en la investigación aumenta el grado de insatisfacción de los estudiantes e impacta negativamente sobre la mayoría de las medidas de su desarrollo cognitivo y afectivo. Por el contrario, en aquellas instituciones académicas que están fuertemente orientadas hacia el desarrollo del estudiante muestran una estructura de efectos opuesta a la anterior». Astin opina que esta correlación negativa se debe al menos en parte a que las universidades contratan a profesorado con una fuerte orientación investigadora que dan una prioridad baja a la enseñanza a nivel de grado en lugar de a un conflicto inherente entre enseñanza e investigación. Por otra parte, están también aumentando los mecanismos de «rendición de cuentas públicas» y en los últimos años se observa que hay un interés creciente en reforzar la conexión entre investigación y docencia o lo que se ha venido en denominar el «nexo investigación-docencia». El informe Boyer8 de mediados de los 90 fue un aldabonazo para las universidades de perfil investigador que habían desatendido la formación de sus estudiantes de grado. Entre otras muchas acciones dicho informe proponía lo siguiente: «Las universidades con perfil investigador deben hacer que el nexo docencia-investigación sea el eje central de su misión como formadores de estudiantes a nivel de grado» El informa ofrecía evidencias muy persuasivas de que habían fallado seriamente en esta tarea. 4. ENSEÑANZA Y APRENDIZAJE Enseñanza puede significar dos cosas completamente diferentes. En primer lugar, puede simplemente significar presentar información, de forma que si doy una clase sobre un determinado tema yo puedo decir que enseño independientemente de que alguien haya aprendido. El segundo significado de enseñanza es ayudar a alguien a aprender. De acuerdo con este significado —que yo personalmente acepto— si doy una clase sobre algo y los estudiantes no aprenden, yo no he enseñado. El enfoque tradicional de «enseñar un curso» implícitamente utiliza el primer significado. Preparo un programa, explicitando los temas que planifico que voy a cubrir, expongo los temas en clase y por esta tarea me gano mi sueldo como profesor. No importa cuántos estudiantes aprenden, si he explicado el programa he hecho mi trabajo. El enfoque alternativo, en el que se fundamenta muchas de las ideas del proceso de Bolonia, se suele denominar a veces educación basada en resultados. En lugar de definir un curso simplemente escribiendo un programa, se intenta precisar con tanto detalle como sea posible los conocimientos, habilidades y actitudes que deseamos que adquieran nuestros estudiantes cuando finalice el curso. Cuando enseñamos el curso debemos intentar presentar y explicar el conocimiento especificado, proporcionar ejercicios prácticos y realimentación a lo largo del curso y ofrecer ayudas y modelos para las actitudes que consideramos que son importantes que nuestros estudiantes adopten. Incluso si cubrimos el programa en su totalidad, si nuestros estudiantes no aprenden lo que pensamos que deberían aprender deberíamos aceptar que hemos fallado en nuestra tarea. 8 E. Boyer, Scholarship reconsidered: Priorities of the professoriate, Princeton, NJ, Princeton University Press (1990). 100cias@uned 14 Nuestra Facultad cesar nueva información. Los estudiantes funcionan con una panoplia de estrategias en las situaciones de aprendizaje. Algunos prefieren tratar con información concreta —hechos, observaciones, datos experimentales— y otros se encuentran más cómodos con conceptos abstractos y modelos matemáticos. Algunos retienen más de la información visual (figuras, diagramas, gráficas) que de la información estrictamente verbal (palabra hablada o escrita) y otros progresan mejor de forma inversa. Si enseñamos a nuestros estudiantes de una manera que entra fuertemente en conflicto con su estilo de aprendizaje, con seguridad no aprenderán mucho. Desgraciadamente estos desajustes son bastante comunes entre la forma que la mayoría de los profesores de ciencias e ingeniería enseñan y los estilos de aprendizaje de la mayoría de sus estudiantes. Un ejemplo muy común de esta situación es que la mayoría de los estudiantes son «aprendices visuales» y la forma en que presentamos la información en nuestras explicaciones es en su mayor parte de naturaleza verbal. Utilizamos solo la palabra cuando damos clase y esencialmente texto y fórmulas matemáticas en la pizarra, en las trasparencias y en los libros de texto. Otro problema es que nuestros estudiantes aprenden de una forma activa y obtienen su mayor grado de asimilación cuando hacen algo —resuelven problemas o mantienen intercambios de ideas con otros—. Sin embargo, la mayor parte de la enseñanza en nuestras universidades sigue un formato de clase magistral. Los cursos basados en los laboratorios son excepciones notables. Para el aprendizaje activo, sentarse pasivamente hora tras hora mirando a los profesores dar una clase es una gran pérdida de tiempo. Quizás el desajuste más serio en los cursos de ciencias e ingeniería a nivel de grado surgen del hecho de que la mayoría de los estudiantes aprenden por un estilo que podríamos llamar «aprendizaje sensorial». Se encuentran incómodos si no pueden ver conexiones entre lo que se les enseña y el «mundo real». Desgraciadamente para ellos, la mayoría de los profesores de ciencias e ingeniería enseñan de una forma, con la que se encuentran confortablemente asentados en materias de tipo teórico-abstractas, que opera en su contra y en favor de un tipo de «aprendizaje intuitivo». Ya desde el primer año de carrera universitaria, enseguida introducimos a nuestros alumnos en técnicas matemáticas fundamentales, principios científicos básicos, teorías moleculares, etc., y hacemos que esperen al- Las estrategias principales que hay que emplear para seguir este enfoque son: 1. Escribir unos objetivos de aprendizaje claros y usarlos para estructurar los cursos que enseñamos. 2. Utilizar el espectro de estilos de aprendizaje que emplean los estudiantes cuando enseñamos. 3. Emplear un aprendizaje cooperativo y activo. 4.1. Objetivos del aprendizaje Los objetivos del aprendizaje deben formularse a través de sentencias explícitas de lo que los estudiantes deberían ser capaces de hacer si realmente han aprendido algo. Un objetivo de aprendizaje tiene dos partes: un predicado, que dice cuando el estudiante debería ser capaz de realizar una acción especificada, seguida por la acción propiamente dicha. Objetivos de aprendizaje típicos se expresan de la forma siguiente: «Cuando hayas terminado el tema 5 deberías ser capaz de ….» La frase que sigue al predicado debe empezar con un verbo que refleje una acción observable, tales como: «explicar», «calcular», «probar», «derivar», «diseñar» u «optimizar» y tendría que ser una sentencia clara de lo que se espera que el estudiante sea capaz de hacer. Verbos como: «conocer», «aprender», «comprender» y «apreciar» no se deberían usar —esas acciones no son observables directamente. Aunque los objetivos reales que perseguimos son que nuestros alumnos conozcan y comprendan el contenido del curso, la única forma que tenemos de asegurarlo es observando cómo hacen algo que demuestre su conocimiento o comprensión. Por ejemplo, se puede decir que el objetivo es que comprendan la ecuación de estado de un gas ideal y la pregunta es entonces ¿cómo sabemos que realmente lo comprenden? La respuesta podría ser «si les doy algunas temperaturas y presiones de un gas ideal y les pido que calculen el correspondiente volumen específico». En este sencillo ejemplo ése es el objetivo de aprendizaje. Una razón de escribir objetivos de aprendizaje es dar a los estudiantes «benchmarks» contra los cuales puedan verificar su comprensión. Cuanto más explícitos seamos en dar estos objetivos, especialmente aquellos que requieren de altos niveles de pensamiento crítico y creativo, más probable es que los estudiantes lo alcancen. 4.2. Estilos de aprendizaje Los estilos de aprendizaje son las diferentes formas que los estudiantes característicamente adoptan para pro- 100cias@uned 15 Nuestra Facultad universidades se ha dejado de considerar prioritaria la educación a nivel de grado. Hoy el prestigio social de una universidad viene a través de la fama de sus profesores como investigadores; a ver quién se atreve a decir a un famoso investigador recién contratado que tiene que dedicar más tiempo a la enseñanza. Para que acepte el puesto casi siempre hay que garantizarle que su carga docente será ligera. ¿Por qué mejora claramente el nivel de investigación de una generación a otra y no el de la docencia? He aquí un problema que el mundo académico debe corregir de inmediato para acallar las justas críticas que recibe del contribuyente. Hay que impartir una educación superior adecuada a las grandes metas a que aspiran los alumnos y esto no debe ser en absoluto una tarea secundaria de la Universidad. En un sentido similar se pronunció la prestigiosa revista Nature hace algunos años en su manifiesto «For British Science». Entre otras cosas afirma lo siguiente: «la experiencia común demuestra la falsedad de que todos los buenos profesores deben ser también investigadores activos y prestigiosos. Es típico que los buenos Departamentos incluyan un puñado de gente interesada más en la docencia que en la investigación, y matiza: «pero un Departamento con éxito docente debe transmitir también a sus alumnos una visión de primera mano de las fronteras de su tema. Ningún departamento universitario importante con docencia en ciencia y tecnología debe carecer de investigación». Sería deseable que nuestros alumnos recordasen a nuestra Universidad como lo hace John Updike con la suya: «Cinco años en Harvard fueron suficientes. Aún me quedaba mucho por aprender, pero se me había inculcado la liberadora idea de que ahora podría aprender por cuenta propia». gunos años para presentarles las aplicaciones de estas abstracciones. No es difícil inferir de este cuadro que aquellos estudiantes a los que se les trata de enseñar de una forma que entra en conflicto con su estilo natural de aprendizaje encontrarán pocos incentivos en la enseñanza universitaria. Es como si el profesor les estuviese enseñando en una lengua extranjera que ellos desconocen por lo que rápidamente se desconectan y de ahí a desalentarse y fallar en los exámenes solo hay un paso. No resulta pues sorprendente que las investigaciones de naturaleza empírica que se han llevado a cabo muestren que aquellos estudiantes a los que se les enseña casi enteramente utilizando estilos de aprendizaje que no están en sintonía con su estilo preferido no aprenden tanto como aquellos estudiantes en los que sí concuerda. 5. CONCLUSIÓN La buena actividad docente no tiene el reconocimiento social otorgado a la buena actividad investigadora. Si no, compárese el tamizado producido por las evaluaciones de los sexenios de investigación con la total indiferenciación resultante del «café para todos» en la asignación de los quinquenios docentes. Es injusto y desalentador para quien cuida su docencia con mimo y le dedica una parte sustancial de su tiempo. Estoy convencido de que algún día no muy lejano una sociedad sensible y crítica, como aspiro que sea la nuestra con la calidad docente, condenará este desprecio por la docencia. El ex Rector de la Universidad de Harvard y destacado educador estadounidense Derek Bok hacía al dejar su mandato, en la década de los 90, unas interesantes reflexiones en Science sobre cómo las universidades debían recuperar la confianza de la sociedad americana. Decía Bok: «A pesar de que la calidad de la docencia ha mejorado, que la oferta de cursos es mucho más amplia y variada que en el pasado, que hay muchas más conferencias, etc., hay ahora más críticas que hubo antaño. ¿A qué se deben?» Para Bok, la razón está en que en las 100cias@uned Sebastián Dormido Bencomo Dpto. de Informática y Automática E.T.S. de Ingeniería Informática [email protected] 16 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad | 2009 ISSN: 1989-7189 NOTICIAS DEL DECANATO Descripción: Un golpe de viento infortunado nos ofrece la fantástica oportunidad de observar directamente el espectáculo secreto que se oculta bajo una cáscara: el crecimiento de un pollo de gaviota. El increíble invento del huevo permite a las aves crecer separadas de su mamá. Dentro del huevo, al embrión no le falta de nada para crecer. El intenso color amarillo del vitelo nos da una idea de su alto contenido nutritivo. A la derecha vemos restos de la clara, convertida en la vesícula amniótica que, además de satisfacer las necesidades de agua y albúmina, se encarga del reciclaje, haciendo de reservorio de los desechos nitrogenados producidos por el metabolismo del embrión, que podrán ingerirse nuevamente. El pico todavía no es necesario para comer. La arteria umbilical y las venas transportan continuamente todo el alimento directamente al estómago. Tampoco hace falta abrir el pico para respirar. La membrana coroidea que apenas se adivina rodeando todo el embrión, es el pulmón que oxigena los finos capilares que se hacen invisibles. La gran misión del pico es la de romper la cáscara, y por eso vemos en la punta una protuberancia blanquecina, conocida como «el diamante», que desaparecerá a los pocos días de nacer. Por desgracia, esta vez ese momento no podremos contemplarlo… SAN ALBERTO MAGNO 2009 IX CONCURSO DE FOTOGRAFÍA CIENTÍFICA El Jurado para la concesión de los premios del IX Concurso de Fotografía Científica, estuvo constituido por las siguientes personas: — D. Víctor Fairén Le Lay, Decano de la Facultad de Ciencias. — D. José Carlos Antoranz Callejo, Representante del PDI. — D.ª M.ª Rosario Planelló Carro, Representante del PDI. — D. Juan Pedro Sánchez Femández, Representante del PAS. — D. Gerardo Ojeda Castañeda, Director Técnico del CEMAV. — D. Bernardo Gómez García, Realizador del Dpto. de TV y Vídeo del CEMAV. Se presentaron cuarenta y ocho fotografías al concurso. El fallo del Jurado se hizo público durante el acto académico de celebración del patrón de la Facultad el 15 de noviembre, y fue el siguiente: SEGUNDO PREMIO (ex aequo): D. SANTIAGO REIG REDONDO por su fotografía titulada: «6 ojos mejor que uno». Descripción: En las ricas playas de Maputo (Mozambique), el cangrejo arenícola aprovecha la bajada de marea PRIMER PREMIO: D.ª AURORA MARTÍNEZ DE CASTILLA, por su fotografía titulada: «Creciendo sin mamá». 100cias@uned (nueva época) 17 Nuestra Facultad hide a primeros de junio, soportando un calor importante ya que se plantó el hide en un claro. Los EXIF`S son: — Velocidad: 1/3000 segundos — Apertura: 5,6 — Medición Puntual — ISO 400 — AF: AI Servo — Distancia focal: 400 mm — Formato RAW La fotografía ha sido revelada digitalmente con el Digital Photo Professional (DPP). Con el CS4 se ha saturado ligeramente amarillos, azules y rojos, así como eliminado una ramita que estaba tapando una pata del ave y parte del cuerpo. para salir a pastar algas y otros invertebrados todavía más diminutos que ellos mismos. Veinte gramos escasos de peso no les convierten en majar suculento, pero sus rápidos movimientos atraen la atención de multitud de gaviotas y pequeños limícolos. Su supervivencia depende de la rapidez en enterrar su frágil cuerpo de apenas 2 cm. Sólo se aventuran a salir de la arena si el riesgo es compartido y manteniendo una perfecta sincronización con el resto de individuos del grupo. Perder de vista a un compañero en plena alerta puede significar un retraso mortal, refugiarse a tiempo bajo la arena protectora… Características técnicas: Cámara Nikon D80, 1/320 sec f/11 ISO 160, objetivo 18135 mm, luz natural Técnica: Fotografía digital con ajustes básicos TERCER PREMIO: SEGUNDO PREMIO (ex aequo): D. ISRAEL DURÁN PINEL, por su fotografía titulada: «La lucha por la vida». D. ALBERTO RODRÍGUEZ VIDAL, por su fotografía titulada: «El despegue del abejaruco». Descripción: La fotografía está tomada en el Parque Nacional de Tortuguero, situado en la zona noroeste de Costa Rica, a orillas del mar Caribe, con una cámara Sony Alfa 200 y no ha sido manipulada digitalmente. En ella podemos observar el momento en el que una tortuga verde (Chelomia mydas – Carl Von Linné, 1758) llega a la orilla del mar momentos después de su nacimiento. Los especimenes adultos pueden llegar a medir hasta 1,5 metros de longitud y llegan a pesar más de 230 kg. Es la única especie herbívora entre las tortugas marinas y se alimenta de pastos marinos y algas. Debido a esta dieta, sus reservas de grasa son de color verde, de allí su nombre. Se distribuyen en océanos y mares de todas las regiones tropicales del mundo y, esporádicamente, en zonas subtropicales. En la actualidad existe una Descripción: Para la obtención de esta toma del abejaruco alzando el vuelo, fue necesario, en primer lugar, buscar zonas frecuentadas por los mismos. En este caso, se tuvo la suerte de encontrar un área de nidificación. Al estar en zona protegida, hubo que solicitar los permisos pertinentes para poder realizar la actividad fotográfica en dicha zona. Una vez obtenidos, se estudió el terreno para ubicar el hide lo más cerca posible de los nidos pero sin perturbar su actividad diaria. El equipo usado para la fotografía del abejaruco fue: un hide, cámara Canon 40 D, objetivo 100-400 L y trípode. Para esta fotografía se tuvo que estar cuatro horas y media haciendo casi 500 fotografías en el interior del 100cias@uned 18 Nuestra Facultad Después de la incubación, las tortuguillas usan un diente especializado en la punta de su nariz para romper la cáscara del huevo. Este diente desaparece poco después de la explosión. Una vez liberadas de su cáscara, las tortuguillas se mueven en grupo hacia la superficie (en un efecto llamado «protocooperación»). Antes de emerger de la arena, las tortuguillas descansan bajo la superficie hasta que la arena se enfría (señalando la llegada de la noche). Luego, emergen en grupo y se apresuran rápidamente hacia el mar. Según las gentes del lugar, es bastante difícil observar un nacimiento de tortugas en directo, pero nosotros tuvimos esa gran suerte. Los «recién nacidos» se orientan hacia la luz más fuerte que encuentran, que en condiciones naturales, es el horizonte. Si en la playa en la que se encuentran existen muchas luces artificiales, es común que las pequeñas tortugas se desorienten, se desplacen hacia el lado contrario y nunca lleguen al agua. El esfuerzo en conjunto que realizan las tortuguillas para salir del nido y llegar al agua incrementa sus probabilidades de supervivencia. Para llegar al mar, las tortuguillas deben llegar a la orilla antes de ser atacadas por los buitres, cuervos (bastante abundantes en esa zona) e incluso por los cangrejos, que intentarán devorarlas. Emerger de los nidos en la noche las protege de muchos de estos predadores. Por otro lado, obstáculos en la playa como troncos, basura, botes, huellas de vehículos o hasta pisadas de una persona, pueden generar grandes barreras e impedir que las pequeñas tortugas lleguen a su destino. Fue una experiencia inolvidable el poder ayudar a que llegaran todas vivas al agua, evitando que se las comieran o que se desorientaran por el camino. Eso sí, sin tocarlas para no contaminarlas. Los machos que llegan al mar nunca regresarán a tierra. Las hembras, en cambio, regresarán muchas veces para depositar sus huevos. A partir de ahí, las crías de las tortugas verdes vivirán en el océano y las juveniles y adultas, en arrecifes de coral y entre pastos marinos. Su vida ha comenzado. tendencia positiva al crecimiento en la población; sin embargo, aún se mantiene el consumo de carne, grasa y la cosecha ilegal de huevos en el Caribe. Según la Lista Roja (de Especies Amenazadas de la Unión Internacional para la Conservación de la Naturaleza y los Recursos Naturales) se encuentra en peligro de extinción. Respecto al desove, dichas tortugas deben salir a tierra para soltar sus huevos, ya que éstos no están adaptados a la vida bajo el agua. Por otra parte, el cuerpo de las tortugas marinas no está adaptado para la vida en la tierra, por lo que las tortugas son lentas y vulnerables cuando salen a las playas. Así, generalmente anidan por las noches cuando existe menor peligro. Cuando es tiempo para que la hembra adulta anide, ésta migra a la playa donde nació. Sobre cómo llegan a localizar este lugar, no he llegado a obtener ninguna explicación científica (según los guías del parque natural, las pequeñas tortugas se impregnan del olor y la química de la arena y después buscarán de nuevo esta playa, guiadas por el olor de dicha arena, para poner sus primeros huevos) pero seguiré documentándome. Al llegar, se desplaza hasta encontrarse fuera del alcance de la marea alta. Aquí, con sus aletas posteriores, forma una profunda cavidad en la arena (de hasta un metro de profundidad), donde deposita de cien a doscientos huevos y posteriormente los cubre con arena y regresa al mar. Una sola hembra puede anidar hasta 12 veces (pero generalmente lo hace entre 3 y 6 veces) durante una sola temporada de anidación. Una vez terminada esta temporada, regresa a su zona de alimentación, que puede encontrarse a miles de kilómetros de distancia. Repite esta migración cada 2 a 5 años por el resto de su vida. La incubación de los huevos generalmente dura de 50 a 80 días, según las condiciones ambientales. La temperatura de la arena determina si las tortugas a nacer serán machos o hembras. Temperaturas bajas generalmente producen machos y temperaturas más altas, hembras. Los huevos son porosos, dejando pasar tanto vapor de agua como oxígeno y dejando salir el dióxido de carbono eliminado por el embrión. Este intercambio obviamente depende del estado de la playa. Si los huevos son colocados en una playa con bajos niveles de oxígeno (como por ejemplo, donde existe gran cantidad de residuos), es improbable que sobrevivan los embriones. 100cias@uned El Consejo de Redacción de 100cias@uned felicita a los ganadores. Estas fotografías, junto con todas las premiadas en ediciones anteriores, decoran los pasillos de la Facultad de Ciencias. 19 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad (nueva época) | 2009 ISSN: 1989-7189 INFORMACIÓN DE LOS DEPARTAMENTOS nes locales que nos permitieron disfrutar del cielo de la isla a través de sus telescopios, solo superables por las instalaciones de los grandes observatorios internacionales. En este curso no puede dejarse de mencionar la magnífica visita a las instalaciones del Observatorio Astronómico del Roque de los Muchachos y la más que agradable excursión por la isla, con almuerzo y música canaria incluidos, que subvencionó el Centro Asociado para todos los participantes en el curso, estudiantes y profesores. DEPARTAMENTO DE FÍSICA DE LOS MATERIALES Cuatro profesores de nuestro Departamento ocupan cargos de gestión en nuestra Universidad: — Joaquín Summers Gámez, Director del Curso de Acceso para mayores de 25 años, desde marzo de 2006, — Amalia Williart Torres, Vicedecana de Ciencias Físicas de la Facultad de Ciencias, desde octubre de 2005, — Manuel Pancorbo Castro, Secretario de la Facultad de Ciencias, desde octubre de 2006, y — M.ª del Mar Montoya Lirola, Coordinadora del Título de Grado en Física, desde marzo de 2009. CURSOS DE VERANO Y JORNADAS DE FIN DE SEMANA Algunos profesores del Departamento, como miembros del Grupo de Astronomía de la Facultad, han organizado los siguientes cursos de verano y jornadas de fin de semana: — Curso de Verano «Introducción a la Astronomía desde un lugar único: la isla de La Palma», celebrado del 30 de junio al 4 de julio de 2009 en La Palma, codirigido por la profesora Carmen Carreras y el astrónomo David Galadí del Centro Astronómico Hispano Alemán-Observatorio de Calar Alto (Almería). Participaron como ponentes los profesores del Departamento Manuel Yuste, Amalia Williart, Manuel Pancorbo, Mª del Mar Montoya y Carmen Carreras. Otros profesores invitados fueron Ernesto Martínez, del Dpto. de Matemáticas Fundamentales y Director del Grupo de Astronomía de la Facultad de Ciencias de la UNED, Antonio San Blas Álvarez, Gerente de la Reserva Mundial de la Biosfera La Palma, así como numerosos aficionados de las agrupacio- 100cias@uned Figura 1. Carátula del Folleto del Curso“Introducción a la Astronomía desde un lugar único: la isla de La Palma», que se entrega a los participantes con todas las ponencias. 20 Nuestra Facultad Figura 3. Alumnos y profesores del Curso de Verano «La UNED y el Año Internacional de la Astronomía. Curso de introducción a la Ciencia Astronómica» en la sede de El Barco de Ávila. Figura 2. Alumnos y profesores del Curso de Verano «Introducción a la Astronomía desde un lugar único: la isla de La Palma», visitando las instalaciones del Observatorio Astronómico del Roque de los Muchachos (isla de La Palma). verso para que lo descubras» (mayor información puede encontrarse en el apartado del Grupo de Astronomía, al final de esta misma sección). — “II Jornadas de Introducción a la Astronomía», celebradas entre los días 18 y 20 de septiembre de 2009 en Arcos de las Salinas (Teruel). Las jornadas fueron dirigidas por el profesor Manuel Yuste y en ellas actuaron como ponentes los profesores Enrique Teso, Manuel Pancorbo, Amalia Williart y Javier García Sanz de la Facultad de Ciencias de la UNED, David Galadí Enríquez del Centro Astronómico Hispano Alemán de Calar Alto (Almería) y Sebastián Francisco Sánchez Sánchez y Mariano Moles Villamate del Centro de Estudios de Física del Cosmos de Aragón (CEFCA). Durante las jornadas se visitaron las instalaciones de éste último centro astronómico en el Pico del Buitre en la Sierra de Javalambre. También se pudo disfrutar de la Exposición en el Centro Cultural de Arcos de las Salinas. — Curso de Verano «La UNED y el Año Internacional de la Astronomía. Curso de introducción a la Ciencia Astronómica», celebrado del 13 al 17 de julio de 2009 en El Barco de Ávila, codirigido por los profesores M.a del Mar Montoya, de nuestro departamento, y Ernesto Martínez, del Dpto. de Matemáticas Fundamentales. Actuaron como ponentes las profesoras del Departamento Amalia Williart, Carmen Carreras y M.a del Mar Montoya. Otros ponentes del curso fueron los profesores Enrique Teso, José Antonio Bujalance y Ernesto Martínez, de la UNED, y los astrónomos Santos Pedraz, de Calar Alto, Ana Ulla, de la Universidad de Vigo y Presidenta del Grupo Especializado de Astronomía y Astrofísica de la RSEF, y Rosa M.a Ros, de la Universidad Politécnica de Cataluña. En esta ocasión se inauguró la Exposición «El Uni- Figura 4. Tríptico anunciador de las «II Jornadas de Introducción a la Astronomía» en Arcos de las Salinas (Teruel). 100cias@uned 21 Nuestra Facultad CURSOS DE FORMACIÓN CONTINUA PROYECTOS DE INNOVACIÓN DOCENTE Dentro de los Cursos del Programa de Formación del Profesorado, la profesora M.ª Begoña de Luis Fernández dirige el curso «Introducción a la Astrofísica». Dentro del Programa de Formación en el Área de la Salud, las profesoras María Shaw y Amalia Williart dirigen el curso «Aspectos Físicos del uso de las Radiaciones en Medicina. Radioprotección». Varios profesores del Departamento han participado en la II convocatoria de Redes de Investigación para la Innovación Docente con los siguientes proyectos: — La profesora Carreras coordinó la red de innovación docente «Una experiencia piloto: incorporación de actividades e incentivos académicos en el Curso Virtual de la asignatura de Óptica» (código nº 0903019). — El profesor Juan Pedro Sánchez-Fernández coordinó la «Red de innovación docente para el desarrollo de simulaciones de prácticas en Easy Java y su incorporación en asignaturas de Ciencias Físicas (plan actual y futuros grados) impartidas por el Departamento de Física de los Materiales» (código nº 0903085), siendo integrantes de la red los profesores Manuel Pancorbo, M.ª del Mar Montoya y Pablo Domínguez. — El profesor Manuel Pancorbo coordinó la red «Mejora del curso virtual de Física (Ingeniería Técnica de Informática de Gestión) mediante la introducción de la evaluación continua (código nº 62)». PROYECTOS DE INVESTIGACIÓN Durante el curso académico 2008-2009 continuaron los siguientes Proyectos de Investigación: — Estudio del daño por radiación producido por electrones secundarios en sistemas biomoleculares, financiado por el Consejo de Seguridad Nuclear (Ref. 2004I/P00P/004, prorrogado hasta 2009) y cuya investigadora responsable ha sido la profesora María Shaw. Participa también en él la profesora Amalia Williart. — Estudio de procesos atómicos y moleculares con aplicaciones en el uso biomédico de radiaciones, del Programa Nacional de Física (Ref. FIS200910245), cuyo investigador principal es el Dr. Gustavo García Gómez-Tejedor, del Instituto de Física Fundamental del CSIC. En él colabora también la profesora Amalia Williart. — Estructura y dinámica de Fluidos Complejos: problemas de volumen y de interfase, del MEC (Ref. FIS2006-12281-C02-02), cuyo investigador principal es el profesor Miguel Ángel Rubio Álvarez, del Dpto. de Física Fundamental. En él colabora el profesor Pablo Domínguez García de nuestro departamento. — Materiales nanoestructurados de base polimérica: Fenómenos de interfase en relación con sus propiedades y aplicaciones avanzados, financiado por el Consorcio entre Grupos de Investigación de la Comunidad de Madrid (Ref. S0505/MAT-0227), en el que participa Pablo Domínguez. — MICRO-REOLOGÍA: Estructura y dinámica de sistemas coloidales confinados, del Ministerio de Ciencia e Innovación (Referencia FIS2009-14008C02-02), cuyo investigador principal es el profesor Miguel Ángel Rubio, y en el que colabora Pablo Domínguez. COLABORACIÓN CON OTRAS ENTIDADES El Departamento mantiene colaboraciones con otras entidades, entre las que cabe destacar la RSEF y la Asociación Ciencia en Acción: X Concurso CIENCIA EN ACCIÓN celebrado del 25 al 27 de septiembre de 2009 en el Parque de las Ciencias de Granada, participando como Jurado los profesores del Departamento Manuel Yuste y Carmen Carreras. Por otra parte, en el marco de la colaboración con la Facultad de Física de la Universidad de La Habana, el profesor Octavio Calzadilla Amaya, Catedrático de Física General en esa universidad, ha pasado una estancia de 3 Figura 5. Vista general del Parque de las Ciencias de Granada, donde se celebró la X edición del concurso Ciencia en Acción. 100cias@uned 22 Nuestra Facultad REUNIÓN ANUAL DE PROFESORES TUTORES DE LA SECCIÓN DE FÍSICA meses en nuestro departamento, colaborando con los profesores del Grupo de Óptica: Manuel Yuste, Carmen Carreras y Juan Pedro Sánchez-Fernández. Los Departamentos de Física Fundamental, Física de los Materiales y Física Matemática y de Fluidos organizaron conjuntamente la reunión anual de Profesores-Tutores de la Sección de Físicas el 27 de noviembre en la Facultad de Ciencias, con el fin de coordinar las enseñanzas entre los profesores-tutores de los Centros Asociados y los profesores responsables de las asignaturas en la Sede Central. Como es habitual, además de las sesiones de trabajo, los participantes disfrutaron de un almuerzo en la Cafetería de la Facultad de Ciencias Económicas y Empresariales, en el que de manera más distendida comentaron sus opiniones sobre el nuevo proceso de incorporación de todas las universidades al llamado Plan Bolonia. SEMINARIOS Y CONFERENCIAS A lo largo de 2009 se impartieron las siguientes conferencias: — Lo que sabemos del Universo, impartida el 25 de febrero por el Dr. D. Antonio Fernández-Rañada, Catedrático de Electromagnetismo en la Facultad de Ciencias Físicas de la Universidad Complutense de Madrid. — La interferencia en películas delgadas para determinar las constantes ópticas de los materiales, impartida el 19 de junio por el Dr. D. Octavio Calzadilla Amaya, Catedrático de Física Aplicada en la Universidad de La Habana (Cuba). — Presentación del proyecto: Incorporación de medidas reales al laboratorio virtual, impartida el 23 de junio por el Dr. D. Octavio Calzadilla Amaya. — Determinación de las incertidumbres en las medidas experimentales. Propuesta de elaboración del material a incorporar a los guiones de prácticas (presenciales y virtuales), impartida el 25 de junio de 2009 por el Dr. Octavio Calzadilla Amaya. — Durante el Taller experimental de Óptica y de Electricidad y Óptica (julio, 2009), el profesor D. Octavio Calzadilla impartió a los alumnos las siguientes conferencias: • Sistema internacional de unidades. Curiosidades de algunos patrones (6 de julio). • Procesamiento de datos en el laboratorio (7 de julio). • Interferencias en películas delgadas. Aplicaciones, (8 de julio). — Presentación del laboratorio virtual de Óptica, impartida el 9 de julio por D. Juan Pedro Sánchez Fernández, Profesor Asociado del Departamento de Física de los Materiales de la UNED. — Teoría Vectorial del principio de Huygens, impartida el 18 de diciembre por el Dr. D. Luis Manuel Hernández García, Profesor de Óptica en la Facultad de Física de la Universidad de La Habana (Cuba). Por otra parte, varios profesores del Departamento han participado en actividades de divulgación, tanto en la Sede Central como en Centros Asociados, en el marco del «Festival: Ciencia para la juventud en la UNED» (para mayor información ver la presentación del proyecto en el apartado anterior). 100cias@uned DIPLOMA DE ESTUDIOS AVANZADOS Han tenido lugar los siguientes actos de defensa del DEA en el Departamento: Título: Aplicaciones Geofísicas de la Ecuación de la Difusión Autor: D. José Ramón Ruiz Rodríguez Tutor: D. José María Pérez Casas Fecha de lectura: 23 de marzo de 2009 Calificación: Sobresaliente Tribunal: Manuel Yuste Llandres, M.ª del Mar Montoya Lirola y Margarita Chevalier del Río (UCM). Título: Estados de intercara en uniones de nanotubos de carbono Autor: D. Hernán Santos Expósito Tutora: D.ª M.ª del Mar Montoya Lirola Fecha de lectura: 8 de julio de 2009 Calificación: Sobresaliente Tribunal: Manuel Yuste Llandres, M.ª del Mar Montoya Lirola y Margarita Chevalier del Río (UCM). TESIS DOCTORALES PRESENTADAS Se ha defendido la siguiente tesis doctoral: «Espectroscopia alfa-beta-gamma con detectores phoswich mediante discriminación digital de forma de pulsos y su aplicación a la determinación de coincidencias», presentada por D. Roberto de la Fuente Álvarez, el 12 de marzo de 2009, siendo Director de la tesis el Dr. D. Benito de Celis Carrillo, del Dpto. de Física Aplicada de la Universidad de León, y tutora la Dra. D.ª Amalia Williart Torres. Carmen Carreras Béjar Secretaria Docente Carlos García García Secretario Administrativo 23 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad (nueva época) | 2009 ISSN: 1989-7189 INFORMACIÓN DE LOS DEPARTAMENTOS en las Sedes de Baza (Granada), Palencia y Cáceres, el curso: «Alimentación y calidad de vida en las personas mayores: un reto frente al siglo XXI». La impartición de este Curso con «videoconferencias simultáneas» es una experiencia realizada por tercer año consecutivo en los Cursos de Verano con una participación de 67 alumnos entre las tres Sedes. En julio de 2009, el profesor Antonio J. López Peinado ha dirigido el Curso de Verano titulado «Cambio climático: causas e impacto económico-social», celebrado en el Centro Penitenciario de Dueñas en Palencia. DEPARTAMENTO DE QUÍMICA INORGÁNICA Y QUÍMICA TÉCNICA Cinco de nuestros profesores siguen ocupando cargos de gestión, tanto en nuestra Facultad como en el Rectorado: — Coordinadora del Curso de Nivelación de conocimientos de ATS, dependiente del Vicerrectorado de Ordenación Académica: Socorro Coral Calvo Bruzos, desde febrero de 2006. — Secretaria del Curso de Acceso para mayores de 25 años, dependiente del Vicerrectorado de Ordenación Académica: Eloísa Ortega Cantero, desde abril de 2006. — Vicedecana de Ciencias Químicas de la Facultad de Ciencias: M.ª Luisa Rojas Cervantes, desde julio de 2006. — Vicedecana de Ciencias Ambientales de la Facultad de Ciencias: Rosa M.ª Martín Aranda, desde julio de 2006. — Director del Centro Asociado de la UNED en Palencia: Juan de Dios Casquero Ruiz, desde septiembre de 2008. INVESTIGACIÓN Y COLABORACIÓN CON OTRAS INSTITUCIONES Durante el curso académico 2008-2009, se continua el Proyecto de Investigación concedido el año anterior titulado: «Desarrollo de un nuevo sistema de eliminación de compuestos tóxicos y corrosivos en aire generados en depuradoras de aguas residuales». Los organismos participantes en este Proyecto son: CIEMAT, ICP (CSIC), ICV (CSIC) y UNED. Este Proyecto, que empezó en 2006, tiene un periodo de ejecución de cuatro años. Los profesores de nuestro departamento que participan en el mismo son: M.ª Luisa Rojas (coordinadora del grupo de la UNED), Rosa M.ª Martín Aranda y Antonio J. López Peinado. Se ha prorrogado el contrato de investigación con la empresa Hynergreen Technologies. S.A., de acuerdo con el artículo 83 de la LOU. El Departamento de Química Inorgánica y Química Técnica ha llevado a cabo, durante el curso 2008-2009, las siguientes actividades docentes e investigadoras: SEMINARIOS Y CONFERENCIAS PARTICIPACIÓN DEL DEPARTAMENTO EN LA ORGANIZACIÓN DE CURSOS En el pasado año se han impartido en nuestro Departamento las siguientes conferencias: — Structural and Morphological Control of Novel Nanoporous Materials, impartida por el Dr. Ajayan Vinu del International Center for Materials Nanoarchitectonics, World Premier International Research Center, NIMS, Tsukuba, Japón, en el mes de julio. — New Perspectives in Catalysis, impartida por el profesor Jacques C. Védrine, del Laboratoire de Dentro de los Cursos de Extensión Universitaria, el 26 y 27 de enero de 2009, en la Sede de Plasencia, el Departamento organizó el curso: «Obesidad y prevención: abordaje educativo y nutricional», dirigido por la profesora Socorro Coral Calvo Bruzos. La profesora Calvo también dirigió dentro de los Cursos de Verano de la UNED, del 6 al 8 de julio de 2009, en la Sede de Plasencia, y con videoconferencias 100cias@uned 24 Nuestra Facultad Licenciada: CRISTINA GUTIÉRREZ SÁNCHEZ Título: Síntesis de cumarinas mediante reacción de Pechmann y activación de zeolitas por ultrasonidos Directores: R.M.ª Martín Aranda, A.J. López-Peinado y J. Cejka. Facultad de Ciencias, Sección de Químicas. Fecha: 4 de diciembre 2009. Physico-Chimie des Surfaces, Ecole Nationale Supérieure de Chimie de Paris (ENSCP), Francia, en el mes de septiembre. DIPLOMA DE ESTUDIOS AVANZADOS EN QUÍMICA INORGÁNICA El 8 de mayo de 2009, con el tribunal compuesto por los profesores: Antonio R. Guerrero Ruiz, Vicenta Muñoz Andrés y Eduardo Ruiz Hitzky, y el 4 de diciembre de 200, con el tribunal formado por: Antonio R. Guerrero Ruiz, Eduardo Ruiz Hitzky y Ángel Maroto Valiente, se han celebrado las convocatorias correspondientes al curso 2008/09 para la obtención del Diploma de Estudios Avanzados, DEA. En mayo de 2009 expuso públicamente los contenidos de su Memoria docente e investigadora un alumno y en diciembre de 2009 lo hicieron tres alumnos, obteniendo los tres primeros la calificación de Sobresaliente y el último la calificación de Notable. A continuación se detallan los alumnos, el titulo de las Memorias y los directores de las mismas: Licenciado: JORGE HURTADO DE MENDOZA Título: Análisis de multirresiduos de compuestos semivolátiles en especia azafrán, tras extracción con SBSE y análisis por deserción térmica (ATD) acoplada a cromatografía de gases (GC) y espectrometría de masas (MS) en tandem. Directores: R.M.ª Martín Aranda, M. Delgado Carmona, L. Maggi. Facultad de Ciencias, Sección de Químicas. Fecha: 4 de diciembre 2009. Licenciada: M.ª LUISA CARMONA CARMONA Título: Diseño y desarrollo de mezclas bituminosas con polvo de neumáticos usados. Directores: R. M.ª Martín Aranda, A. J. López Peinado, C. J. Durán Valle. Facultad de Ciencias, Sección de Químicas. Fecha: 4 de diciembre 2009. Licenciada: MARÍA SORIA SÁNCHEZ Título: Oxidación de Fenol disuelto en agua con catalizadores metálicos anclados en nanofibras de carbono. Directores: A.R. Guerrero Ruiz y A. Maroto Valiente. Facultad de Ciencias, Sección de Químicas. Fecha: 8 de mayo 2009. 100cias@uned Antonio J. López Peinado Dpto. de Química Inorgánica y Química Técnica 25 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad (nueva época) | 2009 ISSN: 1989-7189 INFORMACIÓN DE LOS DEPARTAMENTOS CONFERENCIANTES INVITADOS El Dr. José Carlos Iglesias Sánchez, contratado postdoctoral con cargo al proyecto CTQ2007-62113, presentó el trabajo desarrollado durante su Tesis Doctoral en la Universidad Autónoma de Madrid sobre «Canales y transportadores de iones basados en estructuras aromáticas pre-organizadas», el 16 de febrero de 2009. La Dra. Pilar Goya Laza, profesora de investigación y directora del Instituto de Química Médica del Centro de Química Orgánica Manuel Lora-Tamayo del Consejo Superior de Investigaciones Científicas impartió el 21 de abril de 2009 la siguiente conferencia: «Química y Fármacos: un binomio imprescindible». Esta actividad se enmarca en el contexto del desarrollo de las prácticas correspondientes a las asignaturas de Segundo Ciclo de la titulación de Ciencias Químicas en los laboratorios del Departamento en la Facultad de Ciencias. El Profesor Dr. Raúl Mocelo Castell del Departamento de Química Orgánica de la Facultad de Química de la Universidad de la Habana (Cuba) realizó una estancia en el Departamento, donde además de discutir con el personal docente e investigador sobre actividades científicas de colaboración, impartió la conferencia «Trabajos recientes en el campo de la síntesis orgánica de heterociclos de cinco miembros con dos heteroátomos», el día 13 de noviembre de 2009. DEPARTAMENTO DE QUÍMICA ORGÁNICA Y BIO-ORGÁNICA SEMINARIO PARA PROFESORES TUTORES Con objeto de establecer las directrices para una correcta coordinación y desarrollo en las asignaturas responsabilidad del Departamento en las titulaciones de Ciencias Químicas y Ciencias Ambientales en el curso académico 2008-2009, se organizó un Seminario para el profesorado que ejerce la acción tutorial en los Centros Asociados, en el mes de enero de 2009. En dicho Seminario se presentó la Guía Didáctica de la asignatura «Biotecnología Aplicada al Medio Ambiente», editada por la UNED, y elaborada por un equipo multidisciplinar de docentes del Departamento. La elaboración de un documento de trabajo, recogiendo las conclusiones generales sobre los diferentes aspectos tratados durante el seminario, ha sido de gran utilidad a lo largo del curso, en particular en lo que se refiere a la superación con éxito por el estudiantado de las diferentes materias. Figura 1. Guía Didáctica de Biotecnología Aplicada al Medio Ambiente. 100cias@uned Figura 2. Una imagen de la presentación «Química y Fármacos». 26 Nuestra Facultad Figura 3. La profesora Dra. Pilar Goya Laza (en el centro de la imagen) con su grupo de investigación. mento de Química Orgánica y Bio-Orgánica de la UNED. La exposición pública del mismo se realizó el 10 de julio de 2009. El proyecto consistió en la síntesis en fase sólida de dos modelos de dipéptidos cíclicos (dicetopiperazinas, DKP), Brevianamida F y DKP Trp_Ala y en la preparación adicional de espaciadores bifuncionales derivados de 3,4-dihidro-2H-pirano. Figura 4. El profesor Dr. Raúl Mocelo Castell con la profesora Dra. Pilar Cabildo Miranda. COLABORACIONES Y PROYECTOS CON OTRAS INSTITUCIONES Figura 6. Estructuras de los dipéptidos Brevianamida F y DKP Trp-Ala. 2. Diploma de Estudios Avanzados de Química Orgánica La firma de un convenio de colaboración entre el Departamento de Química Orgánica y Bio-Orgánica de la UNED y el Departamento de Química Orgánica del Institut Químic de Sarrià, Universitat Ramon Llull, ha originado un trabajo de investigación, con el título «Diseño de Inhibidores potenciales de VEGFR-2 mediante cribado virtual con MOE», desarrollado por D. Jesús Planesas Gálvez bajo la dirección de los Dres. José I. Borrell y Violeta Pérez-Nueno y tutorizado por la Dra. Rosa M.ª Claramunt Vallespí, en el curso académico 2008-2009. Para ello, se ha construido un modelo in silico para realizar el cribado virtual de quimiotecas de moléculas candidatas a inhibir la proteína VEGFR-2 (Vascular Endothelial Growth Factor Receptor), partiendo de moléculas activas y de la estructura cristalográfica de dicho receptor. Como herramienta de cálculo se ha utilizado el 1. Proyecto de investigación en el Máster en Ciencia y Tecnología Química (módulo Química Orgánica) Mediante la firma de un convenio entre la Universidad de Barcelona y la UNED ha sido posible la realización del proyecto titulado «Una nueva aproximación a la síntesis en fase sólida de ciclopéptidos que contienen triptófano» por D.ª Cristina Pulido Lozano. Figura 5. D.ª Cristina Pulido Lozano. El trabajo de investigación ha sido dirigido por el Dr. Don Ernesto Nicolás Galindo del Departamento de Química Orgánica de la Universidad de Barcelona y tutorizado por la Dra. Dionisia Sanz del Castillo del Departa- 100cias@uned 27 Nuestra Facultad — «Limpiando nuestro entorno con plantas», por la Dra. Consuelo Escolástico León, para introducir los mecanismos de recuperación de suelos mediante la utilización de plantas y presentar diferentes técnicas de fitorremediación. — «Las reacciones oscilantes. Ondas químicas», por las Dras. Marta Pérez Torralba, M.ª Ángeles Farrán Morales y M.ª Ángeles García Fernández, que desarrollaron una serie de experimentos donde el color de una disolución cambia cíclicamente en función de la concentración de las diferentes especies químicas que se forman o consumen en Figura 7. Farmacóforo obtenido por análisis de interacciones proteína-ligando. una reacción química. — «El Arte de la Joyería y la Química», software computacional MOE®2008.10 (Molecular Opepor la Dra. Soledad Esteban Santos, rating Environment). donde mediante una serie de imágenes y La defensa de las Memorias Docente e Investigadora diversos objetos, se presenta cómo el para la obtención del Diploma de Estudios Avanzados arte de la joyería se halla conectado al (DEA) en Química Orgánica, se realizó finalmente el 5 de desarrollo de la Química. marzo de 2010. Estas actividades se realizaron tanto en la Facultad de Ciencias de Madrid como en diferentes Centros Asociados (Valdepeñas, Lugo, Melilla, Cádiz,…), y su repercusión ha sido ampliamente reflejada en periódicos y otros medios de comunicación. La profesora Soledad Esteban Santos participó además en la Semana de la Ciencia en la Universidad de Jaén con la conferencia «Química y Sociedad. Interés social de la Química a través de su Historia» en el mes de noviembre de 2009. Figura 8. Las Dras. López, Claramunt y Ávila con Don Jesús Planesas. Tanto para el proyecto de investigación del Máster como para el DEA, actuó el Tribunal compuesto por las Profesoras Dra. M.ª Jesús Ávila Rey, Dra. Rosa M.ª Claramunt Vallespí y Dra. Concepción López García. PARTICIPACIÓN EN PROYECTOS DE DIVULGACIÓN CIENTÍFICA En el marco del «Festival: Ciencia para la Juventud en la UNED», nuestro departamento contribuyó con las siguientes actividades: 100cias@uned Figura 9. Las Doctoras participantes en el proyecto «Festival: Ciencia para la Juventud», de izquierda a derecha: Soledad Esteban Santos, Consuelo Escolástico León, Angeles Farrán Morales y M.ª Ángeles García Fernández. 28 Nuestra Facultad REDES DE INVESTIGACIÓN PARA LA INNOVACIÓN DOCENTE Los objetivos planteados fueron: i) aplicar un sistema de evaluación continua mediante el desarrollo de ejercicios de autoevaluación formativa, y ii) implementar metodologías de aprendizaje activo utilizando sistemas de autoevaluación a través del Curso Virtual (plataforma WebCT). Para ello se han utilizado tres estrategias: i) ampliación de la base de datos de preguntas, iniciada el curso 20072008, ii) diseño y elaboración de pruebas de respuesta objetiva (test de autoevaluación, verdadero/falso y opción múltiple), trabajos en grupo y otras actividades y iii) realización de informes y tratamiento de los datos obtenidos. A modo de ejemplo, en las figuras 10 y 11 se muestran los datos de los resultados (%) del total de los 583 estudiantes matriculados en la asignatura de Ecología. Los avances y resultados del proyecto del curso 2007/2008, junto con la difusión del proyecto actual, 2008/2009, se presentaron en las II Jornadas de Investigación en Innovación Docente en la Universidad Nacional de Educación a Distancia (UNED). Implantación de Grados en el EEES (2009) y en las III Jornadas Internacionales de la Universidad Politécnica de Madrid (UPM) sobre Innovación Educativa y Convergencia Europea (2009), además de en Canal UNED y otros medios de divulgación científica. Dentro de la III Convocatoria de Redes de Investigación para la Innovación Docente: Proyectos Piloto para la Adaptación de la Docencia al Espacio Europeo de la UNED, el Departamento de Química Orgánica y Bio-Orgánica, ha participado con el proyecto de investigación «Aprendizaje Activo a través de la Autoevaluación en los Cursos Virtuales», aplicado a las asignaturas de Ecología y Bases Químicas del Medio Ambiente. El proyecto ha sido desarrollado por el profesorado de ambas asignaturas: Rosa M.ª Claramunt, M.ª Pilar Cabildo, Concepción López, Javier Pérez y Consuelo Escolástico, esta última como Coordinadora. Y la colaboración del profesorado tutor: Antoni Almirall (Centro Asociado de Terrassa), en Ecología, Miguel Ángel Vázquez (Centro Asociado de Baleares) y María del Carmen Sanmartín (Centro Asociado de Pamplona), en Bases Químicas del Medio Ambiente. Los resultados satisfactorios del proyecto anterior, 2007/2008, llevaron a plantear la prórroga del mismo durante el curso 2008/2009. La principal diferencia entre ambos reside en la ampliación al conjunto de estudiantes matriculados. Participaron, 273 (47% de matrícula) en el primer cuatrimestre y 259 (44% de la matrícula) en el segundo cuatrimestre para Ecología. En el caso de la asignatura cuatrimestral, Bases Químicas del Medio Ambiente, el número de participantes ha sido de 92 (14% de matrícula). Rosa M.ª Claramunt Vallespí Directora Consuelo Escolástico León Secretaria Docente del Departamento Figura 10. Porcentaje de presentados y resultados (%) obtenidos por los estudiantes PRESENTADOS, (no participantes a la izquierda en negro y participantes en el Proyecto a la derecha en rojo) en la Primera Prueba Presencial de la asignatura de Ecología (convocatoria de febrero). 100cias@uned Figura 11. Porcentaje de presentados y resultados (%) obtenidos por los estudiantes PRESENTADOS, (no participantes a la izquierda en negro y participantes en el Proyecto a la derecha en rojo) en la Segunda Prueba Presencial de la asignatura de Ecología (convocatoria de junio). 29 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad (nueva época) | 2009 ISSN: 1989-7189 RESÚMENES DE TESIS DOCTORALES • D. Adolfo Gonzalo Vázquez Quesada: «Micro-Reología Computación». DIRECTOR: D. Pep Español Garrigós. DEPARTAMENTO: Física Fundamental. CALIFICACIÓN: Sobresaliente cum laude por unanimidad. FECHA DE LECTURA: 18 de febrero de 2010. Desde finales del año 2008 hasta el momento de cerrar el presente número de 100cias@uned se han defendido las Tesis Doctorales que se indican a continuación, agrupadas por Secciones. Al final de dicha relación se adjuntan los resúmenes de las mismas que nos han enviado sus correspondientes autores, ordenados por fecha de lectura. • D. Óscar Sotolongo Grau: «Ister, Nuevo Índice Oncológico que Optimiza los Tratamientos Radioterápicos y sus Implicaciones en la Planificación de Servicios de Oncología Radioterápica». DIRECTOR: D. J. Carlos Antoranz Callejo. CODIRECTOR: D. Daniel Rodríguez Pérez. DEPARTAMENTO: Física Matemática y de Fluidos. CALIFICACIÓN: Sobresaliente cum laude por unanimidad. FECHA DE LECTURA: 23 de febrero de 2010. SECCIÓN DE FÍSICAS • D.ª Silvia Palero Monllor: «Estudio Teórico-Experimental de la Transferencia de Calor en Absorbedores Solares Volumétricos: Estados Críticos». DIRECTORES: D. Manuel Romero Álvarez y D. José Luís Castillo Gimeno. DEPARTAMENTO: Física Matemática y de Fluidos. CALIFICACIÓN: Sobresaliente cum laude por unanimidad. FECHA DE LECTURA: 12 de diciembre de 2008. SECCIÓN DE QUÍMICAS • D. Roberto de la Fuente Álvarez: «Espectroscopía Alfa-Beta-Gamma con Detectores Phoswich Mediante Discriminación Digital de Forma de Pulsos y su Aplicación a la Determinación de Coincidencias». DIRECTOR: D. Benito Celis Carrillo. TUTORA: Amalia Williart Torres. DEPARTAMENTO: Física de los Materiales. CALIFICACIÓN: Sobresaliente cum laude por unanimidad. FECHA DE LECTURA: 12 de marzo de 2009. • D. Francisco Rafael García García: «Producción de Hidrógeno por Descomposición de Amoniaco: Diseño de Nuevos Catalizadores Basados en Rutenio, Estudio de los Mecanismos de Reacción en Superficie y Aplicación en un Reactor Membrana». DIRECTORES: D.ª Inmaculada Rodríguez Ramos y D. Antonio R. Guerrero Ruiz. DEPARTAMENTO: Química Inorgánica y Química Técnica, CALIFICACIÓN: Sobresaliente cum laude por unanimidad. FECHA DE LECTURA: 12 de diciembre de 2008. • Dª Carmen Hijón de Miguel: «La Teoría del Granulado y su Aplicación a Sistemas Moleculares Complejos». DIRECTOR: D. Pep Español Garrigós. CODIRECTOR: D. Rafael Delgado Buscalioni. DEPARTAMENTO: Física Fundamental. CALIFICACIÓN: Sobresaliente cum laude por unanimidad. FECHA DE LECTURA: 9 de diciembre de 2009. • D. Amirhossein Ahmadi: «Estudio por Simulación de la Compatibilidad de Mezclas de Polímeros». DIRECTOR: D. Juan José Freire Gómez DEPARTAMENTO: Ciencias y Técnicas Fisicoquímicas CALIFICACIÓN: Sobresaliente cum laude por unanimidad. FECHA DE LECTURA: 19 de diciembre de 2008. 100cias@uned 30 Nuestra Facultad • D.ª Gema Paniagua González: «Desarrollo de Nuevos Sensores Fluorescentes con Reconocimiento Selectivo para la Determinación de Digoxina y su Aplicación a Muestras de Suero Humano». DIRECTORES: D.ª Pilar Fernández Hernando y D. J. Senén Durand Alegría. DEPARTAMENTO: Ciencias Analíticas. CALIFICACIÓN: Sobresaliente cum laude por unanimidad FECHA DE LECTURA: 2 de julio de 2009 DEPARTAMENTO: Ciencias y Técnicas Fisicoquímicas. CALIFICACIÓN: Sobresaliente cum laude por unanimidad. FECHA DE LECTURA: 29 de septiembre de 2009 • D. Javier Carretero González: «Efecto de la Nanoarcilla en la Estructura y Dinámica del Caucho Natural». DIRECTOR: D. Miguel Ángel López Manchado TUTORA: Vicenta Muñoz Andrés DEPARTAMENTO: Química Inorgánica y Química Técnica. CALIFICACIÓN: Sobresaliente cum laude. FECHA DE LECTURA: 14 de diciembre de 2009. • D.ª Zuzana Jurasekova: «Espectroscopías Ópticas sobre Superficies Metálicas Nanoestructuradas Aplicadas al Estudio de Flavonoides: Pigmentos Amarillos de Interés en el Patrimonio Histórico Cultural». DIRECTORES: D. José Vicente García Ramos y D. Santiago Sánchez Cortés. 100cias@uned M.ª Teresa Miguel Salazar Personal de la Administración y Servicios Sección: Atención al Estudiante 31 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad | 2009 ISSN: 1989-7189 RESÚMENES DE TESIS DOCTORALES tico convencional (RCC), de los diferentes catalizadores soportados seleccionados. Una vez estudiadas y definidas las propiedades químico-físicas que determinan una mayor actividad catalítica, se evaluó el efecto de un reactor catalítico multifuncional de membrana (RCMM) en la conversión del amoniaco y en la selectividad hacia hidrógeno. Por último se estudiaron los mecanismos de la reacción en superficie, utilizando técnicas «in situ». Producción de hidrógeno por descomposición de amoniaco: diseño de nuevos catalizadores basados en rutenio, estudio de los mecanismos de reacción en su superficie y aplicación en un reactor membrana DISEÑO Y SÍNTESIS DE NUEVOS CATALIZADORES SOPORTADOS: D. Francisco Rafael García García. Autor D. Antonio Guerrero Ruiz y D.a Inmaculada Rodríguez Ramos. Directores Departamento de Química Inorgánica y Química Técnica Fecha de lectura: 12 de diciembre de 2009 Calificación: Sobresaliente cum laude por unanimidad Mención Doctorado Europeo La optimización de los actuales catalizadores soportados, empleados en la descomposición catalítica del NH3, requiere de la síntesis de nuevos materiales que puedan ser empleados con soportes, del crecimiento cristalino controlado de las fases activas y de un conocimiento profundo de la acción promotora de los dopantes utilizados. De acuerdo con la bibliografía los materiales empleados como soporte, en la descomposición catalítica del NH3, deben de ser; básicos, conductores de la electricidad, con un área superficial elevada que facilite la dispersión de la fase activa y estables en la condiciones de reacción. En este sentido, los materiales carbonosos empleados en este trabajo se adaptan perfectamente: grafitos de alta superficie (comerciales), carbones activos (comerciales), nanotubos de carbono (producidos en el Grupo de Diseño Molecular de Catalizadores Heterogéneos [GDMCH] de la UNED-ICP/CSIC) y nanotubos de carbono dopados con N (GDMCH). Los nanotubos de carbono y los nanotubos de carbono dopados con N se obtuvieron respectivamente por descomposición catalítica de C2H2 o C2H2/NH3 en un reactor de lecho fluidizado, utilizando un catalizador de Fe/SiO2. La Figura 1 muestra los nanotubos de carbono después de haber sido purificados con distintos tratamientos ácidos. Por otro lado, la basidad, conductividad eléctrica y grafitización de los soportes se incrementó después de tratarlos a alta temperatura en atmósfera inerte. Todos los soportes empleados en este trabajo fueron caracterizados por TEM, HRTEM, BET-N2-77K, TPD y TPO. Hoy en día, la clara relación que existe entre energía (producción, transporte y consumo) y contaminación atmosférica pone en evidencia la necesidad de utilizar vectores energéticos limpios. Los nuevos vectores energéticos hacen posible el desarrollo de las actuales políticas medioambientales, reduciendo o eliminando la emisión de gases con efecto invernadero a la atmósfera. En este escenario, dos tecnologías están atrayendo la atención de la opinión pública y del sector privado: el H2 como vector energético y las pilas de combustible como sistemas eficaces para la producción de energía eléctrica. Sin embargo, la aplicación del H2 como vector energético pasa por el desarrollo de nuevos métodos para su almacenamiento y transporte. En este sentido, las propiedades físicas del NH3 (líquido a temperatura ambiente y bajas presiones) y su alta densidad energética (17% en peso de H2) hacen posible el uso de éste como molécula almacén de H2. Por otro lado, esta molécula presenta la ventaja de que su descomposición genera corrientes libres de COX: NH3 → N2 + H2. El objetivo de esta Tesis Doctoral ha sido estudiar la descomposición catalítica del NH3 desde tres puntos de vista. En primer lugar, se realizó una investigación en la que se midió la actividad catalítica, en un reactor catalí- 100cias@uned (nueva época) 32 Nuestra Facultad Figura 1. Imágenes TEM de los nanotubos de carbono, empleados como soportes de catalizadores, obtenidos por descomposición catalítica de C2H2: (A) Purificados con HF; (B) Purificados con HF + NNO3. [F.R. García-García et al., Catalysis Today, 133–135, 815–821 (2008).] Es bien sabido que el Ru es uno de los metales más activos en la descomposición catalítica del NH3, por lo que se eligió como fase activa de los distintos catalizadores soportados empleados en este trabajo. Los catalizadores de Ru se prepararon por impregnación a humedad incipiente de los diferentes soportes con una disolución acuosa de Ru(NO)(NO3). El control del tamaño, la forma y la distribución de la partícula metálica durante la síntesis de los catalizadores y su interacción con los diferentes soportes han sido uno de los principales retos estudiados en esta Tesis Doctoral. La Figura 2 muestra cómo las caras de la partícula de Ru cambian en función del tamaño de la misma. Por otro lado, es ampliamente aceptado que la desorción asociativa de los átomos de N para formar N2 es la etapa limitante en la descomposición catalítica del NH3 y que la transferencia electrónica desde elementos electropositivos hacia la fase activa disminuye la energía de activación de la formación de N2. De acuerdo con lo ante- rior, se determinó estudiar el efecto promotor del Na en la actividad catalítica de los catalizadores. Los catalizadores de Ru promovidos con Na se prepararon por impregnación a humedad incipiente sucesiva de los catalizadores de Ru con una disolución acuosa de NaOH. Todos los catalizadores empleados en este trabajo fueron caracterizados por XPS, TPR y quimisorción de CO. Por último, las medidas de actividad catalítica se llevaron a cabo en un RCC. El principal objetivo en esta parte del trabajo fue estudiar diferentes factores que afectan la actividad catalítica: soporte, tratamiento térmico aplicado al soporte, tamaño de partícula de Ru y la presencia del promotor Na. Además, en las instalaciones «European Synchrotron Radiation Facility - ID24» de Grenoble, se estudió por Quick-XANES la evolución de las partículas de Ru durante la descomposición catalítica del NH3. La Figura 3 muestra el efecto del tratamiento térmico y de la adición de N sobre los nanotubos de carbono en la reacción de descomposición de NH3. Figura 2. Diferentes etapas del crecimiento de una partícula de Ru. [F.R. García-García et al., Topics in Catálisis, 52, 758-764 (2009).] 100cias@uned 33 Nuestra Facultad Figura 3. Conversión obtenida en un RCC durante la reacción de descomposición del NH3 para los catalizadores: (● ) RuCNTs-0, ( ■) RuCNTs-N, ( ◆) RuCNTs-1 y (▼) RuCNTs-2. [R. García-García et al. Carbon, 48, 267-276 (2010).] Figura.4. Imágenes SEM de una de las membranas de Pd empleadas en la reacción de descomposición de NH3, después de 100 h de reacción: (a) corte transversal, (b) plano basal y (c) capa de Pd. [F.R. García-García et al., Catalysis Comunications, 9, 482-486 (2008).] DESARROLLO DE UN REACTOR CATALÍTICO MULTIFUNCIONAL DE MEMBRANA (RCMM) en superficie sobre los distintos catalizadores: Análisis Temporal de Productos (TAP) e Intercambio Isotópico H2/D2. Los experimentos TAP se llevaron a cabo en los laboratorios del «Centre for the Theory and Application of Catalysts« de la «Queen University of Belfast» (UK). Estos experimentos han hecho posible estudiar las diferencias en los mecanismos de reacción entre los catalizadores de Ru e Ir, tal y como se muestra en la Figura 5. Además, se evaluó el efecto del tratamiento térmico aplicado sobre los soportes y del promotor alcalino en el mecanismo de reacción. El RCMM empleado en este trabajo integra en una misma unidad, un reactor catalítico y una membrana de Pd altamente selectiva al H2. Este reactor ofrece significativas ventajas sobre los métodos de producción de H2 existentes, ya que puede trabajar a temperaturas significativamente más bajas y/o usar menos cantidad de catalizador que los reactores catalíticos convencionales. Por otro lado, combina en una sola etapa el proceso de generación y separación del H2. Esto es posible debido a la altísima selectividad de la capa de Pd, que hace posible que solo el H2 producido durante la descomposición del NH3 atraviese la membrana de Pd. En esta parte del trabajo también se han estudiados los efectos de la temperatura y del gas de arrastre sobre la permeabilidad del H2 a través de la capa de Pd. La Figura 4 muestra el aspecto de una de las membranas de Pd utilizadas en la descomposición catalítica del NH3, después de 100 h de reacción. Las membranas de Pd se depositaron sobre soportes tubulares de acero inoxidable poroso, por electroless plating deposition en el «department of chemistry engineering» de «Worcester Polytechnic Institute» (EE.UU.). Todas las membranas empleadas en este trabajo fueron caracterizadas midiendo su permeabilidad a H2, He y NH3 a distintas temperaturas y presiones transmembrana. Figura.5. Esquema de las reacciones superficiales, durante la reacción de descomposición de NH3, sobre una partícula de Ru y sobre una partícula de Ir. [F.R. García-García et al., Journal of Catálisis, in press.] Por último, los experimentos desarrollados en el «Equipe Catalyse par les Métaux /LACCO» del CNRSUniversité de Poitiers (Francia), además de informarnos sobre la naturaleza de las partículas metálicas de Ru han proporcionado información muy útil sobre el probable comportamiento del H2 durante la descomposición del NH3, lo que hace posible proponer un mecanismo probable para desorción asociativa de los átomos de H para formar H2. ESTUDIO DE LOS MECANISMOS DE LA REACCIÓN EN SUPERFICIE En el último capítulo de esta Tesis Doctoral se recurrió a las dos técnicas para estudiar los mecanismos de reacción 100cias@uned 34 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad | 2009 ISSN: 1989-7189 RESÚMENES DE TESIS DOCTORALES dologías de desarrollo de sensores químicos para la determinación de los niveles séricos de digoxina, permitiendo el control y mantenimiento de la dosis adecuada. Los sensores desarrollados suponen una alternativa a los métodos existentes, en cuanto a reducción de tiempo de análisis, determinación en continuo, simplicidad de procedimiento, costes, y mayor sensibilidad. El trabajo llevado a cabo se divide fundamentalmente en cinco partes. La investigación desarrollada se presenta exponiendo una serie de trabajos publicados en revistas científicas indexadas: 1. La primera parte consiste en el desarrollo de un inmunosensor químico fluorescente en flujo basado en el empleo de bio-receptores moleculares (anticuerpos) para la determinación de digoxina en muestras de suero humano. “Permanently oriented antibody immobilization for digoxin determination with a flow-through fluoroimmunosensor”. Analytical and Bioanalytical Chemistry, 375, 1020-1023 (2003). (Fig. 1). Desarrollo de nuevos sensores fluorescentes con reconocimiento selectivo para la determinación de digoxina y su aplicación a muestras de suero humano Gema Paniagua González. Autora Dres. J. Senén Durand Alegría y Pilar Fernández Hernando. Directores Departamento de Ciencias Analíticas Fecha de lectura: 2 de julio de 2009 Calificación: Sobresaliente cum laude por unanimidad La digoxina es un fármaco muy utilizado en el tratamiento de las enfermedades cardiovasculares. Entre sus efectos beneficiosos destaca el aumento de la fuerza de contracción del músculo del corazón, a la vez que disminuye la frecuencia cardiaca. Sin embargo, su toxicidad puede ser grave si se administra fuera del estrecho intervalo terapéutico que presenta (0,5-2,0 mg l-1). La determinación de digoxina en fluidos biológicos, dentro de sus límites terapéuticos, requiere métodos analíticos rápidos, selectivos y capaces de evitar falsos positivos que pueden producirse debido a las interferencias por parte de algunos compuestos. Los métodos por excelencia para su determinación son los inmunológicos, siendo la tendencia general la comercialización de kits de inmunoensayos para estos compuestos de interés clínico. Sin embargo, la mayoría de este tipo de dispositivos no están pensados para el análisis en continuo; además, se trata de ensayos irreversibles, o en el caso de que operen de forma reversible presentan el problema de la falta de regenerabilidad y reutilización del sensor; en general, su coste es elevado. Todo ello ha conducido al estudio y desarrollo de nuevas metodologías analíticas que deberán ser lo suficientemente sencillas, rápidas y asequibles desde el punto de vista económico para hacer factible la determinación rutinaria de dicho compuesto dentro de su margen terapéutico de aplicación de forma sensible, selectiva y con la mínima manipulación. El trabajo de investigación realizado en esta Tesis Doctoral supone una contribución a la Química Analítica y Clínica, centrándose en el estudio de nuevas meto- 100cias@uned (nueva época) Figura 1. 2. La segunda parte engloba estudios dirigidos a la obtención de un receptor molecular selectivo sintético, mediante la síntesis y evaluación analítica de varios polímeros de impresión molecular (MIPs) para el analito digoxina, con el objeto de ser aplicados en el desarrollo de un sensor polimérico. “A morphological study of molecularly imprinted polymers using the scanning electron microscope”. Analytica Chimica Acta, 557, 179-183 (2006). (Fig. 2). 3. A partir del polímero cuyas condiciones se han seleccionado como óptimas en los estudios ante- 35 Nuestra Facultad Figura 2. riores se desarrolló un sensor en flujo. El empleo de este receptor molecular sintético (MIP) permite la monitorización y determinación de digoxina, de forma sensible y selectiva, en muestras séricas de pacientes tratados con dicho compuesto. «Determination of digoxin in serum samples using a flow-through fluorosensor based on a molecularly imprinted polymer». Biosensors & Bioelectronics, 23, 1754-1758 (2008). 4. Como conclusión a los trabajos anteriores, en lo que podemos decir constituye la cuarta parte del trabajo, se realiza un estudio comparativo entre los dos fluorosensores desarrollados mediante ambos tipos de receptores, donde se analizan y comparan las características analíticas, así como las ventajas y desventajas existentes entre ellos. Estudio de la posibilidad del uso de polímeros de impresión molecular como alternativa a la tradicional utilización de receptores biológicos. «A MIP-based flow-through fluoroimmunosensor as an alternative to immunosensors for the determination of digoxin in serum samples». Analytical and Bioanalytical Chemistry, 394, 963-970 (2009). 5. La última parte de la investigación, recogida en el último artículo publicado, se orienta a la síntesis de una membrana receptora polimérica (cloruro de polivinilo, con el MIP para digoxina seleccionado de trabajos anteriores), con la que se desarrolla un dispositivo sensor que permita su futura aplicación al diseño de un kit o dispositivo diagnóstico para ser utilizado en la determinación de digoxina en el análisis de rutina de laboratorio de forma rápida y sencilla en muestras de suero humano. «An optical sensor for the determination of digoxin in serum samples based on a molecularly imprinted polymer membrane». Analytica Chimica Acta, 638, 209-212 (2009). (Fig. 3). 100cias@uned Figura 3. En las condiciones óptimas de trabajo, los tres sensores desarrollados fueron muy selectivos, comprobándose en cada caso mediante estudios de reactividad cruzada, la no existencia de interferencias por parte de varios compuestos, como digitoxina y otros fármacos de estructura similar a la digoxina que podían interferir en las determinaciones. Además, fueron aplicados con éxito al análisis de muestras de suero humano procedentes de pacientes del Hospital de Puerta de Hierro tratados con este fármaco. En el caso de los sensores poliméricos, bien usando directamente el MIP en partículas (LDD = 1,7 ´ 10-2 mg l-1), o una conformación de éste en membrana (LDD = 3,17 ´ 10-2 mg l-1), se alcanzaron límites de detección por debajo del límite inferior de concentración del intervalo terapéutico (0,5-2 mg l-1) en el que este analito se suministra. Los fundamentos y desarrollos derivados de esta Tesis Doctoral pueden servir como base de otras futuras investigaciones y para ampliar el conocimiento científico en este área. Así, podría ser posible la extrapolación de los métodos desarrollados a otros analitos. Además, el MIP desarrollado para digoxina ofrece un gran potencial de aplicación, no solo como fase sensora, sino como fase sólida para la extracción y limpieza de este analito en muestras orgánicas, en las que el interés del análisis vaya encaminado a la determinación de otro/s analito/s. 36 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad | 2009 ISSN: 1989-7189 SEMINARIOS, REUNIONES CIENTÍFICAS Y CURSOS DE VERANO Programa: 1. INTRODUCTION TO COMPUTATIONAL FLUID MECHANICS 1.1. What is CFD? 1.2. Possibilities and limitations of Numerical Methods. 1.3. Properties of Numerical Solution Methods. 1.4. Major Discretization Approaches: Finite difference, Finite volume, Finite element. 2. INTRODUCTION TO TURBULENCE 2.1. The nature of turbulent flows. 2.2. The study of turbulent flows. 2.3. The scales of turbulent motion. 3. LARGE-EDDY SIMULATION 3.1. Introduction. 3.2. Filtering. 3.3. Filtered conservation equations. 3.4. The Smagorinsky and related models. 3.5. LES in wavenumber space. — Triad interactions. — The spectral energy balance. — The spectral eddy viscosity. 3.6. Further residual-stress models. — The dynamic model. — Transport-equations models. — Implicit numerical filters. — Near-wall treatment. — Very Large Eddy simulation. 3.7. Final perspectives. Todas ellas fueron impartidas en inglés por el Dr. Eric Serre, del Departamento de Modélisation et Simulation Numérique en Mécanique & Génie des Procédés del CNRS/Universités Aix-Marsella I, II & III (Francia). CICLO DE CONFERENCIAS: Dpto. de Ciencias Analíticas 29 de abril El Departamento del Ciencias Analíticas ha organizado una sesión de conferencias que tuvo lugar en el Salón de Actos de la Facultad de Ciencias el 29 de abril, en el marco de los cursos: — Aguas potables para consumo humano Gestión y control de calidad, y — Calidad del aire y control de la contaminación atmosférica. Las conferencias impartidas y los ponentes fueron los siguientes: — «Contaminación atmosférica por partículas en suspensión en la Comunidad de Madrid», por el Dr. Pedro Salvador Martínez, Investigador del Dpto. de Medio Ambiente del CIEMAT. — «Gestión de un abastecimiento de aguas potables: gestión de sequías», por D. Ricardo González Igualada, Ingeniero Técnico de Obras Públicas del Canal de Isabel II. Dpto. de Física Fundamental 11-14 y 18-22 de mayo En el marco del Programa Interuniversitario de Doctorado FÍSICA DE SISTEMAS COMPLEJOS, que tiene una Mención de Calidad del Ministerio de Educación desde el curso 2003-04 ininterrumpidamente hasta 200809, el Departamento de Física Fundamental ha organizado los ciclos de conferencias indicados más abajo a lo largo del mes de mayo. Ciclo 2: Hydrodynamic Instabilities, Turbulence and Geophysical Applications Fechas: 11, 12, 13, 14, 18, 19, 20, 21 y 22 de mayo Programa: 1. Basic conservation laws for mass, momentum and energy, kinematics of deformation. Stress tensor, Euler equations and basic theorems of Bernoulli, Helmholtz and Kelvin, Navier-Stokes equations. Ciclo 1: An introduction to large eddy simulation of turbulent flow Fechas: 13 y 14 de mayo 100cias@uned (nueva época) 37 Nuestra Facultad Los profesores de la Facultad de Ciencias participan en cada edición con un buen número de Cursos, que suelen tener muy buena acogida y son posteriormente bien valorados por los participantes en ellos. En esta edición, los cursos y directores de los mismos fueron: 2. Surface waves, internal waves, Rayleigh-Taylor instability, seiches, hydraulic jumps. 3. Shear flow instabilities, Squire’s theorem, criteria of Rayleigh and Fjortoft, Orr-Sommerfeld problem, Kelvin-Helmholtz instability. 4. Dynamics of rotating systems, Proudman-Taylor theorem, Rossby waves, inertial waves, Ekman boundary layers, spin-up problem. 5. Boussinesq approximation and linear theories of thermal convection in rotating and magnetic systems. 6. Baroclinic instabilities, doubly diffusive instabilities, general circulation of the atmosphere. 7. The dynamo problem: Generation of planetary magnetism by convection. 8. Comparison of energy stability and linear stability, application to the Taylor-Couette problem. 9. Nonlinear evolution of instabilities, pattern selections and sequences of bifurcations. 10. Statistical theory of turbulence, Kolmogorov cascade, structure functions, the problem of intermittency. Todas ellas fueron impartidas también en inglés por el Prof. Friedrich H. Busse, de la Universidad de Bayreuth (Alemania). En ambos casos, la entrada fue libre para todos los interesados en los temas, matriculados o no en el programa de doctorado. 1. Obesidad infantil y prevención: Abordaje educativo y nutricional (Centro Asociado de Les Illes Balears, del 29 de junio al 1 de julio, el curso se impartió por videoconferencia en las sedes de los Centros Asociados de Mallorca, Menorca e Ibiza). Directora del curso: S. Coral Calvo Bruzos (Dpto. de Química Inorgánica y Química Técnica). 2. Actualizaciones en cáncer: Aspectos clínicos y de investigación básica (Centro Asociado de Plasencia, del 29 de junio al 1 de julio). Directora del curso: Consuelo Boticario Boticario (Dpto. de Ciencias Analíticas). 3. Introducción a la Astronomía desde un lugar único: La isla de La Palma (Centro Asociado de Santa Cruz de la Palma, del 30 de junio al 4 de julio). Directores del curso: Carmen Carreras Béjar (Dpto. de Física de los Materiales) y David Galadí Enríquez (Centro Astronómico Hispano Alemán Observatorio de Calar Alto, Almería). 4. Visión actual sobre drogas (Centro Asociado de Les Illes Balears, del 2 al 4 de julio, el curso se impartió por videoconferencia en las sedes de los Centros Asociados de Mallorca, Menorca e Ibiza). Directora del curso: M.ª del Pilar Cabildo Miranda (Dpto. de Química Orgánica y Bio-Orgánica). 5. Alimentación y calidad de vida en las personas mayores: Un reto frente al siglo XXI (Centro Asociado de Plasencia, del 6 al 8 de julio, el curso se impartió por videoconferencia en las sedes de los Centros Asociados de Baza (Granada) y Palencia). Directora del curso: S. Coral Calvo Bruzos (Dpto. de Química Inorgánica y Química Técnica). 6. Cáncer y sus causas: Mecanismos moleculares que gobiernan el cáncer y el envejecimiento (Centro Asociado de Plasencia, del 6 al 8 de julio). Directora del curso: Consuelo Boticario Boticario (Dpto. de Ciencias Analíticas). 7. Geoquímica y contaminación de agua y suelo (Centro Asociado de Plasencia, del 8 al 10 de julio). Director del curso: Antonio Zapardiel Palenzuela (Dpto. de Ciencias Analíticas). XX CURSOS DE VERANO 2009 22 de junio - 19 de septiembre Entre el 22 de junio y el 19 de septiembre de 2009 tuvo lugar la XX edición de los Cursos de Verano de la UNED, lugar de encuentro de profesores, profesores-tutores, alumnos de la UNED y público interesado en alguna de las temáticas de actualidad, ya sea académica, cultural o científica. 100cias@uned 38 Nuestra Facultad 8. La UNED y el año internacional de la Astronomía. Curso de introducción a la ciencia astronómica (Centro Asociado de Ávila, Sede de El Barco de Ávila, del 13 al 17 de julio). Directores del curso: M.ª del Mar Montoya Lirola (Dpto. Física de los Materiales y Ernesto Martínez García (Dpto. de Matemáticas Fundamentales). 9. Aplicaciones de hoy y mañana de la teledetección (Centro Asociado de Mérida, del 15 al 17 de julio). Director del curso: J. Carlos Antoranz Callejo (Dpto. Física Matemática y de Fluidos). 10. La proyección sociocultural de los dinosaurios: Cuando la paleontología produce monstruos (Centro Asociado de Cuenca, del 20 al 22 de julio). Director del curso: Francisco Ortega Coloma (Dpto. Física Matemática y de Fluidos). Valverde, Magistrado del Tribunal Supremo. El curso ha sido coordinado por el Teniente de la Guardia Civil D. Benigno Martín García y la profesora Rosa M.ª Martín Aranda, Vicedecana de Ciencias Ambientales de nuestra Facultad. El objetivo de estos cursos es acercar el mundo académico y universitario a la importante labor de los agentes del Seprona, al mismo tiempo que poner en común los distintos casos a los que los agentes se enfrentan día a día en su labor de protección del medio ambiente. Para ello, han participado como profesores del curso tanto fiscales, magistrados, mandos de la jefatura del Seprona y profesores de universidad. Los ponentes que han participado en esta edición de 2009 son: — D. Rafael Fernández Valverde, Magistrado del Tribunal Supremo, que presentó una ponencia sobre los delitos sobre la ordenación del territorio y el patrimonio histórico. — D. José Joaquín Pérez de Gregorio, Fiscal Coordinador Delegado de Medio Ambiente y Urbanismo del TSJC de Barcelona, que abordó la temática de los delitos contra los recursos naturales y el medio ambiente. — D. Jorge Moradell Ávila, Fiscal Delegado de Medio Ambiente y Urbanismo de Teruel, que presentó una ponencia sobre los delitos relativos a la ordenación del territorio y la protección del pa- M.ª Teresa Miguel Salazar Personal de la Administración y Servicios Sección: Atención al Estudiante CURSO: LOS DELITOS RELACIONADOS CON EL MEDIO AMBIENTE 10-13 de noviembre de 2009 Un año más, la Facultad de Ciencias ha organizado, en colaboración con el Instituto Universitario de Seguridad Interior (IUISI, http://www.iuisi.es/index.php), un curso exclusivamente dedicado a los agentes de la Guardia Civil (Seprona). Este año el curso ha tratado el estudio de los delitos relacionados con el medio ambiente. Entre los días 10 y 13 de noviembre de 2009, treinta guardias civiles de toda España han asistido a las conferencias impartidas. A la inauguración del curso asistieron el General Gabella, de la Guardia Civil, la profesora Consuelo Maqueda, Directora del IUISI, el profesor Víctor Fairén, Decano de la Facultad de Ciencias, y D. Rafael Fernández Figura 1. Agentes investigando cebos envenenados. 100cias@uned 39 Nuestra Facultad Todas las ponencias dedicaron una importante parte de su tiempo al estudio de casos prácticos, permitiendo a los asistentes establecer un debate para el intercambio de ideas y la resolución de casos. Finalmente, la clausura y entrega de diplomas estuvo presidida por la Vicerrectora Adjunta de Investigación, D.ª Pilar Fernández Hernando, profesora de nuestra Facultad, y por D. Antonio Vercher. Desde estas líneas, los coordinadores del curso y la Facultad de Ciencias desean agradecer a todos los profesores participantes, a la Directora del IUISI y a la Guardia Civil la generosidad a la hora de colaborar con nuestra universidad en el desarrollo de estos cursos. trimonio histórico y del medio ambiente, analizando los diferentes tipos y normativa administrativa. — D.ª M.ª Dolores Serrano, profesora de la Facultad de Derecho de la UNED, que trató los delitos relativos a la protección de la flora, la fauna y los animales domésticos. — D.ª Blanca Lozano Cutanda, profesora de la Universidad del País Vasco, que analizó la articulación entre el Derecho Penal y sancionador administrativo en la persecución de los ilícitos. — D. Benigno Martín García, de la jefatura del Seprona, dedicó su conferencia a los aspectos policiales prácticos. Y, finalmente, la conferencia de clausura fue presentada por D. Antonio Vercher Noguera, Fiscal de Sala Coordinador de Medio Ambiente y Urbanismo, que trató de forma global e integradora la labor del Ministerio Fiscal ante estos delitos. Benigno Martín García y Rosa M.ª Martín Aranda Coordinadores del curso Figura 2. Agentes patrullando. 100cias@uned 40 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad | 2009 ISSN: 1989-7189 PREMIOS Y DISTINCIONES A PROFESORES DE LA FACULTAD DE CIENCIAS Premio de la Sociedad Española de Química Analítica (SEQA) al trabajo de innovación docente: Estrategias innovadoras en un entorno virtual para el estudio de la «Toxicología Analítica». Aprendizaje colaborativo y Convergencia de medios. La Toxicología Analítica es uno de los campos fundamentales de la Toxicología, pues en cualquiera de sus ramas se utilizan los métodos de análisis químico, entre otros. La asignatura Toxicología Analítica está englobada en el Máster en Ciencia y Tecnología Química de la UNED (Módulo I. Química Analítica) y se imparte en el Dpto. de Ciencias Analíticas de la Facultad de Ciencias desde el curso académico 2008/2009. MEJOR TRABAJO DE INNOVACIÓN DOCENTE PRESENTADO EN LA XV REUNIÓN DE LA SOCIEDAD ESPAÑOLA DE QUÍMICA ANALÍTICA (SEQA) San Sebastián, 19-21 de julio Los profesores Rosa M.ª Garcinuño, Pilar Fernández, Alejandrina Gallego y J. Senén Durand, del Dpto. de Ciencias Analíticas de nuestra Facultad, han recibido el 100cias@uned (nueva época) 41 Nuestra Facultad X CIENCIA EN ACCIÓN PREMIOS A «MATERIALES DIDÁCTICOS», “UNIDAD DIDÁCTICA DE NUEVA EDICIÓN» Y “PROYECTOS DE INNOVACIÓN DOCENTE» MENCIÓN DE HONOR EN TRABAJOS DE DIVULGACIÓN CIENTÍFICA EN SOPORTES ADECUADOS Granada, 25-27 de septiembre Accésit al Premio «Mejor Unidad Didáctica de nueva edición»: Este premio está dotado con 3.000 euros: «Reciclado y Tratamientos de Residuos», del que son autores los siguientes profesores: Dionisia Sanz, Soledad Esteban, Pilar Cornago, M.ª del Pilar Cabildo, M.ª Dolores Santa María, Concepción López, Rosa M.ª Claramunt, Consuelo Escolástico, Marta Pérez, Pilar Cabildo, Javier Pérez, M.ª Ángeles García y M.ª Ángeles Farrán (ISBN: 9788436255041). Mujeres en las Estrellas, serie de 8 programas realizados por la Televisión Educativa de la UNED, siendo coordinadoras del proyecto Josefa Masegosa Gallego, del Instituto de Astrofísica de Andalucía (Granada), y Carmen Carreras Béjar, de la Facultad de Ciencias de la UNED, ha recibido una Mención de Honor en Trabajos de Divulgación Científica en Soportes Adecuados, en la X edición del Concurso Ciencia en Acción que se celebró en el Parque de la Ciencias de Granada del 25 al 27 de septiembre. El premio fue concedido por presentar en un atractivo formato televisivo, el papel fundamental, aunque frecuentemente olvidado por la historia, que las mujeres científicas han tenido en el desarrollo de la Astronomía y la Astrofísica, resaltando sus descubrimientos y comentándolos a través de entrevistas con investigadoras actuales. Recomendamos a los interesados en esta serie que lean la colaboración que han realizado sus responsables al final de este apartado. PREMIOS DEL CONSEJO SOCIAL DE LA UNED Portada del libro «Reciclado y Tratamientos de Residuos». CONVOCATORIA 2008 El Consejo Social y la Fundación de la UNED entregaron sus premios anuales en la ceremonia tradicional de Navidad, celebrada el 17 de diciembre de 2009 y presidida por los señores: Juan A. Gimeno, Rector de la UNED, César Alierta, Presidente del Consejo Social, y Jesús Martín Cordero, Presidente de la Fundación UNED. A continuación indicamos las modalidades en las que en esta convocatoria profesores y alumnos de la Facultad de Ciencias han sido premiados. De izquierda a derecha, los profesores Consuelo Escolástico, M.ª Ángeles Farrán, Javier Pérez, M.ª Ángeles García, Marta Pérez y Dolores Santa María, recogiendo el premio. 100cias@uned 42 Nuestra Facultad PREMIOS «FIN DE CARRERA» Y “CURSO ACADÉMICO» PREMIOS «CURSO ACADÉMICO»: En la Facultad de Ciencias, Sección de Física: D. Eliot Hijano Cubelos, del Centro Asociado de Pamplona. A todos ellos el Consejo de Redacción les felicita por los reconocimientos recibidos. PREMIOS «FIN DE CARRERA» En Ciencias Matemáticas: D. Luis Juan Utrera Molina, del Centro Asociado de Sevilla. D. Luis Juan Utrera Molina recibiendo el Premio «Fin de Carrera» 2009. D. Eliot Hijano Cubelos recibiendo el Premio «Curso Académico» 2009. 100cias@uned 43 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad | 2009 ISSN: 1989-7189 SERIE DE LA TELEVISIÓN EDUCATIVA DE LA UNED: Entre las muchas actividades que este grupo planificaron estaba el realizar una mesa redonda con las más representativas, desde las más mayores hasta las más jóvenes, las que han trabajado en universidades, formando a muchas generaciones de astrónomos, y las que han desarrollado su labor en observatorios astronómicos nacionales o internacionales… Pensaron que la televisión educativa de la UNED era un medio idóneo para llegar a todos los hogares españoles, a través de su espacio en la 2 de TVE, y allende nuestras fronteras, a través del Canal Internacional, y acudieron a nosotros. De esta manera surgió una colaboración entre la UNED y el equipo Ella es una Astrónoma. La Directora de la televisión educativa de la UNED, que desde el primer momento se entusiasmó con el proyecto, nos animó a desestimar la idea inicial de una mesa redonda y realizar una serie que recogiera la actividad profesional de dichas mujeres en sus centros de trabajo, lo que suponía buscar financiación para los desplazamientos de los técnicos del equipo a los diferentes observatorios. El poder realizar una serie de siete u ocho reportajes para TVE sobre las astrónomas españolas que a lo largo de varias décadas han contribuido al desarrollo de la Astronomía en nuestro país hizo que todas ellas decidieran buscar la financiación donde fuera necesario. Y así lo hicieron, consiguiendo una Acción Complementaria del Ministerio de Ciencia e Innovación y un proyecto de la FECYT y el apoyo económico del Observatorio de Calar Alto, del Instituto de Astrofísica de Canarias y del Instituto de Astrofísica de Andalucía, que ha permitido la realización de la serie que a continuación presentamos. Por el entusiasmo derrochado y el trabajo bien hecho, queremos indicar también los nombres del equipo técnico del CEMAV que se ha encargado de la realización de la serie: — Directora Televisión Educativa UNED: ÁNGELA UBREVA AMOR. — Guión: BERTA DEL ÁGUILA GARCÍA. — Realización: PEDRO DOMÍNGUEZ ZARANDÓN. — Ayudante de realización: VERÓNICA SIEBELIST BASCHWITZ. “MUJERES EN LAS ESTRELLAS» LOS ANTECEDENTES Con motivo del AÑO INTERNACIONAL DE LA ASTRONOMÍA (AIA 2009) se creó en España, y en muchos otros países, equipos de trabajo para realizar proyectos en torno a algunos temas que supusieran acercar a la población distintos aspectos relacionados con la Astronomía y la Astrofísica. Así, bajo el nombre de Ella es una Astrónoma se creó un equipo interdisciplinar que tenía por objeto poner en evidencia el papel desarrollado por las astrónomas españolas en el desarrollo de esta rama de la Ciencia. Por la cantidad y calidad de los proyectos realizados es de justicia incluir el nombre de todas ellas: — FRANCESCA FIGUERAS SIÑOL, astrónoma, profesora titular del departamento de Astronomía de la Universidad de Barcelona, coordinadora de «Ella es una Astrónoma» — JOSEFINA LING, astrónoma, profesora titular de Astronomía y Astrofísica en la Universidad de Santiago. — BELEN LÓPEZ MARTÍ, astrónoma, investigadora del Centro de Astrobiología del CSIC-INTA. — ADRIANA KICZKOWSKI, socióloga, consultora de género. — ISABEL MÁRQUEZ PÉREZ, astrónoma, investigadora científica en el Instituto de Astrofísica de Andalucía del CSIC (Granada). — JOSEFA MASEGOSA GALLEGO, astrónoma, investigadora científica en el Instituto de Astrofísica de Andalucía del CSIC (Granada). — EULALIA PÉREZ SEDEÑO, filósofa e historiadora de la ciencia, profesora de investigación en el Centro de Ciencias Humanas y Sociales del CSIC. — BLANCA THROUGHTON LUQUE, profesora de instituto, presidenta de la sociedad malagueña de Astronomía. — MONSERRAT VILLAR MARTÍN, astrónoma, científica titular en el Instituto de Astrofísica de Andalucía del CSIC (Granada). 100cias@uned (nueva época) 44 Nuestra Facultad CONTENIDOS DE LA SERIE — Ayudante de realización: MIKEL MARTÍNEZ GAGO. — Locución: ROSA DEL FRESNO DÍAZ. — Producción: VIRGINIA ROJO BARROSO. — Ayudante de Producción: M.ª TERESA LINARES DEL CASTILLO. — Editor: RAÚL GARCÍA GARCÍA. — Operador de cámara: JUAN MANUEL SEGURA REYES. — Ayudante de cámara: PABLO BRAGADO BLANCHART. — Infografía: VÍCTOR SAÚCO DORADO. — Maquillaje: YOLANDA MORENO TIRADO. A continuación indicamos el título y los contenidos de cada uno de los programas, su fecha de emisión y las direcciones URL donde pueden visualizarse (a partir del segundo programa, sólo indicamos el número final adjudicado a cada unos de los programas). Mujeres en las estrellas. 2009. Año Internacional de la Astronomía Fecha de emisión: 06/03/2009 http://www.canaluned.com/#frontaleID=F_RC&sectionID=S_TELUNE&videoID=1548 Este primer programa se grabó en el Observatorio Astronómico Nacional (OAN), fundado en 1790, que junto al Real Instituto y Observatorio de La Marina de San Fernando es una de las instituciones astronómicas españolas más antiguas. En él se hace una presentación de los objetivos planteados con la realización de la serie, así como del Año Internacional de la Astronomía y de las actividades concretas que se realizarán en el pilar Ella es una Astrónoma. Participaron las Dras. EULALIA PÉREZ SEDEÑO, FRANCESCA FIGUERAS y JOSEFA MASEGOSA, miembros de este equipo, la astrónoma más antigua del OAN, la Dra. ASUNCIÓN FUENTE, y la Dra. CARMEN CARRERAS, de la UNED. También se incluye en este programa las entrevistas realizadas durante el acto de inauguración en el CSIC del Año Internacional de la Astronomía a la coordinadora española, Dra. MONSERRAT VILLAR, a la presidenta de la Unión Astronómica Internacional, Prof. CATHERINE CESARSKY y al presidente del CSIC, Prof. RAFAEL RODRIGO. OBJETIVOS DEL PROYECTO La motivación de la producción de estos programas era dar a conocer a la audiencia la contribución de las mujeres pioneras de la Astronomía en España al desarrollo de la Ciencia en general y de la Astronomía en particular. Los objetivos principales para hacer visibles a nuestras pioneras fueron: — Intentar responder a la pregunta de ¿hasta qué punto la realidad actual de la Astronomía en España hubiera sido posible sin su trabajo? — Compartir su experiencia vital en los diferentes ámbitos en que realizaron su actividad investigadora dando a conocer las dificultades que encontraron para desarrollarse como científicas en un ámbito estrictamente masculino. Consideramos además, como un valor añadido, la posibilidad de mostrar al gran público los lugares más emblemáticos de la Astronomía española. Así se cubría un objetivo doble: difundir la Astronomía y hacer visibles a nuestras astrónomas. La realización de la serie de documentales correría a cargo del CEMAV (Centro de Diseño y Producción de Medios Audiovisuales de la UNED), se retransmitiría por la 2 de TVE, en el programa semanal de la UNED, y por el canal internacional de la RTVE. Además, el CEMAV intentaría producir un DVD con el contenido de los diferentes programas emitidos para su distribución a centros públicos. Las coordinadoras del proyecto fueron JOSEFA MASEGOSA, por el equipo Ella es una Astrónoma, y CARMEN CARRERAS, por la UNED. Figura 1. Fotograma de inicio del primer programa. 100cias@uned 45 Nuestra Facultad Mujeres en las estrellas II. Las pioneras españolas: El inicio del camino Fecha de emisión: 17/04/2009 http://www.canaluned.com/..... =1804 Mujeres en las estrellas III. Astrónomas en la Universidad Fecha de emisión: 22/05/2009 http://www.canaluned.com/..... =2032 En este programa se presenta la importancia jugada por la Universidad en el acceso a la carrera investigadora de mujeres interesadas en Astronomía, centrándonos en las grandes universidades madrileñas (Universidad Complutense y Universidad Autónoma). Se ha considerado que es especialmente relevante que existan modelos de mujeres profesoras de Astronomía para el desarrollo posterior de las universitarias como profesionales de la Astronomía. Para ayudarnos a comprender esta situación contamos con las Dras. M.ª JOSÉ FERNÁNDEZ FIGUEROA y ELISA DE CASTRO de la UCM, y ROSA DOMÍNGUEZ TENREIRO y ÁNGELES DÍAZ de la UAM. Todas ellas fueron las primeras en ambas universidades y han sido maestras de una buena parte de los astrónomos profesionales del país. Este segundo programa está dedicado a las primeras astrónomas profesionales de las que se tienen noticias en la joven historia de la Astronomía en España. Se grabó en el Observatorio Astronómico Ramón Maria Aller de la Universidad de Santiago de Compostela, construido en 1943. Allí se formó la primera astrónoma profesional de nuestro país, la Dra. ANTONIA FERRÍN. En este programa se ilustran las dificultades con las que se encontraron estas primeras mujeres en un mundo donde el acceso a la Universidad estaba restringido sólo a unas pocas privilegiadas. De la mano de las Dras. JOSEFINA LING, astrónoma de este observatorio, y FRANCESCA FIGUERAS, coordinadora española del proyecto pilar Ella es una Astrónoma, contamos con las contribuciones de las Dras. ANTONIA FERRÍN, más arriba mencionada, y ASSUMPCIÓ CATALÁ, primera astrónoma de la Universidad de Barcelona. (Para todos nosotros este programa tiene un gran significado emocional ya que ambas han fallecido durante 2009 y éste programa será el testimonio gráfico para las generaciones futuras de las mujeres a las que les debemos la apertura de la puerta para las astrónomas españolas al mundo profesional.) Figura 2. Las Dras. Assumpció Catalá (izquierda) y Antonia Ferrín (derecha). 100cias@uned Figura 3. Fotograma de inicio del tercer programa y la Dra. Elisa de Castro (UCM). 46 Nuestra Facultad Mujeres en las estrellas IV. Mirando al Cielo (Mujeres en los Observatorios I) Fecha de emisión: 19/06/2009 http://www.canaluned.com/..... =2064 pamiento científico en las Islas Canarias. Se hace un recorrido tanto por los inicios de las astronomía observacional infrarroja en el Observatorio del Teide (Isla de Tenerife) así como por las instalaciones del Observatorio del Roque de los Muchachos (Isla de La Palma), para concluir con el instrumento más poderoso de que disponemos a nivel mundial para la observación en el rango ópticoinfrarrojo del espectro electromagnético, el Gran Telescopio Canarias. Todo ello de la mano de astrónomas del Instituto de Astrofísica de Canarias, las Dras. MERCEDES PRIETO, M.ª JESÚS ARÉVALO, ANTONIA VARELA y BEGOÑA GARCÍA LORENZO. Este programa refleja otra realidad bien distinta complementaria de la anterior, la de las astrónomas en los Observatorios. Se grabó en los Observatorios de Sierra Nevada (Granada) y de Calar Alto (Almería). Las experiencias vividas en ambos observatorios pusieron de manifiesto las dificultades que tuvieron que afrontar las primeras astrónomas no sólo para hacerse su lugar en la ciencia, sino incluso para hacer posible el realizar una observación por ellas mismas. Las primeras astrónomas observacionales del país, Dras. PILAR LÓPEZ DE COCA y MERCEDES PRIETO, nos muestran la realidad que vivieron en los comienzos de la astronomía observacional española, durante las décadas de los años setenta y ochenta. Las Dras. ISABEL MÁRQUEZ y JOSEFA MASEGOSA ilustran su desarrollo a partir de los noventa hasta nuestros días. También entrevistamos a la Dra. CARMEN MORALES, que ha realizado una trayectoria de tipo más técnico en el Instituto Nacional de Técnica Aeroespacial (INTA), quien nos acercó a la realidad de las astrónomas en los observatorios espaciales. Mujeres en las estrellas VI. Los observatorios espaciales Fecha de emisión: 27/11/2009 http://www.canaluned.com/..... =3628 En este programa se muestra otra realidad diferente, la de aquellas mujeres que han desarrollado su trayectoria investigadora en centros tecnológicos, no vinculados a universidades. Se grabó en Madrid, en los siguientes centros: Centro de Seguimiento de Satélites (Villafranca del Castillo), Instituto Nacional de Técnica Aeroespacial (INTA), Centro de Astrobiología del CSIC-INTA y Centro de Investigaciones Energéticas y Medioambientales (CIEMAT). Gracias a la colaboración de las Dras. MARÍA SANTOS LLEÓ, de la Agencia Europea del Espacio, MERCEDES MOLLÁ, del CIEMAT, y MERCEDES LÓPEZ, de la Institución Carnegie de Washington, se ha podido visibilizar cómo es la realidad de la observación en los observatorios espaciales. Mujeres en las estrellas V. El Grantecan (Mujeres en los Observatorios II) Fecha de emisión: 02/10/2009 http://www.canaluned.com/..... =3038 Este programa muestra cómo el desarrollo de la astronomía observacional en España ha estado desde sus inicios en los años ochenta ligado al desarrollo del equi- Figura 5. La Dra. María Santos Lleó en la Agencia Europea del Espacio. Figura 4. La Dra. Antonia Varela Pérez en el GRANTECAN. 100cias@uned 47 Nuestra Facultad Mujeres en las estrellas VII. Un futuro prometedor Fecha de emisión: 08/01/2010 http://www.canaluned.com/..... =3659 Mujeres en las estrellas VIII. Con nombres y apellidos Fecha de emisión: 05/03/2010 http://www.canaluned.com/..... =4470 Con este programa cerramos nuestro viaje por las diferentes realidades de las astrónomas españolas. Se ha grabado en Barcelona, en el Centro de Supercomputación y la sede central de la Universidad de Barcelona. En este programa se muestra cómo la astronomía teórica necesita del concurso de grandes medios instrumentales, grandes ordenadores, en vez de telescopios, para mostrarnos cómo es el Universo que observamos mediante simulaciones informáticas. Con la colaboración de la única profesora de investigación del país, la Dra. MARGARITA HERRANZ, de la profesora de la Universidad de Barcelona, CARME JORDI, y de dos astrónomas jóvenes y brillantes, las Dras. OLGA MUÑOZ y MAITE BELTRÁN, podemos entender la realidad con la que se encuentran en la actualidad las mujeres que quieren hacer una carrera profesional en el campo de la Astronomía. Aunque existían sospechas fundadas en el trabajo realizado por las doctoras JOSEFA MASEGOSA e ISABEL MÁRQUEZ de la desigualdad de género en la Astronomía en España, sin embargo no existía aún un trabajo riguroso que permitiera extraer conclusiones de tipo sociológico sobre nuestra realidad. El equipo de trabajo de Ella es una Astrónoma se embarcó en la realización de un estudio sociológico detallado sobre dicha realidad. Este estudio ha sido financiado por el CSIC. En este programa, dedicado a la sociología de la Astronomía, se presentaron los resultados de dicho análisis por las sociólogas responsables del mismo, ADRIANA KICZKOWSKI y la Dra. EULALIA PÉREZ SEDEÑO. Y, a modo de resumen, todo el equipo de Ella es una Astrónoma hizo una evaluación de esta fascinante experiencia que ha sido conocer la Astronomía española Figura 6. Recortes de las diferentes entrevistas realizadas en el que la protagonista es la Astronomía realizada por mujeres. 100cias@uned 48 Nuestra Facultad Figura 7. Varias de las protagonistas de la serie en los jardines de la Residencia de Señoritas de la calle Fortuny de Madrid, hoy Fundación Ortega y Gasset. a través de sus astrónomas. Contamos para ello con el inmejorable marco de la biblioteca, sala de reuniones y jardines de la Residencia de Señoritas (actual Fundación Ortega y Gasset), por la que pasaron gran parte de las primeras mujeres científicas en el primer tercio del siglo pasado, desde su fundación en 1915 hasta su cierre con motivo de la Guerra Civil. serie como el mejor trabajo en este campo y el único en su modalidad. Para concluir, queremos manifestar que todos los implicados en esta serie: el equipo del pilar Ella es una Astrónoma, los técnicos de la televisión educativa de la UNED, su Directora y la profesora de la UNED que ha servido de enlace entre ambos, Carmen Carreras, han disfrutado en la realización de cada uno de los programas de esta serie, están muy satisfechos de los resultados de la misma, de su impacto en la comunidad científica de nuestro país (los programas se han difundido en directo y en diferido también a través de la página web oficial del nodo español del Año Internacional de la Astronomía), y muy probablemente nos animemos a realizar proyectos similares en otros ámbitos científicos: la Física, la Química, la Biología,… RECONOCIMIENTOS Y PREMIOS RECIBIDOS La X edición del Concurso Ciencia en Acción, que se celebró en el Parque de las Ciencias de Granada en septiembre de 2009, premió la Serie de televisión educativa de la UNED: Mujeres en las Estrellas con una Mención de Honor en la modalidad de Trabajos de Divulgación Científica en Soportes Adecuados. En el acto de clausura del Año Internacional de la Astronomía1, en el que se presentaron todos los proyectos realizados por los equipos formados para el desarrollo de los distintos pilares, se reconoció esta Josefa Masegosa Gallego Instituto de Astrofísica de Andalucía, Ángela Ubreva Amor Directora de la Televisión Educativa de la UNED, y 1 Congreso Astronomy beyond 2009, celebrado en París el 9 y 10 de enero de 2010. Visitar la conferencia de Catherine Cesarsky en: http://www.virtualmeeting.info/astronomy/beyond2009/ 100cias@uned Carmen Carreras Béjar Dpto. de Física de los Materiales, UNED 49 Nuestra Facultad 100cias@uned N.º 2 Nuestra Facultad (nueva época) | 2009 ISSN: 1989-7189 EL GRUPO DE ASTRONOMÍA DE LA FACULTAD DE CIENCIAS dos sitios diferentes, es posible determinar el radio de la Tierra. Se aconseja a los interesados en conocer más exhaustivamente el procedimiento de medida propuesto por Eratóstenes consultar La UNED y el radio de la Tierra, 100cias@uned, 0, 77-79 (1997), del profesor Yuste. ACTIVIDADES DEL GRUPO DE ASTRONOMÍA EN EL AÑO INTERNACIONAL DE LA ASTRONOMÍA En el año 1609 Galileo Galilei apuntó por primera vez al cielo con un telescopio. Fue el comienzo de 400 años de descubrimientos que aún continúan. El 27 de octubre de 2006 la Unión Astronómica Internacional (UAI) anunció la declaración por la UNESCO de 2009 como el Año Internacional de la Astronomía (AIA2009), ratificada por la ONU el 19 de diciembre de 2007. El Año Internacional de la Astronomía ha representado una celebración global de la Astronomía y de su contribución a la sociedad, a la cultura, y al desarrollo de la humanidad. Su objetivo principal ha sido motivar a los ciudadanos de todo el mundo a replantearse su lugar en el Universo a través de todo un camino de descubrimientos que se inició hace ya 400 años. Para ello, desde el nodo español del Año Internacional de la Astronomía, se promovieron actividades repartidas por todo el mundo con las que se ha pretendido estimular el interés por la Astronomía y la Ciencia en general; desde su influencia en nuestras vidas diarias hasta cómo el conocimiento científico puede contribuir a un mundo más libre e igualitario. El Grupo decidió desde el primer momento estar presente en esta celebración y en su reunión anual del 10 de noviembre de 2008, aprobó la organización y participación en diferentes actividades, que se desarrollaron a lo largo de 2009. Ofrecemos un breve resumen de las mismas. Figura 1. Marcando en un pliego sobre el suelo la posición de la sombra del gnomón (comenzamos a medir a las 12:00 h. y terminamos a las 15:00 h.). PARTICIPACIÓN EN LA MEDICIÓN DEL RADIO DE LA TIERRA El 26 de marzo, «Día de la UNED», el Grupo organizó una Jornada de observación solar para colaborar, junto a más de 800 centros educativos y colegios, en la medición del radio de la Tierra, mediante el método de Eratóstenes. En la gráfica de la Figura 1 pueden verse los resultados obtenidos. Con el valor mínimo de la sombra de un gnomón y las coordenadas del lugar, tomados en 100cias@uned Figura 2. Representación gráfica de la longitud de la sombra del gnomón en función del tiempo. 50 Nuestra Facultad CONFERENCIAS (10/11/2009), durante la IX Semana de la Ciencia. Se realizó un programa corto para la televisión educativa, titulado: El Universo para que lo descubras (fecha de emisión: 04/12/2009): http://www.canaluned.com/#frontaleID=F_RC&sec tionID=S_TELUNE&video ID=3675. Un viaje por el Sistema Solar, por David Galadí Enríquez del Centro Astronómico Hispano Alemán-Observatorio de Calar Alto (19-11-2009), durante la IX Semana de la Ciencia. Se realizó también un programa corto para la televisión educativa, titulado: Conoce al astro rey (fecha de emisión: 11/12/2009): http://www.canaluned.com/#frontaleID=F_RC&sec tionID=S_TELUNE&video ID=3714. Las conferencias que se impartieron en el Salón de Actos de la Facultad de Ciencias Económicas y Empresariales fueron retransmitidas en directo y en diferido por Internet a través de la página web UNED (“Teleactos»). También se hicieron programas para la televisión educativa. A continuación indicamos el título de las conferencias, los nombre de los conferenciantes, las fechas en que se impartieron y las URL’s donde pueden visualizarse. — Lo que sabemos del Universo, por Antonio Fernández-Rañada, de la Universidad Complutense de Madrid (25/02/2009): http://teleuned.uned.es/teleuned2001/directo.asp?ID=3888&Tipo=C (teleacto) y http://www.canaluned.com/#frontaleID=F_RC&se ctionID=S_TELUNE&videoID=1546 (noticia emitida el 06/03/2009). — El cielo visto por las astrónomas, por Josefa Masegosa del Instituto de Astrofísica de Andalucía), en el Acto de entrega del Premio Elisa Pérez Vera (11/03/2009): http://www.canaluned.com/#frontaleID=F_RC &section ID=S_TELUNE&videoID=1966 (teleacto) y http://www.canaluned.com/#frontaleID=F_RC&sectionID=S_TELUNE&videoID=1681 (noticia emitida el 20/03/2009). — Rayos cósmicos de ultra alta energía: las partículas más energéticas de la naturaleza, por Fernando Arqueros de la Universidad Complutense de Madrid (25/03/2009): http://teleuned.uned.es/teleuned2001/directo.asp?ID =3992&Tipo=C (teleacto) y http://www.canaluned.com/#frontaleID=F_RC&sect ionID=S_TELUNE&videoID=1802 (noticia emitida el 17/04/2009). Sistema exoplanetarios: ¿hay otras Tierras?, por Carlos Eiroa de la Universidad Autónoma de Madrid (29/04/2009): http://teleuned.uned.es/teleuned2001/directo.asp?ID =3993&Tipo=C (teleacto) y http://www.canaluned.com/#frontaleID=F_RC&section ID=S_TELUNE&video ID=2028 (noticia emitida el 22/05/2009). — Una breve historia de los átomos: la evolución química del Universo, por Enrique Pérez Jiménez del Instituto de Astrofísica de Andalucía 100cias@uned CURSOS DE VERANO Y JORNADAS DE FIN DE SEMANA Desde que se organizó el primero en Mérida (julio 2006), se ha ido configurando un perfil característico de los Cursos de Verano de Astronomía de la UNED que les confiere una personalidad especial basada en la complementariedad entre teoría y práctica, entre ciencia conceptual y experiencia. La pasión por la realidad observable se combina con la capacidad explicativa y descriptiva de la Física a nivel elemental. Así, contenidos fundamentales sobre óptica, espectroscopía o evolución estelar se acompañan de una sesión de observación diurna del Sol, para estudiar su espectro, las manchas solares y las líneas negras de Fraunhofer, y otra nocturna, para ver el siempre sorprendente cielo. El pasado verano de 2009, el Grupo de Astronomía, con motivo del Año Internacional de la Astronomía, quiso estar especialmente presente en la XX convocatoria de los Cursos de Verano de la UNED, y por ello organizó dos cursos de larga duración (5 días) y unas jornadas de fin de semana en Arcos de la Salina en colaboración con el Centro Asociado de Teruel. — «Introducción a la Astronomía desde un lugar único: la isla de La Palma», con visita a los Observatorios del Roque de los Muchachos y la participación de las Asociaciones locales de Aficionados a la Astronomía. Tuvo lugar del 30 de junio al 4 de julio en nuestro Centro Asociado de la isla de La Palma. — La UNED y el Año Internacional de la Astronomía. Curso de introducción a la Ciencia Astronó- 51 Nuestra Facultad Figura 3. Alumnos del Curso «Introducción a la Astronomía desde un lugar único: la isla de La Palma» visitando el GRANTECAN en el Observatorio Astronómico del Roque de los Muchachos (Isla de La Palma). Figura 5. Cartel anunciador de las II Jornadas de Introducción a la Astronomía, en Arcos de las Salinas (Teruel). exposición «El Universo para que lo descubras», (ver apartado siguiente) cuya inauguración tuvo lugar el lunes 13 de julio. Entre los 3 cursos participaron más de 90 personas, se impartieron 35 conferencias sobre temas de Astronomía y Astrofísica, y del primero de ellos se hizo un programa para nuestra televisión educativa. Los interesados pueden visualizarlo en la siguiente URL: http://www.canaluned.com/#frontaleID=F_RC&sectionID=S_TELUNE&videoID=2152. Figura 4. Carátula del Folleto del Curso «La UNED y el Año Internacional de la Astronomía. Curso de introducción a la Ciencia Astronómica», que se entrega a los participantes con todas las ponencias. EXPOSICIÓN: EL UNIVERSO PARA QUE LO DESCUBRAS mica», en el Centro Asociado de Ávila, en la Sede de El Barco de Ávila, del 13 al 17 de julio. — II Jornadas de «Introducción a la Astronomía», en Arcos de las Salinas (Teruel), con visita al Observatorio de Javalambre, del Centro de Estudios de Física del Cosmos de Aragón, 18-20 de septiembre. Los alumnos de este curso, y todas las personas interesadas, pudieron disfrutar con la 100cias@uned Esta exposición itinerante de Astronomía, «El Universo para que lo descubras», fue diseñada y editada por el Grupo de Astronomía de la Facultad de Ciencias de la UNED a partir de los documentos gráficos y los textos literarios reunidos, y ofrecidos a todos los interesados para divulgar la Astronomía en su Año Internacional, por Guillermo Tenorio Tagle, del Instituto Nacional de 52 Nuestra Facultad Astrofísica, Óptica y Electrónica (INAOE) de México, y por Enrique Pérez Jiménez, del IAA del CSIC de España. La exposición consta de 50 paneles de 70 cm de ancho por 170 cm de alto, cada uno de los cuales contiene una imagen astronómica, una breve descripción científica de ella y una cita poética de la literatura universal con la que se pretende establecer un acercamiento emocional hacia el Universo. Está dividida en cuatro secciones: nuestro Sistema Solar, estrellas y nebulosas, galaxias y el Universo. Además contiene 2 carteles de créditos, en los que se indican las personas e instituciones gracias a las cuales la Expo- sición ha podido realizarse, y 4 carteles explicativos del Grupo de Astronomía de la Facultad de Ciencias de la UNED y de las actividades organizadas a lo largo de su historia. Se ha expuesto en los siguientes lugares: — Facultad de Ciencias Químicas de la Universidad de Burgos, durante las IV Jornadas sobre Enseñanza de la Física: Física y Astronomía. Dimensión social de la Ciencia, del 22 al 29 de mayo. — Centro Asociado de Ávila (Sede, El Barco de Ávila), durante el Curso de Verano «La UNED y el Año Internacional de la Astronomía. Curso de in- Figura 6. Dos ejemplos de carteles de los 50 que componían la exposición “El Universo para que lo descubras». 100cias@uned 53 Nuestra Facultad Figura 7. Díptico informativo sobre la exposición «El Universo para que lo descubras». troducción a la Ciencia Astronómica», del 13 al 17 de julio. — Universidad de Castilla-La Mancha en Ciudad Real, durante la XXXII Reunión Bienal de la RSEF y 19º Encuentro Ibérico para la Enseñanza de la Física, del 7 al 11 de septiembre. — Ayuntamiento de Arcos de las Salinas (Teruel), durante las II Jornadas de Introducción a la Astronomía, organizadas por el Grupo de Astronomía de la Facultad de Ciencias y el Centro Asociado de Teruel, del 18 al 20 de septiembre. — Centro de Zona Madrid-Escuelas Pías, durante la IX Semana de la Ciencia, del 10 al 13 de noviembre. — Facultad de Ciencias de la UNED, durante la IX Semana de la Ciencia, del 17 al 27 de noviembre. — Sala de Exposiciones del Convento de Sto. Domingo en Baza (Granada), organizado por el Centro Asociado de Baza, del 3 al 13 de diciembre. — IES «Vallecas-Magerit» de Madrid, del 14 al 18 de diciembre. A lo largo de 2010 la Exposición recorrerá algunos IES de Madrid y varios Centros Asociados de la UNED. Figura 8. Exposición en la Biblioteca del IES «Vallecas-Magerit» de Madrid. Figura 9. Dos cartas de la baraja de «Familias Astronómicas». 100cias@uned 54 Nuestra Facultad Figura 10. Fotograma del primer programa de la serie «Mujeres en las estrellas» . OTRAS ACTIVIDADES Como se anunció en el número anterior de esta revista correspondiente al año 2008, a iniciativa de algunos profesores miembros del Grupo, en los nuevos planes de estudio de los Grados de Física y Matemáticas se ofertarán en ambos, las asignaturas optativas Introducción a la Astronomía e Introducción a la Astrofísica. Los Grados fueron aprobados por la ANECA en julio de 2009, por lo que estas asignaturas empezarán a impartirse en el curso 2013-14. – Durante la IX Semana de la Ciencia se llevó a cabo un Taller experimental en la calle (alrededores de la Facultad de Ciencias), para ver las manchas solares y hacer experimentos con la luz del Sol (descomposición de la luz blanca en colores, espectro solar y líneas negras de Fraunhofer, polarización,…). – Se editaron 5000 ejemplares de una baraja de cartas de familias astronómicas como recuerdo del Año Internacional de la Astronomía. Se han distribuido entre todos los alumnos de todos los Cursos de Verano de la UNED (más de 3000), todos los jóvenes participantes en la Semana de la Ciencia en la Facultad (800) y entre los asistentes a las conferencias de divulgación en el segundo semestre del año. — Hemos colaborado (con las astrónomas del pilar «Ella es una Astrónoma» del AIA) en la realización de una serie de 8 programas de televisión para «La UNED en la 2» (que se retransmiten los viernes de 10 a 11 de la mañana en la 2 de TVE y por el Canal Internacional), que se ha titulado: Mujeres en las estrellas. Información más detallada de esta actividad se proporciona en otra colaboración en este mismo número de la revista. AGRADECIMIENTOS El Grupo de Astronomía quiere dejar constancia de su sincero agradecimiento a los Vicerrectores de Formación Continua y Extensión Universitaria, de Investigación y de Centros Asociados, al Decano y a los Directores de todos los Departamentos de la Facultad de Ciencias por su colaboración en la financiación de algunas de las actividades realizadas por el Grupo (conferencias, exposición y baraja), sin la cual no hubiera sido posible llevarlas a cabo. A todos muchas gracias. Ernesto Martínez García Director del Grupo de Astronomía Dpto. de Matemáticas Fundamentales M.ª del Mar Montoya Lirola Secretaria del Grupo de Astronomía Dpto. de Física de los Materiales INFLUENCIA EN LA ACTIVIDAD DOCENTE Algunos miembros del Grupo se encargaron de realizar la Guía Didáctica de la asignatura Introducción a la Astronomía que oferta el Programa UNED-Senior. 100cias@uned Carmen Carreras Béjar Dpto. de Física de los Materiales 55 Nuestra Facultad 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 En el año 2009, en el que se han celebrado dos grandes efemérides, los 400 años desde que Galileo utilizó por primera vez un telescopio para acercarnos a los objetos celestes y los 200 años del nacimiento de Darwin, el hombre que cambió nuestra forma de entender la evolución de los organismos vivos, en esta sección de 100cias@uned se pueden encontrar más trabajos dedicados a estos temas que en números anteriores, aunque no hemos dejado de lado otros campos científicos. En el apartado de Colaboraciones, en el área de las Ciencias del Medioambiente, contamos con un trabajo dedicado al agua como fuente de vida, pero también, como indica su autora, de numerosos problemas. Sólo un porcentaje muy pequeño del agua disponible en nuestro planeta es apta para el consumo. El crecimiento de la población y el desarrollo económico traen consigo una demanda espectacular de agua dulce. Además, los diferentes tipos de contaminación, producidos por el desarrollo industrial, tienen como consecuencia que el disponer de agua dulce sea un lujo que no todas las sociedades y países se pueden permitir. La profesora Pilar Fernández Hernando describe la situación en nuestro país, desde las fuentes de contaminación, sus efectos sobre la salud,…, hasta las normas y recomendaciones establecidas por las autoridades sanitarias y su seguimiento y control desde las Administraciones públicas. También en el campo de las Ciencias de la Naturaleza podemos encontrar un trabajo de la profesora Rosario Planelló sobre las aportaciones de Darwin a la Biología moderna. En el área de Física, el profesor Fernando Arqueros, de la Universidad Complutense de Madrid, nos describe el Proyecto Pierre Auger para la detección de las partículas más energéticas que existen en la naturaleza: los rayos cósmicos. Al igual que hizo en la conferencia que impartió en la Facultad de Ciencias de la UNED con motivo del Año Internacional de la Astronomía (AIA), nos presenta la evolución de la Física desde que los rayos cósmicos fueron descubiertos a principios del siglo XX (Física de las partículas elementales) hasta el momento actual en el que la nueva Física de los rayos cósmicos puede desvelar muchos misterios, como por ejemplo, las interacciones de los núcleos a una energía tan extremadamente alta, los objetos cósmicos que los producen o los procesos físicos que están detrás de ellos. Nuestros 100cias@uned lectores, y muy particularmente nuestros estudiantes, podrán darse cuenta de cómo la Ciencia no tiene límites y sigue siendo necesaria la colaboración de muchos científicos y la realización de muchos proyectos para comprender nuestro Universo. En el área de Química contamos con un precioso trabajo sobre la formación de átomos en el Universo. Su autor, el profesor de investigación Enrique Pérez del Instituto de Astrofísica de Andalucía, quien también participó en el ciclo de conferencias organizado por el Grupo de Astronomía de la Facultad con motivo del AIA, presenta los 118 átomos diferentes que hasta hoy conocemos ligados a la evolución del Universo y destaca la importancia de la Astronomía y de la Astrofísica en el desarrollo de este conocimiento. Seguimos invitando a nuestros lectores al fascinante mundo de la Ciencia. A continuación se encuentran nuestras secciones habituales: Novedades científicas, Semblanzas de los Premios Nobel y Efemérides. Como no podía ser de otra manera, sendas semblanzas de Galileo y de Darwin ocupan estas páginas. También es de destacar la colaboración sobre el AIA de la Coordinadora del nodo español, la profesora de investigación Montserrat Villar del Instituto de Astrofísica de Andalucía, quien describe el conjunto de actividades realizadas en España para sumarnos a la celebración de la gran fiesta internacional de la Astronomía. Su adiós es solo un hasta siempre, pues la multitud de actividades realizadas en la calle han dejado una huella en los ciudadanos que no permitirá ni el olvido ni la pasividad. Sin AIA también habrá que seguir enseñando en las plazas públicas, en los colegios..., los grandes logros de la Astronomía y habrá que seguir mirando al cielo. Desde cualquier punto del planeta el cielo es una aventura del pensamiento, el origen de la necesidad de observar, medir, …. Finalizamos con el apartado dedicado a Las mujeres y la Ciencia. En esta ocasión contamos con un trabajo dedicado a realzar el importante papel desarrollado por mujeres en el campo de la Astronomía. Es el texto de la conferencia impartida por la investigadora Josefa Masegosa en la entrega del Premio «Elisa Pérez Vera, 2009», que tiene por objeto premiar los trabajos que traten sobre género y/o feminismo realizados por alumnos o exalumnos de la UNED. 56 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 COLABORACIONES EN CIENCIAS DE LA NATURALEZA piensa lo mismo. Las demandas actuales de agua dulce son las mayores de la historia de la humanidad, y están en progresivo aumento. La necesidad de agua en el mundo ha crecido un 600% en los últimos 100 años, un crecimiento exponencial que se explica por el incremento de la población y el desarrollo industrial. El agua dulce comienza a resultar un bien escaso, que además sufre problemas de contaminaciones de todo tipo y deterioro del entorno natural, lo cual afecta a la vida y a la salud humanas. La contaminación del agua es uno de los peores problemas ambientales que la naturaleza sufre hoy en día. La contaminación del agua no solo ocurre en los ríos o lagos, sino también en el océano. Desafortunadamente, muchos barcos han arrojado, accidentalmente, petróleo en el mar causando su contaminación y la muerte de muchos animales marinos. El hombre ha cambiado el color cristalino radiante de las aguas por borroso y en algún caso marrón. La contaminación y eutroficación de los cuerpos acuáticos a causa de poluentes de origen humano originan serios problemas para el abastecimiento de agua potable en el mundo. Durante los últimos veinte años, la palabra eutroficación ha sido utilizada cada vez más para designar el aporte artificial e indeseable de nutrientes tales como el fósforo, el nitrógeno y el carbono. Sin embargo, este concepto puede llevar a cierta confusión, ya que en algunos casos el ingreso de nutrientes a un lago o pantano puede resultar muy favorable, dependiendo el fin y el uso de las aguas del sistema en cuestión. La Organización para la Cooperación y el Desarrollo Económico (OCDE, 1982) define a la eutrofización como «el enriquecimiento en nutrientes de las aguas, que provoca la estimulación de una serie de cambios sintomáticos, entre los que el incremento en la producción de algas y macrófitas (especies vegetales superiores), el deterioro de la calidad de agua y otros cambios sintomáticos resultan indeseables e interfieren con la utilización del agua». Etimológicamente, eutroficación viene del griego, se puede hacer referencia a que oligotrófico significa poco alimentado y eutrófico, bien alimentado. EL AGUA, FUENTE DE VIDA Y DE PROBLEMAS Fuente pública para el consumo. Por todos es sabido que el agua es el origen de todos los procesos biológicos y ecológicos y es el elemento esencial para el desarrollo de la vida en el planeta. Desde la época antigua, se hacen referencias específicas al agua. Aristóteles define el agua como uno de los cuatro elementos básicos de la creación, junto con la tierra, el aire y el fuego. Nuestras vidas por completo dependen de ella, no es concebible ninguna actividad que no gire alrededor de este preciado líquido, ciudades, industrias, cultivos, etc. En el planeta, el 97% es agua salada, el 2% se encuentra atrapada en capas de hielo y glaciares, por lo tanto, sólo el 1% restante puede ser utilizada por el ser humano. Actualmente existe en la Tierra la misma cantidad de agua que existía hace 3.800 millones de años atrás, época en la que se originó el agua de nuestro planeta. Gracias al denominado ciclo hidrológico por el que el agua cambia de estado —sólido, líquido y gaseoso—, esa misma cantidad primigenia de líquido circula desde entonces por todos los rincones de la Tierra. Es por esto que durante siglos se ha considerado el agua como un recurso ilimitado que, en consecuencia, no era preciso administrar cuidadosamente, pero en estos momentos, a principios del siglo XXI, mucha gente no 100cias@uned 57 Vida científica ejemplo, la contaminación urbana se manifiesta por el aumento de la salinidad en el agua, adición de materia orgánica (que se puede manifestar como amonio, NH4+, nitratos, NO3– y nitritos, NO2–) y posible contaminación biológica, mientras que la contaminación de origen agrícola se manifiesta por fuertes incrementos de compuestos nitrogenados, la presencia de organoclorados y otros compuestos orgánicos en las aguas. Los procesos contaminantes, independientemente de su origen, se encuentran afectados, en cantidad e importancia, por las características del medio receptor, los usos del agua y calidades exigidas a la misma, aportes hídricos indirectos en relación a las características de la zona y otros factores que afecten a la dispersión de los contaminantes. La eutroficación es un problema mayor para las reservas de agua dulce y ocurre en primer lugar como resultado de nuestras actividades humanas en las cuencas. Algunos contaminantes sintéticos, como los detergentes de las aguas de lavado, y los escurrimientos de fertilizantes de las zonas agrícolas aledañas aumentan considerablemente el nivel de sustancias que sirven como nutrientes de las plantas acuáticas que flotan sobre las aguas; este aumento produce el crecimiento y proliferación masiva de ellas. Estas plantas acuáticas pueden formar entonces una gruesa capa sobre la superficie del estanque que tiene consecuencias catastróficas para el ecosistema. Toda esta materia orgánica anormal incrementa el trabajo bacteriano en el agua. Como las bacterias consumen el oxígeno disuelto en el agua para vivir y la cantidad de bacterias vivas se dispara a niveles extremos, la cantidad de oxígeno en el agua se reduce drásticamente y no puede sostener la vida de los peces; en consecuencia, el ecosistema se destruye. El agua se vuelve mal oliente y desprovista de vida animal. En casos graves, persistentes, y en estanques de poca profundidad puede darse el caso de que las plantas acuáticas sequen y hagan desaparecer el propio estanque. El fenómeno de eutroficación se da principalmente en aguas superficiales, en los grandes reservorios (lagos y lagunas), y últimamente en ríos que atraviesan ciudades. La eutroficación no puede ser ignorada, es un problema grave a resolver. Si se habla, en general, de contaminación se puede afirmar que el origen de la contaminación de las aguas está ligado a alguna de estas cuatro actividades: — Contaminación por actividades urbanas, consecuencia de la inadecuada eliminación y ubicación de los residuos, junto a las aguas residuales urbanas procedentes de usos domésticos (limpieza y cocina) y sanitarios, así como de la limpieza de calles. — Contaminación de las aguas por prácticas agrícolas, debida fundamentalmente a la utilización de fertilizantes y biocidas en exceso. — Contaminación de aguas por explotaciones ganaderas, debida a compuestos orgánicos y biológicos procedentes de residuos de instalaciones ganaderas y purines de animales estabulados. — Contaminación del agua por actividades industriales, la cual es la más diversa, compleja y, en muchos casos, difícil de eliminar. Los productos de cada una de estas fuentes de contaminación guardan cierta semejanza entre sí. Así por 100cias@uned CONTAMINACIÓN POR COMPUESTOS NITROGENADOS El nitrógeno en el agua puede tener principalmente dos orígenes: — Nitrógeno orgánico: debido a contaminación orgánica, casi siempre de origen residual. Este nitrógeno se transforma sucesivamente en nitrógeno amoniacal, nitroso y nítrico, en función del tiempo y de la capacidad de oxidación del medio. En aguas muy contaminadas la evolución puede bloquearse en nitrito y en condiciones anaerobias, es decir, en ausencia de oxígeno, los nitratos pueden evolucionar en sentido contrario: Nitratos → Nitritos → Amoniaco → Nitrógeno gaseoso (forma neutra) — Nitrógeno inorgánico: la contaminación es debida principalmente al lavado de suelos ricos en nitratos como consecuencia de prácticas agrícolas. Esta contaminación en forma de nitratos suele ser bastante estable y difícilmente reversible. En las aguas superficiales (ríos, lagos, embalses...) el nitrógeno puede encontrarse formando parte tanto de compuestos orgánicos como inorgánicos. El consumo de compuestos nitrogenados como fertilizantes en las prácticas agrícolas es considerable, al igual que la aplicación en exceso de fertilizantes inorgánicos (fósforo y nitrógeno) es una práctica normal, debido al desconocimiento del nivel de nutrientes en el suelo y a la idea de obtener un mejor cultivo. Dado que la velocidad con la que se aportan estas sustancias es mayor que la velocidad con la que se degradan, se produce una contaminación del suelo, con el 58 Vida científica consiguiente riesgo de contaminación de las aguas superficiales y subterráneas. La forma amoniacal se absorbe muy fuertemente por el suelo salvo en los calcáreos; en cambio, los nitratos son muy móviles y se disuelven fácilmente por lavado. El problema se complica con la nitrificación permanente del nitrógeno amoniacal, es decir, con su paso a nitrato y nitrito en función del tiempo. Figura 2. Vertidos. Los nitratos en las aguas de pozos o fuentes no conectadas a redes municipales pueden también presentar concentraciones relativamente importantes. En este caso, los nitratos tienen habitualmente por origen una nitrificación del nitrógeno orgánico, pero también pueden proceder de la disolución de este elemento procedente de los terrenos atravesados. Se ha de señalar que muy a menudo estas aguas son de calidad mediocre o mala en lo que concierne a otros elementos. Figura 1. Aplicación de purines en la agricultura. Por lo tanto, el uso indiscriminado de fertilizantes nitrogenados plantea una gran preocupación a distintos niveles debido a que su uso indiscriminado genera una repercusión económica, introduce impactos e indirectamente puede plantear problemas de salud pública ligados al consumo de agua. En los vertidos urbanos, el nitrógeno tiene principalmente por origen la orina, que está compuesta por 25 gramos por litro (g/l) de urea, 0,6 g/l de ácido úrico, 1,5 g/l de creatina y 0,6 g/l de nitrógeno amoniacal. La mayor parte de estos compuestos dan muy rápidamente amoniaco por hidrólisis. En general, se admite que, en las aguas residuales urbanas, se eliminan 13 g de nitrógeno por habitante y día. Los desechos industriales son también una fuente importante de nitrógeno, sobre todo los procedentes de instalaciones agrícolas, alimentarias e industrias químicas. Por lo que en función del grado de industrialización de la zona, la aportación de nitrógeno a las aguas, debida a los vertidos domésticos, industriales, agrícolas y ganaderos, será extremadamente variable. La concentración de nitratos de origen natural en las aguas es, generalmente, de unos pocos mg/l. Sin embargo, se ha observado en numerosas ocasiones en las aguas subterráneas que esta concentración aumenta hasta varios centenares de mg/l, debido, de nuevo, a la intensificación de las prácticas agrícolas. 100cias@uned El aumento de las concentraciones de nitratos en estos pozos y acuíferos también tiene la causa en determinadas prácticas agrícolas, ya que los agricultores vierten grandes cantidades de abonos nitrogenados en los campos para poder mantener una producción adecuada e incrementar las cosechas, la mayoría de los cuales no son absorbidos por las plantas ni por los árboles, sino que se depositan en el suelo y o bien van filtrándose hacia capas progresivamente más profundas hasta que se concentran en las capas freáticas, es decir, aquellas capas superficiales de los acuíferos que son susceptibles de ser explotadas mediante pozos, o bien por escorrentía llegan hasta las aguas superficiales. Con la captación de este agua para el consumo a través de la red pública de abastecimiento, se completa el ciclo que permite pasar a los nitratos del medio natural al organismo humano. CÓMO REDUCIR LA CONCENTRACIÓN DE NITRATOS Hay dos modos de reducir la concentración de nitratos en los abastecimientos de agua potable. Mejorar las prácticas agrícolas (prevención) o reducir su concentración en los suministros de agua (remedio). 59 Vida científica (MHb), es decir, un incremento de metahemoglobina en la sangre, que es una hemoglobina (Hb) modificada (oxidada) incapaz de fijar el oxígeno y que provoca limitaciones de su transporte a los tejidos. La metahemoglobina se forma cuando en la Hb se oxida el Fe2+ a Fe3+. Cuando la metahemoglobinemia es elevada, la primera manifestación clínica es la cianosis, generalmente asociada a una tonalidad azulada de la piel, por lo que la enfermedad se la conoce como «enfermedad de los niños azules». Los síntomas son los siguientes: si la MHb es mayor del 10% de la Hb total, se producen dolores de cabeza, debilidad, taquicardias y falta de respiración. Si es mayor del 50%, da lugar a hipoxemia grave y a depresión del sistema nervioso central, y cuando es mayor del 70%, puede llegar a causar la muerte. La eliminación de los compuestos nitrogenados de las aguas que ya han sido contaminadas es difícil: los iones amonio pueden convertirse en cloraminas, pero para ello se necesitan concentraciones de cloro diez veces mayores que las utilizadas normalmente en la desinfección, teniendo en cuenta que ni el dióxido de cloro ni el ozono actúan sobre estos compuestos. Podrían eliminarse también por nitrificación y aireación, para lo cual habría que prescindir de la precloración para no eliminar las bacterias implicadas en este tratamiento. Otra forma es por oxidación, los nitritos se oxidan fácilmente a nitratos en presencia de cloro u ozono. La eliminación de los nitratos se puede llevar a cabo de forma más compleja por desnitrificación biológica en condiciones de anaerobiosis, intercambio iónico e incluso osmosis inversa. Entre los métodos de eliminar los nitratos de los suministros de agua se incluyen los siguientes: — Sustitución. Reemplazar los suministros de alto contenido en nitratos por suministros de bajo contenido. En la práctica esta opción está normalmente restringida a pequeños y aislados recursos de aguas subterráneas contaminadas. — Mezclado. Reducción de la concentración de nitratos mezclando el agua rica en nitratos con agua pobre en este compuesto. Para ello es necesario disponer de un suministro alternativo adecuado y de dispositivos para mezclar el agua en la proporción adecuada. — Almacenamiento. Se puede conseguir alguna eliminación de nitratos almacenando el vertido durante largos periodos de tiempo en depósitos. El nitrato se reduce a nitrógeno gas por las bacterias en las condiciones de bajo nivel de oxigeno que existen en los sedimentos de los depósitos, un proceso conocido como desnitrificación. — Tratamiento. Se pueden eliminar por intercambio iónico o desnitrificación microbiana. Ambos son caros y de operación en continuo. — Sustitución selectiva. En vez de tratar la totalidad del suministro de agua, muchas compañías de aguas suministran un abastecimiento alternativo como agua embotellada o unidades de tratamiento domésticas. Figura 3. Enfermedad de los niños azules. Por otro lado, se ha estudiado la posible asociación de la ingestión de nitratos con el cáncer debido a la formación de compuestos N-nitroso que son agentes teratógenos, mutágenos y probables carcinógenos, altamente peligrosos para la salud humana. Los nitratos no son carcinogénicos para los animales de laboratorio. Parece ser que los nitritos tampoco lo son para ellos, pero pueden reaccionar con otros compuestos (aminas y amidas) y formar derivados N-nitrosos. Estas reacciones de nitrosación pueden producirse durante la maduración o el procesamiento de los alimentos, o en el mismo organismo (generalmente, en el estómago) a partir de los nitratos y nitritos absorbidos y presentes en la sangre. En la valoración del riesgo de formación de nitrosaminas y nitrosamidas, se ha de tener en cuenta que a través de la dieta también se pueden ingerir inhibidores o potenciadores de las reacciones de nitrosación. Entre el resto de la población, las personas que podrían sufrir efectos adversos son aquellas que presentan alteraciones que provocan un aumento de la formación EFECTOS SOBRE LA SALUD Desde hace tiempo, se ha puesto de manifiesto que el principal efecto perjudicial para la salud derivado de la ingestión de nitratos y nitritos es la metahemoglobinemia 100cias@uned 60 Vida científica al mismo tiempo en el agua de bebida, la OMS indicó que la suma de las relaciones entre la concentración y el valor guía de los dos parámetros (50 mg/l para los nitratos y 3 mg/l para los nitritos) no debería de superar la unidad: de nitritos, que tienen una hemoglobina anómala o que sufren deficiencias en el sistema enzimático encargado de transformar la metahemoglobina en hemoglobina. Entre estas personas están las mujeres embarazadas, las personas con hipoclorhidria gástrica natural o provocada por tratamientos antiácidos (úlcera péptica, gastritis crónica), las personas con deficiencias hereditarias de metahemoglobina-reductasa o de NADH y las personas con hemoglobina anómala. [nitratos] [nitratos] + ≤1 50 50 En la Directiva comunitaria que regula la calidad de las aguas destinadas al consumo humano, los valores máximos admitidos son 50 mg/l de nitratos y 0,5 mg/l de nitritos. En España, la norma que traspone la citada directiva (RD 140/2003) también establece un valor paramétrico de 50 mg/l de nitratos. En cambio, para los nitritos es mucho más rigurosa en la concentración máxima a la salida del tratamiento (0,1 mg/l) mientras que mantiene los 0,5 mg/l en el agua de la red de distribución. ¿CUÁL ES EL NIVEL SEGURO DE NITRATOS Y NITRITOS EN EL AGUA DE CONSUMO? Por lo que respecta a los efectos crónicos, en el año 1995, el JECFA (Join Expert Committee on Food Additives) (FAO- Food Agricultural Organization/WHO-OMSWorld Health Organization-Organización Mundial de la Salud) establecieron la ingesta diaria admisible (IDA) de nitratos en 0-3,65 mg/kg de peso corporal y día y la ingesta diaria admisible de nitritos en 0-0,06 mg/kg. Por lo tanto, para una persona de 60 kg la ingesta admisible de nitratos en el caso más desfavorable es de 219 mg al día. Esta IDA, establecida para los adultos, no se debe aplicar a los menores de tres meses de edad, porque la presencia de hemoglobina fetal en la sangre (más fácilmente oxidable a metahemoglobina), la acidez más baja de su estómago (que favorece la reducción de nitratos a nitritos) y las carencias en el sistema enzimático capaz de transformar la metahemoglobina en hemoglobina, los hacen más susceptibles de sufrir los efectos perjudiciales de la metahemoglobinemia. Para prevenir los efectos agudos de la metahemoglobinemia en los neonatos, en el año 2004, la OMS confirmó un valor máximo orientativo de 50 mg/l de nitratos en el agua de consumo. Este valor fue establecido exclusivamente para prevenir la metahemoglobinemia, indicando que el grupo más vulnerable son los neonatos menores de tres meses alimentados con leche artificial. La OMS indicó que disponía de amplia información epidemiológica que justificaba el valor recomendado. Por lo que respecta a los nitritos, la OMS aceptó para el nitrito y el nitrato una potencia relativa respecto a la formación de metahemoglobina de 10:1 (en términos molares) y propuso para los nitritos un valor guía provisional de 3 mg/l en relación con los efectos agudos. Respecto a los posibles efectos a largo plazo, la OMS propuso un valor guía de 0,2 mg/l de nitritos. Sin embargo, como los nitratos y los nitritos pueden estar presentes 100cias@uned VIGILANCIA SANITARIA Las autoridades sanitarias deberán realizar una serie de actuaciones a fin de evitar riesgos para la Salud Pública derivados del mal uso y/o abuso de los compuestos nitrogenados que pueden encontrarse posteriormente en aguas de consumo, alimentos, etc. Con respecto al agua de consumo público, la vigilancia corresponde a la autoridad sanitaria, que velará para que se realicen las inspecciones periódicas del abastecimiento, debiendo cumplir los criterios sanitarios de calidad establecidos en el RD 140/2003, de 7 de febrero, por el que se establecen los criterios sanitarios de la calidad del agua del consumo humano. Estos criterios se aplican a todas aquellas aguas que, independientemente de su origen y del tratamiento de potabilización que reciban, se utilicen en la industria alimentaria o se suministren a través de redes de distribución pública o privada, depósitos o cisternas. Se fijan parámetros y valores paramétricos a cumplir en el punto donde se pone el agua de consumo humano a disposición del consumidor. Estos valores se basan principalmente en las recomendaciones de la OMS y en motivos de salud pública aplicándose, en algunos casos, el principio de precaución para asegurar un alto nivel de protección de la salud de la población. Los valores paramétricos establecidos para nitratos y nitritos en el agua y en la salida del depósito de la red de distribución son los mencionados anteriormente. La concentración de nitritos se determinará cuando se utilice la cloraminación como método de desinfección. 61 Vida científica grandes aglomeraciones deberá incluirse la eliminación de fósforo y/o nitrógeno a menos que se demuestre que su eliminación no tendrá consecuencias sobre el nivel de eutrofización. — Aguas continentales superficiales destinadas a la obtención de agua potable que podrían contener una concentración de nitratos superior a la que establecen las disposiciones pertinentes del RD 927/1988, de 29 de julio, por el que se aprueba el Reglamento de la Administración Pública del Agua y de la Planificación Hidrológica. — Masas de agua en las que sea necesario un tratamiento adicional al tratamiento secundario. Un medio o zona de agua marina podrá catalogarse como zona menos sensible cuando el vertido de aguas residuales no tenga efectos negativos sobre el medio ambiente debido a la morfología, hidrología o condiciones hidráulicas específicas existentes en esta zona. Al determinar las zonas menos sensibles, se tomará en consideración el riesgo de que la carga vertida pueda desplazarse a zonas adyacentes y ser perjudicial para el medio ambiente. Para determinar las zonas menos sensibles se tendrán en cuenta los siguientes elementos: Bahías abiertas, estuarios y otras aguas marítimas con un intercambio de agua bueno y que no tengan eutrofización o agotamiento del oxígeno, o en las que se considere que es improbable que lleguen a desarrollarse fenómenos de eutrofización o de agotamiento del oxígeno por el vertido de aguas residuales urbanas. La declaración de dichas zonas se revisará al menos cada cuatro años. En los Reales Decretos antes mencionados quedan fijados los requisitos técnicos que deberán cumplir los sistemas colectores y las instalaciones de tratamiento de las aguas residuales, los requisitos de los vertidos procedentes de instalaciones secundarias o de aquellos que vayan a realizarse en zonas sensibles y regula el tratamiento previo de los vertidos de las aguas residuales industriales cuando éstos se realicen a sistemas colectores o a instalaciones de depuración de aguas residuales urbanas. Las Administraciones públicas, en el ámbito de sus respectivas competencias, deberán efectuar el seguimiento y los controles precisos para garantizar el cumplimiento de las obligaciones contempladas en las citadas normativas, fijando los métodos de referencia para el seguimiento y evaluación de los resultados de dichos controles. Figura 4. Riego por aspersión. En cuanto al tratamiento de las aguas residuales urbanas la vigilancia se centra en el cumplimiento del RDLey 11/1995, de 28 de diciembre, por el que se establecen las Normas Aplicables al Tratamiento de las Aguas Residuales Urbanas, y del RD 509/1996, de 15 de marzo, que lo desarrolla. Se impone a determinadas aglomeraciones urbanas la obligación de disponer de sistemas colectores para la recogida y conducción de las aguas residuales, y de aplicar a éstas distintos tratamientos antes de su vertido a las aguas continentales o marítimas. En la determinación de estos tratamientos se tiene en cuenta si los vertidos se efectúan en zonas sensibles o en zonas menos sensibles, lo que determinará un tratamiento más o menos riguroso. Se considerará que un medio acuático es zona sensible si puede incluirse en uno de los siguientes grupos: — Lagos, lagunas, embalses, estuarios y aguas marítimas que sean eutróficos o que podrían llegar a ser eutróficos en un futuro próximo si no se adoptan medidas de protección. — Lagos y cursos de agua que desemboquen en lagos, lagunas, embalses, bahías cerradas que tengan un intercambio de aguas escaso y en los que, por lo tanto, puede producirse una acumulación. En dichas zonas conviene prever la eliminación de fósforo a no ser que se demuestre que dicha eliminación no tendrá consecuencias sobre el nivel de eutrofización. También podrá considerarse la eliminación de nitrógeno cuando se realicen vertidos de grandes aglomeraciones urbanas. — Estuarios, bahías y otras aguas marítimas que tengan un intercambio de aguas escaso o que reciban gran cantidad de nutrientes. Los vertidos de aglomeraciones pequeñas tienen normalmente poca importancia en dichas zonas, pero para las 100cias@uned Pilar Fernández Hernando Dpto. de Ciencias Analíticas 62 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 APORTACIONES DE DARWIN A LA BIOLOGIA MODERNA nueces y semillas, otros finos para penetrar profundamente en las flores, otros curvados o puntiagudos (Fig. 2). Supervivencia y reproducción diferencial de unos organismos que presentan unas características «favorables», y que permite que una gran parte de la población se adapte a las condiciones ambientales prevalecientes. El billete de 10 libras (Fig. 1) lleva en el anverso una imagen de la reina Isabel II y en el reverso la imagen de un anciano de barba majestuosa. Cualquier niño inglés sabe su nombre, incluso cuando muchos no sepan por qué es tan famoso. Se trata de CHARLES DARWIN, uno de los hombres más importantes de todos los tiempos en el ámbito científico . Su verdadera aportación la hizo en su obra El origen de las especies, publicada en 1859, donde se mostraba por primera vez una teoría sobre cómo podía producirse la evolución de los organismos vivos mediante mecanismos puramente naturales. A partir de ese momento se abría un nuevo camino para la ciencia, para poder entender la complejidad de la vida. Figura 2. Pinzones «darwinianos». Es evidente que la Teoría de la Evolución ha ido modelándose con el paso del tiempo desde que fuera presentada de forma oficial por Charles Darwin en su obra «El origen de las especies», gracias a importantes descubrimientos en disciplinas como la Genética, la Embriología y la Biología Molecular. Pero no debe ser una razón para olvidar una de las mayores aportaciones de Darwin a esta teoría, que precisamente se ha mantenido en todas las versiones hasta llegar a la actual. Se trata de la idea de selección natural como motor de la evolución. Empecemos por preguntarnos qué es la selección natural y llegaremos a la conclusión de que la selección natural no existe, no al menos en el mismo sentido en que existen las moléculas o los planetas, por ejemplo. ¿Es entonces una fuerza, como pensaba Darwin? Simplificándolo mucho, supongamos que existe una población de ratones, la mitad de los cuales son claros y la otra mitad oscuros. En el ambiente en el que habitan un predador devora los negros porque resaltan más en ese entorno, de manera que al cabo de unas pocas generaciones la población es casi totalmente blanca. Esta ¿CÓMO SE ORIGINAN LAS ESPECIES Y CÓMO HAN LLEGADO A ESTAR DONDE ESTÁN? Situando al lector en un contexto social, la versión ortodoxa que predominaba en Inglaterra en los tiempos de Darwin defendía la Teología Natural, un sistema de pensamiento sobre el mundo natural que manifestaba la bondad y las excelencias divinas basándose en la perfección de las formas y las leyes naturales. Pero por aquel entonces, las observaciones paleontológicas que había hecho este joven naturalista comenzaban a sugerirle un proceso más racional: la idea de parentesco y sucesión entre especies estrechamente vinculadas. En aquellos tiempos, una suposición así era un atrevimiento. Darwin estaba en lo cierto, y un buen ejemplo de ello (aunque no el único) son las famosas aves darwinianas, diferentes especies de pinzones todas ellas con diferentes picos: algunos cortos y gruesos para cascar 100cias@uned 63 Vida científica «fuerza selectiva» no es otra cosa que una reproducción diferencial en los genes, fruto precisamente de que un grupo de organismos ha dejado menos descendencia en las generaciones siguientes. No hay en la selección natural nada más que esto. Evidentemente la dirección en la que actúa la selección no es predecible, ya que atiende a gran cantidad de variables en cada entorno, lo que confiere a unas u otras combinaciones genéticas mayor o menor capacidad de adaptación al mismo. La aportación más importante de Darwin a su teoría fue, sin duda, establecer este término como posible explicación a sus observaciones y al proceso de especiación mediante acumulación de cambios graduales que acaban fijándose en las poblaciones por selección natural. Figura 3. Gregor Mendel. En 1953, FRANCIS CRICK y JAMES WATSON (Fig. 4) hicieron un descubrimiento que confirmó de manera definitiva todo cuanto Darwin había postulado acerca de la evolución. Se trata del código químico que determina la creación de los organismos, el ácido desoxirribonucleico o ADN (Fig. 5), hallazgo que otorgaría a ambos científicos el Premio Nobel de Medicina en 1962. Esta molécula constituye un lenguaje común a todas las formas vivas, por lo que los investigadores de nuestros días sólo tienen que recurrir a este «libro» de la genética para entender muchos de los mecanismos que son responsables de la evolución. Los descubrimientos de Mendel, Watson y Crick han permitido resolver, entre muchas otras cuestiones, el misterio de los pinzones de Darwin. En su ADN se puede comprobar no sólo la existencia del proceso evolutivo, sino también los cambios en los seres vivos y sus apariencias exteriores: si se activa un gen, produce una proteína concreta en la célula. Si se activa, por ejemplo, un gen para la proteína BMP4, el pico del ave ¿QUÉ ES LO QUE DARWIN NO SABÍA? Sin embargo, a pesar de que la intuición de Darwin fue asombrosa, no fue capaz de explicar cómo se transmiten esos cambios a la descendencia, al igual que muchos otros puntos poco claros de su obra, relacionados con la embriología o la genética de poblaciones. Esto es comprensible teniendo en cuenta que desconocía la existencia del ADN, de los genes y de los cambios que pueden producirse en ellos, que hoy se consideran el motor de la evolución (las mutaciones y los cambios en la expresión). En este sentido, los experimentos de GREGOR MENDEL supusieron un gran avance dentro de la Genética y constituyeron además una gran aportación a la clásica teoría de la evolución. Fascinado por la Biología, en la década de 1860 este fraile agustino llevó a cabo unos estudios sobre la naturaleza de la variación que ahora consideramos revolucionarios (Fig. 3). Aunque sus experimentos pasaron inicialmente inadvertidos por la Sociedad Científica, Mendel demostró que en los organismos existen ciertos «factores» (que después se llamarían «genes») que se transmiten de manera independiente unos de otros en las sucesivas generaciones. Este descubrimiento ha ayudado a explicar muchas de las cuestiones que no pudo aclarar Darwin en su teoría. A pesar de que en determinados momentos de la historia se consideró que los experimentos de Mendel hacían irrelevante lo expuesto por Darwin, lo cierto es que no se contraponen, al contrario, se complementan y describen distintas partes del panorama general de la evolución. Había cosas que Darwin, simplemente, no podía resolver. No sabía que ciertas características podían transmitirse. Él pensaba simplemente en algún mecanismo que ofreciera esta posibilidad. 100cias@uned Figura 4. Francis Crick y James Watson. 64 Vida científica Figura 5. El ácido desoxirribonucleico o ADN. será corto y grueso. Si se activa el gen para la proteína calmodulina, el pico será fino y alargado. Además, los científicos sabemos hoy que la evolución no se produce sólo mediante cambios en los genes, entendiendo éstos como mutaciones, sino por medio de diferentes activaciones de los mismos. El «libro» de la Genética tiene un contenido muy similar en una mosca, un ratón y un ser humano. ¿Qué nos hace entonces diferentes? El número de páginas que se leen en cada organismo y el tiempo que se tarda en leerlas. El ser humano posee aproximadamente 21.000 genes, exactamente los mismos que un ratón. Y la mayoría de ellos son iguales que los del ratón. Esto constituye una prueba de que no se precisa de nuevos genes para la creación de una nueva especie, sino que se trata de combinarlos de forma diferente y activar determinadas unidades. PERSPECTIVAS DE FUTURO Respecto a cómo se presenta el futuro gracias a las observaciones de Darwin y a las posteriores aportaciones de grandes naturalistas e investigadores es incierto. Algunos científicos como CRAIG VENTER, fundador de Celera Genomics y promotor de su propio Proyecto Genoma Humano o el «padre» y creador de la oveja Dolly, IAN WILMUT, piensan que el diseño y la selección genética sustituirán a la evolución de Darwin. 100cias@uned Afortunadamente, lo cierto es que esa idea por el momento forma parte de la ciencia ficción. El hecho de conocer que un gen es el responsable de una determinada característica no significa que podamos alterarlo y manipularlo. Un organismo es demasiado complejo y es prácticamente imposible modificar un gen sin que se cause con ello efectos secundarios sobre otros genes. Y en este sentido, científicos como la Premio Nobel de Medicina de 1995, CHRISTIANE NÜSSLEIN-VOLHARD, avisan de los peligros que pueden acarrear posibles intervenciones tecnológico-genéticas sobre la evolución. En cualquier caso, sean cuales sean los caminos que recorramos los investigadores de hoy, es incuestionable que la obra «El origen de las especies» de Charles Darwin influyó profundamente en el pensamiento acerca de nosotros mismos y, conjuntamente con las teorías astronómicas de grandes pensadores y científicos como COPÉRNICO y GALILEO (siglos XVI y XVII, respectivamente), cambió la forma de pensar del mundo occidental. Al igual que la Astronomía nos muestra que no somos el centro del Universo, la Biología nos enseña que, hasta donde la Ciencia puede mostrar, no somos fundamentalmente diferentes de otros organismos en cuanto a orígenes o lugar que ocupamos en la Naturaleza. La ley de descendencia y selección natural que Charles Darwin plasmó en su obra puede observarse hoy mejor que nunca gracias a nuevos métodos de investigación en genética, biología molecular, etc. De una cosa estoy segura, si Darwin siguiera vivo hoy, se sentiría fascinado de los avances a los que dieron lugar sus ideas y, quién sabe, quizás fuese un biólogo molecular. Rosario Planelló Carro Grupo de Biología Dpto. de Física Matemática y de Fluidos 65 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 COLABORACIONES EN FÍSICA concreto de una pequeñísima fracción de la radiación cósmica; y es que se han detectados partículas con energías superiores a 1020 eV, es decir, varios órdenes de magnitud superior a la de los protones de LHC. En este caso corresponde a una energía de aproximadamente 50 J (fig. 2). Para hacerse una idea práctica de lo que representa diremos que es similar a la de un saque de tenis en el que una pelota de 56 g se acelera hasta una velocidad de 150 km/h. Obviamente la energía del saque de tenis es incomparablemente superior a la del inofensivo mosquito. LAS PARTÍCULAS MÁS ENERGÉTICAS DE LA NATURALEZA ¿Cuáles son las partículas más energéticas que existen en la naturaleza? Ante esta pregunta muchos lectores estarán quizá pensando en el LHC, el «Large Hadron Collider», recientemente puesto en marcha y que será capaz de producir haces de protones con energía extremadamente alta. Efectivamente en el LHC se espera conseguir protones y antiprotones de 7 TeV de energía, es decir 7 × 1012 eV. Nunca antes se había podido alcanzar, en un acelerador hecho por el hombre, tan alta energía. De hecho esta energía tiene dimensiones macroscópicas puesto que es del orden de 1 μJ (7 × 1012 eV × 1,6 × 10-19 J/eV = 1,1 × 10-6 J). Por compararlo con un objeto macroscópico familiar diremos que es aproximadamente igual a la energía cinética de un mosquito de 60 mg volando a 20 cm/s. El vuelo de un inofensivo mosquito puede parecer poca cosa pero pensemos en que esa energía cinética está siendo (será) transportada por una única partícula elemental (fig. 1). Sin embargo, no son éstas las partículas más energéticas que existen en la naturaleza. Las partículas con mayor energía que han sido detectadas provienen del espacio. Se trata de los rayos cósmicos, en Figura 2. Algunos rayos cósmicos que llegan a la Tierra transportan tanta energía como la que se comunica a una pelota de tenis en un saque, 50 J. ¿Qué son estas partículas?, ¿cómo se descubrieron?, ¿cómo se detectan?, ¿cómo se puede medir su energía? Intentaremos en este artículo responder de manera breve a estas preguntas. Pero también nos haremos otras, como ¿cuál es el origen de estas partículas?, ¿en qué objetos cósmicos se generan?, ¿cómo pueden acelerarse hasta alcanzar tan alta energía?. Desgraciadamente aún estamos lejos de poder responder con precisión a estas últimas preguntas. EL DESCUBRIMIENTO DE LOS RAYOS CÓSMICOS Figura 1. El gran colisionador de hadrones LHC en el CERN podrá acelerar protones hasta una energía de 7 TeV. Cada protón tendrá la misma energía cinética que un mosquito en vuelo, 1 μJ. 100cias@uned Tradicionalmente se atribuye el descubrimiento de la radiación cósmica al físico austríaco Victor Hess que en 66 Vida científica cámaras de niebla, detectores Geiger y, por primera vez, la técnica de coincidencias. Fue algo más tarde, empleando emulsiones nucleares, cuando en 1947 el grupo de Bristol (Lattes, Muirhead, Occhialini y Powell) descubre el pión y su desintegración en un muón que con una masa de 207 veces la del electrón, resulta ser la partícula penetrante que da lugar a la radiación de fondo observada por Victor Hess. Estos experimentos pudieron ser adecuadamente interpretados gracias al desarrollo de la teoría de la radiación desarrollada por Bethe y Heitler (1934). Debido a su gran masa, el poder de frenado radiativo de un muón es mucho menor que el del electrón y por tanto los muones resultan ser extraordinariamente penetrantes. Otro importante hito en la historia del descubrimiento de los rayos cósmicos fue la observación de las llamadas cascadas atmosféricas extensas. En 1938, Pierre Auger (fig. 4) y sus colegas de la Escuela Normal Superior de París observaron coincidencias entre señales producidas en contadores Geiger que se encontraban sepa- una serie de vuelos en globo que realizó durante 1912 (fig. 3) comprobó que la señal de ionización de fondo que los electroscopios registraban, aun en aparente ausencia de fuentes radiactivas, aumentaba con la altura en vez de disminuir, como sería de esperar si esta señal proviniera de fuentes naturales en la Tierra. Una vez descartadas otras posibles explicaciones se llegó a la conclusión de que esta radiación provenía de arriba, es decir, del exterior de la Tierra. Este experimento supuso el nacimiento de la Física de Rayos Cósmicos, bautizados con este nombre por Millikan (1925). El experimento de Hess mostró además el gran poder de penetración de esta radiación. Por este motivo muchos científicos (entre ellos Millikan) supusieron que debían ser rayos γ. Una serie de brillantes experimentos realizados por Skobelzyn (1925), Bothe y Kolhörster (1937), Neddermeyer y Anderson (1937) y Street y Stevenson (1937) demostraron que esta radiación penetrante consistía realmente en partículas cargadas similares a los electrones, pero de mucha mayor masa. En estos experimentos se emplearon Figura 3.- Victor F. Hess aterriza tras su histórico vuelo a 5.300 metros el 7 de agosto de 1912 (derecha). Preparativos para uno de sus vuelos (izquierda) [1]. 100cias@uned 67 Vida científica conoce como rayos cósmicos secundarios. La mayor parte de los cuales son absorbidos en la atmósfera, no así los muones que llegan al suelo debido a su gran poder de penetración unido a su relativamente larga vida media (2,2 μs), aumentada por el efecto de la dilatación relativista. Muchos más detalles sobre los estudios pioneros de la radiación cósmica pueden encontrarse en [1]. rados por distancias de hasta 150 metros. La teoría de las llamadas cascadas electromagnéticas había sido desarrollada poco antes por Babha y Heitler (1937) y Carlson y Oppenheimer (1937). Cuando un rayo γ de alta energía atraviesa la materia se convierte en un par electrón – positrón (e- - e+) y éstos a su vez generan rayos γ por el efecto conocido como bremsstrahlug. El proceso se repite dando lugar a una cascada de partículas (rayos γ, e+, e–). Debido a las numerosas colisiones elásticas de los electrones y positrones con los núcleos del medio la extensión física de esta cascada aumenta con la distancia recorrida. Las medidas de Auger resultaron ser compatibles con una cascada electromagnética generada a lo largo de la atmósfera por un rayo γ con energía del orden de 1015 eV. Fue un resultado sorprendente para la comunidad científica pues nunca antes se había observado una partícula tan extraordinariamente energética. Piénsese que la energía típica de los electrones en los átomos varían entre 1 y 103 eV (keV) y la de las radiaciones asociadas a los fenómenos nucleares son del orden de 106 eV (MeV). Sin embargo, en una cascada electromagnética no se producen los piones y muones observados pocos años más tarde por el grupo de Bristol. La combinación de ambas observaciones permitió ajustar las piezas del rompecabezas. La Tierra está sometida al constante bombardeo de núcleos atómicos desnudos (sin electrones), en su mayor parte protones. Ésta es la conocida como radiación cósmica primaria. Al penetrar en la atmósfera, cada uno de estos rayos cósmicos primarios interacciona con un núcleo atmosférico (nitrógeno u oxígeno) produciendo lo que se conoce como una cascada hadrónica, similar a la cascada electromagnética, pero en la que debido a la naturaleza de las interacciones nucleares, se producen una gran variedad de partículas elementales (fig. 5), no solo electrones, positrones y rayos g, sino además los piones y muones observados por el grupo de Bristol, junto a muchas otras partícuFigura 4. Pierre Auger, descubridor de las. Estos productos las cascadas atmosféricas extensas. constituyen lo que se 100cias@uned Figura 5. Cascada de partículas generada por una rayo cósmico de alta energía a su entrada en la atmósfera. LAS MÁS ALTAS ENERGÍAS Una pequeña fracción de los rayos cósmicos primarios posee energías tan altas que una parte muy importante de sus productos secundarios incluidos electrones, positrones y rayos γ alcanzan el suelo. Fueron cascadas de este tipo las que P. Auger observó y aunque el cálculo de 1015 eV de energía primaria se hizo suponiendo una cascada electromagnética, la energía de la correspondiente cascada hadrónica es similar. A estas altas ener- 68 Vida científica gías, incluso la componente electromagnética de la cascada llega al suelo y, por lo tanto, las señales que registran los detectores son en buena parte debidas a electrones y positrones. Empleando esta técnica J. Linsley observó en 1962 una cascada de partículas cuyas características indicaban una energía primaria del orden de 1020 eV. Esta detección conmocionó a la comunidad científica puesto que resultaba inimaginable la posibilidad de acelerar partículas hasta energías tan extraordinariamente altas. Este resultado impulsó la construcción de otros detectores. La principal dificultad reside en el bajísimo flujo de rayos cósmicos a estas energías. El espectro de energía de los rayos cósmicos decrece según una ley de potencia E-γ (figs. 6 y 7) de tal modo que la frecuencia de llegada a la Tierra de rayos cósmicos con energía superior a 1015 eV es de 1 m-2 año-1 reduciéndose a 1 km-2 año-1 a energías superiores a 1018 eV, no esperándose una frecuencia superior a 1 km-2 siglo-1 por encima de 1020 eV. Figura 6. El espectro de energía de los rayos cósmicos sigue una ley E-γ. Obsérvese el aumento en la pendiente que tiene lugar a 1015 eV (la rodilla). Se sospecha que pueda ser debido a un cambio en el mecanismo de aceleración. También se observa una ligera suavización a 1018 eV (el tobillo). A partir de esta energía el flujo de rayos cósmicos que llegan a la Tierra se hace extremadamente bajo. Figura 7. La escala de energías de los rayos cósmicos extremos. Se sospecha que el tobillo del espectro pueda estar relacionado con la transición de rayos cósmicos galácticos a extragalácticos. Se indica la energía del corte GZK por encima de la cual el flujo de rayos cósmicos debe disminuir sensiblemente. Sin embargo se han observado algunos rayos cósmicos con energías superiores a 50 J. 100cias@uned 69 Vida científica gran número de espejos cubriendo cada uno una pequeña fracción del cielo. La luz de cada uno de ellos era concentrada en un fotomultiplicador (fig. 9). La detección simultánea de un flash luz por varios espejos a lo largo de una trayectoria sobre el cielo indicaba la penetración de un rayo cósmico en la atmósfera. La intensidad de luz de fluorescencia proporciona una medida de la energía del primario. En el año 1991 este experimento observó un rayo cósmico de 3,2 × 1020 eV. El experimento Fly’s Eye fue posteriormente ampliado pasando a denominarse HiRes (High Resolution Fly’s Eye). Para más detalles de esta sección se recomienda la referencia [2]. Para poder compensar el bajo flujo es necesario habilitar inmensas áreas de detección. Por ejemplo, la colaboración AGASA instaló sobre una superficie de alrededor de 100 km2 111 centelleadores de 2,2 m2 cada uno y 27 dispositivos blindados específicos para la detección de muones (fig. 8). En el año 1993 este detector registró un suceso de 2 × 1020 eV. Otra técnica alternativa está basada en la observación de la luz de fluorescencia producida por la cascada de partículas al atravesar la atmósfera. Las partículas cargadas, principalmente electrones/positrones excitan moléculas del nitrógeno atmosférico que en su desexcitación emiten de forma isótropa fotones en el rango del ultravioleta próximo. De este modo, el desarrollo de una cascada iniciada por un rayo cósmico puede ser observado de manera similar a la entrada de un meteorito en la atmósfera. Un rayo cósmico de ultra-alta energía genera la luz equivalente a una bombilla de 100 W moviéndose hacia el suelo a la velocidad de la luz. Para detectar este flash de luz el experimento Fly’s Eye usó un EL CORTE GZK Cuatro años después de que J. Linsley detectara por primera vez un rayo cósmico ultra-energético, Greisen, e independientemente Zatsepin y Kuz’min [3] se dieron cuenta de que la radiación de fondo de microondas de- Figura 8. Akeno Giant Air Shower Array (AGASA). Distribución en el suelo de los detectores de la cascada (derecha) y uno de los detectores individuales (izquierda). 100cias@uned 70 Vida científica tiene ninguna correlación con la fuente en donde se originó el rayo cósmico. Resulta innecesario recordar que la astronomía está basada en el hecho de que los fotones viajan en línea recta independientemente de estos campos magnéticos. De otro modo al mirar al cielo no veríamos más que un fondo luminoso uniforme. La información que poseemos de los campos magnéticos cósmicos nos indica que los rayos cósmicos con energías superiores al corte GZK no deberían desviarse de forma importante en su camino hasta nosotros. Por tanto si se detectan rayos cósmicos por encima del corte GZK, la dirección de llegada a la Tierra debería apuntar a la fuente. ¿Sería posible la Astronomía de Rayos Cósmicos? ¿CUÁL ES SU ORIGEN? Aunque aún no se han identificado de forma precisa las fuentes, es muy probable que estos núcleos de ultraalta energía sean de origen extragaláctico. En cualquier caso nuestra galaxia no sería capaz de confinarlos puesto que su campo magnético no puede curvarlos suficientemente. En otras palabras, el radio de Larmor es inferior al tamaño de nuestra galaxia. La pregunta ahora es ¿qué objetos cósmicos son capaces de acelerar núcleos hasta tan altas energías? El procedimiento más eficiente para la aceleración de rayos cósmicos es el conocido como mecanismo de Fermi de primer orden. En este modelo las partículas son aceleradas en las múltiples colisiones que pueden sufrir en ondas de choque como las que se generan en explosiones de supernovas. Sin embargo, los remanentes de supernova solo pueden explicar aceleraciones hasta ~1015 eV, simplemente porque no tienen tamaño suficiente para conseguir las energías extremas. Existen otros objetos cósmicos donde se espera que se generen fuertes ondas de choque y con características (campo magnético y tamaño) más favorables para alcanzar mayores energías. Uno de los candidatos a ser fuente de rayos cósmicos de ultra-alta energía son los núcleos activos de galaxias AGN. Se trata de galaxias en las que se sospecha que alojan en su centro un agujero negro supermasivo. Obviamente, la posibilidad de determinar de manera directa las fuentes emisoras a partir de la dirección de llegada de rayos cósmicos de suficiente energía permitiría resolver de manera inequívoca el problema. Sin embargo, para ello se necesita recolectar un gran número de Figura 9. Algunos de los espejos del detector de fluorescencia Fly’s Eye (arriba). Uno de los telescopios del proyecto HiRes (abajo). bería de hacer relativamente opaco al Universo para rayos cósmicos de tan alta energía. Suponiendo que estos rayos cósmicos sean protones, puede tener lugar la reacción: γ3K + p → Δ+ → π0 + p con la consecuente degradación de su energía, de tal modo que para E > 1020 eV la longitud de atenuación resulta ser inferior a 50 Mpc. Esta predicción tiene varias consecuencias trascendentales. En primer lugar, suponiendo el origen universal de estos rayos cósmicos, es de esperar un corte en el espectro a energías del orden de 5 × 1019 eV. Es decir, los rayos cósmicos con energías por encima de este valor no pueden llegar con tanta frecuencia porque una fracción significativa del Universo resulta opaca para ellos. Éste es el conocido como corte GZK. Otra consecuencia importante está relacionada con las direcciones de llegada de estos rayos cósmicos. En principio, la distribución de direcciones de llegada de la radiación cósmica primaria es perfectamente isótropa. Esto es debido a que los rayos cósmicos antes de llegar a la Tierra atraviesan regiones del espacio en los que existen campos magnéticos con una importante componente aleatoria. Por este motivo la dirección de llegada no 100cias@uned 71 Vida científica ron el corte GZK y las direcciones de llegada resultaron compatibles con una perfecta isotropía. Es difícil interpretar estas notables discrepancias teniendo en cuenta que en ambos experimentos el número de rayos cósmicos detectados es muy bajo y además emplean técnicas experimentales muy distintas, sujetas a diferentes tipos de errores sistemáticos. Con el objetivo de resolver este importante problema científico la colaboración internacional Pierre Auger, constituida por científicos de 17 países, ha puesto en marcha en la provincia argentina de Mendoza el mayor observatorio de rayos cósmicos del mundo. Este Observatorio, cuya construcción ha sido recientemente finalizada, ya ha proporcionado nuevos datos con mucha mayor precisión que los conocidos hasta ahora. Con el objetivo de tener acceso a todo el cielo y aumentar de forma significativa la muestra de datos, la colaboración ha propuesto la construcción de otro observatorio aún mayor en el hemisferio norte, concretamente en el estado de Colorado (USA). Figura 10. Centauro A contiene un núcleo galáctico activo. Ésta es una de las posibles fuentes de rayos cósmicos ultraenergéticos. EL PROYECTO PIERRE AUGER rayos cósmicos ultraenergéticos. Por lo dicho anteriormente, el hallazgo de anisotropías correlacionadas con las posiciones de AGNs sería un primer paso que podría más tarde materializarse en verdaderas detecciones cuando dispongamos de suficiente estadística. Se han propuesto también modelos del tipo topdown en los que fuentes exóticas, como materia oscura superpesada o defectos topológicos, podrían generar en su desintegración rayos cósmicos ultraenergéticos. Estos modelos pueden ponerse a prueba, pues tienen implicaciones que pueden ser comprobadas experimentalmente. Por ejemplo, en estos modelos no aparece el corte GZK del espectro de energía pero se predice un alto flujo de rayos γ ultra-energéticos que deberían ser observados. Más detalles sobre el origen de los rayos cósmicos de ultra-alta energía se pueden encontrar en [2]. El Observatorio El Observatorio Pierre Auger Sur consta de dos instrumentos: Un array, con más de 6000 detectores ocupando una superficie de alrededor de 3000 km2, y un detector de fluorescencia, con un total de 24 telescopios distribuidos entre 4 ubicaciones para observar la entrada en la atmósfera de los rayos cósmicos. Este observatorio supone un gran avance frente a sus antecesores, puesto que el array de superficie (fig. 11) dispone de un área de detección 30 veces superior a AGASA y el sistema de telescopios de fluorescencia (fig. 12) es significativamente más eficiente que el de HiRes. El carácter híbrido del Observatorio Pierre Auger, es decir, la capacidad de registrar los rayos cósmicos empleando de manera simultánea las dos técnicas de detección, le permite reducir de manera significativa los errores sistemáticos. Cada técnica tiene sus ventajas e inconvenientes. Por ejemplo, los telescopios pueden medir la energía del rayo cósmico primario a partir de la luz de fluorescencia cuya intensidad es proporcional a la energía depositada en la atmósfera. En cambio un array de superficie necesita usar los modelos de interacción hadrónica (colisiones nucleares) para obtener la energía a partir de los productos secundarios registrados en el suelo. Estos modelos ESTADO ACTUAL El proyecto AGASA finalizó sus operaciones en enero de 2004. Los resultados obtenidos pueden básicamente resumirse en la ausencia del corte GZK en el espectro y la posible observación de anisotropía en una dirección muy próxima al centro galáctico. El experimento HiRes operó durante el periodo 1997-2006 obteniendo resultados contradictorios a los de AGASA puesto que observa- 100cias@uned 72 Vida científica Figura 11. «Array» de superficie del Observatorio Pierre Auger. Los detectores se extienden sobre un área total de 6000 km2 (izquierda). Sobre la foto se señalan con flechas algunos de los detectores separados entre sí por una distancia de 1,5 km (derecha). hadrónicos solo han podido ser probados hasta las máximas energías disponibles en aceleradores, y por lo tanto muchos órdenes de magnitud inferior a las colisiones entre el rayo cósmico y los núcleos atmosféricos. Sin embargo, los telescopios de fluorescencia solo pueden operar durante periodos limitados de tiempo (noches claras y sin Luna). La combinación de ambas técnicas (fig. 13) ha permitido al Observatorio Auger calibrar en energía el detector de superficie usando los sucesos híbridos, es decir, registrados simultáneamente por ambos detectores. la escala de energía y se estima en alrededor del 22%. Se ha medido con precisión el cambio de pendiente en la región alrededor de 4 × 1018 eV (el llamado tobillo del espectro) probablemente debido a la transición de rayos cósmicos galácticos a extragalácticos. A partir de esta energía el espectro cae con una ley de potencia (γ = 2,55 ± 0,04) hasta una energía de 3,98 × 1019 eV, a partir de la cual se observa una clara disminución del flujo, perfectamente compatible con el efecto GZK predicho en 1966. Se ha estudiado la distribución de direcciones de llegada en busca de anisotropías, tanto a pequeña como a gran escala. No se han observado indicios de direcciones privilegiadas alrededor del centro galáctico en oposición al resultado de AGASA. Sin embargo, la búsqueda de correlaciones con un conjunto específico de AGNs llevado a cabo en 2007 dio un resultado positivo que fue publicado en la revista Science con gran repercusión en la comunidad científica (más de 160 citas en solo 2 años). En aquel momento se habían registrado 27 rayos cósmicos con energías superiores a 57 EeV que mostraban una clara correlación con los 472 AGNs del catálogo Véron-Cetty/Véron con distancias superiores a 75 Mpc. Esta correlación específica ha disminuido durante Resultados del Proyecto Auger Aunque la construcción del Observatorio Sur finalizó oficialmente en noviembre de 2008, se han venido tomando datos desde que los primeros detectores de superficie y el primer telescopio de fluorescencia fueron instalados en el año 2001. A partir del año 2007 se han publicado una serie de resultados relevantes en este campo que vamos a resumir a continuación. Se ha obtenido el espectro de energía por encima de 1018 eV a partir de más de 35000 rayos cósmicos registrados. El error sistemático más importante proviene de 100cias@uned 73 Vida científica Figura 12. Detector de fluorescencia del Observatorio Pierre Auger. Cada una de las estaciones (izquierda) consta de cuatro telescopios, uno de los cuales se muestra en la figura (derecha). sición ligera haciéndose más pesada a las más altas energías. Desgraciadamente la medida de la masa se apoya de manera inevitable en las predicciones de los modelos de interacción hadrónica que, como antes comentamos, no son fiables a estas energías. Muchos más detalles sobre los resultados de la colaboración Auger y las publicaciones correspondientes se pueden encontrar en la página web de la colaboración [4]. el último año, no obstante se mantiene de manera inequívoca la evidencia de anisotropía. Aunque el objetivo del Observatorio es la detección de rayos cósmicos cargados, ambos detectores son también sensibles a rayos γ cósmicos de ultra-alta energía que a su entrada en la atmósfera generan una cascada electromagnética. El resultado de la búsqueda ha sido negativo, pero ha proporcionado límites al flujo de rayos γ de ultra-alta energía notablemente inferiores a los impuestos en experimentos previos. Estos nuevos límites más restrictivos están empezando a descartar algunos modelos top-down propuestos para explicar el origen de los rayos cósmicos de ultra-alta energía. Un parámetro muy importante que hay que medir es la masa de estos rayos cósmicos, o más exactamente, la distribución o espectro de masas. Éste es un ingrediente fundamental junto al espectro de energía para poder interpretar las anisotropías. Cuanto mayor es la masa del núcleo primario y/o menor es su energía más rápidamente se desarrolla la cascada de partículas en la atmósfera. La medida simultánea de la energía del rayo cósmico y la profundidad en la atmósfera a la que la cascada adquiere su máximo desarrollo permite determinar la masa del primario. Este último parámetro se puede medir con el detector de fluorescencia. Los resultados encontrados hasta la fecha parecen indicar una compo- 100cias@uned CONCLUSIONES Los primeros intentos para entender la naturaleza de los rayos cósmicos, descubiertos a comienzos del siglo pasado, dieron lugar al nacimiento de la Física de Partículas. Más tarde, cuando los primeros aceleradores permitieron provocar de manera controlada colisiones entre partículas, ambas disciplinas se separaron. En todos estos años la Física de rayos cósmicos ha experimentado notables avances pero aun así son muchos los misterios que quedan por desvelar, en particular, el origen de los rayos cósmicos de energías extremas. Una de las principales dificultades proviene de nuestro limitado conocimiento de las interacciones de los núcleos a tan alta energía. El gran colisionador de hadrones LHC del CERN ha comenzado a funcionar. Aunque la energía de los proto- 74 Vida científica Figura 13. Detección simultánea de un rayo cósmico por ambos detectores. El desarrollo de la cascada en la atmósfera es observada (en este caso particular) por dos telescopios de fluorescencia (visión estereoscópica), mientras que las partículas cargadas de la cascada son registradas por varios detectores del array de superficie. cósmicos, al menos una pequeña fracción de ellos. Esperemos que en un futuro próximo sepamos que objetos cósmicos los producen y que procesos físicos están detrás. nes es muy inferior a la de los rayos cósmicos, la energía de la colisión proton-antiproton en el centro de masas estará a solo un factor ≈30 con respecto a colisiones protón-núcleo atmosférico. Con certeza los resultados del LHC permitirán reducir muchas incertidumbres sistemáticas en la interpretación de los datos de rayos cósmicos. Hay que admitir que el inofensivo mosquito de 1 mJ posee capacidades únicas para entender los procesos físicos de alta energía. A diferencia de lo que ocurre con los rayos cósmicos, en el LHC se sabe qué partículas colisionan y qué energía tienen. Además se pueden medir con precisión todos los parámetros de la colisión y los productos resultantes. La interpretación de los datos de rayos cósmicos es mucho más complicada puesto que no sabemos con seguridad cuáles son los núcleos primarios, su energía se mide con poca precisión y, además, solo observamos una pequeñísima fracción de los productos resultantes. Sin embargo, por muchos años, las partículas más energéticas de la naturaleza seguirán siendo los rayos 100cias@uned BIBLIOGRAFÍA 1. Sekido, Y. and Elliot, H. (editors): Early history of cosmic ray studies, Reidel, Dordrecht, 1985. 2. Nagano M. and Watson A. A., Rev. Mod. Phys. 72, 690 (2000). 3. Greisen, K., Phys. Rev. Lett., 16, 748 (1966); Zatsepin, Z. T., and V. A. Kuz’minZh, Eksp. Teor. Fiz. Pis’ma Red., 4, 144 (1966). 4. http://www.auger.org/ Fernando Arqueros Martínez Dpto. de Física Atómica, Molecular y Nuclear Universidad Complutense de Madrid 75 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 COLABORACIONES EN QUÍMICA puestos, y algunos sólo existen porque los hemos creado en laboratorios1. Tan pequeños como son (el nombre proviene del griego ατομον, que significa «sin partes»), los átomos resultan ser estructuras, más o menos complejas, compuestas de tres tipos de partículas elementales: los protones y los neutrones, que se encuentran empaquetados muy compactos en el núcleo del átomo, y los electrones, que se mueven alrededor del núcleo en órbitas muy alejadas del mismo. Así resulta que la materia que conocemos tiene una estructura paradójicamente casi vacía. Por un lado, el núcleo contiene prácticamente toda la masa: los neutrones y los protones tienen una masa muy similar entre sí, y son casi mil veces más masivos que los electrones. Por otro lado, casi todo el volumen de un átomo está vacío, pues los electrones orbitan a distancias que son unas diez mil veces el tamaño del núcleo2. Los protagonistas principales de esta historia son los dos átomos más sencillos y ligeros: el hidrógeno (H) está compuesto por un electrón (e–) orbitando alrededor de un núcleo que sólo tiene un protón (p+); el helio (He) tiene dos e- alrededor de su núcleo compuesto por dos p+ y dos neutrones (n). Así pues, la masa atómica del H es la unidad (1p+) y su carga atómica es también la unidad (1p+); mientras que el He tiene una masa de cuatro (2p++2n) y una carga de dos (2p+). El tercer protagonista de esta historia es el deuterio (D), un H pesado ya que en su núcleo tiene un protón y un neutrón. Hay sólo dos situaciones principales donde se forman los núcleos de todos los átomos (proceso que conocemos como nucleosíntesis): en los primeros minutos de vida del universo (nucleosíntesis primordial), y durante la vida y muerte de las estrellas (nucleosíntesis estelar y nucleosíntesis explosiva)3. UNA BREVE HISTORIA DE LOS ÁTOMOS: LA EVOLUCIÓN QUÍMICA DEL UNIVERSO Desde niña nunca le había resultado fácil tragar las pastillas. Afortunadamente éstas eran muy pequeñas. María tomó una del frasco, se la puso en la lengua y se ayudó con un poco de agua, cumpliendo el rito diario que, desde hacía unos años, había optado por asumir. El litio era una bendición apenas incómoda que la mantenía estabilizada, y le permitía llevar una vida normal desde que le diagnosticaron un claro, aunque leve, trastorno bipolar. Mientras se preparaba para salir de casa, repasando mentalmente las actividades que tenía por delante en este día, pensaba en lo significativo de ese pequeño gesto, ya asumido como automático en su vida diaria, que le permitía desarrollar una investigación de primera línea en astrofísica: el hidrógeno en el vaso de agua, y el litio de la pequeña pastilla, tenían trece mil setecientos millones de años de antigüedad. Sus átomos se habían formado cuando el universo apenas tenía unos minutos de existencia. Paradójicamente, no era posible datar los átomos de oxígeno de esas mismas moléculas de agua; todo lo que podíamos decir sobre ellos es que su síntesis se produjo en el interior de alguna estrella, hace más de cinco y menos de trece, miles de millones de años. María había decidido tomar esta reflexión como pie de entrada. Esta tarde pondría a prueba sus habilidades comunicativas en la conferencia pública que daba sobre la historia de los átomos en el universo. INTRODUCCIÓN Todo lo que somos, todo lo que nos rodea, nosotros mismos y nuestro entorno, estamos construidos en última instancia con átomos de diversa índole. Los átomos se pueden entender como las entidades mínimas de materia que mantienen sus propiedades químicas específicas diferenciadas, que los distinguen a unos de otros. Conocemos 118 tipos diferentes de átomos, la mayoría de ellos se encuentran en la naturaleza solos o en com- 100cias@uned 1 El 118, de nombre Ununoctio, fue descubierto en el año 2006, aunque el de número atómico 117, Ununseptio, aún no se ha descubierto. 2 Una manera de visualizarlo es suponer que el átomo de H tuviera el tamaño del estadio de fútbol Santiago Bernabeu, si el protón fuera del tamaño de un garbanzo en el centro del campo, entonces el electrón estaría orbitando por las gradas y el resto del estadio/átomo estaría vacío. 3 Existen otras dos circunstancias secundarias que no explicaremos aquí: (i) cuando los rayos cósmicos interactúan con el medio interestelar y, por supuesto, (ii) la fabricación de los elementos artificiales en los aceleradores de partículas. 76 Vida científica NUCLEOSÍNTESIS PRIMORDIAL unas pequeñas irregularidades iniciales en densidad crecen con el tiempo, debido a que la fuerza de la gravedad hace que más materia se vaya acumulando a su alrededor. A medida que una nube de H y He se hace cada vez más densa su mayor gravedad atrae a más materia. Según se hace más densa también se calienta más, llegando un momento en el que se alcanzan temperaturas de varios millones de grados en su interior. Ponemos la película en avance rápido y nos paramos en el momento en que el universo tiene 500 millones de años. Durante esos años de expansión global, muchos grumos locales se han hecho tan densos y calientes (varios millones de grados) que en su interior los núcleos de H comienzan a fusionarse en núcleos más pesados mediante reacciones termonucleares. En este momento tan especial el universo se ilumina a la luz de las primeras estrellas. Aún no las hemos visto, pero sabemos que las primeras estrellas estaban formadas sólo por H y He, y tenían masas de hasta 500 ó 1.000 veces la masa del Sol, muy superiores a las masas máximas que pueden alcanzar las estrellas de las generaciones posteriores. Es como si este momento marcara la pubertad del universo, el rito de paso a la madurez. A partir de entonces, comienza la formación de todo el resto de átomos más pesados en el universo, aquellos que nos son tan familiares: el carbono (C) de nuestras células, el nitrógeno (N) del aire, el oxígeno (O) que respiramos transportado por el hierro (Fe) del rojo torrente sanguíneo. Sí, porque estos átomos se producen en la nucleosíntesis estelar durante la vida y muerte de las estrellas. Pero no adelantemos acontecimientos. Antes de ver cómo ocurre esta transmutación atómica estelar, veamos cuál ha sido la historia general de la formación de las estrellas en el universo. Cuando el director del Space Telescope Science Institute6 decidió dedicar casi doce días completos del Telescopio Espacial Hubble para tomar la imagen más profunda del universo, tomó una decisión histórica. Si tomamos un grano de arroz entre la punta de nuestros dedos índice y pulgar con el brazo extendido frente al cielo, la parte de cielo que oculta el grano de arroz es el tamaño de la imagen conocida como el campo ultraprofundo del Hubble (HUDF, sus siglas en inglés). En esta imagen (Figura 1), que se tomó en una zona del cielo donde no se conocía ningún objeto, aparecieron (tras seis millones de segundos de exposición) más de diez mil ga- En sus comienzos, el universo tiene una enorme densidad de energía, formando un plasma de creaciónaniquilación de partículas-antipartículas a una temperatura y una densidad muy elevadas. Una pequeñísima asimetría, de una diez mil millonésima extra de materia sobre antimateria, da lugar a nuestro universo de materia en rápida expansión. Cuando el universo tiene una edad de apenas 3 minutos, se ha enfriado lo suficiente como para que los neutrones y los protones sean estables4 para poder aglutinarse en núcleos de deuterio. Dos núcleos de D dan lugar a uno de He: p + n → 21D ; D + 21D → 42He 2 1 En apenas un dramático cuarto de hora, cuando el universo tiene 20 minutos de vida, la rápida y continuada expansión hace que se enfríe lo suficiente como para que la producción de D y de He se detenga súbitamente. Este hito histórico marca la posterior evolución química del universo: el 75% de la masa está en forma de H y el 25% en forma de He.5 Era uno de los recuerdos más vívidos de su infancia. Una noche sin luna, de cielo despejado y límpido tras las recientes lluvias de primavera. María salió al patio, respiró con ganas, su consciencia se inundó del profundo aroma a tierra mojada. Alzó su mirada inocente hacia una bóveda preñada de estrellas. LA HISTORIA DE FORMACIÓN ESTELAR DEL UNIVERSO Con total ignorancia de lo que ocurre en su seno, el universo continúa en perpetua expansión, y en este devenir se va enfriando y se hace menos denso en valor medio. Y decimos en valor medio porque localmente, acá y allá, la historia es bien diferente. Así es, aunque en su conjunto el universo era y es relativamente uniforme, 4 Los protones son tan estables, con una vida media de 1036 años (el universo apenas tiene 1,4×1010 años), que aún son los mismos de entonces. La pequeña diferencia entre la masa del p+ y la del n a la temperatura del universo a los 3 minutos, T = 3 MeV, puede usarse en la ecuación de Boltzman para deducir que se formaron en proporción 1n/7p+. 5 Quedan también residuos de 0,01% de D, y apenas trazas de 10-10 de litio y berilio, pero nada más. 100cias@uned 6 STScI (Baltimore, USA) es el centro responsable de todo lo relacionado con el Hubble Space Telescope (HST). 77 Vida científica verso en ese momento. En un corte estratigráfico o en una fotografía del universo, cuanto más profundo más antiguo; pero en el universo, cuando miramos una galaxia débil y lejana estamos viendo literalmente el pasado. La Figura 2 muestra una visión simbólica del despliegue hacia el pasado del HUDF. En el día de hoy (a la izquierda de la imagen) vemos al HST tomando esta profunda imagen. Las galaxias más débiles, enrojecidas y distantes, están menos evolucionadas y estructuradas (hacia el centro de la figura). Cuando el universo era más joven, pequeño y denso, los grumos de materia crecían merced a su gravedad, y chocaban y se fusionaban muy frecuentemente, formando proto-galaxias y galaxias cada vez más grandes y estructuradas. En estas colisiones y fusiones el gas se somete a grandes presiones y las estrellas se forman de manera violenta, muchas, muy rápidamente mucho gas se transforma en estrellas. laxias. Galaxias como la nuestra, la Vía Láctea, mayores o menores, cada una con miles de millones o cientos de miles de millones de estrellas como el Sol. Esta imagen representa una instantánea de los últimos trece mil millones de años (13 Ga) de evolución del universo. Figura 1. Campo ultraprofundo del Telescopio Espacial Hubble (HUDF). Crédito: NASA, ESA, S. Beckwith y el equipo del HUDF (STScI), y B. Mobasher (STScI). Figura 3. La historia de formación estelar del universo. Crédito: adaptado de Rychard Bouwens (Universidad de Califormia, Observatorio Lick). De una galaxia no sólo medimos su distancia, también podemos medir cuántas estrellas se están formando en ésa y otras galaxias a la misma distancia o edad del universo. De esta manera nos es posible trazar la historia de la formación estelar en el universo. Las medidas realizadas con mucho esfuerzo durante las últimas décadas nos dicen que, desde que se formaron las primeras galaxias hace más de 13 Ga, el ritmo de formación estelar creció durante los primeros 2 Ga, para luego ir disminuyendo sistemáticamente desde entonces. Esto se refleja en el diagrama de la Figura 3, donde se representan cuántas masas solares por año y por unidad de volumen se han ido formando a lo largo del tiempo. Mientras que el universo era lo suficientemente compacto como para que las colisiones de galaxias fueran muy comunes, Figura 2. El campo ultraprofundo del Telescopio Espacial Hubble nos cuenta la historia del Universo. Crédito: NASA, ESA y A. Feild (STScI). La imagen del HUDF es como la fotografía de un corte estratigráfico arqueológico, donde cada capa tiene una edad diferente, y según donde encontremos un objeto podemos establecer su antigüedad» (Wikipedia). En la imagen del HUDF podemos medir el desplazamiento al rojo de cada galaxia, y así conocer qué edad tenía el uni- 100cias@uned 78 Vida científica la cadena protón-protón; en las estrellas más masivas domina el llamado ciclo CNO. No vamos a detallar aquí el complicado sistema de reacciones termonucleares. Simplificaremos diciendo que, a partir de los tres millones de grados, cuatro núcleos de H se fusionan para formar uno de He, mediante toda una cadena de reacciones intermedias en las que se libera energía en forma de radiación. Toda la masa de estos cuatro núcleos de H se convierte en la masa del He, excepto una pequeñísima cantidad, el 0,7% (26,73 MeV), que se convierte en energía. Ésta es una cantidad verdaderamente muy pequeñita de energía, apenas una billonésima de caloría, pero en el Sol se fusiona H en He a un ritmo de un billón de kg/s, lo que equivale a la enorme cantidad de 1023 kcal. A este ritmo de consumo de H, el Sol durará otros siete mil millones de años. Las estrellas más masivas alcanzan temperaturas mucho más elevadas en sus núcleos y, a partir de los 15 millones de grados el ciclo CNO es dominante. En este conjunto de reacciones cíclicas, núcleos de carbono, nitrógeno y oxígeno actúan como catalizadores para que esos cuatro núcleos de H se fusionen finalmente en uno de He, liberando energía en forma de radiación. La radiación que se libera en las reacciones termonucleares es fundamental para mantener la estructura estelar en equilibrio. De hecho, el colapso de la nube de gas que forma una estrella se detiene debido a que la presión de la radiación que se genera en estas reacciones impide que la estrella se siga colapsando. Así, mientras que las reacciones termonucleares se vayan produciendo a un ritmo adecuado para que la presión de radiación contrarrestre la gravedad, la estrella permanecerá en equilibrio hidrostático. Pero, ¿qué ocurre a medida que el H se va transformando en He? Cuando un 10% de la masa de H en el núcleo de una estrella se ha transformado en He, la reacción se hace cada vez más difícil. Esto implica que se produce menos radiación, por lo que la presión de radiación disminuye y el núcleo estelar continúa su colapso bajo la implacable fuerza de la gravedad. Al comprimirse, el núcleo (que ahora es casi todo de He) se calienta hasta tales temperaturas (100 millones de grados) que es posible que tres núcleos de He se fusionen, a través del proceso triple alfa7, para formar un núcleo de C. ¡Carbono, la base de la vida! El C puede ir reaccionando sucesivamente con un Figura 4. Arp 194 son un par de galaxias en interacción, donde se potencia la formación estelar. En la imagen todo lo que se ve en color azul claro, en las dos galaxias y en el puente de materia entre ellas, son cientos de millones de estrellas recién formadas. Crédito: NASA, ESA y el equipo del Hubble Heritage (STScI/AURA). el ritmo de formación creció, pero a medida que el universo se sigue expandiendo estos encuentros son cada vez menos frecuentes, disminuyendo así el ritmo de formación estelar. FORMACIÓN Y EVOLUCIÓN DE LAS ESTRELLAS. NUCLEOSÍNTESIS ESTELAR Y EXPLOSIVA Las estrellas se forman en nubes de gas que se contraen debido a su propia gravedad. El gas de la nube se calienta a medida que se contrae bajo enormes presiones. Si la temperatura supera los tres millones de grados, venciendo la repulsión eléctrica mutua entre los protones cargados positivamente, dos núcleos de hidrógeno se fusionan produciendo uno de deuterio, que a su vez se fusiona para dar helio. Arthur Eddington propuso la idea de este mecanismo como fuente de energía de las estrellas en 1920, pero fue Hans Bethe en 1935 quien trabajó las reacciones detalladas. Son dos conjuntos de reacciones principales: en las estrellas que tienen menos masa que 1,5 veces la del Sol, el H se fusiona en He mediante 100cias@uned 7 79 El núcleo de He se conoce también con el nombre de partícula alfa. Vida científica Figura 6. Estructura final y explosión como supernova de una estrella masiva. Crédito: Wikimedia Commons. En una estrella de masa tan baja como el Sol8 no se alcanzan los 600 millones de grados necesarios para fusionar núcleos de C, pero en estrellas más masivas este proceso continúa. En el núcleo de la estrella se fusionan átomos cada vez más pesados hasta que se produce hierro (Fe). El resultado es que, al final de su vida, las estrellas masivas tienen una estructura en cáscaras similar a la de las de cebolla, donde cada cáscara está formada principalmente por núcleos de átomos sucesivamente más pesados desde la atmósfera externa hacia el núcleo interior. núcleo de He para producir los que se conocen como elementos alfa: C, O, Ne, Mg, Si, S, Ar, Ca, Ti. La fusión de He hace que las capas externas de la estrella se expandan, la temperatura disminuye, el He deja de fusionarse, el núcleo de la estrella se contrae, por lo que se calienta y el He se vuelve a fusionar... Esto produce variabilidad en la luminosidad de la estrella y, finalmente, una inestabilidad que hace que se expulsen las capas externas de la estrella de una manera más o menos espasmódica. El moribundo Sol se convierte en una bella nebulosa planetaria. Figura 5. Algunas imágenes de nebulosas planetarias, hermosos heraldos de una muerte anunciada. 8 Las estrellas tienen masas típicamente entre una décima y cien veces la del Sol. 100cias@uned 80 Vida científica EVOLUCIÓN DE LOS ELEMENTOS QUÍMICOS Cuando una estrella muy masiva tiene su núcleo de Fe, el mecanismo de fusión termonuclear ya no produce energía (por el contrario, es endotérmico). Así, sin la presión de radiación que lo contenga, el núcleo de la estrella sigue colapsándose. Se desarrollan una serie de mecanismos catastróficos que hacen que el núcleo interior de la estrella se colapse en un material muy denso (formado sólo por protones y neutrones apiñados de manera muy compacta), dando lugar a un agujero negro o a una estrella de neutrones. Simultáneamente, las capas externas de la estrella explotan de manera catastrófica en forma de supernova. Durante los pocos segundos que dura esta catastrófica serie de procesos, se lleva a cabo la síntesis de nuevos núcleos atómicos más pesados, incluidos los elementos radiactivos, mediante una compleja serie de reacciones nucleares que se conocen globalmente como nucleosíntesis explosiva. Una estrella eyecta gran parte de su masa en las fases finales de su evolución. Las de masa más baja, como el Sol, expulsan las capas externas en forma de nebulosa planetaria, mientras que las estrellas de masa mayor lo hacen de manera explosiva durante la fase de supernova. Este material eyectado está enriquecido en átomos más pesados que el H y el He9 que se han producido durante la nucleosíntesis estelar y explosiva. Con el tiempo este material se mezcla con el medio interestelar circundante y la dinámica galáctica hace que el gas enriquecido se vaya mezclando con el resto de la galaxia. Cuando se forma la siguiente generación de estrellas, muchas de ellas con sus sistemas planetarios, éstas ya tienen una metalicidad mayor que la generación anterior, y así el contenido en metales del universo va aumentando de acuerdo al ritmo de formación estelar. Él es una estrella de segunda o tercera generación. Pero no todas las estrellas evolucionan al mismo ritmo. Las estrellas masivas evolucionan mucho más rápidamente que las de menor masa. Por ejemplo, el Sol tardará unos doce mil millones de años en llegar a la fase de nebulosa planetaria, dejando un residuo estelar inerte como enana blanca, pero una estrella de cien masas solares vivirá apenas un millón de años, mientras que una estrella de baja masa, un décimo de la del Sol, vivirá hasta 200 veces la edad actual del universo. Así pues, como la producción de átomos pesados depende de la masa de la estrella, y el tiempo con el que las estrellas «contaminan» con metales pesados al medio interestelar también depende de la masa de la estrella (es decir, de su tiempo de evolución), el ritmo al que se produce la evolución de los diferentes elementos químicos será diferente, dependiendo de cómo se distribuya la masa de las estrellas que se forman. La función de distribución de las masas de las estrellas que se forman de una misma nube parental se denomina función inicial de masas. Esta función juega, por tanto, un papel fundamental en la evolución del universo y su estudio es de gran importancia. La función inicial de masas tiene una forma potencial con el inverso de la masa, de manera que, en una nube parental dada, se Figura 7. Restos de la explosión de una supernova que tuvo lugar hace cinco mil años. Enriquecidos en átomos pesados, este material formará parte de próximas generaciones de estrellas y planetas. Crédito: NASA, ESA, el equipo del Hubble Heritage, y J. Hester (Arizona State University). 100cias@uned 9 En Astrofísica se suelen llamar «metales» a los átomos más pesados que el He y «metalicidad» a la abundancia de estos átomos, relativa a la del H. 81 Vida científica Figura 8. Variación con la edad de la abundancia del Fe relativa al H (en escala logarítmica) para el sistema de cúmulos globulares en la galaxia M81. y asombro y nos hemos preguntado cuál es nuestra relación con el lejano y misterioso cosmos. Pues bien, ahora lo sabemos. Gracias a la investigación astrofísica, ahora hemos dibujado un esquema global de cuál es la relación del ser humano con el cosmos, y este conocimiento nos proporciona una experiencia aún más fascinante y sobrecogedora de nuestra herencia evolutiva cósmica de catorce mil millones de años. forman muchas estrellas de baja masa pero muy pocas estrellas masivas. En resumen, la composición o producto entre el ritmo de formación estelar y la función inicial de masas nos proporciona el ritmo de la evolución química de una galaxia y del universo de galaxias. A MODO DE REFLEXIÓN La evolución nos ha dotado de unas importantes capacidades para procesar la información de nuestro entorno, nuestra capacidad de pensar, de planear para el futuro y ejecutar, de ser conscientes de nosotros mismos. A lo largo de miles de años, las culturas humanas han desarrollado diferentes paradigmas de interpretación del entorno. La ciencia es, sin lugar a dudas, el más fiable y potente de estos paradigmas de interpretación de la realidad. La Astronomía y la Astrofísica utilizan toda la potencia del paradigma científico para estudiar la naturaleza, estructura y evolución del Universo. La relación del ser humano con el cosmos es muy antigua, pues siempre hemos mirado a la bóveda celeste con maravilla 100cias@uned Se deslizó entre las suaves y reconfortantes sábanas y apagó la luz. Una sonrisa de satisfacción se dibujó en su rostro mientras recordaba el éxito de la conferencia, ¡cuántas preguntas había suscitado en el público!, ¡cuán hermosas las felicitaciones recibidas! En el silencio de su dormitorio, mientras el cansancio se iba adueñando de su consciencia, María podía oír cómo la sangre circulaba por su cuerpo. Con cada respiración casi podía imaginar el oxígeno reaccionando con el hierro de la hemoglobina... Enrique Pérez Jiménez Instituto de Astrofísica de Andalucía (CSIC) 82 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 NOVEDADES CIENTÍFICAS EN 2009 ejemplar, que se cruzaba con los pinzones residentes en la isla. Durante la cuarta generación y, como consecuencia de una sequia intensa, observaron que la población de descendientes se redujo a dos: un macho y una hembra. Desde entontes, ellos y sus descendientes, los cuales tienen picos, cantos y genes distintos a los del resto de aves de la isla, sólo se han cruzado entre sí. En el artículo se sugiere que la especiación sucedió en dos fases: inicialmente existió divergencia entre poblaciones con aislamiento geográfico (alopátrica) y luego la divergencia se completó en un solo lugar debido a diferencias en el canto, que resulta ser un mecanismo de aislamiento reproductivo fundamental por su papel en la formación de parejas. Ese aislamiento reproductivo es la condición propia para que se inicie un proceso de especiación, o aparición de una nueva especie, ya que si se volviese a producir el cruzamiento con otros miembros de especies cercanas, no daría lugar a individuos fértiles (Proc. Natl. Acad. Sci., 106(48), 20141-20148, 2009). EN CIENCIAS AMBIENTALES ESPECIALIZACIÓN ALOPÁTRICA EN LOS PINZONES DE DARWIN Charles Darwin ya describió en su diario de viaje a bordo del Beagle la variedad de especies que existían en el archipiélago de las Galápagos. El caso de los pajáros pinzones, con los picos adaptados a distintas formas de alimentación, se convirtió en la clave para la formulación de la teoría de la selección natural y, en el mejor ejemplo para ilustrar como actúa. Coincidiendo con el bicentenario del nacimiento de Darwin y los 150 años de la publicación de On the Origin of Species, la obra que marcó un hito en la biología, Peter y Rosemarie Grant, de la Universidad de Princeton (New Jersey, EE.UU.), han publicado un artículo sobre la aparición de una nueva especie de pinzones en las Galápagos. La especiación es un proceso por el cual se forman dos especies a partir de una, debido a que se produce un aislamiento reproductivo de dos linajes divergentes. En 1981, estos investigadores detectaron en la isla Daphne Major, la presencia de un ejemplar de pinzón terrestre (Geospiz fortis) más grande de lo habitual, al que denominaron 5110, y que provenía de una isla vecina. Realizaron un seguimiento de todos los descendientes del SÍNTESIS DE PÉPTIDOS SIN DISOLVENTE En las últimas décadas la química de péptidos ha alcanzado gran auge, por las propiedades farmacológicas y la baja toxicidad de estos compuestos. La síntesis de péptidos se lleva a cabo fundamentalmente mediante dos procedimientos: síntesis en disolución en múltiples etapas y síntesis en fase sólida. El principal problema es Figura 1. a) Individuo del linaje inmigrante de G. Fortis (A) en la Isla de Daphne Major y miembro de la población residente de G. Fortis (B). b) Reproducción de la figura incluida en su obra On the Origin of Species de Charles Darwin. 100cias@uned 83 Vida científica que se requiere utilizar grandes cantidades de disolventes (2.000-5.000 kg para un péptido largo), siendo necesario desarrollar nuevos métodos más eficientes y «benignos» con el medio ambiente. La Química Sostenible o Química Verde consiste en la utilización de una serie de principios encaminados a reducir o eliminar el uso y generación de sustancias peligrosas en el diseño, fabricación y aplicación de los productos químicos. El quinto principio establece que se debe evitar emplear sustancias auxiliares, como disolventes, reactivos, etc. y en el caso de que se utilicen deben ser inocuos. El grupo de investigación del Instituto de Biomoléculas Max Mousseron (Montpellier) dirigido por F. Lamaty ha desarrollado el primer método sin disolventes para realizar enlaces peptídicos. Este procedimiento consiste en utilizar un molino de bolas, similar a los que se emplean en el procesado de los compuestos químicos de las pinturas y productos pirotécnicos. El molino de bolas consta de un cilindro hueco, que contiene múltiples bolas de acero. Cuando el recipiente está cargado con los reactivos, se pone a girar para que se mezclen y reaccionen. Estos investigadores lo han utilizado para acoplar derivados N-carboxianhídridos de α-aminoácidos N-uretanos protegidos con esteres, amidas y α-aminoácidos para obtener diferentes dipéptidos, incluido el aspartamo (edulcorante artificial) e incluso tripéptidos. La reacción se lleva a cabo en estado sólido y no se necesitan disolventes para realizar la síntesis ni en la purificación de los productos finales, además los rendimientos obtenidos son altos. Según los autores, este procedimiento con molinos de bolas abre una nueva posibilidad para síntesis más ecológicas de otros compuestos (Angew. Chem. Int. Ed. Engl., 48, 9318-9321, 2009). (H2CO3)2 Figura 2. Síntesis sin disolventes del péptido aspartamo (edulcorante artificial). FIJACIÓN Y SECUESTRO DE CO2 MEDIANTE FORMACIÓN DE H2CO3 La reducción de los gases de efecto invernadero que producen el cambio climático, implica desarrollar nuevos métodos sencillos y baratos que permitan capturar y «secuestrar» el dióxido de carbono (CO2). En las técnicas actuales, se captura el CO2 de los gases de combustión de las centrales mediante reacciones con otros compuestos, o bien, se licua y posteriormente se bombea hacia zonas profundas de la tierra o al fondo del océano. Sin embargo, estos procedimientos requieren considerables cantidades de productos químicos y de energía. Además, cuando se utilizan compuestos básicos débiles se producen (H2CO3)3 (H2CO3)4 Figura 3. Modelos de los diferentes oligómeros del ácido carbónico (H2CO3). Cálculos realizados mediante Gaussian03. 100cias@uned 84 Vida científica para ambas especies, b) relaciones que suponen un perjuicio para los individuos de las especies implicadas y c) interacciones en las que una especie obtiene un beneficio mientras que la otra no se favorece ni perjudica. El mutualismo se caracteriza porque se favorecen ambas especies y un ejemplo sería la dispersión del polen de las plantas mediante insectos, donde estos utilizan el polen como alimento a la vez que ayudan a las plantas con flores a reproducirse. Este tipo de relaciones de mutualismo no han tenido tanta repercusión en la formulación de modelos teóricos como la depredación y la competencia, debido fundamentalmente a que se consideraba la competencia como la principal fuerza de la evolución biológica. Un grupo multidisciplinar, formado por investigadores de la Universidad Autónoma de Madrid, de la Estación Biológica de Doñana y de la Universidad Politécnica de Madrid, han publicado un trabajo coordinado por J. Bascompte, donde estudian las redes mutualistas entre plantas e insectos polinizadores o dispersores de semillas. Los autores han demostrado que cuando especies distintas de insectos compiten por los mismos recursos, pero polinizan a la misma especie de planta, en realidad cooperan entre sí. Esta reducción de la competencia efectiva, aumenta la estabilidad estructural del ecosistema, que se hace más resistente a las extinciones y permite que coexistan un mayor número de especies. Según este modelo, la reducción de la competencia se produce cuando la red de las interac- reacciones incompletas debido a la acidez débil del CO2 (g). Y si se utilizan bases fuertes, como el hidróxido de sodio (NaOH), se obtienen productos más estables pero se necesitan reactivos en cantidades elevadas y se genera un exceso de otros compuestos químicos como el NaHCO3 que provocan problemas para su almacenamiento. J.A. Tossel de la Universidad de Maryland (EE.UU.) ha realizado cálculos teóricos, que le han permitido obtener datos sobre las estructuras, estabilidades, ... de distintos oligómeros de H2CO3 y analizar la capacidad del acido carbónico (H2CO3) para atrapar dióxido de carbono. Los resultados de su trabajo indican que es posible capturar directamente el CO2 en fase gaseosa, utilizando sólo agua como reactivo y almacenando el producto resultante (H2CO3), como un sólido oligomérico a temperaturas moderadamente frías. Aunque el H2CO3 es un compuesto muy inestable, sus oligómeros se consideran más estables debido a los enlaces de hidrógeno intermoleculares (Environ. Sci. Technol., 43, 2575-2580, 2009). La viabilidad de este procedimiento a gran escala requiere completar los estudios sobre diferentes aspectos como la curva de presión de vapor, compresibilidad del (H2CO3)n, ... LAS RELACIONES DE MUTUALISMO AUMENTAN LA BIODIVERSIDAD En Ecología existen numerosas relaciones entre las especies de un ecosistema, pero de forma general estas interacciones se pueden clasificar en: a) beneficiosas Figura 4. La estructura de las redes mutualistas determina el número de especies que coexisten. a) Totalmente conectadas. b) Anidada. c) Compartimentada. Dos especies de plantas compiten por los mismos nutrientes (flecha roja), pero también tienen interacciones indirectas mediante polinizadores comunes (flecha azul). La flecha azul puede cambiar de signo y de magnitud. Cuando el número de polinizadores compartidos es muy alto, los efectos positivos son mayores que los negativos, y el modelo predice que un gran número de especies pueden coexistir. 100cias@uned 85 Vida científica el calentamiento global, al modificar directa o indirectamente el flujo radiante. ciones mutualistas tiene una arquitectura denominada anidada. A partir de sus resultados, es posible suponer que las interacciones mutualistas anidadas explicarían que los dos grupos de organismos más diversos del planeta sean los insectos y las plantas con flores, siendo importante para mantener la biodiversidad de los ecosistemas la preservación de esta estructura. Este modelo también predice que se puede producir la extinción masiva del resto de especies de un ecosistema, si el beneficio mutuo entre dos especies aumenta demasiado (Nature, 458, 1018-1021, 2009). EL ÓXIDO NITROSO (N2O) PRINCIPAL DESTRUCTOR DE LA CAPA DE OZONO EN EL SIGLO XXI Aunque parece que la capa de ozono está experimentando una progresiva recuperación, la velocidad a la que ocurre es lenta y se considera que no se alcanzarán los niveles anteriores a los años ochenta hasta el 2050, y que incluso en la Antártida habrá que esperar hasta 2060 o 2075. Esta relativa recuperación se debe a que la producción y las emisiones de los clorofluorocarbonos (CFCs) a la atmósfera fueron reguladas en el Protocolo de Montreal de 1987. Pero en este tratado no se incluye al óxido nitroso (N2O), compuesto que se emite por actividades antropogénicas como utilización de fertilizantes agrícolas, estiércol del ganado, la combustión y otros procesos industriales, y también fuentes naturales como las bacterias del suelo y los océanos. Según el estudio de A. R. Ravishankara y sus colaboradores del National Oceanic and Atmospheric Administration de Colorado (EE.UU.), las emisiones de N2O se han convertido en el mayor factor de destrucción de la EL FLUORURO DE SULFURILO PERSISTE EN LA ATMÓSFERA El fluoruro de sulfurilo (SO2F2) es un compuesto que se emplea para la fumigación de estructuras en la construcción. Es eficaz para combatir los parásitos y hongos de la madera y en la desinfección de edificios atacados por coleópteros, termitas, etc. Además se está considerando como una alternativa al bromuro de metilo (CH3Br), un agente utilizado en la agricultura para el control de plagas, que en 1992 se reconoció como una de las sustancias responsable de la destrucción de la capa de ozono (Enmienda de Copenhague, Protocolo de Montreal). Por lo que, se han dictado varias normativas con el objeto de disminuir progresivamente su aplicación hasta llegar a la total prohibición en 2015. Sin embargo, los trabajos de M. P. Sulbaek Andersen junto con F.S. Rowland et al. han demostrado que aunque la concentración de fluoruro de sulfurilo en la atmósfera es mucho menor que la de dióxido de carbono, CO2, su capacidad de atrapar calor es 4000 veces mayor por unidad de masa que el CO2, lo que podría contribuir al cambio climático. El SO2F2 es un gas con una presión de vapor de 16 atm a 20oC y su tiempo de vida media en la atmósfera se calculaba entre 4,5 y 14 años. Pero, los últimos estudios experimentales y cálculos teóricos han estimado que el tiempo de vida media podría ser mucho mayor, del orden de 30 a 40 años. Por tanto, para evaluar la contribución del SO2F2 al forzamiento radiativo, es necesario conocer su destino en la atmósfera lo que ha llevado a este grupo de investigadores a estudiar las reacciones en fase gaseosa de esta sustancia con compuestos oxidantes tales como radicales, OH, átomos de cloro y ozono. Con este trabajo se pretende conocer la relación entre la química en la atmosfera del SO2F2, su tiempo de vida y el efecto en 100cias@uned Figura 5. Emisiones históricas y previstas hasta el 2100 de compuestos dañinos para la capa de ozono (ODSs, Ozone Depletings Substances) y gases de efecto invernadero (GWP, Global Warning Potencial). 86 Vida científica Figura 6. Estructuras moleculares de complejos mercurio-fitoquelatinas en plantas de arroz. de pescados como el atún y el pez espada, y se va acumulando (bioacumulación) debido a las dificultades para excretarlo. A pesar de ello, hasta ahora no se había prestado gran interés a la presencia de este metal en plantas, como por ejemplo los cereales. En recientes investigaciones se ha demostrado que la cantidad de metilmercurio en los granos de arroz es más abundante de lo que cabría esperar a partir de las concentraciones detectadas en el suelo de compuestos derivados de mercurio. E.M. Krupp et al., de la Universidad de Aberdeen (Escocia), han determinado las concentraciones en raíces y tallos de las plantas de arroz, combinando técnicas de electrospray y espectrometría de masas-plasma. En su estudio han identificado complejos de Hg-fitoquelatinas en las raíces y han comprobado que las fitoquelatinas (PGs), péptidos que actúan como ligandos detoxicantes de metales, pueden secuestrar iones Hg2+ pero no metilmercurio. En plantas expuestas a Hg2+ los niveles más altos se encuentran en las raíces, con una baja traslocación del metal a tallos y granos, al contrario de lo que sucede con el metilmercurio. Estos resultados permiten suponer que los complejos metal-fitoquelatinas no solo sirven para la detoxificación de metal, sino que juegan un papel muy importante en el proceso de transporte del metal en la planta, por lo que es necesario seguir investigando en este área (Chem. Commun., 4257-4259, 2009). capa de ozono y probablemente seguirán siéndolo durante el siglo XXI. Aunque el papel del óxido nitroso en la destrucción de la capa de ozono se conoce desde hace décadas, es la primera vez que se ha medido su impacto usando los mismos métodos que con los CFCs, demostrando que en 2008 los niveles de emisión de N2O fueron el doble que las del siguiente gas más importante en la depleción de la capa de ozono, el CFC-11 (Science, 326, 123-125, 2009). Los autores concluyen en su artículo que el óxido nitroso es también un gas de efecto invernadero y por tanto, la reducción de las emisiones de este compuesto no sólo sería beneficioso para la recuperación de la capa de ozono si no que también ayudaría a moderar el calentamiento global. MERCURIO, UN CONTAMINANTE «AMPLIAMENTE EXTENDIDO» El mercurio es un metal con alta capacidad para formar compuestos orgánicos e inorgánicos y, que se transforma en otras sustancias altamente tóxicas, como el metilmercurio (CH3Hg), considerado un potente neurotóxico. Desde hace años, existe una gran preocupación por los riegos derivados del mercurio presente en el ambiente y su influencia en la salud humana. Como consecuencia de la contaminación atmosférica global, termina depositándose en el mar y concentrándose en cantidades relativamente altas en la pesca de alta mar. En las cadenas tróficas pasa de unos depredadores a otros llegando hasta el ser humano, fundamentalmente por el consumo 100cias@uned Consuelo Escolástico León Dpto. de Química Orgánica y Bio-Orgánica 87 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 NOVEDADES CIENTÍFICAS EN 2009 este modo se designaba a ciertos objetivos selectos y muy deseables, que en caso de que se alcanzaran transformarían profundamente las estructuras de la Química actual y su proyección social. Por otra parte, en nuestros días es inevitable referirse a las aportaciones que se pueden encontrar en Internet. Entre otros, la Sociedad Francesa de Química mantiene una página web dedicada a la identificación de los 10 problemas más importantes de esta ciencia para el presente siglo «10 problems for Chemistry». Conste que en todos los casos se trata de aspectos cruciales, cuya solución no es previsible que se alcance por meros desarrollos de los procedimientos ya establecidos en la actualidad. En la presente reseña se informa de novedades recientes en el cumplimiento de algunos de estos objetivos críticos dentro del campo de la nueva Química. Se ha intentado que la selección sea mínimamente representativa, pero sería ilusorio pretender que queden recogidas todas las contribuciones relevantes. Para facilitar su localización, las referencias de los trabajos incluyen autores, título de la revista, volumen y página inicial; el año de publicación es 2008 salvo que se indique otra cosa. EN QUÍMICA Algunos expertos en la historia de las ciencias sostienen que el desarrollo de los conocimientos científicos no es precisamente lineal. Más bien, existe una alternancia de períodos románticos, en los que tienden a acumularse los descubrimientos originales, y períodos académicos, donde estos descubrimientos se confirman y consolidan. En los ciclos más sosegados se despierta la curiosidad por valorar cuál es el estado real de los conocimientos y se examina el posible agotamiento de los temas en estudio. La ciencia contemporánea presenta casos que parecen confirmar estas tendencias. En un año tan significativo como 1900 pueden localizarse dos ejemplos bien conocidos. El matemático David Hilbert presentó en un Congreso Internacional en París su famosa lista de 23 problemas que aún aguardaban una solución, en tanto que William Thomson (Lord Kelvin) señaló las «pequeñas nubecillas» que oscurecían la Física de su tiempo en una conferencia pronunciada ante la Royal Institution británica. En ambos casos se estaba en vísperas de profundas renovaciones en ambas ciencias, quizá estimuladas por estas inquietudes ante las cuestiones pendientes. Más próxima a nosotros se encuentra la figura de John Maddox, conocido editor de la revista Nature recientemente fallecido, quien en su libro «Lo que queda por descubrir» (Debate, Madrid, 1999) elaboró un repertorio de los problemas aún no resueltos por la ciencia a finales del siglo XX, dentro de los campos de la materia, la vida y el pensamiento. De modo similar, la revista Science publicó hace tiempo (Vol. 309, núm. 5731, julio de 2005) un catálogo esencial de las 100 preguntas más importantes en las diferentes áreas de la ciencia, cuyas respuestas todavía ignoramos. Todas estas incógnitas componen un sugestivo programa para la investigación científica durante el presente siglo. Dentro del campo especializado de la Química merece recordarse un número monográfico de la revista Accounts of Chemical Research (Vol. 28, núm. 3, marzo de 1995) que se dedicó a los «Griales» de esta ciencia. De 100cias@uned MANIPULACIÓN DE LOS ÁTOMOS Y MOLÉCULAS INDIVIDUALES La Química, como ciencia de los sistemas atómico– moleculares, se beneficia de la estadística de los grandes números, ya que los sistemas sometidos a estudio experimental contienen un número enorme de partículas, cuyo comportamiento promedio está garantizado nada menos que por la constante de Avogadro. Este comportamiento colectivo es el que en último término se extrapola a la molécula individual, considerada como el origen de las propiedades de cada sustancia pura. Pero en la actualidad se persigue el objetivo de estudiar el comportamiento de cada una de estas moléculas, bajo condiciones en que se encuentre lo más aislada posible y sin la envolvente globalizadora del conjunto. Para ello se requiere disponer de técnicas instrumentales sumamente refinadas, que ofrezcan un poder de resolución a la altura (o quizá mejor profundidad) del objetivo perseguido, que puede estimarse del orden de 88 Vida científica del compuesto LaOFeAs, que al ser dopado con iones fluoruro en sustitución del oxígeno, muestra superconductividad con una temperatura de transición de 26 K (Kamihara y col., J. Am. Chem. Soc., 130, 3296; Figura 2). Aunque resulte paradójico, uno de los sistemas materiales más extraordinarios es la estructura del agua líquida que estamos habituados a contemplar a nuestro alcance. Su estudio se ha prolongado durante décadas sin llegar nunca a conclusiones definitivas, tanto así que se ha denominado al agua como «espejo de la ciencia», por su capacidad de reflejar a cada momento con toda fidelidad el estado de nuestros conocimientos experimentales y teóricos. Esta vez se ha registrado un avance en las predicciones teóricas que ha posibilitado la caracterización de los hexámeros de agua, uno de los muchos elementos de construcción que componen el complejo edificio del agua líquida (Truhlar y col., J. Phys. Chem. A, 112, 3976). Otras de las propiedades asombrosas de la materia a las que se dedica una atención creciente son las que se derivan del auto-ensamblaje. Con este término se designa la formación espontánea de estructuras complejas a partir de las interacciones mutuas de componentes más simples. Este concepto abarca gran número de fenómenos, tanto en el campo inorgánico como en el orgánico, o incluso biológico. La teoría es complicada y suele exigir la aplicación de modelos ingeniosos que consigan un compromiso entre el rigor y el sentido práctico. Una idea clave es la cooperatividad con que las entidades elementales, ya sean moléculas, partículas o incluso organismos, interaccionan entre sí para formar estructuras a mayor escala. Su influencia en el auto-ensamblaje se ha analizado recientemente con detalle (Douglas y col., J. Chem. Phys., 128, 224901). Finalmente, si reunimos algunos de los conceptos que acabamos de indicar nos encontraremos en la tierra prometida de los materiales orgánicos auto-organizados, cuyas aplicaciones como componentes activos en dispositivos opto-electrónicos, tales como transistores, diodos, células solares y otros artilugios de la actual electrónica molecular, son del mayor interés. Un estudio reciente ha puesto de manifiesto que el rendimiento de estos prometedores materiales depende de los mecanismos de transporte de carga implicados y de la relación de estos mecanismos con la composición química concreta de cada material (Grozema y Siebbeles, Int. Rev. Phys. Chem., 27, 87; Figura 3). fracciones de nanómetro, mucho más allá del límite de la difracción óptica. Solamente así es posible medir directamente la fuerza necesaria para mover un átomo, tal como se ha conseguido realizar aplicando la microscopía de fuerza atómica (AFM) para determinar la fricción lateral ejercida sobre átomos adsorbidos sobre una superficie (Ternes y col., Science, 319, 1066; Figura 1). Figura 1. Representación gráfica de las fuerzas que actúan sobre la punta de un microscopio AFM al mover un átomo de cobalto sobre una superficie cristalina de cobre (Ternes y col., 2008). CONOCIMIENTO DE PROPIEDADES EXTRAORDINARIAS DE LA MATERIA Uno de los grandes objetivos, tanto científicos como técnicos, que persiguen los investigadores de los materiales es lograr la superconductividad eléctrica a temperaturas lo más elevadas posible, aunque por ahora sigan muy alejadas de la temperatura ambiente. Para ir superando el listón es necesario experimentar el comportamiento eléctrico de gran cantidad de sustancias, desde los simples elementos hasta materiales cerámicos de complejas estructuras. Se han estudiado las propiedades Figura 2. Estructura cristalina del compuesto LaOFeAs, que muestra superconductividad con una temperatura crítica de 26 K (Kamihara y col., 2008). 100cias@uned 89 Vida científica Figura 3. En las especies asociadas del trifenileno, la formación de enlaces de hidrógeno da lugar a una estructura extendida, en la que la movilidad de cargas está mucho más facilitada que en el complejo π, que carece de dichos enlaces (Grozema y Siebbeles, 2008). EXTENSIÓN DE LOS LÍMITES DE LA SÍNTESIS QUÍMICA El reconocimiento específico de las moléculas quirales, que como es bien sabido tienen idéntica composición química pero sus formas espaciales difieren entre sí como imágenes especulares, es crucial para muchos procesos que se desarrollan en la naturaleza. Por tanto, es importante que al efectuar la síntesis química de productos quirales se forme sólo una de las dos estructuras espaciales posibles. Este problema requiere una considerable dosis de pericia experimental y se está consiguiendo resolver en diversos casos, de los que es un ejemplo representativo la producción de alcoholes terciarios quirales a partir de la conversión de alcoholes secundarios, más fácilmente obtenibles, con un alto grado de control estereoquímico (Stymiest y col., Nature, 456, 778). Otro objetivo relacionado con el precedente es la construcción de moléculas con la quiralidad helicoidal deseada. Dentro de esta línea se han investigado las aplicaciones de compuestos aromáticos fluorados, derivados del naftaleno, como elementos de control versátiles para producir alteraciones estructurales selectivas en las etapas finales de la síntesis (Rasmusson y col., Angew. Chem. Int. Ed., 47, 7009; Figura 4). 100cias@uned Figura 4. El núcleo de binol (un derivado del naftaleno) al ser sustituido con fluor en diferentes posiciones posibilita la obtención de moléculas helicoidales que presentan diferencias sustanciales en sus empaquetamientos cristalinos (Rasmusson y col., 2008). CONTROL DE LA CINÉTICA Y MECANISMOS DE LAS REACCIONES QUÍMICAS El conocimiento preciso de los pasos elementales de las reacciones químicas a fin de manipular su mecanismo y optimizar su evolución temporal es uno de los objetivos fundamentales de la ciencia química. Una de las muchas facetas de este objetivo tan deseable es la com- 90 Vida científica prensión de los principios de la reactividad en sistemas homogéneos, heterogéneos e interfaciales. Como ejemplo se puede citar la aceleración de ciertas reacciones orgánicas en medio acuoso, cuya relevancia dentro del campo de la «Química verde» es manifiesta (Li, Green Chem., 10, 151). La aplicación de radicales libres a reacciones en fase acuosa ha permitido la formación de enlaces C-H, pieza fundamental en cualquier síntesis, con un alto rendimiento (Perchyonok y col., ibid., 153). Otro reto de los estudios cinéticos actuales es la puesta a punto de técnicas espectroscópicas y de cálculo para poder caracterizar los sistemas químicos en las fronteras de la resolución temporal y espacial. Mediante una técnica de formación de imagen basada en el uso de haces moleculares, se ha conseguido observar directamente las etapas del mecanismo de la sustitución nucleófila SN2, un proceso básico en la síntesis orgánica que figura en todos los libros de texto, pero del que nunca sabremos bastante ya que su dinámica molecular es rica y compleja (Wester y col., Science, 319, 183; Figura 5). PERFECCIONAMIENTO DE LA CATÁLISIS Por mucho que las reacciones químicas sean posibles desde el punto de vista energético, para que puedan aprovecharse en la práctica es necesario que se lleven a cabo de modo eficaz en una escala de tiempo adecuada. De ahí que la catálisis sea vital para la industria química y que la obtención y optimización de catalizadores sea un objetivo que atrae cuantiosos recursos. En la catálisis heterogénea, el catalizador se encuentra en una fase diferente que los reactivos, y su papel es proporcionar una superficie en la que se facilite la reacción. Los detalles de los mecanismos son complejos y cualquier avance en su conocimiento puede tener consecuencias beneficiosas para la industria química. Para un proceso importante como la hidrogenación catalítica del propeno, se ha conseguido seguir sus pasos elementales en microrreactores, aplicando técnicas de formación de imágenes por resonancia magnética nuclear y de polarización del para–hidrógeno que permiten aumentar sustancialmente la sensibilidad de detección respecto a métodos precedentes (Bouchard y col., Science, 319, 442). Otro logro interesante ha sido la conversión de un catalizador homogéneo en uno heterogéneo, que se ha demostrado en concreto por la implantación de un complejo organometálico de rodio dentro de una muestra 100cias@uned Figura 5. Representación esquemática de la rotación del grupo metilo en el mecanismo SN2 de la reacción entre Cl– y CH3I (el Cl– es amarillo, el I es malva y el C es negro). Según Wester y col. (2008). de plata metálica, formando un «composite» que aporta diferentes productos con mejor rendimiento que el catalizador homogéneo original (Avnir y col., J. Am. Chem. Soc., 130, 11880; Figura 6). Figura 6. Evidencia microscópica que muestra la implantación de un complejo organometálico de rodio dentro de plata metálica (Avnir y col., 2008). 91 Vida científica de cumplir es que los dispositivos utilizados alcancen una larga duración. Las células fotovoltaicas basadas en semiconductores inorgánicos, tales como el silicio, suelen tener una vida media más prolongada que las células solares orgánicas y poliméricas, que se degradan tanto durante la iluminación como en la oscuridad. Por tanto, resulta necesario comprender mejor las causas de la estabilidad y degradación de este tipo de células (Jorgensen y col., Sol. Energy Mater. Sol. Cells, 92, 686; Figura 8), así como ir perfeccionando los materiales activos utilizados en su construcción (Heeger y col., J. Am. Chem. Soc., 130, 3619). Al utilizar otros complejos de ligandos orgánicos con un metal, en este caso iridio, se ha obtenido una catálisis homogénea eficiente para la oxidación del agua, a fin de descomponerla en hidrógeno y oxígeno, lo que puede tener aplicación para conseguir unos buenos sistemas fotosintéticos artificiales (Bernhard y col., J. Am. Chem. Soc., 130, 210; Figura 7). Figura 7. Diagrama de orbitales moleculares frontera (HOMO es el orbital más alto ocupado y LUMO el orbital más bajo sin ocupar) de algunos complejos de iridio, que tienen aplicaciones para la catálisis de la oxidación de la molécula de H2O (Bernhard y col., 2008). Figura 8. Una célula solar encapsulada dentro de una ampolla de vidrio sellada a alto vacío (Jorgensen y col., 2008). En cuanto a otra vertiente muy importante de este capítulo, la catálisis enzimática, merecen destacarse nuevos estudios que aportan detalles estructurales acerca de la organización de los dominios catalíticos en enzimas (Tanovic y col., Science, 321, 659; Frueh y col., Nature, 454, 903), con previsibles aplicaciones para la catálisis biomimética «de diseño», tan esperada pero tan llena de dificultades. La fotosíntesis es uno de los procesos esenciales para la vida. Es evidente que conseguir realizarla de modo artificial, logrando la conversión de la energía solar en productos combustibles, sería uno de los grandes logros de la Química, cuyas posibilidades merecen por ello una profunda discusión. En concreto, los dendrímeros son unas macromoléculas de estructura ramificada muy similar a la que tienen las unidades que captan la luz en el proceso natural de la fotosíntesis, y por ello presentan interesantes posibilidades para la realización de la fotosíntesis artificial (Balzani y col., ChemSusChem, 1, 26; Figura 9). Dentro de esta misma línea que persigue imitar los procesos naturales (Barber y Rutherford, Phil. Trans. R. Soc. B, 363, 1125), se ha sugerido la conveniencia de investigar especialmente las reacciones acopladas de transferencia de electrones que tienen lugar durante la fotosíntesis artificial (Hammarström y Styring, Phil. Trans. R. Soc. B, 363, 1283). EXPLOTACIÓN DE NUEVAS FUENTES DE ENERGÍA Se estima que el 85% de la energía que consumimos procede de combustibles fósiles, un recurso limitado y de distribución muy poco equilibrada en nuestro mundo. En la adquisición de nuevas fuentes de energía más económicas, abundantes, eficientes y respetuosas con el medio ambiente, el gran reto es la captación de la energía solar mediante procedimientos suficientemente rentables. Por ahora, el rendimiento obtenido es solamente de un 6%, pero se viene realizando mucha investigación buscando una mayor eficacia. Uno de los requisitos que se preten- 100cias@uned 92 Vida científica turas anatómicas en las que se realizan. Con estas nuevas estrategias se pueden desarrollar métodos no invasivos, que facilitan la detección de fenómenos in vivo a resolución subcelular, por ejemplo algo tan esencial como la producción de hidratos de carbono en animales vivos (Laughlin y col., Science, 320, 664). En cuanto a la gran asignatura pendiente del descifre del código que rige el plegamiento de las proteínas, una propiedad estructural que se considera la clave de su actividad biológica, puede citarse una exploración de la estructura e interacciones intermoleculares de un tipo de conformación característico de las proteínas, las láminas «beta», mediante el uso de sistemas modelo más pequeños y fáciles de manipular que las propias proteínas (Nowick, Acc. Chem. Res., 41, 1319; Figura 10). Figura 9. Representación esquemática de los procesos de transferencia de energía que tienen lugar en un dendrímero que contiene tres tipos diferentes de cromóforos recolectores de luz. La energía de excitación se canaliza a una molécula de eosina incluida en el interior del dendrímero (Balzani y col., 2008). La obtención de energía mediante movimientos a nivel molecular, que activen los denominados motores moleculares, es posible en principio mediante la utilización de medios ópticos, eléctricos y químicos. A escala macroscópica los motores moleculares más eficientes son los animados por medios electrónicos. En la nanoescala, existe la posibilidad teórica de conseguir una corriente eléctrica por efecto túnel, que induzca movimientos periódicos de vibración y de traslación en las moléculas. Resulta de interés explorar si este efecto túnel podría ser suficiente para lograr motores moleculares sintéticos impulsados por movimientos de rotación concertados (Wang y col., Phys. Rev. Lett., 101, 186808). Figura 10. En las láminas β artificiales, se combinan unidades sintéticas con péptidos para obtener unas estructuras estabilizadas por enlaces de hidrógeno, que sirven de modelo para estudiar las auténticas conformaciones paralela y antiparalela de los sistemas naturales (Nowick, 2008). Uno de los problemas fundamentales en el estudio de la evolución molecular es explicar la transferencia y conservación de la información quiral entre moléculas y sistemas supramoleculares. Se ha conseguido inducir y controlar la memoria quiral en la formación de complejos moleculares de porfirinas, compuestos que intervienen como bloques de construcción de importantes estructuras supramoleculares (Rosaria y col., Chirality, 20, 411). Dentro de este mismo campo de la evolución molecular, es indudable que el gran objetivo por excelencia es desvelar los presuntos orígenes químicos de la vida. Se ha indicado que la complejidad molecular, expresada como la heterogeneidad en la secuencia de las unidades que forman una cadena, es un factor que favorece la resistencia de los ribopolímeros ante la degradación química y que por lo tanto hace posible su posterior evolución como antecesores relativamente sencillos de los ácidos ribonucleicos (Ciciriello y col., Biochemistry, 47, 2732). REGULACIÓN DE LAS MOLÉCULAS DE LA VIDA POR MEDIOS QUÍMICOS La comprensión de los procesos químicos que regulan los sistemas biológicos tal como los conocemos es un objetivo de largo alcance, que requiere coordinar los avances de la investigación química básica y de aplicaciones creativas que integren esfuerzos multidisciplinares en las fronteras entre la química, la biología y la medicina. Una metodología muy prometedora es la que se basa en la formación de imágenes, tanto de procesos biológicos normales o patológicos, como de las estruc- 100cias@uned 93 Vida científica Figura 11. Imagen en falso color de la Cuenca Aitken, situada en el Polo Sur de la Luna, en gran parte en la cara oculta de nuestro satélite. Las diferencias de color revelan distintos materiales de la parte inferior de la corteza o de la parte superior del manto, que aparecen expuestos en la superficie lunar y de los cuales se pretende determinar su composición química (Bandhari, 2008). Figura 12. Detección de radicales hidroxilo OH en la atmósfera del planeta Venus. (a) Curvas de intensidad de las emisiones de luminiscencia nocturna de los radicales OH a diferente longitud de onda, en función de la altitud. (b) Distribución de la intensidad integrada de las emisiones frente al tiempo local y la altitud, que revela que la emisión de los radicales OH puede variar dentro de una simple órbita del planeta (Piccioni y col., 2008). CONOCIMIENTO DE LA COMPOSICIÓN QUÍMICA DE LOS PLANETAS (Wilson, Chem. Eng. News, 86, 13). En Venus, la nave Venus Express, de la Agencia Espacial Europea (ESA), ha detectado por medios espectroscópicos la existencia en la atmósfera de radicales OH, unas sustancias químicas importantes y reactivas (Piccioni y col., Astron. Astrophys., 483, L29; Figura 12). En Mercurio, la misión MESSENGER de la NASA ha comprobado que en contra de lo esperado, la mayor parte del hierro no está en los silicatos, que presentan un contenido de hierro sorprendentemente bajo, sino más bien en forma de óxido o de metal (McClintock y col., Science, 321, 62). Otra misión proyectada de la ESA que permitirá confirmar estos hallazgos es la BepiColombo, cuya llegada a Mercurio está prevista en 2020 (Rothery y col., Planet. Space Sci., en prensa). De continuar por este camino, la Química espacial será pronto un nuevo capítulo que tendremos que incorporar a nuestros conocimientos. El gran objetivo de conocer la composición material de los cuerpos celestes no es precisamente una ocurrencia de ahora, pues tiene una arraigada relación histórica con la invención de la espectroscopía por Bunsen y Kirchhoff a mediados del siglo XIX. La característica de nuestros tiempos es que resulta posible una exploración directa «sobre el terreno» utilizando medios automatizados o incluso humanos. Como es lógico, el estudio comienza por los planetas y satélites más próximos a la Tierra, los cuales presentan la interesante ventaja de poseer una estructura rocosa que facilita la recogida de muestras sólidas (Bandhari, Current Sci., 94, 189; Figura 11). Aunque no seamos plenamente conscientes de ello, los descubrimientos de interés se están sucediendo con cierta frecuencia. Así, en el planeta Marte, el explorador Phoenix de la NASA ha detectado la presencia de iones perclorato 100cias@uned Fernando Peral Fernández Dpto. de Ciencias y Técnicas Fisicoquímicas 94 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 SEMBLANZAS DE LOS PREMIOS NOBEL transformación si las ecuaciones correspondientes no cambian al implementar sobre ellas la mencionada transformación. Naturalmente, el concepto de transformación que estamos considerando aquí es bastante amplio. Tenemos transformaciones espaciales, tales como una rotación de un cierto ángulo alrededor de un eje, una reflexión respecto de un plano, una translación definida por un vector o la llamada inversión espacial (también llamada transformación de paridad y simbolizada por la letra P): EL PREMIO NOBEL DE FÍSICA 2008: SIMETRÍAS ROTAS INTRODUCCIÓN La Academia Sueca de las Ciencias anunció el 7 de octubre de 2008 que el Premio Nobel de Física de aquel año recaía, por un lado, en el científico americano de origen japonés Yoichiro Nambu (Tokio, 1921) y, por otro, en los investigadores japoneses Makoto Kobayashi (Nagoya, 1944) y Toshihide Maskawa (Nagoya, 1940). Nambu, en la actualidad catedrático emérito en el Instituto Enrico Fermi de Chicago, fue galardonado por «el descubrimiento del mecanismo de rotura espontánea de la simetría en física subatómica». Kobayashi y Maskawa, catedráticos eméritos en el Acelerador de Altas Energías de Tsukuba (KEK) y en el Instituto de Física Teórica Yukawa de Kyoto, respectivamente, fueron premiados por «el descubrimiento del origen de la simetría rota que predice la existencia de al menos tres familias de quarks en la naturaleza» [1]. Los trabajos reconocidos a Nambu y a Kobayashi y Maskawa parecen entonces muy cercanos entre sí. Sin embargo, aparte de abordar problemas relacionados con el importante concepto de simetría en física teórica, estos dos descubrimientos científicos son conceptualmente bastante diferentes. Mientras que Nambu mostró cómo simetrías aparentemente ausentes en física de partículas existen realmente a un nivel más profundo, Kobayashi y Maskawa analizaron las implicaciones que tiene el incumplimiento real de una ley de simetría a la hora de catalogar las partículas elementales que constituyen los bloques fundamentales de la materia. Pensemos en un sistema físico arbitrario cuyo comportamiento está regido por un conjunto de leyes expresadas en forma de ecuaciones matemáticas. Si el sistema se encuentra en un estado cuyas propiedades no se ven afectadas al realizar un cambio o transformación en el mismo, diremos que el estado es simétrico bajo dicha transformación. Análogamente, las leyes físicas que gobiernan el sistema son simétricas o invariantes bajo una 100cias@uned r → r’ = –r que cambia el sentido de todas las posiciones, medidas desde el punto que se toma como origen de coordenadas en el sistema. Igualmente podemos contemplar transformaciones que afectan al tiempo, como las translaciones temporales: t → t’ = t + Δt donde Δt define la transformación, o la llamada transformación de inversión temporal (T): t → t’ = –t que implica invertir el sentido del tiempo. Son también muy importantes en física teórica aquellas transformaciones que cambian las propiedades fundamentales del sistema, como es la conjugación de carga (C) en un sistema de partículas elementales, la cual consiste en sustituir todas las partículas por sus antipartículas aunque conservando el espín y el momento lineal de cada una de ellas. Finalmente, en teoría de campos se contemplan transformaciones matemáticas más abstractas pero que una vez interpretadas suelen tener un significado físico claro. Por ejemplo, consideremos un campo vectorial A(x) en una teoría de campos relativista (aquí x es un cuadrivector del espacio-tiempo mientras que el campo A(x) tiene varias componentes escalares) y una transformación genérica A(x) → A’(x) en la que se combinan diferentes componentes del campo vectorial, combinación que depende del punto x del espacio-tiempo. De esta manera la transformación afecta a la estructura interna del campo en cada punto del espacio–tiempo y tenemos una transformación interna local o transformación de gauge. Como veremos más adelante, este tipo de trans- 95 Vida científica formaciones juega un papel esencial en las modernas teorías cuánticas de campos. Se puede asignar de manera natural la estructura matemática de grupo al conjunto de transformaciones bajo las cuales unas leyes físicas son invariantes. Esto nos permite hablar de un grupo de transformaciones de simetría o, simplemente, grupo de simetría del sistema. Esto puede parecer una extravagancia, pero la teoría de grupos es una herramienta matemática poderosa que permite extraer información física muy relevante a partir del análisis de las simetrías en las leyes que gobiernan el sistema. En particular, imaginemos que las leyes físicas de nuestro sistema son invariantes bajo un grupo de simetría continuo (es decir, que las transformaciones dependen de uno o varias parámetros que toman valores dentro de un continuo), tales como los grupos de traslaciones o los de rotaciones (espaciales y también internas). Entonces se cumple el teorema de Noether, que afirma que a cada grupo de simetría continuo le corresponde una cantidad conservada en la evolución, es decir, una magnitud física cuyo valor es constante en el tiempo para cualquier estado físico del sistema. Así, la energía es la cantidad conservada asociada a la simetría bajo translaciones temporales, el momento lineal está ligado a las translaciones espaciales, y el momento angular se conserva si hay invariancia rotacional espacial. Ya que las leyes fundamentales de la física son invariantes bajo estas tres transformaciones se tiene el carácter esencial de la conservación de la energía, del momento lineal y del momento angular. Por otro lado, en teoría de campos la carga es la cantidad conservada asociada a una simetría interna continua de las ecuaciones del electromagnetismo. Esta simetría es un ejemplo de las denominadas invariancias de gauge y se dice entonces que la teoría de campos considerada es una teoría gauge. Vemos entonces que las simetrías en la teoría se reflejan en la forma en la que los sistemas evolucionan en el tiempo, ya que aquellas definen cantidades conservadas en la dinámica de los sistemas. Ilustración de la rotura de simetría en el gas de electrones. A altas densidades medias el gas es homogéneo y paramagnético. A bajas densidades medias la densidad de partículas sigue siendo uniforme pero los espines de los electrones se orientan en una dirección (ferromagnetismo) rompiéndose así la simetría de rotación. A densidades medias aún más bajas el gas de electrones «cristaliza» y se rompe también la simetría de traslación. que asoló la capital del Japón, los Nambu se vieron forzados a volver a Fukui, donde Kichiro se convirtió en maestro de escuela. Allí Yoichiro realizó sus estudios preuniversitarios sufriendo, como no podía ser de otra forma, el fuerte ambiente militarista de la sociedad nipona de aquellos años. Está circunstancia fue compensada por la educación más liberal y abierta que le proporcionaba su propio padre, lo que contribuyó a construir un carácter reservado y con una profunda capacidad de escrutinio. Tras su periodo formativo en Fukui, inicia sus estudios universitarios en la Universidad Imperial de Tokio donde se gradúa en 1942, en plena Segunda Guerra Mundial. Nada más graduarse es reclutado Yoichiro Nambu. YOICHIRO NAMBU Y LA ROTURA ESPONTÁNEA DE LA SIMETRÍA EN TEORÍAS DE CAMPOS Yoichiro Nambu nace el 18 de enero de 1921 en Tokio, siendo el primer hijo de Kichiro y Kimiko Nambu. Su padre, Kichiro, había abandonado su ciudad natal, Fukui, para estudiar en la universidad de Tokio sin el consentimiento de su familia. Tras el terrible terremoto de 1923 100cias@uned 96 Vida científica máxima estabilidad. En mecánica cuántica diríamos que hay un estado del nivel fundamental que no tiene las mismas simetrías que el hamiltoniano de evolución, pudiendo probarse que para que esta situación sea posible el nivel fundamental ha de ser degenerado. Un ejemplo típico es el modelo del gas de electrones: para densidades suficientemente bajas el estado fundamental es ferromagnético, estando todos los espines orientados en la misma dirección a pesar de que el hamiltoniano es invariante bajo rotaciones. A densidades aun más bajas, el gas de electrones se «coagula» de manera que la densidad de carga electrónica adquiere una estructura cristalina denominada cristal de Wigner. Obsérvese que en estos dos casos el estado «usual» (homogéneo y paramagnético) es metaestable, por lo que si el sistema se encontrase en este estado cualquier perturbación, por mínima que fuese, haría que el estado decayese a una de las posibles configuraciones más estables. En la transición de fase paramagnético → ferromagnético la simetrías que se rompen espontáneamente son de rotación; en la transición gas homogéneo → cristal, las simetrías rotas espontáneamente son de traslación espacial. En teoría cuántica de campos se define el «vacío» como el estado energético de menor energía. Ello implica que en el vacío cuántico no todas las magnitudes físicas medibles tienen porqué tomar el valor idénticamente nulo. Pensemos ahora en un sistema en el que el nivel fundamental es degenerado o, en otros términos, en el que hay diferentes «vacíos». Puede verse que estos vacíos son equivalentes entre sí, en el sentido de que podemos obtener uno a partir de otro aplicando sobre el segundo algunas de las transformaciones de simetría rotas pero que caracterizan a las leyes físicas de nuestro problema. Ahora bien, lo natural es medir las magnitudes observables con respecto al vacío. El problema es que escogido uno de ellos las leyes físicas que determinan la evolución de las magnitudes físicas referidas a este estado de vacío ya no van a exhibir todas las simetrías que tenían las leyes físicas generales debido, precisamente, a que el estado de referencia no es enteramente simétrico. Así, el fenómeno de rotura espontánea de la simetría se traduce en una pérdida aparente de las simetrías en las ecuaciones constitutivas del sistema. En el ejemplo mencionado en el párrafo anterior, a densidades bajas hay infinitos estados fundamentales y cada uno de ellos determina una dirección privilegiada de referencia (aquella en la que están alineados los espines de los electrones) que parece romper la simetría de rotación de las leyes del por el Ejército Imperial, donde trabaja en el desarrollo (fallido) de un sistema de radar lo que le evita ser enviado al frente. Durante ese periodo de servicio conoce a la que sería su esposa, Chieko Hida y, finalizada la contienda, trabaja en las durísimas condiciones del Japón de la posguerra como investigador en Tokio. Obtiene una plaza de profesor asociado en la Universidad de Osaka en 1949 alcanzando de manera oficial el grado de doctor en ciencias en 1952. Durante su periodo en Osaka, Nambu publica un trabajo sobre las propiedades de ligadura de dos partículas que claramente anticipa lo que hoy conocemos en física teórica como la ecuación de Bethe-Salpeter, esencial para comprender las propiedades excitónicas en materia condensada. En 1952 acepta una oferta del Instituto de Estudios Avanzados en Princeton, Estados Unidos, y poco tiempo después se traslada a la Universidad de Chicago donde es nombrado catedrático en 1958. Es aquí donde inicia sus investigaciones sobre fenómenos de rotura de simetría, inicialmente en superconductores, que son las reconocidas por el Premio Nobel. Por lo que hemos visto en la introducción, las simetrías en un sistema físico tienen una importancia capital a la hora de analizar sus propiedades básicas. Ahora bien, es evidente que no hay una correspondencia biunívoca entre las simetrías que puede exhibir el sistema y las simetrías de las leyes físicas que lo gobiernan. En otras palabras, debemos siempre distinguir entre las simetrías en las ecuaciones, que tienen un carácter fundamental dentro de la teoría, y las simetrías en las soluciones a dichas ecuaciones, que definen las propiedades de los posibles estados físicos del sistema. Así puede suceder que en un instante dado el sistema esté en un estado con una simetría accidental, pero que desaparezca posteriormente en la evolución temporal. También puede ocurrir lo contrario: que el estado no exhiba una simetría que sin embargo aparece en las ecuaciones. Por ejemplo, las leyes físicas en muchos sistemas no dependen explícitamente del tiempo (invariancia bajo translaciones temporales) pero, a no ser que el sistema esté en un estado estático, esta simetría no se mostrará en el propio sistema. De hecho, las simetrías fundamentales bajo translaciones y rotaciones espaciales y bajo translaciones temporales rara vez aparecen reflejadas en los estados físicos. Un caso particular, es aquel en el que un estado de mínima energía no exhibe todas las simetrías de las ecuaciones del sistema. Se dice entonces que hay simetrías que se han roto espontáneamente en el estado de 100cias@uned 97 Vida científica que se definen (en sentido cuántico) como una combinación lineal de un electrón y un hueco y que poseen la particularidad de que su espectro de energías exhibe un gap Δ (es decir, es necesaria una energía mínima no nula para crear la excitación). El problema es que el hamiltoniano para estas cuasipartículas no conserva la carga eléctrica, lo que físicamente no es admisible. Esta aparente contradicción atrajo la atención de Nambu que dedicó sus esfuerzos a intentar desentrañarla. Como el propio Nambu señala en su «lección Nobel» [4], necesitó unos dos años para entender el problema, dando con la respuesta en 1960 [5]. En esencia, lo que hizo Nambu fue rescribir las ecuaciones BCS en un lenguaje de teoría de campos con invariancia gauge, garantizando así la conservación de la carga. La fase superfluida (que no exhibe dicha simetría) aparece de manera natural como una solución a las ecuaciones. Más aún, Nambu demostró que en el espectro de excitaciones aparece, además de las cuasipartículas de Bogoliubov, un modo bosónico colectivo que tras acoplarse con la interacción eléctrica da lugar a un modo cargado y masivo, un plasmón. De esta manera, Nambu fue el primero en formular un fenómeno de rotura espontánea de la simetría dentro de una teoría cuántica de campos y analizar las consecuencias que tiene este hecho sobre las propiedades de excitación del sistema. Así, al romperse la simetría aparecen de manera natural excitaciones que necesitan una energía mínima (gap) para ser creadas junto con otras de naturaleza bosónica que estarían ausentes en el caso de que el estado fundamental exhibiese dicha simetría. Este último mecanismo fue inmediatamente después presentado de manera más general y sencilla por Jeffrey Goldstone [6], por lo que hoy conocemos con el nombre genérico de bosón de Nambu-Goldstone (bosón NG) a esta clase de excitaciones del vacío no simétrico que, en cierta forma, son una «herencia» de la simetría que se ha roto espontáneamente en el estado fundamental. La profunda visión de Nambu se manifiesta en el siguiente paso: extender esta idea a una teoría de campos relativista para partículas elementales. Puesto que las partículas pueden verse como excitaciones del vacío, debería haber una fuerte correspondencia entre simetrías rotas y las propiedades de las partículas que emergen dentro de la teoría. En la época en la que nos encontramos (principios de la década de los 60 del siglo pasado), la elucidación de la naturaleza de las fuerzas nucleares fuertes y débiles es uno de los campos abiertos de inves- electromagnetismo, simetría que naturalmente sigue existiendo pero «escondida» por el hecho de que nuestro estado de menor energía de referencia no es invariante bajo rotaciones. El ejemplo anterior es sencillo de visualizar porque cuando el estado fundamental de un sistema electrónico es ferromagnético la simetría que se rompe es espacial. Ahora bien, en teorías cuánticas de campos gauge bien puede ocurrir que el fenómeno de rotura espontánea de la simetría afecte precisamente a las simetrías internas, menos intuitivas, de los campos involucrados. Pensemos en la teoría cuántica de campos gauge más sencilla: la electrodinámica cuántica (QED), resultado de los trabajos pioneros de Richard Feynmann, Julian Schwinger, Sin-Itiro Tomonaga y Freeman Dyson a finales de la década de los cuarenta del siglo pasado. En la QED, como en cualquier otra teoría cuántica de campos relativista, los objetos fundamentales son operadores en el espacio de Hilbert de los estados que dependen de los puntos del espacio-tiempo. En el caso de la QED la simetría gauge aparece al realizar transformaciones internas en el campo asociado al electrón/positrón, en particular cambios locales de fase que quedan descritos por el grupo de simetría U(1) (rotaciones de ángulo ϕ). Al quedar todos los elementos de este grupo determinados por un único parámetro, la cantidad conservada asociada a la simetría es un escalar: la carga eléctrica. Lo interesante es que el campo EM, que en este contexto se denomina campo gauge, se introduce en las ecuaciones de tal manera que se satisfaga dicha simetría: la descripción del acoplamiento entre el campo electrónico y el campo EM esta guiado por la invariancia gauge de la teoría. En un lenguaje más inteligible, las ecuaciones de evolución dinámica se construyen imponiendo el principio físico de conservación de la carga. Por tanto, en toda teoría descriptiva de fenómenos electromagnéticos esta ley de conservación, plasmada en la conocida ecuación de continuidad, tiene que aparecer de manera natural. Sin embargo, esto no ocurre en la célebre teoría de Bardeen, Cooper y Schrieffer (BCS) para la superconductividad a bajas temperaturas [2]. En la teoría BCS los electrones se agrupan en pares (de Cooper) en un proceso mediado por los fonones de la red del metal. Estos pares de Cooper tienen carga –2 (en unidades de la carga absoluta del electrón) formando un condensado superfluido y las excitaciones cuánticas se deben construir a partir de este condensado. Un ejemplo de estas excitaciones son las cuasipartículas de Bogoliubov [3], 100cias@uned 98 Vida científica gor, la simetría quiral no se satisface exactamente (el término en el hamiltoniano que representa la energía en reposo no es invariante bajo transformaciones quirales). Al imponer que la simetría rota es aproximada, el pión sí tiene entonces masa aunque éste ha de considerarse formalmente como un pseudo-bosón NG. Nótese que esta pequeña masa de 5 MeV/c2 es similar a la de los quarks u y d, muestra de la bondad última del modelo. Aunque hoy en día sabemos que los nucleones son estados ligados de tres quarks y que los piones están formados por parejas de quarks u y d, el papel que juega la rotura espontánea de la simetría quiral en las interacciones fuertes es la que predice el modelo NJL. De hecho, este modelo se sigue usando hoy en día en la interpretación de algunas reacciones mediadas por interacciones fuertes para las cuales las ecuaciones derivadas de la QCD son demasiado complicadas. La importancia e implicaciones del fenómeno de rotura espontánea de la simetría presentado por Nambu y Goldstone fueron inmediatamente reconocidas por la comunidad de físicos teóricos. Poco tiempo después se plasmaron en el mecanismo de Higgs que, para dar crédito a todos los grupos que contribuyeron de manera independiente a su formulación, debe llamarse mecanismo de Englert-Brout-Higgs-Guralnik-Hagen-Kibble [8]. Éste explica cómo los bosones asociados a las interacciones gauge pueden adquirir una masa no nula tras un proceso de rotura espontánea de la simetría, lo que es posible por la presencia de un campo adicional, el campo de Higgs, que interactúa con los propios campos gauge. La incorporación de este mecanismo a la teoría unificada de la interacción electrodébil de Weinberg, Salam y Glashow proporciona la masa no nula de los bosones W± y Z asociados a la fuerza débil, de corto alcance, y en el contexto más amplio del modelo estándar también explica la masa no nula de los leptones y de los quarks. Parte de este campo de Higgs debería manifestarse en una partícula, el famoso bosón de Higgs, cuya detección es el objetivo más importante del LHC. Las contribuciones de Yoichiro Nambu a la física teórica de partículas no terminan aquí. En 1965 sugirió que las interacciones fuertes deberían estar construidas a partir de una teoría gauge no abeliana basada en el grupo de simetría SU(3) [9], anticipando claramente la teoría de Gell-Mann y Zweig de los quarks. Nambu pensó que los quarks podrían ser observados directamente lo que le llevó a asignarles una carga entera, error que fue corregido un año más tarde por el propio Gell-Mann. Más tigación más activo. Nambu y sus colaboradores (principalmente Giovanni Jona-Lasinio) abordaron el estudio de la rotura de simetría en la interacción fuerte usando un sencillo modelo efectivo [7]. A diferencia del caso de un superconductor BCS, en el que se rompe una simetría gauge en el estado fundamental formado por pares de Cooper, en el trabajo de Nambu y Jona-Lasinio (NJL) se produce la rotura de la simetría quiral en un condensado de hipotéticos fermiones que son los constituyentes fundamentales del modelo. Para una fermión de espín ½ sin masa, como por ejemplo un fotón, es posible definir una quiralidad atendiendo a la orientación relativa entre el espín y el momento lineal de manera que la quiralidad es equivalente a la helicidad. Para partículas masivas, cuyo momento lineal puede cambiar de orientación dependiendo del sistema de referencia, la definición de su quiralidad es más complicada aunque posible. Así, el campo asociado a un fermión de espín ½, masivo o no, siempre se puede descomponer en una parte con quiralidad positiva (componente «diestra» en lenguaje figurado) y en otra con quiralidad negativa (componente «zurda»). Entonces, una ecuación de evolución exhibe simetría quiral si es invariante bajo rotaciones internas independientes de las componentes diestra y zurda. Así ocurre con las ecuaciones de evolución del modelo NJL pero no con el estado de vacío que, como hemos dicho, tiene rota la simetría quiral. De esta manera, existirá un espectro de excitaciones con una fuerte analogía a los vistos en el caso del superconductor. En concreto, las cuasipartículas de Bogoliubov son ahora los nucleones, el gap de las primeras es la masa no nula de los segundos, y el bosón NG que emerge en el espectro es un pión: un estado ligado formado un nucleón y un antinucleón. Obsérvese que este trabajo es bastante anterior a la introducción de los quarks y los gluones de la cromodinámica cuántica (QCD), por lo el hipotético campo fermiónico del modelo debe verse como una forma efectiva de describir los nucleones detectables experimentalmente y no como una representación aproximada de los quarks. Una limitación del modelo NJL original nace del hecho de que el campo fundamental sobre el que está construido no tiene masa y, entonces, tampoco la tiene el pión (el bosón NG correspondiente). El hecho experimental de que el pión es un hadrón ligero (masa del orden de 140 MeV/c2) sugirió a Nambu y Jona-Lasinio a suponer una pequeña energía en reposo de unos 5 MeV para sus hipotéticos fermiones. Esto implica que, en ri- 100cias@uned 99 Vida científica adelante, alrededor de 1970, Nambu abordó el problema del confinamiento de los quarks (el porqué estas partículas nunca se encuentran aisladas sino formando hadrones). Si pensamos en el caso sencillo de un mesón (hadrón formado por un quark y un antiquark), los datos experimentales sugieren que la fuerza de interacción quark-antiquark es constante para distancias mayores que 1 fm, por lo que la energía potencial asociada a interacción fuerte es proporcional a la distancia entre las partículas. Nambu explicó este hecho en términos de un modelo de resonancia dual, en el que la interacción entre los constituyentes del par podía explicarse mediante una cuerda unidimensional que, posteriormente, la QCD mostró ser una cinta gluónica formada por un numero muy grande, en la práctica infinito, de gluones. En este caso Nambu no solo anticipó la respuesta correcta sino que marcó las bases de las modernas teorías de cuerdas cuyo objetivo es una formulación unificada de la interacción gravitatoria y las tres fuerzas del modelo estándar (electromagnética, nuclear débil y fuerte). El Nobel culmina así la brillante carrera de uno de los físicos teóricos más influyentes y perspicaces de los últimos cincuenta años, trayectoria reconocida anteriormente con múltiples galardones: el Premio J. R. Oppenheimer, la Medalla Nacional de la Ciencia de EE. UU., la Orden de la Cultura de Japón, la Medalla Dirac del ICTP, el Premio Sakurai y la Medalla del Instituto Benjamín Franklin. Quizá la mejor forma de definir cuál ha sido el impacto de la obra de Nambu en la moderna física teórica sea reproducir un comentario de Bruno Zumino: «Estaba convencido de que si podía comprender lo que Nambu pensaba en ese momento yo estaría adelantado diez años a mi tiempo, así que procuré hablar con él todo lo que pude. El problema es que cuando terminé de comprender lo que me decía, ya habían pasado diez años» [10]. LA SIMETRÍA CP Y LAS TRES FAMILIAS DE QUARKS Makoto Kobayashi. Makoto Kobayashi y Toshihide Maskawa, nacidos en Nagoya el 7 de abril de 1944 y el 7 de febrero de 1940, respectivamente, realizan su formación predoctoral en la universidad de esta misma ciudad bajo la supervisión del Profesor Shoichi 100cias@uned Sakata [11]. El grupo de Sakata había realizado importantes contribuciones referentes a la composición de las partículas elementales en los años 50 y 60 del siglo pasado, entre las que destacó el llamado modelo de Sakata [12]. Bajo esta Toshihide Maskawa. hipótesis, presentada en 1956, todos los hadrones detectados hasta la fecha estarían compuestos a partir de un triplete de bariones: el protón, el neutrón y la partícula lambda (Λ). La idea esencial era correcta (una representación fundamental del grupo de simetría SU(3) asociado a la conservación del isospín y de la hipercarga) aunque no las partículas elegidas, que serían los quarks u, d y s de Gell-Mann. De acuerdo con el modelo estándar, los hadrones están formados por quarks que se presentan en seis sabores: u, d, s, c, b, t (up, down, strange, charm, bottom, top). Cada quark (y su antiquark correspondiente) puede estar en tres estados de color que también definen un triplete SU(3). Usando la terminología típica de la QCD, la interacción fuerte está mediada por gluones que al interaccionar con un quark cambian el estado de color de éste último. A su vez, los quarks están afectados por las fuerzas electrodébiles (la desintegración de un kaón en dos piones es un ejemplo característico), las cuales son también responsables de la interacción entre leptones (electrón, muón, tauón y los tres neutrinos asociados) y entre leptones y quarks [13]. En resumen, la «zoología» de partículas elementales está compuesta de 18 quarks (seis sabores multiplicados por tres colores) y sus antiquarks, 6 leptones y sus antileptones, partículas mediadoras de las interacciones (el fotón, los bosones W± y Z y ocho gluones) y el mencionado bosón de Higgs. Para enmarcar el trabajo de Kobayashi y Maskawa reconocido con el Premio Nobel, fijémosnos en tres de las transformaciones mencionadas en la introducción: conjugación de carga (C), paridad (P) e inversión temporal (T). Las interacciones fuerte y electromagnética son simétricas respecto de cada una de estas tres transformaciones y, por tanto, bajo cualquier combinación de las mismas. Sin embargo, la cosa es muy diferente para las interacciones débiles. En primer lugar, estas interacciones no conservan la paridad (Lee y Yang, 1956), lo que implica que la probabilidad de que se produzca un proceso mediado por la interacción fuerte no tiene que ser la 100 Vida científica misma que la de su imagen especular (la simetría P es equivalente a una simetría de reflexión debido a la invariancia fundamental bajo rotaciones). Esta violación de la paridad puede verse claramente en que es imposible que se produzca la imagen especular del proceso de desintegración bajo interacción débil de un pión positivo en un antimuón y un neutrino muónico: π+ → μ+ + νμ En efecto, el neutrino es una partícula levógira o «zurda», que en el proceso especular sería sustituido por un neutrino dextrógiro o «diestro» que no existe. Esta misma reacción ilustra la violación de la simetría C en procesos débiles, ya que la sustitución de partículas por antipartículas llevaría a un proceso en el que hay un antineutrino muónico levógiro, partícula que tampoco existe puesto que los antineutrinos son dextrógiros. Ahora bien, si aplicamos la transformación conjunta CP no hay problema alguno ya que el neutrino levógiro se transforma en un antineutrino dextrógiro, lo cual es perfec- Las simetrías P y CP. Puesto que las leyes físicas son invariantes bajo rotaciones, las propiedades respecto de la simetría de paridad P son equivalentes a las de una reflexión respecto de un plano. Bajo esta transformación las partículas dextrógiras (izquierda) se transforman en levógiras (derecha). Si, además, realizamos una tranformación de conjugación de carga C, las partículas se transformarían en antipartículas. La representación pictórica del espín s es, naturalmente, figurada. 100cias@uned tamente posible. Éste y otros análisis similares llevaron a los físicos de partículas a pensar, alrededor de 1960, que las interacciones débiles son invariantes bajo transformaciones CP. Puesto que se considera que la simetría bajo la transformación conjunta CPT es una ley fundamental de la naturaleza, lo anterior implica que las interacciones débiles son también invariantes bajo inversión temporal (reversibilidad microscópica). Este esquema cambió radicalmente tras uno de los experimentos más importantes de la historia de la física. En 1964 James Cronin, Val Fitch y colaboradores detectaron un proceso de desintegración de un kaón neutro en dos piones (positivo y negativo) que violaba la simetría CP [14]. Dicho proceso tenía una probabilidad muy baja de producirse, por lo que su conclusión fue que la simetría CP no era exactamente conservada por las interacciones débiles. Debido a la simetría CPT tenemos inmediatamente que esta desintegración débil de kaones neutros no es invariante bajo inversión temporal lo que define un proceso fundamental irreversible. A su vez, la violación de la simetría CP implica una distinción esencial entre partículas y antipartículas; por ejemplo, un kaón se puede transformar en su antikaón y viceversa mediante un proceso débil, pero las probabilidades de ambos sucesos no son idénticas. Esta violación de la simetría CP debería entonces ser un ingrediente esencial, aunque no único, para comprender por qué en nuestro universo la materia predomina sobre la antimateria. Poco antes del descubrimiento de Cronin et al., el físico italiano Nicola Cabibbo formuló un concepto esencial para entender la formación de la materia hadrónica por quarks: la mezcla de sabores [15]. Como hemos mencionado, los quarks pueden interaccionar mediante procesos débiles produciéndose un cambio en su sabor; por ejemplo, el quark u se transformaría en el quark d en un proceso mediado por un bosón W. Sin embargo, y ésta es la esencia de la teoría de Cabibbo, lo anterior es una descripción aproximada pero no exacta. Basándose en el análisis de los procesos de desintegración de partículas extrañas (hadrones que contienen el quark s), Cabbibo encontró que los campos hadrónicos que aparecen en la interacción fuerte no son exactamente los mismos que los que están involucrados en la débil. En el lenguaje del modelo estándar, la hipótesis de Cabibbo se traduciría en que los quarks que interactúan a través de la fuerza débil no son los estados con sabor bien definido (u, d, s, etc.) sino una superposición de los mismos. Así, en la interacción débil entre quarks, el estado asociado al quark u 101 Vida científica no está acoplado vía bosón W al d como sugeríamos hace un momento, sino al estado: |d’典 = cos θc |d典 + sin θc |s典 donde θc es el ángulo de Cabibbo con un valor aproximado de 13º. Análogamente, la interacción débil no acopla el quark charm c al quark s, sino al estado: |s’典 = – sin θc |d典 + cos θc |s典 (obsérvese que |d’典 y |s’典 son ortogonales). De esta manera los estados de sabor |u典, |d’典, |c典, |s’典 forman un conjunto ortonormal estructurado en dos dobletes, (|u典, |d’典) y (|c典, |s’典). En 1972, Kobayashi y Maskawa (KM) trabajan como investigadores en la Universidad de Kyoto (el primero acaba de incorporarse como investigador postdoctoral y el segundo ya era profesor asociado en el departamento de física). En aquel año ya se tenía la certeza de la existencia de u y d (los protones y neutrones están formados de ellos) y también de la de s como componentes de los kaones. A su vez, Glashow y colaboradores ya habían conjeturado la existencia del quark s, hipótesis que se confirmó posteriormente con la detección de las primeras partículas encantadas en 1974. Fuertemente influenciados por su formación dentro de la escuela de Sakata, dedicaron sus esfuerzos a estudiar las simetrías de la interacción débil. Pronto se dieron cuenta de que el modelo de Cabibbo con cuatro quarks era incompatible con la violación de la simetría CP en procesos débiles. Esta conclusión fue presentada en su famoso artículo de 1973 [16], donde propusieron en la última página que la rotura real de la simetría CP podía acomodarse en la teoría de las interacciones débiles pero sólo si a los cuatro quarks u, d, c, s se añade una tercera familia formada por otros dos. La forma natural de hacerlo es extender de manera consecuente el modelo original de Cabibbo (que, por cierto, no aparece entre las cuatro referencias bibliográficas (!!) del artículo). Introduciendo los quarks b y t, la interacción débil conectaría los estados |u冔, |c冔, |t冔 con los estados |d’冔, |s’冔, |b’冔, respectivamente. La matriz 3 × 3 de los coeficientes de los estados |d’冔, |s’冔, |b’冔 en la base |d典, |s典, |b典 es conocida como matriz CKM (de Cabibbo-Kobayashi-Maskawa) y, a diferencia de la matriz original de Cabibbo, algunos de estos coeficientes son complejos (que es donde matemáticamente se plasma la violación de la simetría CP). 100cias@uned El trabajo de Kobayashi y Maskawa pasó inicialmente desapercibido. Sin embargo, en 1977 se detecta una nueva partícula, bautizada como ⌼, que se interpretó como un estado ligado formado por un quinto quark (b), y su antiquark. Este hecho, junto con el descubrimiento previo del tauón en 1975 que completaba la evidencia experimental de las tres familias leptónicas, hizo que el artículo de Kobayashi y Maskawa empezase a ser reconocido. Así, su idea de tres familias de quarks se consideró bien establecida incluso antes de la detección del quark top en 1995. La verificación final del modelo KM se produce en el presente siglo con la confirmación experimental de la violación de la simetría CP en el decaimiento de partículas con belleza (las que contienen el quark b). Naturalmente Kobayashi y Maskawa son figuras importantes de la física de altas energías en los últimos 35 años, aunque no llegan al excepcional nivel de Yoichiro Nambu. Maskawa ya había sido galardonado con el Premio Sakurai y llegó a dirigir el prestigioso Instituto Yukawa de Física Teórica. Por su parte, Kobayashi ha sido director del Instituto de Estudios de Partículas y Núcleos del KEK en Tsukuba. Ambos han recibido máximos galardones en su Japón natal. CONCLUSIÓN La concesión del Nobel nunca está exenta de cierta polémica, aunque las discusiones alrededor de los premios científicos rara vez llegan al nivel de acritud que suscitan cada vez con más frecuencia los premios de la Paz y de Literatura. Sin embargo, la exclusión de Cabibbo y, en mucha menor medida, la de Jona-Lasinio y Goldstone ha abierto un debate relativamente extendido (y encendido, sobre todo en Italia), sobre el acierto del Comité Nobel en la selección de premiados de 2008. Naturalmente, la mayoría de estas polémicas son un simple reflejo del impacto mediático de los Nobel y difícilmente van a afectar a su prestigio. Sin caer en la ingenuidad de pensar que la selección de premiados se hace atendiendo exclusivamente a sus méritos, el reto principal de la Academia Sueca de las Ciencias es reconocer los trabajos, más que a las personas, que han tenido una excepcional trascendencia en campos cada vez más diferentes y especializados. Esto fuerza a unir bajo un mismo epígrafe genérico (la rotura de simetrías en este caso) investigaciones que muy bien podrían haber sido reconocidas en años diferentes. El 102 Vida científica problema es que entonces descubrimientos en otras ramas de la física se verían relegados. Con todo y a pesar de Cabibbo (que es justo decir que reaccionó con elegancia al ver su exclusión en la lista de premiados) nadie discute los merecimientos ni de los descubrimientos ni de los galardonados, especialmente los de Nambu: una leyenda viva de la física de partículas. 9. 10. REFERENCIAS 1. 2. 3. 4. 5. 6. 7. 8. http://nobelprize.org/nobel_prizes/physics/laureates/2008/ J. Bardeen, L.N. Cooper and J.R. Schrieffer, Theory of superconductivity, Phys. Rev., 117, 648 (1958). N.N. Bogoliubov, On a new method in the theory of superconductivity, J. of Exp. and Theor. Phys., 34, 58 (1958). Y. Nambu, Nobel Lecture: Spontaneous symmetry breaking in particle physics: A case of cross fertilization, Rev. Mod. Phys., 81, 1015 (2009). Y. Nambu, Quasi-particles and gauge invariance in the Theory of Superconductivity, Phys. Rev., 117, 648 (1960). J. Goldstone, Field Theories with superconductor solutions, Nuovo Cimento, 19, 154 (1961). Y. Nambu and G. Jona-Lasinio, A dynamical model of elementary particles based on an analogy with superconductivity, Phys. Rev., 122, 345 (1961); Phys. Rev. 124, 246 (1961). Y. Nambu and D. Lurié, Chirality conservation and soft pion production, Phys. Rev., 125, 1429 (1962). F. Englert and R. Brout, Broken symmetry and the mass of gauge vector mesons, Phys. Rev. Lett., 13, 321 (1964); P.W. Higgs, Broken symmetries and the masses of gauge bosons, Phys. Rev. Lett., 13, 508 100cias@uned 11. 12. 13. 14. 15. 16. (1964); G.S. Guralnik, C.R. Hagen, and T.W.B. Kibble, Global conservation laws and massless particles, Phys. Rev. Lett., 13, 585 (1964). M.Y. Yan and Y. Nambu, Three-triple model with double SU(3) symmetry, Phys. Rev., 139, B1006 (1965). Extraído de un artículo de Madhusree Mukerjee publicado en febrero de 1995 en Scientific American, y disponible en la URL http://www.scientificamerican.com/article.cfm?id=profile-yoichiro-nambu Véanse sus «lecciones Nobel»: M. Kobayashi, Nobel Lecture: CP violation and flavor mixing, Rev. Mod. Phys., 81, 1019 (2009); T. Maskawa, Nobel Lecture: What does CP violation tell us?, Rev. Mod. Phys. 81, 1027 (2009). S. Sakata, On a composite model for the new particles, Prog. Theor. Phys., 16, 686 (1956). Una introducción rigurosa a nivel divulgativo aunque ligeramente anticuada sobre la teoría de partículas elementales y sus interacciones es: R. Fernández Álvarez-Estrada y M. Ramón Medrano, Partículas Elementales (EUDEMA-Universidad, Madrid, 1988). J. H. Christenson, J.W. Cronin, V.L. Fitch, and R. Turlay, Evidence for the 2 p decay of the K meson, Phys. Rev. Lett., 13, 138 (1964). N. Cabibbo, Unitary symmetry and leptonic decays, Phys. Rev. Lett., 10, 531 (1963). M. Kobayashi and T. Maskawa, CP-violation in the renormalizable theory of weak interaction, Prog. Theor. Phys., 49, 652 (1973). Pablo García González Departamento de Física Fundamental 103 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 SEMBLANZAS DE LOS PREMIOS NOBEL EL PREMIO NOBEL DE QUÍMICA POR EL DESCUBRIMIENTO Y DESARROLLO DE LA PROTEÍNA VERDE FLUORESCENTE (GFP) El Premio Nobel de Química 2008 fue compartido por tres científicos: Osamu Shimomura: Nacido el 27 de agosto de 1928 en Kyoto (Japón), cursó estudios de farmacia en Nagasaki y a partir de 1951 fue asistente en ese departamento por un periodo de cuatro años. En 1955 orientó su trabajo hacia la química orgánica. Trabajó en la Universidad de Princeton (New Jersey) de 1965 a 1982, antes de convertirse en profesor emérito del Laboratorio de Biología Marina de la Universidad de Massachusetts, y luego de la Universidad de Medicina de Boston. Martin Chalfie: Nacido el 15 de enero de 1947 en Florida (EE.UU.). Se doctoró en neurobiología en la Universidad de Harvard y es profesor de biología en la Universidad de Columbia (Nueva York) desde 1982. Roger Y. Tsien: Nacido el 1 febrero de 1952 en Nueva York (EE.UU.). Estudió en la Universidad de Harvard. Tras su titulación, se unió al Laboratorio Fisiológico de la Universidad de Cambridge (Inglaterra) en 1977, y trabajó como investigador en la Escuela Gonville y Caius (Cambridge) hasta 1981. Desde 1989 esta trabajando en la Universidad de California como profesor de química y bioquímica. Según la Academia Real Sueca, el Premio Nobel de Química de este año recompensa el descubrimiento inicial de la GFP y una serie de desarrollos importantes que han llevado a su uso como herramienta de marcado. Usando tecnología de ADN, los investigadores ahora pueden unir la GFP a otras proteínas interesantes, que de otra manera serian invisibles. Este marcador brillante permite observar los movimientos, las posiciones y las interacciones de las proteínas marcadas. LA PROTEÍNA VERDE FLUORESCENTE (GFP) REVOLUCIONÓ LA BIOCIENCIA En los años sesenta, cuando el científico japonés Osamu Shimomura comenzó a estudiar la medusa bioluminiscente Aequorea victoria no se imaginaba que le llevaría a una auténtica revolución científica. Treinta años más tarde, Martin Chalfie usó la proteína verde fluorescente de la medusa para ayudarse en el estudio las De izquierda a derecha: Osamu Shimomura, Martin Chalfie y Roger Y. Tsien. 100cias@uned 104 Vida científica células. Hoy se pueden estudiar procesos biológicos antes invisibles con la ayuda de las proteínas de Roger Y. Tsien, las cuales brillan con todos los colores del arco iris. La proteína verde fluorescente, GFP, ha sido en la década pasada como una estrella guía para bioquímicos, biólogos, médicos y otros investigadores. El intenso color verde de esta proteína aparece cuando es iluminada con luz azul y ultravioleta. Permitien visualizar tumores cancerosos, mostrar el desarrollo de la enfermedad de Alzheimer en el cerebro o el crecimiento de bacterias patógenas. Un uso todavía más interesante de la GFP radica en la posibilidad de seguir procesos en el interior de las células. Cuanto más sepan los investigadores acerca de las células, cuáles son sus funciones o la forma cómo se desarrollan, mayores serán las posibilidades de que se puedan desarrollar medicamentos eficaces con un mínimo de efectos secundarios. La observación de las moléculas que forman una célula: proteínas, ácidos grasos, hidratos de carbono, está más allá de la potencia de un microscopio ordinario. Y aún es más difícil seguir los procesos químicos que tienen lugar en su interior. Cuando los investigadores comprendan cómo las células comienzan la construcción de nuevos vasos sanguíneos, por ejemplo, se podría llegar a detener tumores cancerosos bloqueando su nutrición y oxigenación, evitando su crecimiento. Los procesos químicos de las células suelen ser regulados por proteínas. Hay miles de proteínas diferentes, con distintas funciones. Conectando GFP a una de esas proteínas los investigadores pueden obtener una información muy útil. Se puede ver qué proteínas están en la célula, seguir sus movimientos y observar sus interacciones con otras proteínas. Gracias a la luz verde de la GFP es posible seguir el rastro de una proteína con el microscopio. SHIMOMURA DESPERTÓ EL INTERÉS POR LA LUZ DE LAS MEDUSAS En 1945 la bomba atómica que cayó sobre Nagasaki dejó a Osamu Shimomura temporalmente ciego. Esa pérdida de visión durante su adolescencia quizás fue lo que despertó su interés por estudiar la luz que emitían las especies marinas. En 1955 obtuvo una plaza de asistente del profesor Yashimasa Hirata en la Universidad de Nagoya. Hirata 100cias@uned le puso a trabajar en un proyecto aparentemente imposible, descubrir por qué los restos de un triturado de molusco, Cypridina, brillaban cuando se humedecen con agua. En 1956, contra todo pronóstico, Shimomura tenía el material en sus manos. Se trataba de una proteína 37.000 veces más brillante que el triturado de moluscos. Después de la publicación de sus resultados, Shimomura fue contratado por la prestigiosa Universidad de Princeton en Nueva Jersey, EE.UU., por Frank Johnson. Esto despertó el interés de Shimomura por los materiales luminiscentes y se centro en la medusa «Aequorea victoria», que vive en los mares de la costa oeste de Norteamérica y cuyo borde exterior brilla cuando la medusa se mueve. Durante el verano de 1961, Shimomura y Jonson pescaron miles de medusas. Cortaron los bordes de las medusas y los presionaron contra un filtro para obtener lo que ellos llamaron una «squeezate». Un día Shimomura echó restos del squeezate en el fregadero y comenzaron a brillar. Se dio cuenta de que en el fregadero había agua de mar y de que los iones calcio que contenía eran los responsables de la reacción química. Curiosamente la luz no era verde como la del borde de las medusas, era azul. Les llevó unos meses purificar unos pocos miligramos del material luminiscente azul. Llamaron a la proteína «aequorin». Figura 1. La proteína verde fluorescente (GFP) está formada por 238 aminoácidos unidos. En el trabajo publicado en 1962, en el que Shimomura y Johnson describían el proceso gracias al cual se obtuvo «aequorin», también mencionaban que la proteína que habían aislado era de color verdoso a la luz del sol, amarillento a la luz de una bombilla y verde fluorescente bajo luz ultravioleta. Era la primera vez que alguien describía la GFP (ver Figura 1). 105 Vida científica En los años 70 Shimomura estudió con más profundidad la fluorescencia de la GFP. Demostró que la GFP contenía un cromóforo especial. Cuando la luz ultravioleta o azul incide sobre el cromóforo, éste absorbe energía de la luz y se excita. Después, el cromóforo libera la energía emitiendo una luz verde. El grupo cromóforo de la medusa simplemente transforma la luz azul del aequorin en luz verde. Por esto la medusa y el aequorin brillan con distinto color. Lo sorprendente de la GFP es que la proteína no necesita ningún aditivo para brillar. Es suficiente radiar la GFP con luz UV o luz azul. La luz penetra en el interior de las células y se encuentra con la GFP, la cual emite luz verde. Si los investigadores necesitaran un aditivo químico sería necesario inyectarlo en la célula, un proceso que podría alterarla y que es complicado de llevar a cabo a escala microscópica. CHALFIE TIENE UNA BRILLANTE IDEA El segundo laureado, Martin Chalfie, oyó hablar de la proteína verde fluorescente por primera vez en 1988 en un seminario dedicado a los organismos bioluminiscentes en la Universidad de Columbia, en Nueva York. Diariamente Chalfie trabaja con los pequeños gusanos «Caenorhabditis elegans», unos de los organismos más estudiados en el mundo. A pesar de que sólo consta de 959 células, tiene cerebro, envejece y se aparea. Además, una tercera parte de sus genes están relacionados con los genes humanos. Por último, Caernorhabditis elegans es transparente, lo cual hace muy sencillo para los investigadores estudiar sus órganos con un microscopio ordinario. Durante el seminario de 1988 Chalfie se dio cuenta de que la proteína verde fluorescente podría ser una herramienta fantástica para estudiar al elegans. La proteína podría actuar como marcador verde fluorescente para visualizar algunas de las actividades de las células del gusano. Para poder apreciar la idea de Chalfie hay que conocer algunos conceptos básicos de la biología celular. Hay miles de proteínas en nuestro cuerpo y a pesar de que realizan diferentes funciones, todas ellas están construidas de la misma forma. Constan de veinte tipos de aminoácidos que se unen para formar largas cadenas. Las proteínas se diferencian por la longitud de la cadena, la secuencia de sus aminoácidos y la forma en 100cias@uned la que la cadena se enrolla en el espacio. En general cada gen codifica una proteína. Cuando una célula necesita una proteína, el gen se activa y la proteína es sintetizada. Por ejemplo, cuando te has comido una bolsa grande de dulces y el nivel de azúcar en sangre es demasiado alto, se activa el gen productor de la insulina en las células beta del páncreas. Todas las células del cuerpo tienen el gen de la insulina en el interior de su núcleo, pero sólo las células beta del páncreas reaccionan a un aumento del nivel de azúcar produciendo insulina. El «interruptor» del gen, el promotor, situado cerca del gen en el ADN, se conecta. Cuando el promotor se activa el gen de la insulina comienza a ser copiado. La copia es necesaria si la célula necesita acceder y leer el código genético. La copia del gen de la insulina es transferida desde el núcleo de la célula a la «factoría» de la célula, el citoplasma. Entonces la copia del gen es usada como un patrón para enlazar los aminoácidos formando la proteína de la insulina. La insulina se libera en el torrente sanguíneo donde se adhiere a los músculos y a las células de grasa, que absorben y almacenan el azúcar de la sangre. La idea de Chalfie consistió en conectar el gen de la GFP con varios promotores de los genes o con genes de otras proteínas, así podría ver la activación de los genes promotores en las células y saber dónde son producidas las diferentes proteínas. La luz verde actuaría como un faro. Con la objetivo de poner a prueba sus ideas, Chalfie necesitaba localizar el gen de la GFP en el genoma de la Aequorea victoria. Tras investigar un poco, descubrió que un investigador llamado Douglas Prasher del Woods Hole Oceanographic Institution, en Massachussets, había comenzado a buscar el gen de la GFP. Chalfie le pidió que se pusiera en contacto con él si lograba aislar el gen correcto. Un par de años más tarde Prasher envió el gen de la GFP a Chalfie. Chalfie entonces instruyó a una graduada, Ghia Euskirchen, en la manera que había que proceder para intentar que la bacteria intestinal Escherichia coli produjera GFP. Un mes más tarde Euskirchen tuvo éxito, había visto con el microscopio que la bacteria brillaba con luz verde cuando era irradiada con luz UV. Este descubrimiento está en la base del revolucionario uso que hoy se da a la GFP. Pero el descubrimiento en sí fue inesperado. En el siguiente paso, Chalfie colocó el gen detrás de un promotor que está activo en seis receptores neu- 106 Vida científica ronales del tacto en Caenorhabditis elegans. El resultado fue publicado por Chalfie y colaboradores en la revista Science en febrero de 1994 (ver Figura 2). En la portada se puede ver una imagen de Caenorhabditis elegans, en la cual el receptor neuronal emitía una brillante luz verde (ver Figura 3). Figuras 2 y 3. Gusano «Caenorhabditis elegans» con la proteína GFP incorporada en su organismo. Con la ayuda de la tecnología del ADN, Tsien dio un paso más y cambió diversos aminoácidos en diferentes partes de la GFP. Esto condujo a que la proteína absorbiera y emitiera luz en otras regiones del espectro. Experimentando con la composición de los aminoácidos, Tsien logró desarrollar nuevas variantes de la GFP que brillan con más fuerza y en diferentes colores como el cian, azul y amarillo. Así los investigadores pueden hoy marcar diferentes proteínas con diferentes colores para ver sus interacciones. Un color, sin embargo, que Tsien no pudo lograr producir con la GFP fue el rojo. La luz roja penetra en los tejidos más fácilmente y es especialmente útil cuando los investigadores quieren estudiar células y órganos en el interior del cuerpo. Unos científicos rusos encontraron la proteína roja en unos corales. Pero era, desafortunadamente, más grande y pesada que la GFP. Estaba formada por cuatro cadenas de aminoácidos en vez de una y fue menos usada como marcador en los procesos biológicos. El equipo de investigadores de Tsien solucionó el problema, rediseñaron la proteína roja para que la proteína fuera más estable y fluorescente con una sola cadena de aminoácidos, con lo que puede ser fácilmente conectada a otras proteínas. EL «BRAINBOW» O «ARCO IRIS DEL CEREBRO» TSIEN CREA UNA PALETA CON TODOS LOS COLORES DEL ARCO IRIS Aquí es donde el tercer galardonado con el Premio Nobel, Roger Tsien, hace su entrada. Su mayor contribución a la revolución de la GFP fue que amplió la paleta con varios colores nuevos que brillaban durante más tiempo y más intensamente. Para empezar, Tsien indicó cómo se forma químicamente el cromóforo GFP en la larga proteína GFP formada por 238 aminoácidos. Otros investigadores habían mostrado que tres aminoácidos en la posiciones 65-67 reaccionaban químicamente entre sí para formar el cromóforo. Tsien mostró que esta reacción química necesitaba oxígeno y explicó cómo podía llevarse a cabo sin la ayuda de otras proteínas. 100cias@uned Varias de estas proteínas han sido utilizadas por los investigadores en un espectacular experimento. Modificaron ratones genéticamente para producir distintas cantidades de los colores amarillo, ciano y rojo dentro de las Figura 4. Ratón con la proteína GFP. 107 Vida científica células nerviosas de su cerebro. El resultado fue que el cerebro del ratón brillaba con los colores del arco iris. Los investigadores pudieron entonces seguir los nervios de las células individuales del cerebro y llamaron a este experimento el «brainbow». APLICACIONES EN BIOTECNOLOGÍA Y BIOMEDICINA En cuanto a las aplicaciones biomédicas cabe destacar el marcaje con proteínas fluorescentes permite visualizar de forma no invasiva la evolución de tumores en animales de experimentación, simplemente observando la fluorescencia que emiten las células cancerosas al iluminar los animales vivos con luz del color adecuado (ver figura 4). La observación del crecimiento de bacterias patógenas, el desarrollo de circuitos neuronales o de la enfermedad de Alzheimer, la lucha contra la malaria son ejemplos de los muchos estudios que han visto luz verde gracias a la GFP. Además de sus aplicaciones en medicina, también tiene otras aplicaciones en biotecnología. La proteína verde fluorescente también se puede usar para la detección de arsénico en los pozos de agua. Éste es un enorme problema en algunas partes del sudeste de Asia, donde el arsénico existente en la naturaleza está con- 100cias@uned taminando el agua de miles de personas. Los investigadores han modificado genéticamente bacterias resistentes al arsénico para que se iluminen con color verde en presencia de este elemento. También han modificado otros organismos para que emitan fluorescencia verde en presencia del explosivo trinitrotolueno (TNT) o metales pesados como el cadmio o zinc. Hoy en día hay GFP incluso en los juguetes que se iluminan en la oscuridad. LINKS — http://nobelprize.org/nobel_prizes/chemistry/laureates/2008/info.html — http://www.rsc.org/chemistryworld/Issues/2008/November/AGlowingGreenNobel.asp — http://garritz.com/andoni_garritz_ruiz/documentos/72-Garritz-Shimomura-Chalfie_y_Ts-EQ-2009.pdf — www.nature.com/nature/journal/v454/n7201/suppinfo/nature06998.html — www.conncoll.edu/ccacad/zimmer/GFP-ww/GFP1.htm Jesús López Sanz, Elena Pérez Mayoral, Antonio José López Peinado y Rosa María Martín Aranda Dpto. de Química Inorgánica y Química Técnica 108 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 EFEMÉRIDES GALILEO: EL TELESCOPIO Y LAS PRIMERAS DISPUTAS ASTRONÓMICAS El 25 de agosto de 1609, el Dux, los consejeros y los senadores de la República de Venecia se congregaban en el Gran Salón del Palacio Ducal. Galileo Galilei, lector de matemáticas del Studio de Padua, iba a presentar y ofrecer al Consejo su última invención, un instrumento que permitía «divisar barcos y velas del enemigo a una distancia mucho mayor de la habitual, de tal forma que podemos descubrirle nosotros dos horas antes de que él nos vea…y juzgar sus fuerzas para prepararnos al combate o a la fuga». Según la descripción de Antonio Priuli, consejero de la República y Reformador del Studio de Padua, el aparato «era de plomo, forrado por fuera con terciopelo carmesí, de una longitud aproximada de tres cuartas y media, y de la anchura de un escudo, con dos lentes, una cóncava y la otra no, por parte». La demostración fue un éxito. Muchos de los asistentes salieron a la plaza y subieron al Campanario de San Marcos para ver los barcos que se acercaban al puerto. Terminada la exhibición, el propio Priuli anunciaba a Galileo que el Consejo de Reformadores le confirmaba en el cargo con carácter vitalicio y le duplicaba el salario, que pasaba de 500 a 1000 florines, «el triple de lo que había recibido cualquier predecesor mío en el cargo», como orgullosamente diría Galileo años más tarde. Pero ¿realmente era un nuevo invento? En su Galileo, Bertolt Brecht presenta a Priuli días después, temeroso de convertirse en el hazmerreír de la ciudad por haber pagaTelescopio de Galileo, 1609. do 500 florines por un in- 100cias@uned vento que, acaba de saber, «se vende en todas las esquinas de Italia por dos escudos». Quizá Brecht exageraba, pero es cierto que instrumentos similares se vendían por entonces en Milán, París, Londres o Frankfurt. El propio Galileo reconocía que a mediados de 1608 había sabido de la existencia del instrumento en Holanda, que algunos días después le había confirmado desde Francia un antiguo alumno, Jacobo Baldovere, y ello era lo que le había movido a construir su aparato. Años después, en El Ensayador se defendía con un curioso argumento frente a quienes le recriminaban por haberse presentado como inventos del aparato: «Tal vez alguien me podrá decir que no es pequeña ayuda, para el descubrimiento y resolución de algún problema, el haber conocido de alguna manera, y de antemano, la verdad de la conclusión, y el estar convencido de no buscar un imposible, y que por ello el conocimiento y la certeza de que el anteojo había sido ya hecho me habría servido de tal ayuda, que tal vez sin ella no lo hubiera descubierto… No lo creo; más diré: el encontrar la solución a un problema señalado es labor de mayor ingenio que el encontrarla a uno no pensado ni nombrado, pues en éste puede intervenir en gran parte la casualidad, mientras que en aquél es todo obra del razonamiento. Hoy sabemos que el holandés, primer inventor del telescopio, era un simple maestro de lentes ordinarias, y que casualmente, manejando lentes de diversas clases, acertó a mirar al mismo tiempo por dos, una convexa y otra cóncava, y que de este modo observó el efecto que se derivaba y descubrió el instrumento; pero yo, estimulado por la noticia dada, descubrí lo mismo por medio del razonamiento…». Realmente el razonamiento de Galileo no va mucho más allá de deducir que se necesitaba una lente cóncava y una convexa. Pero esto ya lo sabía Giovanni Battista 109 Vida científica de la Porta veinte años antes. En el Capítulo 10 de su Magia Naturalis (edición de 1589), afirmaba: «Quien ve mal utiliza lentes según la condición de su vista. Quien supiese disponer correctamente estas cosas obtendría un secreto nada despreciable. Las lentes cóncavas permiten discernir con claridad lo que se halla alejado y las convexas, lo cercano, de modo que puedes aprovecharte de ello en beneficio de la vista. Con la cóncava ves las cosas lejanas pequeñas y claras, mientras que con la convexa ves las cosas cercanas mayores aunque borrosas. Si supieras combinar ambas correctamente, verías mayores y claras tanto las cosas lejanas como las próximas». Pero aunque en su Capítulo 11 reza: «De las lentes, con las que cualquiera puede ver a una distancia mayor que todo lo imaginable», Porta no presenta ningún diseño convincente. Tampoco Kepler, quien había desarrollado una incipiente teoría óptica de las lentes en sus Añadidos a Vitelo de 1604, hizo ningún intento por ponerla en práctica. De modo que Galileo tenía razón probablemente al decir que el «simple maestro de lentes» holandés había llegado a su invención por simple ensayo y error. Efectivamente, la historia oficial dice que el 25 de septiembre de 1608, Hans Lipperhey, un fabricante de lentes de Middleburg, presentó en La Haya a Mauricio de Nassau un anteojo que permitía ver objetos lejanos. Debido a sus posibles aplicaciones en la guerra naval se le pidió que guardase el secreto de su construcción y solicitase una patente. Esto es lo que hizo el 2 de octubre y cuatro días después se le encargó la construcción de tres aparatos. Lo curioso es que algunos días más tarde, el 14 de octubre, otro fabricante de lentes, Jacob Metius de Alkmaar, presenta ante los Consejeros de Zeeland un instrumento similar y el 17 de octubre se le sugiere que solicite una nueva patente. Por si fuera poco, un tercer holandés, Zacharias Janssen, también de Middleburg, proclama casi al mismo tiempo que también tiene un telescopio, y su hijo afirmará años más tarde que su padre había copiado el diseño de un aparato que había comprado en Italia en 1590, lo que, de ser cierto, adelantaría casi veinte años la invención del telescopio. En 1999, Colin Roman, entonces Presidente de la Asociación Astronómica Británica, reclamaba el título de inventor del telescopio para Leonard Digges, quien lo describe en su libro Pantometría de 1553. (Curiosamente, Digges estuvo exilado en Holanda durante el reinado de María Tudor.) Una descripción más detallada se encuen- 100cias@uned tra en un informe presentado por William Bourne por encargo de Lord Burghley, consejero de Isabel I de Inglaterra, que quería conocer las aplicaciones del instrumento en una posible batalla naval contra España. El telescopio descrito es en realidad un telescopio reflector compuesto de un espejo cóncavo y una lente biconvexa y, según Bourne, sería decisivo en una batalla naval. Sin embargo, otro historiador, Ewen A. Whitaker, ha arrojado dudas sobre la construcción real del instrumento. En efecto, para tener un aumento apreciable el espejo debería tener una distancia focal y un diámetro grandes, lo que haría necesario montarlo en un largo tubo y apoyarlo en una base que permitiera orientarlo con relativa facilidad. Además, el observador debería dar la espalda a lo que quisiera observar, sin interponerse él mismo entre ello y el espejo. Y lo peor era que la imagen aparecería completamente invertida, tanto de arriba a abajo como de izquierda a derecha. Pero esta historia también tiene una rama española. En un libro de 1618 dedicado a la construcción del telescopio, Girolamo Sirtori afirmaba que había conocido en Gerona al verdadero inventor del instrumento: un anciano pulidor de lentes al que llama Roget de Burgundy. Intrigado por esta cita, un coleccionista de instrumentos ópticos e historiador aficionado, José María Simón de Guilleuma, decide a mediados del siglo pasado investigar en los archivos la historia de la familia Roget. Descubre que el Roget de Sirtori es Juan Roget, cuyos padres eran originarios de Angulema y que debió morir entre 1617 y 1624. Simón de Guilleuma investiga en los registros notariales de la época en busca de documentos en los que se mencione la herencia o venta de «ulleres». Encuentra algunos, en particular uno en el que se registra que un mercader llamado Jaime Galvany había comprado en una subasta de fecha 5 de septiembre de 1608 «una ullera de larga vista por cinco sueldos». (También en un legado de 10 de abril de 1593, y que se repite en 1596, se cita «una ullera larga guarnida de lauto».) Basado en esto, otro historiador amateur, Nick Pelling, conjetura una historia rocambolesca. Galvany habría acudido a la feria de Frankfurt y mostrado el instrumento a Zacharias Janssen, quien habría intentado reproducirlo y, con ello, también habría puesto sobre la pista a Lipperhey. Pero el propio Pelling arroja más tarde dudas sobre esta historia. En una rápida visita a los Archivos Notariales de Barcelona encuentra discrepancias de 25 años en las fechas en que estuvieron en activo los notarios cuyos documentos cita Simón de Guilleuma. 110 Vida científica Pero si Galileo no fue el inventor del telescopio, sí fue el constructor más aventajado. Galileo tenía gran habilidad manual. Ya desde sus tiempos de profesor en Pisa había instalado un taller en su casa, y en Padua construyó varios ejemplares de su compás geométricomilitar, que le dieron gran fama y reconocimiento. Así, en cuanto tuvo conocimiento de la existencia del telescopio holandés se puso manos a la obra y, aunque es difícil creer que tan solo un día después ya había construido uno propio, lo cierto es que en poco tiempo fue construyendo telescopios cada vez mejores. En agosto disponía de uno de 8 aumentos, con el que hizo su demostración en Venecia, y en noviembre ya tenía uno de un poder doble. Es en esta época en la que «desestimando las cosas terrenales, me entregué a la contemplación de las celestes». Parece realmente extraño que nadie lo hubiera hecho antes. (En particular resulta extraño que si Zacharias Janssen tenía un anteojo en 1604 no lo hubiera apuntado a la «estrella nueva» que apareció ese año en el cielo y que despertó el interés y la curiosidad de todos, ya fueran astrónomos o no.) Cuando Galileo lo apunta al cielo una noche de noviembre de 1609, queda asombrado. Las aproximadamente 1000 estrellas registradas por 100cias@uned Tycho Brahe se multiplican por diez; lo que a simple vista parecían nebulosas ahora se presentan como conjuntos de estrellas. La superficie lunar aparece rugosa: la línea que separa la parte iluminada de la oscura en los cuartos es una línea irregular. Además, en la parte oscura se ven puntos brillantes mientras que en la iluminada aparecen puntos oscuros. Galileo interpreta estos puntos brillantes como el reflejo de cimas montañosas iluminadas por el Sol y los puntos oscuros como sombras que arrojan las montañas en la zona iluminada. Midiendo la distancia máxima de los puntos brillantes al límite de la zona oscura estima la altura que deben tener las montañas lunares, que son mayores que las montañas más altas conocidas en la Tierra. (Para Galileo la montaña más alta de la Tierra era el Mont Blanc.) Entre las muchas «estrellas» nuevas que permite ver el telescopio, Galileo observa el 7 de enero de 2010 tres estrellas alineadas con Júpiter. Al día siguiente, «por azar», vuelve a apuntar a Júpiter y observa que las tres estrellas se han movido, aunque siguen estando alineadas. Ello despierta su curiosidad y desde ese día hasta el 2 de marzo dedicará todas las noches a observarlas, salvo media docena de noches en que el cielo aparece nublado. Los días 10 y 11 de enero solo ve dos estrellas, y 111 Vida científica supone que la tercera está detrás de Júpiter. Pero el día 13 aparece una cuarta estrella. Ya a mediados de enero se ha convencido de que estas estrellas son en realidad satélites de Júpiter. Los astros más cercanos son más veloces, pues las estrellas más próximas a Júpiter se ven más a menudo al oriente después de haber aparecido el día anterior a occidente. Todo esto son pruebas en contra de la cosmología aceptada. Desde este momento, Galileo deja de lado sus investigaciones sobre el movimiento, que le habían ocupado la mayor parte de su tiempo en Padua, y fija su atención en la astronomía. Pero sus obligaciones docentes, tanto públicas como privadas, en Padua no le dejan tiempo para sus investigaciones. Galileo es consciente de que «la República no puede eximirme de mis obligaciones y seguir pagándome…. Eso solo lo puedo esperar de un príncipe absoluto». Así que decide ofrecerse al Gran Duque Cosme II de Medicis, quien diez años antes había sido alumno suyo. Galileo llevaba algunos años pensando en ello. Ahora, los nuevos descubrimientos le brindan una oportunidad de oro. Galileo bautiza a los satélites de Júpiter como «astros medíceos» y publica sus descubrimientos en un libro dedicado al Gran Duque Cosme. (Parece que en principio pensó en llamar a los satélites «astros cósmicos», lo que hubiera sido un bonito juego de palabras, pero alguien le hizo ver que era mejor homenajear a los Medicis en general y no particularizar demasiado). El libro Sidereus Nuncius (El Mensaje Sideral o El Mensajero Sideral, que ambos significados tiene la palabra) se publica el 12 de marzo de 1610. (Si tenemos en cuenta que la última observación registrada es de 2 de marzo, la rapidez de la publicación sería la envidia de muchas revistas actuales. Es cierto que entonces no tenía que pasar la revisión por pares, pero si necesitaba el imprimatur eclesiástico.) El prólogo es un magnífico ejemplo de literatura adulatoria: «Pues apenas han comenzado a aparecer en la Tierra tus magnificiencias, aparecieron en el cielo unas estrellas brillantes que cual lenguas expresarán y celebrarán en todo tiempo tus nobilísimas virtudes». Pero con ello Galileo cumple un doble objetivo. En primer lugar reclama la prioridad del descubrimiento: «¿Por qué, si fui el primero en observarlas, me habría de 100cias@uned disputar alguien el derecho a imponerles incluso un nombre, llamándolas astros medíceos, confiando en que gracias a esta denominación reciban esas estrellas tanta dignidad cuanta confirieron las otras a los demás héroes?». Esta reclamación de prioridad es importante, pues no sería extraño que para entonces la idea de apuntar al cielo ya se le hubiera ocurrido a otros. De hecho, parece que Thomas Harriot en Inglaterra ya había observado la Luna con un telescopio y la había dibujado el 26 de julio de 1609, aunque sin sacar las conclusiones de Galileo. Y años más tarde, Simon Mayr pretenderá haber observado los satélites de Júpiter ya en noviembre de 1609, aunque Galileo lo refutará diciendo que en esa fecha no podrían tener la apariencia que cita Mayr. (Finalmente, sin embargo, los astros medíceos terminarían llevando los nombres de Simon Mayr sugirió a Kepler: Io, Calixto, Europa y Ganímedes.) En segundo lugar, Galileo hace ya en el prólogo la primera declaración pública de heliocentrismo: «las cuatro estrellas reservadas a tu ínclito nombre…realizan sus cursos y órbitas en torno a la estrella Júpiter,…, a la vez que todas juntas realizan en doce años, con unánime acuerdo, grandes revoluciones en torno al centro del mundo, esto es, en torno al mismo Sol». Vinculando sus ideas al esplendor de los Medicis se asegura una gran resonancia para ellas. Pues, como dirá Kepler más tarde: «¿Es una fruslería tomar el pelo a la familia de los Grandes Duques de Toscaza, otorgando el nombre de los Medici a sus ficciones que ofrecería como genuinos planetas?» Y, por supuesto, el 25 de junio de 1610, Galileo es nombrado «Primer Matemático del Studio de Pisa y Filósofo de Su Alteza Serenísima el Gran Duque sin obligación de dar clase ni de residir en el Studio ni en la ciudad de Pisa, y con el estipendio de mil escudos al año, en moneda florentina.» Las reacciones al libro son diversas. Algunos, como Cesare Cremonini, colega de Galileo en Padua y firme defensor del sistema ptolemaico, se niegan a mirar siquiera por el telescopio, alegando que le da dolor de cabeza. (Curiosamente, Cremonini había sido investigado un año antes por la Inquisición por defender el aristotelismo averroista, lo que muestra la amplitud de miras de 112 Vida científica la santa institución.) Pero quienes así reaccionan son los mínimos. Era difícil esperar que la gente se resistiese a observar tales maravillas. El problema está en cómo interpretarlas. Galileo sabe que debe ganarse la anuencia de Kepler y Clavius, los astrónomos más respetados de la época. Por ello, envía un ejemplar al embajador toscano ante el Sacro Imperio con el ruego de que se lo haga llegar a Kepler y le pida un comentario sobre el libro. Ya en 1597 Galileo había mantenido una breve correspondencia con Kepler, iniciada cuando éste le envió un ejemplar de su Mysterium Cosmographicum. A los pocos días Galileo le contestaba que aunque de momento tan solo había leído unas pocas páginas, él también era partidario del sistema copernicano y tenía algunas pruebas a su favor. Pero cuando Kepler le pide que le detalle esas pruebas, Galileo da la callada por respuesta. No se sabe a qué pruebas podía estar refiriéndose Galileo, pero el hecho es que durante sus enseñanzas en Padua nunca llegará a manifestarse explícitamente contrario al sistema ptolemaico. Tampoco sabemos siquiera si Galileo llegó a leer por completo el libro de Kepler: una cosa es ser favorable al copernicanismo y otra introducirse en páginas y páginas de elucubraciones cuasi-místicas sobre el tamaño de los orbes de los planetas y su relación con los sólidos platónicos. Ahora Kepler, que ya había leído el ejemplar de Sidereus Nuncius destinado al Emperador Rodolfo II antes de recibir el ejemplar a él destinado, responde inmediatamente en privado; pero ante la insistencia del Emperador y otros notables que le pedían su opinión, hace pública la carta el 3 de mayo en un opúsculo con el título de Conversación con el Mensajero Sideral. En éste respalda las afirmaciones de Galileo a partir de lo que él ha podido ver con sus propios ojos. No obstante, no pierde la ocasión de señalar la posibilidad de que el inventor flamenco del telescopio se hubiera inspirado en su libro o en el de Porta. También dice cómo habría construido él su propio telescopio, y que si no lo hizo antes era porque entonces pensaba que el aire era denso y azulado y ocultaría las partes diminutas de los cuerpos. Pero ahora tampoco parece dispuesto a hacerlo y espera ansioso recibir uno construido por el propio Galileo. Con este instrumento, dice, buscaría dos satélites en Marte y seis u ocho de Saturno, que sin duda deberían existir para guardar la proporción. De nuevo, Kepler se embarca en extrañas especulaciones: sin duda los satélites de Júpiter serán muy provechosos para los probables habitantes de ese planeta. 100cias@uned Kepler también había observado las irregularidades de la Luna. No lo había hecho a través de un telescopio sino proyectando la imagen de la Luna en una pantalla colocada tras una hoja en la que había hecho un agujero y montado una lente. Se formaba así una pequeña imagen invertida de la Luna, del tamaño de una moneda. Kepler acepta la existencia de las montañas lunares e incluso sugiere otras construcciones que muy bien podrían servir a los selenitas para protegerse del Sol durante los largos días lunares. Francesco Magnini, en Bolonia, y Clavius, en Roma, plantean inicialmente algunas reservas respecto a las observaciones de Galileo. No obstante, tras una visita de éste a Bolonia, Magnini acaba por reconocer la veracidad de las observaciones. También las reconocerá Clavius en una carta privada a Galileo en diciembre de 1610. Tras la publicación del Sidereus Nuncius, Galileo continúa sus observaciones astronómicas. En mayo, todavía en Padua, observa las manchas solares, aunque no les dedica entonces mucha atención. En julio de 1610 Galileo informa a Sus Altezas Serenísimas de un nuevo descubrimiento. No dice entonces cuál es, aunque para poder reivindicar posteriormente su prioridad lo hace público en forma de anagrama: Smaismrmilmepoetaleumibunenugttauiras. Kepler, en un intento de descifrarlo, lo interpreta como Salve umbistineum geminatum Martia proles (Salve, joyas gemelas, marciana prole). Pero la solución correcta, que da Galileo en noviembre, es Altissimum planetam tergeminum observavi (Observé que el planeta más alto era triple). Es decir, Saturno no aparece en el telescopio como un astro único, sino que parece tener dos cuerpos más pequeños casi tocándolo. (Años después observará, sin encontrar una explicación plausible, que estos cuerpos desaparecen a veces y otras veces se presentan como elipsoides que contienen en su interior unos triángulos oscuros.) Son las primeras evidencias de lo que con mejores telescopios se revelarían como los anillos de Saturno. En diciembre anuncia un nuevo descubrimiento, también en forma de anagrama: Haec inmatura a me iam frustra leguntur o y (En vano estoy examinando cosas inmaduras). Una vez más, Kepler trata infructuosamente de descifrarlo. La solución llega en enero de 1611: Cynthiae figuras aemulatur mater amorum (La madre de los amores emula las fases de Cintia). Es decir, Venus imita las fases de la Luna. Estas fases solo pueden interpretarse suponiendo que Venus gira alrededor del Sol, una prueba más a favor de la teoría de Copérnico. 113 Vida científica Con este bagaje, Galileo hace una visita a Roma en abril de 1611. El recibimiento es triunfal y se suceden los honores. Le recibe el papa Paulo V. Es nombrado miembro de la Academia de los Linces, fundada por el Principe Federico Cesi. (Es precisamente en una reunión de académicos el 14 de abril donde el filólogo Demisani da el nombre de telescopio al instrumento.) Y por si fuera poco, con Galileo como invitado de honor, los jesuitas confirman públicamente sus observaciones en una solemne reunión en el Colegio Romano. No es extraño que un cardenal escribiera al Gran Duque a propósito de Galileo: «estoy convencido de que si estuviéramos en aquella República Romana de la antigüedad le habría sido erigida una estatua en el Campidoglio para rendir honor a la excelencia de su valía». Poco cabía esperar entonces que Galileo iba a tener enfrentamientos continuos con los jesuitas. En efecto, los jesuitas aceptaban las observaciones pero no su interpretación, que ponía en cuestión algunos dogmas de la cosmología aristotélica. Stillman Drake ha llamado la atención, con acierto, sobre el hecho de que las primeras críticas a las interpretaciones de Galileo no entran directamente en la cuestión del heliocentrismo sino que tratan de defender la perfección de los cuerpos celestes. Las irregularidades de la superficie lunar negaban la perfecta esfericidad atribuida a los cuerpos celestes. Por eso, Clavius hizo suya una sugerencia de Ludovico delle Colombe que afirmaba que la Luna estaba recubierta de una sustancia cristalina con una superficie perfectamente esférica. «Ciertamente es una hermosa fantasía», respondía Galileo, «pero tiene el problema de que no ha sido demostrada ni es demostrable». Por la misma razón se podría decir que «dicha superficie cristalina posee inmensas montañas que nosotros no podemos ver por ser de una sustancia diáfana». Más seria es la polémica en torno a las manchas solares. Aunque Galileo no había escrito nada cuando las observó inicialmente, habla de ellas durante su estancia en Roma. Esto llega a oídos del jesuita alemán Christoph Scheiner, profesor de matemáticas en la Universidad de Ingolstadt, quien se dedica a observarlas durante varios meses y a finales de 1611 escribe tres cartas sobre el tema a Markus Welser, duunviro de Aubsburgo, quien las publica en enero de 1612 aunque oculta al autor verdadero bajo el pseudónimo de Apeles. Welser, que también es académico linceo, envía a un ejemplar a Galileo pidiéndole una opinión. Galileo responde con otras tres cartas en mayo, agosto y diciembre de 1612, que poste- 100cias@uned riormente serán editadas en un solo volumen en marzo de 1613 por la Academia de los Linces. La respuesta es bastante crítica. Scheiner afirma que las aparentes manchas no pertenecen realmente al Sol, que debe ser perfectamente esférico como cualquier cuerpo celeste por encima del orbe de la Luna; las manchas son en realidad grupos de astros que rodean al Sol a cierta distancia de su superficie. Galileo, sin embargo, afirma que las manchas están realmente en la superficie solar y su movimiento muestra además que el Sol es esférico y gira alrededor de su eje, «dando enteramente la vuelta en un mes lunar aproximadamente». Por otra parte, «para quienes quisieran que la sustancia del Sol fuera inalterable, viéndose obligados… a situar estas manchas en la parte celeste, creo que ponerlas contiguas al Sol pocas más molestias les dará que ponerlas en otra parte». La polémica se prolongará durante varios años con gran acritud por ambas partes. También da lugar a que en muchos círculos romanos y florentinos se empiece a hablar de las ideas de Copérnico y que Galileo escriba su Carta a Cristina de Lorena, Gran Duquesa de Toscana. Finalmente, el Santo Oficio pone fin a estas discusiones incipientes en febrero de 1616, al declarar «formalmente herética» la idea de que el Sol está inmóvil en el centro del universo, y «errónea en la fe» la idea de que la Tierra no está en el centro del mundo y se mueve. 114 Vida científica No obstante, ni siquiera los jesuitas podían negar que la existencia de satélites en torno a otros planetas o las fases de Venus, que solo se explican si Venus gira en torno al Sol y no en torno a la Tierra, hacen saltar por los aires el sistema de Ptolomeo. Por ello, como un último recurso para salvar el geocentrismo, adoptan el sistema que había propuesto Tycho Brahe, según el cual los planetas giran alrededor del Sol que, a su vez, gira alrededor de la Tierra, situada en el centro del Universo. En este sentido la obra de Scheiner se inscribía claramente en el esquema tychonico. Al menos, en su disputa con Scheiner, Galileo llevaba la razón. Sin embargo, en su deseo de atacar el sistema tychonico, Galileo entra en una nueva polémica en la que no tiene reparos en ponerse de lado de la meteorología aristotélica. En el verano de 1618 aparecen tres cometas en el cielo. Orazio Grassi, director del Colegio Romano, publica en 1619 un corto trabajo en el que presenta a los cometas como auténticos cuerpos celestes situados más allá del orbe lunar. Galileo, que no ha podido observar los cometas por encontrarse enfermo, anima a su discípulo Mario Guiducci a publicar una respuesta en contra de Grassi, donde sostiene que los cometas no son realmente cuerpos celestes sino reflejos de emanaciones gaseosas que surgen de la Tierra. Grassi contraataca en junio de 1619 aunque con el pseudónimo de Lotario Sarsi, y no duda en atacar al propio Galileo como inspirador de las ideas de Guiducci. Es entonces cuando Galileo entra en acción con toda su artillería. Que tras Lotario Sarsi se oculta Orazio Grassi es un secreto a voces, pero Galileo finge ignorarlo para que su ataque resulte más demoledor. Continuamente expresa su extrañeza por el hecho de que un discípulo de una persona tan brillante como Grassi pueda decir tales disparates. Durante 400 páginas Galileo disecciona la obra de Sarsi (Grassi) en sus más mínimos detalles. En definitiva, más que una obra científicamente valiosa, es una obra maestra de la literatura polémica. El libro contiene también agudas observaciones metodoló- 100cias@uned gicas y, en particular, la celebre frase de Galileo de que «el libro de la Naturaleza está escrito en lenguaje matemático, y sus caracteres son triángulos, círculos y otras figuras geométricas». Asimismo contiene su teoría de las cualidades primarias y secundarias. El Ensayador, que así se llama el libro haciendo referencia al nombre de una balanza de precisión, tuvo una gran difusión. Incluso el Papa Urbano VIII, entonces amigo de Galileo y poco amigo de los jesuitas, disfrutaba con su lectura. Pero la polémica no era simplemente una polémica entre Galileo y Grassi. El libro estaba publicado por la Academia de los Linces. Era un elemento más en una lucha más general entre la Academia y los jesuitas, en particular el Colegio Romano, que defendían sistemas enfrentados respecto al papel de la religión y la teología en la formación integral que debían recibir las personas. Entre el sistema ptolemaico y el copernicano hay una diferencia esencial: en el primero, el Sol y los planetas giran en torno a la Tierra, que se encuentra inmóvil en el centro del universo; en el segundo, la Tierra y los demás planetas giran alrededor del Sol. La diferencia entre el sistema copernicano y el tychonico es más sutil: simplemente es un cambio de sistema de referencia. La 115 Vida científica única forma de verificar mediante observaciones astronómicas el movimiento orbital de la Tierra sería medir la paralaje de alguna estrella «fija», lo que era impensable en la época de Galileo. Sin embargo, Galileo había afirmado en su breve correspondencia con Kepler en 1597 que tenía pruebas del movimiento de la Tierra. Quizá era una fanfarronada, pero si no lo era, ¿qué prueba podía ser si hasta entonces solo se había ocupado en «física», es decir, en el estudio de los fenómenos en la Tierra? Stillman Drake conjetura con buenas razones que la prueba de Galileo se basaba en las mareas. Galileo pensaba, equivocadamente desde luego, que las mareas eran una consecuencia de la combinación de los movimientos de traslación y rotación de la Tierra: el flujo y reflujo del agua era similar a los vaivenes del agua en una palangana que se mueve con velocidad variable. Por ello, tanto el sistema tychonico como el ptolemaico, con una Tierra en reposo, eran incompatibles con la existencia de mareas. Aunque Galileo no había publicado su teoría, la había comentado con muchas personas y era de sobra conocida. La primera intención de Galileo cuando se puso a escribir lo que sería su Diálogo sobre los dos Sistemas Máximos era llamarlo Tratado de las Mareas, a lo que la censura eclesiástica se opuso decididamente antes de conocer siquiera el contenido detallado del libro. Galileo acató la prohibición y cambió el título, pero las mareas siguieron ocupando un lugar fundamental en su libro: constituyen el tema de la cuarta y última jornada. Por ello, era difícil de aceptar la supuesta imparcialidad del libro. A la larga, el enfrentamiento con los jesuitas fue fatal para Galileo. En 1982 Pietro Redondi encontró un documento inédito que contenía una denuncia anónima contra Galileo. El motivo de la denuncia era precisamente las ideas sobre las cualidades primarias y secundarias expresadas en El Ensayador, que supuestamente serían contrarias al dogma de la transustanciación aprobado cincuenta años antes en el Concilio de Trento. Redondi atribuía la denuncia al propio Grassi, y sobre este documento elaboró una controvertida hipótesis según la cual el proceso final al que se vio sometido Galileo por defender la teoría copernicana fue en realidad un mal menor que trataba de desviar la atención frente a una acusación más grave desde el punto de vista teológico. Hoy día nadie acepta esta hipótesis, y mucho menos que Grassi fuera el autor real de la denuncia, pero lo cierto es que la denuncia anónima existió. Años más tarde, en 100cias@uned 1999, el sacerdote español Mariano Artigas, ya con el beneficio de una mayor permisividad en la consulta de los archivos vaticanos, encontró un nuevo documento que contenía una denuncia similar. Existen buenas razones para pensar que este documento fue redactado poco antes del proceso de 1632 y que su autor era Melchior Inchofer, un jesuita (¡como no!) al que el Santo Oficio había pedido un informe sobre las ideas de Galileo. Así que la animadversión de los jesuitas se mantenía intacta. El propio Galileo estaba convencido de que los jesuitas tenían mucho que ver en sus cuitas. En una carta a Elio Dodati en julio de 1634, un año después de su condena, decía: «De éste y otros accidentes cuyo relato sería demasiado largo se desprende que la rabia de mis muy poderosos perseguidores va aumentando continuamente. Finalmente han querido manifestarse por sí mismos, dado que, hallándose un buen amigo mío hace unos meses en Roma, hablando con el padre Christoforo Grembergo, jesuita, matemático de este Colegio, dijo el jesuita a mi amigo estas palabras: «Si Galileo hubiera sabido conservar el afecto de los padres de este Colegio, viviría gloriosamente en el mundo y no hubiera habido nada de sus desgracias, y hubiera podido escribir a su arbitrio de cualquier materia, incluso de los movimientos de la Tierra, etc.»; así que V. S. ve que no es tal o cual opinión lo que me ha hecho y me hace la guerra, sino estar en desgracia entre los jesuitas». La misma opinión compartían Descartes, Mersenne y muchos otros. (En descargo de los jesuitas, digamos que el P. Zaragoza S. J. publicó en España en 1675 el primer tratado de astronomía en el que no se hacía ascos a la cosmología copernicana). Tras su condena, en su reclusión en Arcetri, Galileo volvió a sus investigaciones sobre el movimiento, casi abandonadas desde sus tiempos en Padua, que le llevarían a su obra maestra Conversaciones y Demostraciones Matemáticas sobre Dos Nuevas Ciencias, que se publica en Holanda en 1638. No obstante, no abandonó sus observaciones astronómicas, y todavía en 1637 seguía dirigiendo su telescopio a la Luna. La Luna, que había sido el primer objeto de sus observaciones astronómicas, iba a ser también lo último que vería. Poco después quedó definitivamente ciego. J. Javier García Sanz Dpto. de Física Fundamental 116 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 EFEMÉRIDES 1809, CHARLES ROBERT DARWIN Es muy probable que nadie haya influido tanto en el modo de entender la historia de la vida en el planeta Tierra como CHARLES ROBERT DARWIN (Fig. 1). El año 2009 ha conmemorado el bicentenario de su nacimiento y los 150 años de la publicación de El origen de las Especies (1859), su obra más emblemática. Darwin, como ningún otro científico hasta el momento, ha removido los cimientos más profundos del pensamiento imperante durante milenios. El gran impacto que provocaron sus aportaciones en disciplinas como la zoología, la paleontología, la botánica, la antropología e incluso en aquellas con un menor grado de parentesco con la historia natural como son la filosofía, la psicología, la literaFigura 1. Fotografía de Charles R. tura, continúan en la Darwin (1874) a la edad de 65 años. actualidad en boga. De hecho sus obras han llegado a un amplio y variado número de lectores. Charles Robert Darwin nació el 12 de febrero de 1809, en la pequeña ciudad de Shrewsbury, en Inglaterra (Fig. 2). Quinto hijo de un exitoso físico y financiero, Robert Waring Darwin, y nieto de un famoso poeta y a la postre influyente en su obra, Erasmus Darwin, perdió a su madre, Susannah Wedgwood, a la temprana edad de ocho años. Tras finalizar sus estudios en Shrewsbury, en 1825 abandonó su pequeña ciudad natal, y se traslado a Edimburgo. Allí cursó estudios en la Facultad de Medicina, pero rápidamente esta disciplina dejó de interesarle. Darwin no fue un estudiante modelo, pero sí que se convirtió en un apasionado de la historia natural. De hecho, 100cias@uned Figura 2. Charles Darwin nació en esta casa, The Mount, en Shrewsbury, Shropshire, Inglaterra, el 12 de febrero de 1809. bajo la tutela de Robert Grant, profesor de Anatomía y Zoología de la Universidad de Londres, comenzó a estudiar invertebrados marinos durante su estancia en Edimburgo. Debido al escaso interés que la medicina le suscitaba a Darwin, su padre le propuso ordenarse clérigo como una alternativa respetable. La aceptación no fue inmediata, pero tras un período de meditación, reflexión y lecturas sobre cuestiones teológicas, Darwin aceptó la propuesta paterna. Como Darwin comentaría, «la ventaja de ser un clérigo local es poder disfrutar de tiempo libre para poder avanzar en los conocimientos acerca de la historia natural». Cabe destacar que los invertebrados marinos fueron el núcleo central del interés de Darwin por la historia natural desde sus días como estudiante en Edimburgo, tal y como atestiguan la enorme cantidad de notas, comentarios y datos obtenidos durante su travesía a bordo del H.M.S. Beagle en referencia a estos organismos. Esto se hace evidente puesto que, al contrario de lo que hizo con los ejemplares recolectados de otros grupos tanto animales como vegetales en su viaje por América del Sur, las Islas Galápagos y varias islas del Pacífico, los invertebrados marinos que recolectó fueron clasificados y estudiados por el propio Darwin. Como resultado de sus estudios, entre 1851 y 1853 publicó los cuatro tomos, con más de mil páginas, de su tratado sobre los percebes o cirrípedos, titulado A monograph of the Cirripedia (Fig. 3). Las aportaciones de numerosos científicos tales como el astrónomo Sir John Herschel, Alexander von Hum- 117 Vida científica boldt y, de manera destacada, el geólogo Charles Lyell, marcaron el devenir de e influyeron profundamente en las obras de Darwin. Una de las obras que más influyó en Darwin fue el libro de Lyell, Principles of Geology (1830-1833, Principios de Geología), algunas de cuyas aportaciones Figura 3. Ejemplar del libro pudo presenciar du«A monograph of the Cirripedia», rante su viaje a borpublicado entre 1851 y 1853. do del H.M.S Beagle (Fig. 4). En sus cinco años (1831-1836) a bordo del Beagle, además de realizar numerosas e importantes investigaciones y posteriores aportaciones en el campo de la geología, Darwin recolectó gran número de organismos tanto actuales como fósiles. Cómo comentaría posteriormente el propio Darwin en la introducción a El origen de las especies: «Estando a bordo del Beagle, buque de guerra inglés, en calidad de naturalista me impresionaron mucho ciertos hechos en la distribución de los seres orgánicos que habitan América del Sur, y en las relaciones geológicas de los actuales habitantes de aquel continente con lo ya pasados. Estos hechos, como se verá en los últimos capítulos de este volumen, parecían arrojar alguna luz sobre el origen de las especies, misterio de los misterios, como ha sido llamando por uno de nuestros más grandes filósofos». Pasados varios años de su determinante viaje a bordo del Beagle, Darwin empezó a recabar los resultados de las investigaciones que, sobre los organismos recolectados durante su viaje, diversos especialistas como Richard Owen, John Gould, Thomas Bell entre otros, realizaron a petición del propio Darwin. Los datos que aportaban empezaron a provocar en Darwin una serie de interrogantes acerca de cómo las distintas especies podían surgir por causas naturales observables. Ya en esos momentos, Darwin empezaba a aceptar que las especies cambian, o lo que es lo mismo, que la vida evoluciona. Estas reflexiones e ideas evolucionistas no eran novedosas para Darwin, puesto que su abuelo Erasmus Darwin, en su obra Zoonomía (1794-1796), y el zoólogo francés Jean-Baptiste Lamarck, ya las habían apuntado con anterioridad. Figura 4. El 27 de diciembre de 1831, Darwin se embarca en el H.M.S Beagle desde Plymouth para dar una vuelta al mundo que duraría cinco años. 100cias@uned 118 Vida científica A partir del 14 de mayo de 1856 empezó a escribir la gran obra de su vida sobre el problema del origen de las especies, dedicándose casi por completo a este esfuerzo. Su amigo Lyell le recomendó en varias ocasiones que diera a conocer sus teorías, pero Darwin, entregado a otros trabajos, no veía llegado el momento para terminar de redactar la extensa obra que había proyectado. El libro se desarrollaba lentamente, por el afán de Darwin de reunir la mayor cantidad de datos. En 1855 apareció en los Annals and Magazine of Natural History un artículo abiertamente evolucionista titulado «Sobre la ley que ha regulado la aparición de nuevas especies». Su autor era Alfred Russell Wallace, que lo enviaba desde Borneo. Darwin leyó el artículo por sugerencia de Lyell y se asombró al comprobar la similitud de las ideas de Wallace con las suyas (Alfred R. Wallace era más joven que Darwin). Los tres años siguientes a la publicación del artículo de Wallace preocuparon a los amigos de Darwin, que constantemente le impulsaban a terminar su libro. Desde 1856 Darwin intercambió correspondencia con Wallace, comentando algunos aspectos de sus ideas, sin embargo se trataba de comentarios generales, sin referirse con detalle al mecanismo evolutivo. Entonces se produjo una coincidencia extraordinaria. Tan sólo había redactado los primeros nueve o diez capítulos de lo que sería su «gran libro de las especies», cuando Charles Darwin sufre la mayor sorpresa de su vida. El 18 de junio de 1858 recibe por correo un breve manuscrito que contenía todos los elementos esenciales de la teoría darviniana y en el que se exponía exactamente, hasta con términos idénticos, la teoría de la selección natural. El autor del manuscrito era el naturalista Alfred Russell Wallace, que se encontraba en el Archipiélago Malayo. Le pedía a Darwin que lo leyera y enviara a alguna revista científica si lo consideraba aceptable. Estando enfermo de malaria en una pequeña isla del archipiélago de las Molucas, en Indonesia, se le ocurrió súbitamente la teoría de la selección natural. El problema del origen de las especies le preocupaba desde hacía varios años y como había tenido correspondencia con Darwin sobre la materia, fue lógico que enviara el artículo al propio Darwin. Ese mismo día, Darwin trasmite su preocupación a su amigo Lyell de esta manera: «Mi querido Lyell: Hace ahora aproximadamente un año que Vd. me recomendó leer un ensayo de Wallace en los An- 100cias@uned nals que le había interesado. Cuando escribí a Wallace le conté esto porque sabía que se alegraría de saberlo. Hoy me ha mandado lo que le adjunto, con el ruego de pasárselo a Vd. Me parece completamente digno de ser leído. Lo que dijo Vd. se ha confirmado plenamente –es decir, que se me ha adelantado. Vd. dijo esto cuando le expuse brevemente mis opiniones sobre la «selección natural» como consecuencia de la lucha por la vida. Jamás he visto una coincidencia más asombrosa; si Wallace hubiera tenido mi borrador, que fue escrito en 1842, ¡no podría haber hecho mejor una edición abreviada! Hasta sus conceptos son ahora los títulos de mis capítulos. Por favor, reenvíeme el manuscrito; Wallace no me ha pedido que lo publique pero naturalmente le escribiré enseguida y le voy a ofrecer mandarlo a alguna revista. Así toda mi originalidad se ha reducido a nada, aunque por eso mi libro, si es que algún día tengo valor, no será peor, ya que todo el trabajo consiste en el empleo práctico de la teoría. Espero que Vd. aplauda el borrador de Wallace para que le pueda comunicar su opinión». Esta fue la razón por la que Charles Darwin abandonó la idea de terminar su monumental obra de las especies, y en su lugar se retiró durante un año a la isla de Wight para escribir lo que él consideraba un «resumen». Por su parte, Alfred Wallace cedió a Darwin la mayor parte del crédito por sus ideas, argumentando que las contribuciones de ambos se comparan con una semana de trabajo suya y con veinte años de trabajo de Darwin. Por otra parte, se confesó incapaz de haber podido realizar la enorme labor efectuada por Darwin: «Carezco del amor al trabajo, al experimento y al detalle que caracterizaba a Darwin y sin el que nada de lo que yo hubiera podido escribir habría convencido nunca al mundo». Prueba de ello es que Wallace siempre se refirió a la teoría como «de Darwin» y tituló «Darvinismo» a uno de sus libros y a un ciclo de conferencias que realizó en Estados Unidos. Lo que realmente ha hecho destacar a Darwin sobre otros naturalistas, es el definir el mecanismo por el cual tiene lugar la evolución de los seres vivos. Estas aportaciones fueron plasmadas precisamente en su «resumen», que se convertiría en uno de los libros más importantes jamás escrito: El origen de las especies, puesto a la venta el 24 de Noviembre de 1859 y agotándose la primera edición (1.250 ejemplares) ese mismo día 119 Vida científica “Pero, por lo que se refiere al mundo material, podemos, por lo menos, llegar a esto: podemos conocer que los hechos se producen, no por intervenciones aisladas del poder divino ejercidas en cada caso particular, sino mediante la institución de leyes generales.» (Whewell, Bridgewater Treatisse.) Figura 5. Página del manuscrito «El origen de las especies» por medio de la selección natural, publicado en 1859 por Charles Robert Darwin. (Fig. 5). En este manuscrito Darwin proclamaba por primera vez, mediante mecanismos puramente naturales una teoría acerca de cómo podía producirse la evolución de los organismos vivos. Estos mecanismos o «leyes» naturales, se expresaron ya en un epígrafe de El origen de las especies: 100cias@uned El 19 de abril de 1882 fallece Darwin a la edad de 73 años. Probablemente, la aportación más importante que sus escritos han logrado trasmitir a la comunidad científica internacional, en una primera instancia y, posteriormente, a la totalidad de la sociedad, es la afirmación de la evolución como una realidad. Su obra El origen de las especies alcanzó tal éxito que a él se debe el establecimiento definitivo de la teoría de la evolución. La obra de Charles Darwin supera ampliamente, tanto en extensión como en calidad, a todas las publicaciones anteriores sobre evolución y por ello es considerado como el fundador de la moderna teoría de la evolución. De hecho, hoy en día no es descabellada la sinonimia que se produce entre el nombre de Darwin y el término evolución (DARWIN = EVOLUCIÓN). Fernando Escaso Santos Grupo de Biología Dpto. de Física Matemática y de Fluidos 120 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 EFEMÉRIDES 1989, HACE VEINTE AÑOS QUE SE IMPLANTÓ EL PRIMER VENTRÍCULO ARTIFICIAL TOTALMENTE ESPAÑOL POR UN EQUIPO MULTIDISCIPLINAR EN EL HOSPITAL DE LA PRINCESA DE MADRID En recuerdo a nuestro amigo, el Dr. Diego Caleya, fallecido pocos años después El día 1 de julio de 1989 se implantó el primer ventrículo artificial neumático desarrollado y construido totalmente en España por la Unidad de Medicina y Cirugía Experimental del Hospital Gregorio Marañón de Madrid, el servicio de Cirugía Cardiaca del Hospital de la Princesa de Madrid y el departamento de Física Fundamental de la Universidad Nacional de Educación a Distancia. Tras dieciocho días de esfuerzo ininterrumpido por parte de cirujanos, intensivistas y técnicos implicados en dicho implante, en la madrugada del 19 de julio se llevó a cabo el transplante cardiaco al paciente CRA en el Hospital General Gregorio Marañón de Madrid, tras un traslado de un hospital a otro debido a la falta de programa de transplantes de corazón del Hospital de la Princesa. El paciente fue dado de alta dos meses más tarde con el protocolo de seguimiento habitual para los pacientes con trasplante cardiaco. El día 1 de julio de 1989 se abrió una puerta a la esperanza para muchos enfermos cardiacos que se encontraban en espera de un donante de corazón. Hagamos un poco de historia sobre los dispositivos de asistencia mecánica circulatoria en el mundo y su evolución hasta julio de 1989. El corazón es un órgano vital, sin embargo, su funcionamiento, posiblemente, es el más simple de todos los órganos internos. El primer intento de sustitución de 1 Le Gallois J. Experiences sur le principe de la vie. 1812 (Paris). 100cias@uned Modelo definitivo de ventrículo artificial que se utilizó durante el ensayo clínico del sistema BCM. debe a Le Gallois1. En 1812 planteó la sustitución del corazón por un sistema de bombeo que, de forma continua, proporcionase sangre arterial o un medio líquido alternativo adecuado para mantener viable de forma indefinida una parte aislada del organismo. Más tarde, en 1880 Henry Martin llevó a cabo las primeras perfusiones de corazón-pulmón, y cuarenta años más, en 1920, surge el concepto de máquina corazón-pulmón. El paso del concepto de máquina pulmón-corazón a la idea de un sistema que reemplace totalmente el corazón es pequeño, aunque su realización necesitó de casi cincuenta años de espera. La esperanza de vida comienza a aumentar a primeros de siglo así como la mortalidad por enfermedades 121 Vida científica cardiacas, lo que originó la idea de diseñar algún dispositivo mecánico que pudiera sustituir la función de bomba del corazón, bien parcial o totalmente (ventrículo o corazón artificial), para mantener el funcionalismo de todos los órganos del ser humano. Así, Vladimir Demikhov fue el primero que construyó un corazón mecánico artificial, en 1937. Extrajo el corazón de un perro y lo reemplazó por un dispositivo mecánico2. Ya en 1955 Bayliss diseñó un corazón artificial total introduciendo los conceptos de bomba tipo saco y de la utilización de aire comprimido como fuente de energía para mover esa bomba. Un par de años más tarde, J. Kolff (inventor del riñón artificial) y Akutsu diseñaron un corazón artificial de PVC que también funcionaba con aire comprimido, permitiéndoles mantener con vida a un perro durante noventa minutos3. Habrían de pasar todavía seis años hasta que Domingo Liotta implantara el primer corazón artificial parcial en humano4. El paciente falleció a los cuatro días tras múltiples accidentes cerebrovasculares. En agosto de 1966, el Dr. DeBakey implanta un ventrículo artificial fabricado en plástico y Dacron, como asistencia mecánica circulatoria, en una paciente de treinta y siete años que no podía ser desconectada de un sistema de circulación extracorpórea durante una doble sustitución valvular (aórtica y mitral)5. Era un sistema paracorpóreo de fácil sustitución. El dispositivo fue retirado diez días después del implante con éxito. Se había utilizado un dispositivo de asistencia mecánica circulatoria como puente a la recuperación de un corazón que no salía de bomba (de circulación extracorpórea). En 1967 se realiza el primer transplante cardiaco en humano. El Dr. Barnard pone de manifiesto con esta intervención que existe la posibilidad de sustituir un corazón dañado de un paciente por un corazón sano de un fallecido mediante una manipulación cuidadosa del corazón donante tras el fallecimiento del mismo6. Acaba de 2 Shumacker HB Jr. A surgeon to remember: notes about Vladimir Demikhov. Ann. Thorac. Surg., 58, 1196-8 (1994). 3 Akutsu TKW. Permanent substitutes for valves and heart. Trans. Am. Soc. Artif. Intern. Organs, 4, 230-4 (1958). 4 Liotta D, Hall CW, Henly WS, Cooley DA, Crawford ES, Debakey ME. Prolonged assisted circulation during and after cardiac or aortic surgery. Prolonged partial left ventricular bypass by means of intracorporeal circulation. Am. J. Cardiol., 12, 399-405 (1963). 5 DeBakey ME. Left ventricular bypass pump for cardiac assistance. Clinical experience. Am. J. Cardiol., 27(1), 3-11 (1971). 6 Barnard CN. The operation. A human cardiac transplant: an interim report of a successful operation performed at Groote Schuur Hospital, Cape Town. S. Afr. Med. J., 41(48), 1271-4 (1967). 100cias@uned nacer un matrimonio de conveniencia muy fructífero. Se comienza a tener la tecnología para llevar a cabo transplantes de corazón y se dispone dispositivos denominados ventrículos artificiales que permiten mantener con vida a un paciente con insuficiencia cardiaca hasta que pueda ser transplantado, en unos casos, recuperado en otros. Como último hito en este campo, en 1969 el Dr. Cooley lleva a cabo una intervención donde implanta un corazón artificial total en un humano tras ensayos del corazón en siete terneros7. Fue utilizado como puente para el transplante que se realizó tres días más tarde, muriendo el paciente de sepsis a las 32 horas del transplante. Habiendo sido capaces de mantener con vida a un paciente durante varios días para llevarle al transplante con el uso de un corazón/ventrículo artificial, ¿por qué no durante meses? Haría falta un salto cualitativo durante la siguiente década para que eso fuese posible. Hacía falta que electrónica e informática, unidas, crearan los primeros ordenadores «personales» para que los desarrollos fuesen capaces de resolver los múltiples problemas de estos dispositivos. Debíamos llegar a la pubertad de la era digital, y con ella llegaríamos a los modelos más conocidos de corazón/ventrículo artificial como fue el Jarvik-7.8 Hablemos de España. ¿Qué se hacía por aquellos tiempos en España? Se utilizaba, difícilmente, el Jarvik7 como puente al transplante, sólo muy ocasionalmente y en un número reducidísimo de Hospitales. Los resultados eran pobres en cuanto a la supervivencia de los pacientes implantados. Tecnológicamente, España no producía ni desarrollaba ningún dispositivo. Los que había en el mercado eran escasos y muy caros y no estaban a disposición de los cirujanos cardiacos del momento, salvo muy escasas excepciones. Además, el manejo de pacientes y dispositivos era muy complejo, y los cirujanos e intensivistas de entonces debían pasar largas temporadas en hospitales de referencia de Estados Unidos para ad- 7 Cooley DA, Liotta D, Hallman GL, Bloodwell RD, Leachman RD, Milam JD. Orthotopic cardiac prosthesis for two-staged cardiac replacement. Am. J. Cardiol., 24(5), 723-30 (1969), y Cooley DA. The first implantation of an artificial heart: reflections and observations. Transplant. Proc., 5(2), 1135-7 (1973). 8 Copeland JG, Levinson MM, Smith R, et al. The total artificial heart as a bridge to transplantation. A report of two cases. JAMA, 256(21), 2991–5 (1986); y DeVries WC, Anderson JL, Joyce LD, et al. Clinical use of the total artificial heart. N. Engl. J. Med., 310(5), 273-8 (1984). 122 Vida científica quirir las técnicas y destrezas para su uso. Por otra parte, los pacientes eran de muy difícil manejo ya que tenían muy alterado el sistema de coagulación, lo que hacía que padeciesen bien hemorragias bien procesos derivados de la formación de coágulos que conllevaban la mayoría de las veces a problemas cerebrovasculares, cuando no entraban en shock séptico y fallecían por fallo multiorgánico. En 1985, tras un viaje a Canadá, el Dr. Duarte, entonces jefe de servicio de cirugía cardiaca del Hospital Gregorio Marañón, plantea, a la unidad de medicina y cirugía experimental del mismo hospital, la posibilidad de desarrollar una consola de mando para controlar un ventrículo artificial neumático que ha traído de Canadá en su maleta. Es un ventrículo sacular con dos cánulas de conexión para ser insertadas, normalmente, en la aorta y en la aurícula derecha del paciente al que se le va a someter al implante. Puesto en contacto con el Dr. del Cañizo, le comenta que es posible hacer dos cosas. Una es construir una consola de mando para el ventrículo y otra tratar, además, de hacer una copia del ventrículo para hacer ensayos con animales. El Dr. Duarte cuenta con la colaboración del Dr. Caleya y del Dr. Valdivielso (de su mismo hospital) y el Dr. del Cañizo, con la de la Dra. Desco que colaborará con el proyecto hasta su 100cias@uned finalización. El jefe de la unidad de medicina y cirugía experimental pide ayuda para el diseño hidrodinámico del ventrículo a dos profesores de la UNED, los profesores Antoranz y Rubio, entonces los dos del departamento de Física Fundamental. A este proyecto se fueron incorporando otros investigadores como la Dra. Cano, veterinaria, o Francisco Rodríguez, biólogo informático de amplio espectro. Se desarrollaron varios tipos de consolas y de ventrículos en colaboración con una incipiente empresa madrileña dedicada a la venta de válvulas cardiacas (entre otros productos) llamada BIOMED, S.A., quien recibe una subvención del CDTI para que se pueda introducir el producto desarrollado en los canales normales de distribución de la sanidad española. Se realizaron ochenta implantes agudos/crónicos en ovejas hasta adquirir destreza, conocimiento y experiencia suficiente en el manejo de consolas, ventrículos y «pacientes» como para solicitar el comienzo a la fase de ensayo clínico. El día 30 de junio de 1989, el Dr. Duarte, entonces jefe de servicio de cirugía cardiaca en el Hospital de la Princesa, comunica al equipo del ventrículo BCM (así se llama el dispositivo de forma abreviada Biomed Comunidad de Madrid) que existe un paciente con una cardiomiopatía dilatada que necesita un transplante car- 123 Vida científica diaco y que no puede esperar por más tiempo la llegada del corazón de un donante sin una asistencia cardiaca a su ventrículo izquierdo. Se discutieron las posibilidades que tenía el paciente, la idoneidad del mismo y se decidió poner en marcha el dispositivo para llevar a cabo el implante. Se llevaron a esterilización dos ventrículos y varios juegos de cánulas. A las 08:00 de la mañana, el paciente llegó a quirófano, comenzando a las 09:00 la intervención que duraría hasta las 13:00 del mismo día. Momento en el que se procedió al traslado en otra planta (con los consiguientes problemas) del paciente para ser atendido en la UVI del hospital. La mañana del día dieciocho de julio se recibe una llamada en el hospital de la Princesa indicando al equipo médico la posible existencia de un donante en Madrid para el paciente. Tras los correspondientes trámites, se decide trasladar al paciente del hospital de la Princesa al Gregorio Marañón para el transplante ya que La Princesa carece de permiso para realizar transplantes de corazón. El transplante se realiza con éxito por el equipo del Dr. Arcas, finalizando el mismo a las 05:00 del día 19 de julio, tras dieciocho días de angustia y sobresaltos, culmina un trabajo comenzado cuatro años atrás por los Drs. Duarte y del Cañizo. El ensayo clínico multicéntrico continuó con un éxito del 80%, muy superior a los obtenidos por otros ventrículos artificiales9. España es un país afortunado, el número real de donantes por cada millón de habitantes es el mayor de todo el mundo, por lo que la necesidad de recurrir a dispositivos como corazones artificiales o ventrículos 9 J.F. del Cañizo, M.M. Desco, M.A. Rubio, J.C. Antoranz, M. Cano, D.F. Caleya, M.A. Valdivielso, P.García-Barreno y J. Duarte, Preliminary results with the B.C.M. ventricular assist device (VAD) in human, The International Journal of Artificial Organs, 13, 566 (1990) y J.C. Antoranz, M.A. Rubio, J. Duarte, D. Fernández-Caleya, M.M. Desco, M. Cano, P.G. Barreno, J.M. Álvarez-Valdivielso y J.F. del Cañizo, Improvement of the hydrodynamic response of a ventricular assist device (VAD): a false auricle solution. Artificial Organs, 16, 301-305 (1992) y J.F. del Cañizo, M.M. Desco, J.M. Álvarez-Valdivielso, D. FernándezCaleya, J.C. Antoranz, M.A. Rubio, and J. Duarte, Clinical experience with the BCM assist device, The International Journal of Artificial Organs, 15, 530 (1992). 100cias@uned artificiales en menor que en los países de nuestro entorno. Además, el uso de estos dispositivos conllevan una gran cantidad de problemas como las hemorragias, los tromboembolismos, las infecciones que hace que muchas veces no se pueda transplantar al paciente debido a las posibles complicaciones que pueden surgir dado el estado del mismo. Otro inconveniente es el precio, todavía muy elevado y más ahora en tiempos de crisis. En 2008 apareció un artículo titulado «Dispositivos de asistencia mecánica circulatoria: Es hora de focalizar nuestra atención en las complicaciones en lugar de construir nuevas bombas»10. Desde 1995 hasta la actualidad, se han reducido los casos de hemorragia, de fallo renal en pacientes sometidos a asistencia, sin embargo, han aumentado las infecciones, los fallos respiratorios, enormemente los problemas neurológicos y ligeramente los fallos mecánicos/informáticos de los dispositivos. Ya en 1994, se comentaba que las complicaciones eran, sobre todo, debidas a problemas con el paciente y no con los dispositivos11. Han pasado 20 años desde ese primer implante español pero sigue vigente la pauta que conducía al equipo BCM: hay que implantar el ventrículo en el momento y en el paciente adecuado, respetando los límites de la naturaleza humana12. J. Carlos Antoranz y M. Mar Desco Dpto. de Física Matemática y de Fluidos y Miembros del Biomed Comunidad de Madrid (BCM) Team. 10 Guest editorial, Mechanical Circulatory Support Devices: Is It Time to Focus on the Complications, Instead of Building Another New Pump?, Artifical Organs, 32, 1-4 (2008). 11 1994 Report, Combined Registry for the Clinical Use of Mechanical Ventricular Assist Pumps and the Total Artificial Heart. 12 E. Flecher, T. Joudinaud, T. et J.-M. Grinda, Histoire de l’assistance circulatoire mécanique et du coeur artificiel. Mechanical cardiac assistance and artificial heart: historical perspectives, Annales de Chirurgie, 131, 473-8 (2006). 124 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 EFEMÉRIDES 2009, ADIOS AL AÑO INTERNACIONAL DE LA ASTRONOMÍA En 2009 celebramos el Año Internacional de la Astronomía (AIA-IYA2009). Conmemoramos el 400 aniversario de un evento que revolucionó la ciencia: la primera observación del cosmos a través de un telescopio por el gran astrónomo italiano Galileo Galilei. Fue un hecho que supuso un antes y un después en nuestra compresión del Universo y marcó el comienzo de la historia de la astronomía basada en el telescopio. 148 países se han unido a esta celebración. En España, el resultado ha sido más de 3000 actividades enmarcadas en el AIAIYA2009 impulsadas por más de 1000 entidades diferentes. Decimos adiós a un año en el que miles de personas, hombres y mujeres de 148 países, hemos trabajado con un objetivo común: invitar a gente de todas las edades, origen y creencias a viajar por el Cosmos en una aventura fantástica e inolvidable. LA HOJA DE RUTA DEL AIA-IYA2009 La declaración del 2009 como Año Internacional de la Astronomía fue una iniciativa que partió de Italia, país natal de Galileo. En su Asamblea General de 2003, celebrada en Sydney (Australia), la Unión Astronómica Internacional (UAI) aprobó por unanimidad el promover esta iniciativa a todos los niveles. En 2005 se conseguía el respaldo de UNESCO, que recomendó a la Asamblea General de las Naciones Unidas el hacer efectiva dicha declaración. El 20 de diciembre de 2007 dicha Asamblea proclamaba 2009 Año Internacional de la Astronomía. Mientras tanto, la UAI y los países implicados en esta iniciativa no esperábamos sentados. En el caso de España, la UAI contactó con la Comisión Nacional de Astronomía (CNA) a finales de 2006, presentando la iniciativa y encargándole la misión de impulsar el AIAIYA2009 en nuestro país. A principios de 2007 la CNA formó un comité de coordinación en el que están repre- 100cias@uned sentados la CNA, el MICINN, el CSIC, la SEA y la FECYT y nombró una persona responsable de la coordinación global, perteneciente también a dicho comité. En 2007 se formó además un equipo de trabajo que llegaría a estar integrado por 17 personas de museos, planetarios, centros de investigación, centros escolares, universidades y agrupaciones amateur de toda España, responsables de coordinar con el apoyo del comité las actividades impulsadas por diferentes agentes (centros de investigación, agrupaciones amateur, etc) y la mayoría de los grandes proyectos de ámbito nacional o internacional en los que ha participado nuestro país. Son personas que en su mayoría (salvo dos específicamente contratadas para el AIA-IYA2009), al igual que los miembros del comité de coordinación, asumieron estas responsabilidades sin cobrar extra por ello. En 2007 nacía también la Red Española para el AIAIYA2009 en la que están representadas 141 entidades y que cuenta además con el respaldo de 48 agrupaciones colaboradoras. Una gran red de divulgación de la Astronomía que ha hecho fluir a todos los niveles, hacia todos los rincones, la información relevante sobre el Año Internacional de la Astronomía. En España, por tanto, el AIA-IYA2009 ha sido fruto de la colaboración de todas las instituciones relacionadas con la Astronomía, incluyendo el MICINN, el CSIC, la SEA (Sociedad Española de Astronomía) y la FECYT, y con la coordinación general de la Comisión Nacional de Astronomía. Terminábamos el 2008 con una buena noticia: el 16 de diciembre, todos los grupos políticos representados en el Congreso de los Diputados aprobaron por unanimidad una Proposición No de Ley sobre el Año Internacional de la Astronomía 2009 en España en la que se animaba organizaciones científicas, centros escolares y medios de comunicación a celebrar esta conmemoración mundial. Además, se instaba al gobierno a apoyar a las organizaciones implicadas en el AIA-IYA2009, así como a reforzar su apoyo al desarrollo de la Astronomía en nuestro país (investigación, desarrollo tecnológico, divulgación, enseñanza). Y llegó el 2009: la gran fiesta astronómica mundial. 125 Vida científica Figura 1. SAR el Príncipe Felipe, presidente del comité de honor del AIA-IYA2009, inauguró el Año Internacional de la Astronomía en un acto celebrado el 27 de enero de 2009 en la sede central del CSIC en Madrid. En la imagen, el presidente de la CNA y presidente del CSIC, D. Rafael Rodrigo Montero, muestra a SAR y a D.ª Catherine Cesarky, entonces presidenta de la UAI, la exposición «El Universo para que lo Descubras», uno de los principales proyectos que ha impulsado España con motivo del AIA-IYA2009. — Facilitar la creación de nuevas redes y reforzar las existentes, conectando a astrónomos profesionales, aficionados, educadores y profesionales de la comunicación mediante la organización de actividades locales, regionales, nacionales e internacionales. — Promover la igualdad de género en los ámbitos científicos y estimular un mayor compromiso con las minorías pobremente representadas en las carreras científicas y tecnológicas. — Facilitar la conservación y protección de la herencia natural y cultural que representan el cielo oscuro y los lugares astronómicos históricos, concienciando sobre la importancia de su preservación para el entorno natural y la herencia del ser humano. Todas las actividades organizadas en el marco del AIA-IYA2009 han contribuido en su conjunto a lograr estos objetivos. LOS OBJETIVOS LOS PROYECTOS Los principales objetivos que ha perseguido el AIAIYA2009 son los siguientes: — Aumentar el conocimiento científico de la sociedad mediante la comunicación de resultados de la investigación astronómica y campos afines, la transmisión de información sobre el método de investigación y sobre el pensamiento crítico que ha llevado a tales resultados. — Promover el acceso generalizado al conocimiento universal de las ciencias básicas compartiendo la emoción que producen el conocimiento científico, el descubrimiento astronómico y la observación del cielo. — Impulsar comunidades astronómicas en países en vías de desarrollo mediante la iniciación y el estímulo de colaboraciones internacionales. — Respaldar y mejorar la educación científica en las escuelas e institutos, así como en centros de investigación, planetarios y museos. — Proporcionar una imagen contemporánea de la ciencia y de los científicos para reforzar los vínculos entre la enseñanza básica y las carreras científicas. Se estimulará de este modo un incremento de las matriculaciones de estudiantes en áreas científicas y tecnológicas, así como la valoración del aprendizaje continuo durante toda la vida. 100cias@uned Además de cientos de iniciativas de carácter local, regional y autonómico, en España nos hemos implicado en 21 grandes proyectos de ámbito nacional (es decir, han tenido aplicación en al menos varias Comunidades Autónomas) o internacional. Aquí se describen brevemente algunos de ellos: — 100 horas de Astronomía. Un maratón astronómico mundial de 4 días (2-5 abril) dedicados a la divulgación de la Astronomía en el que participaron más de 130 países. En España fue todo un éxito: más de 300 actividades organizadas durante esos 4 días. Como actividad estrella, cabe destacar la iniciativa «La Vuelta al Mundo en 80 Telescopios», un webcast de 24 horas organizado mediante conexiones con unos 80 telescopios repartidos por los principales observatorios astronómicos y centros espaciales del mundo. Desde España se realizaron 11 conexiones con telescopios y satélites del Roque de los Muchachos, Calar Alto, ESAC, etc. — Descubre el Cielo Oscuro, que ha tenido como objetivos proteger el cielo oscuro y luchar contra la contaminación lumínica. Destacan el proyecto IACO (Iniciativa de Acción contra la Contaminación Lumínica) y el I Curso de Fotometría Aplicada a la Medición de Contaminación Lumínica, 126 Vida científica que se celebró del 16 al 18 de octubre en el Observatorio Astronómico de Calar Alto y en el que participaron astrónomos amateur de toda España. — Astronomía made in Spain (Fig. 2). Un libro que recorre los trabajos de investigación más punteros de la Astronomía española de los últimos 30 años, en formato de entrevistas breves realizadas a sus protagonistas. Algunos de estos investigadores participaron además en charlas y mesas redondas relacionadas organizadas en diferentes localidades. El programa de actividades continuará en 2010. Figura 2. La Astronomía mas puntera producida en España en los últimos 30 años, explicada por sus protagonistas en el libro «Astronomía made in Spain». — Ella es una Astrónoma, cuyo objetivo es promover la igualdad de género en la Astronomía en particular y la Ciencia en general. Se ha producido una serie de 8 programas de TV titulada «Mujeres en las Estrellas» dedicados a la contribución de la mujer al desarrollo de la Astronomía en España (que ha sido posible gracias a una magnífica colaboración con la UNED), así como la exposición «Con A de Astrónomas» que hace un recorrido por el papel de la mujer en esta rama de la ciencia en diferentes épocas y lugares. La exposición continuará mostrándose en diferentes localizaciones durante 2010 y 2011. Como curiosidad, el material expuesto incluye maquetas de instrumentos científicos y otros objetos utilizados en «Ágora», la película más reciente de Alejandro Amenábar. — El Universo para que lo Descubras, una exposición de imágenes astronómicas de gran belleza, con breves explicaciones científicas y textos de la 100cias@uned literatura universal. Se ha mostrado en más de 100 localidades de 5 países diferentes (España, México, Argentina, República Eslovaca, República Checa) y se estima que varios millones de personas han podido verla. — La medida del Radio de la Tierra (Fig. 3). El 26 de marzo de 2009, profesores y alumnos de más de 600 centros escolares repartidos por todo el territorio nacional repitieron la experiencia que el sabio griego Eratóstenes realizó hace más de 2000 años. Todas las medidas combinadas dieron un único valor del radio de la Tierra con un error de un 5%. Figura 3. Alumnos de un centro escolar participando el 26 de marzo en «La Medida del Radio de la Tierra». ¡Incluso llevaron camisetas con el logo del Año Internacional de la Astronomía¡ — Astro para Todos. Un proyecto que ha tenido como objetivo la irrupción de la Astronomía en la vida cotidiana, mediante bellas imágenes de contenido astronómico presentadas en objetos como billetes de sorteos, bonos de transporte, sellos, fondos para móvil, salvapantallas, etc. Como su título indica, Astro para todos. — Evolución y Jors, Jars, Jurs y los Galigalitos (Fig. 4), dos grandes producciones de planetario impulsadas por los principales museos de ciencia y planetarios de España, que han recorrido la mayoría de las cúpulas de nuestro país y seguirán en cartelera durante el 2010. — Actividades astronómicas dirigidas a personas discapacitadas (Fig. 5), entre las que destacan la edición de un libro en braille didáctico de Astronomía y la producción del programa de planetario «El Cielo en tus Manos» para personas con discapacidad visual, que se estrenó en l’Hemisfèric de la Ciudad de las Artes y las Ciencias de Valencia el 29 de octubre de 2009. 127 Vida científica Figura 4. Los museos de ciencia y planetarios han lanzado dos grandes producciones de planetario con motivo del Año Internacional de la Astronomía: «Evolución», que rinde homenaje a Darwin y Galileo, y «Jors, Jars, Jurs y los Galigalitos», destinado a un público infantil. — Fiestas de Estrellas (Fig. 6). Cientos de astrónomos aficionados han salido a tomar calles y plazas con sus telescopios para mostrar al público las maravillas del cielo estrellado que fascinaron a Galileo Galilei hace 400 años. Se celebraron 5 fiestas en total, tres nacionales y dos internacionales, impulsadas por 77 agrupaciones astronómicas de toda España. — U4: Una Universidad, Un Universo. Un proyecto que ha tenido como objetivo acercar la investigación astronómica a los estudiantes de la universidad española en un extenso programa de conferencias impartidas por astrónomos profesionales. Se ha formado un gran equipo coordinado de Figura 5. El 29 de octubre se estrenaba en l’Hemisfèric de la Ciudad de las Artes y las Ciencias de Valencia el programa de planetario «El cielo en tus manos». Personas invidentes y parcialmente invidentes pudieron tocar con sus manos el cielo estrellado. más de 170 conferenciantes de toda España que han impartido más de 240 conferencias en 49 universidades, para un público de al menos 13.000 personas. — Música y Astronomía (Fig. 7). Una forma divertida de pasear por el Universo, que combina música y astronomía tomando como base partituras muy diversas. Como resultado, la Pequeña Serenata Nocturna de Mozart se ha convertido en la «Pequeña Serenata Astronómica», un montaje audiovisual de gran belleza en el que Sancho y Don Quijote recorren el Universo siguiendo los acordes de la música de Mozart sincronizada con bellas imágenes del Universo. Figura 6. Los astrónomos amateur han mostrado el cielo estrellado a cerca de 50 000 personas ocupando calles y plazas con sus telescopios en numerosas localidades españolas en cinco «Fiestas de Estrellas». 100cias@uned 128 Vida científica Figura 7. Fotograma de la «Pequeña Serenata Astronómica». Sancho y Don Quijote viven arriesgadas aventuras en un viaje cósmico, siguiendo los acordes de la música de Mozart. LOS RESULTADOS El AIA-IYA2009 ha sido un éxito en España. Desde el primer momento consideramos que era una oportunidad única para llevar la astronomía a la sociedad, una oportunidad que nunca se repetiría. Sabíamos además, que era nuestra responsabilidad organizar un Año Internacional de la Astronomía con un nivel de excelencia acorde con la magnífica evolución que esta rama de la ciencia ha experimentado en nuestro país en las últimas décadas. Las cifras hablan por sí solas. Con motivo de la celebración del Año Internacional de la Astronomía, a lo largo del 2009 se han organizado en nuestro país más de 3000 actividades de divulgación de la Astronomía y casi todos los meses ha habido al menos entre 200 y 300 actividades en marcha, superando las 300 en marzo, abril, mayo, octubre y diciembre. Sin olvidar los 21 grandes proyectos de ámbito nacional e internacional mencionados anteriormente. Más de 1300 entidades diferentes han organizado al menos una actividad enmarcada en el AIA-IYA2009 a lo largo del 2009. La naturaleza de estas entidades ha sido muy variada: agrupaciones de astrónomos amateur, museos de ciencia, planetarios, centros de investigación, universidades, observatorios astronómicos, centros escolares, asociaciones culturales, bibliotecas, ayuntamientos, centros juveniles, etc. El AIA-IYA2009 ha llegado no sólo donde esperábamos que lo hiciera (es decir, aquellos organismos relacionados con la divulgación y/o la investigación astro- 100cias@uned nómicas), sino también a lugares y celebraciones sin ninguna relación con la Astronomía, muchos de ellos emblemáticos de la cultura y la historia de nuestro país. Así, han organizado y/o acogido actividades enmarcadas en el AIA-IYA2009 el edificio del Senado, el Museo Guggenheim de Bilbao, el Museo Arqueológico Nacional, los Alcázares de Sevilla, Segovia y Toledo, el Congreso de los Diputados, el Palacio de Carlos V de Granada, yacimientos arqueológicos de Gran Canaria, la Residencia de Estudiantes del CSIC, y muchos más. Celebraciones como el Festival Internacional de Música Presjovem (Córdoba), las «Noches en los Jardines del Alcázar» (Sevilla), la «Noche en Blanco» (Madrid), la Feria del Libro 2009 (Madrid), el Festival Internacional de Música de La Mancha, etc., también se han hecho eco de esta celebración, al incluir en sus programas actividades relacionadas con la Astronomía. El AIA-IYA2009 ha dejado multitud de recursos para la divulgación, difusión y educación de la Astronomía, muchos de los cuales quedan recopilados y accesibles de manera gratuita en el portal web www.astronomia2009.es: documentales, entrevistas, artículos, material escolar, progamas de TV, podcasts de radio, juegos, posters, descargas para salvapantallas, móviles, etc que quedan como legado. El AIA-IYA2009 ha sido la mayor iniciativa de divulgación científica que ha existido en nuestro país. Hemos contado con varios factores que en una época de crisis nos han fortalecido en comparación con otras celebraciones de naturaleza similar: — La Astronomía apasiona. 129 Vida científica — Dos años de preparación, 2007 y 2008, en los que se definió y se puso en marcha una estrategia de coordinación global clara y realista, impulsada por el comité de coordinación, respaldada con la actividad del equipo de trabajo y apoyada por las instituciones. En general, el enorme esfuerzo realizado durante esos dos años por numerosas entidades de toda España se dedicó a conseguir recursos, estimular la participación, realizar actividades preparatorias de numerosos proyectos, establecer colaboraciones, poner en marcha el portal web del AIA-IYA2009, etc. Así logramos llegar a enero de 2009 muy organizados, listos para el pistoletazo de salida. — Interés de los medios de comunicación. Raro es el día que no escuchamos o leemos una noticia relacionada con la Astronomía. Durante el 2009, varios medios de comunicación ha hecho una cobertura especial del AIA-IYA2009. — Los astrónomos amateur. Ninguna otra rama del conocimiento cuenta con un capital humano no profesional tan numeroso, dedicado y capaz de llegar al público general. — Un equipo internacional muy activo y bien organizado que ha estimulado la participación de manera continua y eficiente en los países implicados en el AIA-IYA2009. LA CONTINUIDAD El éxito que el AIA-IYA2009 ha tenido en España no hubiera sido posible sin la implicación de las instituciones y la participación de miles personas que han trabajado en la mayoría de los casos de manera desinteresada. Gracias a ello hemos conseguido llevar a la sociedad una rama de la ciencia que ha inspirado al ser humano en culturas de todas las épocas y lugares, desde sus orígenes hace miles de años hasta el día de hoy, en que la revolución tecnológica nos permite vivir una época dorada para la Astronomía. La movilización sin precedentes que ha generado el AIA-IYA2009 demuestra que la astronomía traspasa fronteras físicas e ideológicas para unir, inspirar y movilizar a la gente, al margen de ideologías políticas y creencias religiosas. Por todo ello, el Año Internacional de la Astronomía tiene que continuar. No debemos parar ahora y permitir 100cias@uned que poco a poco se diluya y desaparezca todo lo logrado. Es necesario seguir una estrategia clara y eficiente respaldada por las instituciones que dé continuidad a esta gran iniciativa de divulgación científica. Dicha estrategia cuenta ya con el respaldo activo de muchos colaboradores del AIA-IYA2009, la fuerza de las redes de colaboración que han surgido y el impulso de los miles de iniciativas generadas. ¿Lo lograremos? ¿O nos felicitaremos todos por el éxito conseguido, para después olvidarnos y volver al lugar donde estábamos antes del Año Internacional de la Astronomía? Montserrat Villar Martín Instituto de Astrofísica de Andalucía (CSIC) 130 Vida científica 100cias@uned N.º 2 Vida científica (nueva época) | 2009 ISSN: 1989-7189 LAS MUJERES Y LA CIENCIA MUJERES Y ASTRONOMÍA El trabajo que aquí presento, pretende ser mi homenaje particular a todas aquellas astrónomas olvidadas demasiado frecuentemente por los historiadores de la ciencia. Se enmarca dentro de las actividades realizadas, con motivo de la celebración en 2009 del Año Internacional de la Astronomía, en el proyecto pilar «Ella es una Astrónoma». Los detalles sobre las diferentes actividades llevadas a cabo se pueden encontrar en la página WEB http://astronomia2009.es/Proyectos_pilares/Ella_es_una_ Astronoma.html. El objetivo principal de este trabajo ha sido ilustrar en qué medida las mujeres astrónomas a lo largo de la historia han participado en los grandes descubrimientos que nos han llevado a nuestro conocimiento actual del Universo. Espero poder convencer a los lectores de que no fueron tan pocas aunque sí que han estado bastante invisibilizadas por los cronistas de todas las épocas. No obstante la historia de la Astronomía nos ha enseñado que la presencia de las mujeres en esta ciencia cuenta con 4000 años de antigüedad. Tanto los hombres como las mujeres han mirado al cielo estrellado en noches despejadas tratando de encontrar respuestas a los misterios del universo y de sus propias vidas. En Babilonia encontramos a EN’HEDUANA (2353 a.C.) que como suma sacerdotisa tenía conocimientos de Astronomía y creó uno de los primeros calendarios de los que se tienen noticias y que aún se utiliza en algunas comunidades religiosas. En la antigua Grecia nos encontramos con la figura de AGLAONIKE (s. II) que poseía conocimientos para predecir eclipses. En Egipto aparece la figura extraordinaria de HYPATIA (s. IV). Ella es sin duda alguna una de las mujeres científicas más conocidas y respetadas de la antigüedad, despertando el interés no sólo de científicos sino también del público en general por su atrayente personalidad. El director de cine Amenábar ha utilizado su historia para describir la destrucción de la biblioteca de Alejandría en su película Ágora. De Hypatia se sabe que fue una gran intelectual, filósofa, matemática y también astrónoma. A ella se le 100cias@uned atribuyen 3 tratados de geometría y álgebra, diferentes cartografiados estelares y un planisferio, además de ser conocida como profesora de astrolabios. Algunos historiadores le atribuyen incluso el descubrimiento del astrolabio. Figura 1. Hypatia de Alejandria y el astrolabio. Hasta finales del siglo XIX a las mujeres no les fue posible realizar trabajo científico de forma autónoma sino que sus ideas y opiniones tuvieron que ser expresadas a través de sus mentores, padres, hermanos, maridos o amantes. A partir de ahora relacionaré el parentesco que cada mujer tenía con su mentor. En la Edad Media no se tienen noticias de si hubo mujeres astrónomas. Sólo encontramos referencias históricas acerca de una española, FÁTIMA DE MADRID (s. X) de la época del califato de Córdoba. Fátima era la hija del astrónomo, matemático y filósofo andalusí del siglo X Abul Qasim Maslama ibn Ahmad al-Mayrity, con quién aprendió y colaboró. Entre su obra hay que destacar Las Correcciones de Fátima, donde presentaba una revisión actualizada de los conocimientos astronómicos existentes en su época. En el siglo XVI se tienen noticias de que SOFIA BRAHE (1556-1643) ayudó a su hermano Tycho Brahe desde muy niña en los cálculos de eclipses y observaciones pretelescópicas de planetas. MARIA CUNITZ (1604-1664), esposa de un eminente astrónomo, popularizó las leyes de Kepler en su manuscrito Urania Propicia. En particular, dedicó mucho tiempo para dar a conocer la 2.ª ley de Kepler de los movimientos planetarios. 131 Vida científica Figura 2. De izquierda a derecha: Galileo Galilei, su primer dibujo de la Luna y Mapa Lunar. En 1609, Galileo revolucionó la Astronomía con la invención del telescopio que sin entrar en la disputa acerca de si fue invención suya o no, lo que sí es cierto que a él le debemos el mérito de su aplicación para Astronomía. Coetánea de Galileo es MARIA EIMMART (1676-1707), hija del famoso astrónomo Geoff Eimmart, que con sus 250 dibujos de la Luna ayudó a realizar un mapa lunar bastante preciso. En el siglo XVII en Alemania encontramos una mujer que aunque está olvidada generalmente por los cronistas de la Astronomía, fue una avanzada para su época, MARIA WINCKELMANN KIRCH (1670-1720). Entre sus logros hay que destacar los trabajos publicados sobre conjunción de planetas y el hecho de que sea la primera mujer en descubrir un cometa. Sus investigaciones le valieron el reconocimiento de la Academia de Berlín que le concedió una medalla de oro. En lo que se refiere al crédito de sus trabajos por sus colegas fue escaso siendo numerosas las veces que su esposo, el Prof. Kirch, tuvo que desmentir que algunos trabajos se los atribuyeran a él. Pero las medallas y el reconocimiento de la Academia no le sirvieron para obtener trabajo en ella al fallecimiento de su marido. Solicitó ocupar su puesto, pero no fue aceptada por el hecho de ser mujer a pesar de contar con el apoyo decidido del director de la misma. Después de una larga batalla contra la Academia, dirigió el observatorio privado del barón von Krosigk. Allí entrenó a sus hijos en las artes de la Astronomía y continuaron con los trabajos iniciados con su marido sobre la elaboración de calendarios. Años después volvió a la Academia como ayudante de su hijo, pero tuvo que abandonarla para no perjudicarlo ante las insistentes llamadas de atención del director por su excesivo protagonismo. Sus hijas continuaron trabajando en la Academia como ayudantes de su hermano. Figura 3. De izquierda a derecha: Retrato de Caroline Herschel, Telescopio de 20 pulgadas construido por William y Caroline Herschel, y Nebulosa descubierta por Caroline. 100cias@uned 132 Vida científica En Inglaterra encontramos a CAROLINE HERSCHEL (1750-1848), hermana del famoso astrónomo William Herschel. A ella se le atribuye el descubrimiento de 14 nebulosas, además de ser la primera en darse cuenta, y así se lo comentó a su hermano, de la gran abundancia de nebulosas en el cielo (Hoskin, 2008, New Dictionary of Scientific Biography, 3, 286). Descubrió un buen número de cometas. Hoskin dice en su favor que, a pesar de que siempre consultaba a su hermano, ella era bastante más capaz que William Herschel para distinguir entre fenómenos transitorios y nebulosas. A la muerte de su hermano se retiró a Hannover y ahí escribió el catálogo de 2500 nebulosas de W. Herschel. En su vida tuvo bastante prestigio y fue respetada por los astrónomos de la época aunque ella no creyó nunca ser merecedora de tales honores. Fue la primera mujer pagada con un sueldo de 50 libras como asistente de astrónomo y la Royal Society le concedió una medalla de oro por sus méritos. De esta misma época en Inglaterra encontramos la extraordinaria figura de MARY SOMMERVILLE (17821872). Fue una gran intelectual que se tuvo que casar con su primo, bastante mayor que ella, para ver realizado su sueño de poder introducirse en los ambientes científicos intelectuales de su época. En su trayectoria científica fue bastante autodidacta, dotada de una gran curiosidad científica, como lo demuestran los diferentes libros que publicó a lo largo de su vida (The Magnetic Properties of the Violet Rays of the Solar Spectrum en 1826; The Mechanism of the Heavens en 1827; The Connection of the Physical Sciences en 1834; Physical Geography en 1848 y Molecular and Microscopic Science en 1869). Toda su producción se apreció durante su vida pero no le garantizó el puesto que por derecho le correspondía en la sociedad científica de la época. De su biografía se desprende que sólo contó con el respeto incondicional de John Herschel. Figura 4. Mary Fairfax Sommerville y una de sus obras. 100cias@uned En el siglo XIX la profesionalización de la ciencia en Europa dio lugar a la casi total desaparición de la mujer del panorama científico. Sin embargo, en Estados Unidos resurgieron con un empuje extraordinario debido a la influencia ejercida por los movimientos sufragistas feministas. Entre todas ellas quiero destacar a MARIA MITCHEL (1818-1889), hija de astrónomo y bien entrenada en observaciones astronómicas. Entre su extenso curriculum hay que resaltar el descubrimiento de un cometa, que le valió una medalla del rey de Dinamarca, el estudio de las manchas solares, de asteroides y movimientos de planetas. Hay que destacar en su trayectoria el papel jugado como activista en los movimientos sufragistas y como impulsora y maestra de astrónomas. Esta habilidad para potenciar a las mujeres le valió la dirección del Vassar College. Aún existe la fundación Maria Mitchel que tiene como objetivo el impulsar la carrera científica de las mujeres en el campo de las ciencias naturales y la astronomía. Recibió bastantes honores, pero a pesar de ello siempre pensó que la mujer no llegaría nunca a tener el intelecto del varón pero, a cambio, tenía la paciencia necesaria para realizar observaciones y medir cuidadosamente placas fotográficas. Sus palabras «El ojo que dirige la aguja en los delicados menesteres del bordado, sirve igualmente para bisectar una estrella….» dan una idea bastante precisa de cómo concebía el trabajo de las astrónomas de la época. De esta época hay que destacar el conocido HARÉN DE PICKERING. El profesor Pickering tuvo la habilidad de darse cuenta de que las mujeres podían hacer el mismo trabajo científico que los varones pero eran más pacientes y laboriosas. De ahí el éxito del grupo de Harvard. Isaksson (1989, http://www.astro.helsinki.fi/history/heaven/heaven.html) atribuye a Pickering el mérito de permitir a este grupo de mujeres el realizar trabajo independiente, además de aquel para el que se las contrató, como medidoras de placas. Entre las trabajadoras del profesor Pickering se pueden distinguir dos grupos, las que sólo se limitaron a hacer su trabajo como medidoras de las placas fotográficas y aquellas otras que se entusiasmaron con la astronomía y realizaron un magnifico trabajo de investigación. Sin ser exhaustiva, voy a comentar el trabajo realizado por algunas de ellas. WILLIAMINNA FLEMING (1857-1911) fue la primera mujer contratada en Harvard. Cambió su estatus laboral 133 Vida científica Figura 5. Maria Mitchel y su casa y su observatorio (arriba), y en el Vassar Collage con sus estudiantes (abajo). se compilaron en los 9 volúmenes del catálogo Henry Drapper. Su trabajo fue apreciado en su momento y recibió muchos honores. Hay que destacar que se estableció en su honor un premio con su nombre. Figura 6. El «harén» de Pickering. de ser la empleada de hogar de Pickering a su asistente en el trabajo de medir las placas del catálogo Henri Drapper. Su labor fue tan exquisita que se convirtió en la conservadora del archivo de placas fotográficas de Harvard. Descubrió 10 novas, 52 nebulosas y cientos de estrellas variables. ANNIE CANNON (1863-1941) es muy reconocida por ser la creadora del sistema de clasificación estelar basado en la temperatura de las estrellas. En la figura se muestran espectros de estas estrellas secuenciados por su temperatura. Las de tipo O son las más calientes y las de tipo M las más frías. Este sistema es el que se utiliza aún hoy en día. Para ello, midió unos 200.000 espectros que 100cias@uned Figura 7. Clasificación estelar ideada por Annie Cannon. ANTONIA MAURY (1866-1952) fue la más rebelde de todas ellas. Era sobrina de Henry Drapper pero jamás hizo uso de dicho privilegio. Ella inventó un sistema de clasificación adicional con subíndices que reflejaban las diferentes clases de luminosidad para cada tipo estelar. Este hecho llevó 30 años después a construir el famoso diagrama de evolución estelar, el diagrama de Hertzsprung-Russell. Pero desafortunadamente en 1896 tuvo que abandonar Harvard por diferencias con Pickering y 134 Vida científica Figura 8. Mujeres astrónomas contratadas como «maquinas calculadoras» en Harvard. De izquierda a derecha: W. Flemmin, A. Cannon (arriba), A. Maury y H. Leavitt (abajo). no se reincorporó hasta que no fue director el Prof. Shapley. Esta experiencia fue la primera constatación de que Pickering, si bien apoyaba a sus mujeres, quería mujeres sumisas, que no le hicieran sombra. HENRIETTA LEAVITT (1868-1921), aún siendo bastante sumisa, por su clarividencia investigadora mostró la peor parte de Pickering. Ella es la astrónoma de la época más citada por los diferentes cronistas, le debemos la famosa relación periodo-luminosidad para las estrellas Cefeidas, lo que ha permitido obtener las escalas de distancias a las galaxias. Su trabajo estuvo centrado en las placas obtenidas para las nubes pequeña y grande de Magallanes. Mostró que existía una relación universal entre el periodo característico de la variación de la estrella y su luminosidad. Sin embargo, y a pesar de la relevancia de su descubrimiento, no le gustó a Pickering la notoriedad alcanzada y la cambió de proyecto para que se dedicara a estudios de fotometría estelar. De nuevo ella volvió a resaltar científicamente con el trabajo realizado, ya que construyó una secuencia estelar de estrellas de referencia, que sirvió posteriormente para calibrar la Carta del Cielo. La Carta del Cielo fue un proyecto promovido desde el observatorio de París que consistió en producir un cartografiado de todas las estrellas del cielo hasta magnitud 11. Veintiún observatorios de todo el mundo participaron en este proyecto que comenzó a principios del siglo XX y que concluyó hacia los años 60. En lo que 100cias@uned nos acontece aquí, quiero resaltar que, tomando el ejemplo del profesor Pickering, emplearon un buen numero de mujeres cuyo trabajo ha quedado en el anonimato, a las que sólo se las menciona de forma anónima en los agradecimientos de la publicación del catálogo. Como hecho curioso, en lo que respecta a España, hay que señalar que en el Observatorio de la Armada de San Fernando (Cádiz) también se emplearon mujeres a las que nunca se las consideró astrónomas, sino simples medidoras de placas, a pesar de que invirtieron 30 años de su vida en este trabajo. De la segunda época del Observatorio de Harvard, siendo director Shapley, hay que destacar a CECILIA PAYNE-GAPOSCHKIN (1900-1980). Ella fue la primera mujer que realizó observaciones en el Observatorio de Monte Palomar, gracias a su prestigio, como invitada del director. Su trabajo de investigación fue de una brillantez extraordinaria hasta el punto de que el Prof. Russell dijera de ella que su tesis era la mejor que había leído nunca. Su gran logro fue darse cuenta de que las variaciones en luminosidad de las estrellas estaban asociadas a variaciones en sus líneas espectrales. Este hecho la llevó a concluir que estas variaciones se debían a diferencias en las propiedades físicas y no a un efecto de abundancias químicas. Este trabajo resultó de una relevancia extraordinaria pues ponía de manifiesto la homogeneidad química del Universo. Su otro gran descubrimiento consistió en encontrar una abundancia de hidrógeno y de helio dema- 135 Vida científica Figura 9. Cecilia Payne-Gaposchkin. siado grande en relación a lo que se observa en la tierra, que ella lo denominó como la anomalía del hidrógeno. Algunos colegas de la época dudaron de estas abundancias y cuestionaron la fiabilidad de sus determinaciones. Hoy se sabe que el hidrógeno y el helio son los elementos más abundantes del Universo. Con esta trayectoria llegamos a mitad del siglo XX. La mayor parte de las bases de la física estelar estaban bien asentadas y en mi opinión las astrónomas realizaron aportaciones fundamentales, no siempre reconocidas: la clasificación de la estrellas, la caracterización de los diferentes tipos de estrellas variables, la caracterización química de las estrellas y las diferentes clases de luminosidad, lo que constituyó la base del diagrama Hertzsprung-Russell, encontrado 30 años más tarde. El descubrimiento de los «faros» del Universo, los púlsares también se debe a una mujer, JOCELYN BELL (1943-). Ella es el coraje hecho mujer, sobreponiéndose a una tremenda injusticia como fue la no consideración de su nombre para el Premio Nobel de Física por el descubrimiento que ella realizó. Siendo estudiante de doctorado en Cambridge, haciendo observaciones de cuásares con el radiotelescopio del Laboratorio Cavendish se dio cuenta de que se recibía una señal muy repetitiva con frecuencia de 1,33 segundos y que la llamó «hombrecillos verdes» de forma jocosa. En principio su director de tesis, el profesor Hewish, no le prestó demasiada atención, hasta que se observó la misma región del cielo una y otra vez repitiéndose el fenómeno. Ellos entonces postularon que se trataba de un nuevo tipo de objetos 100cias@uned (a) Figura 10a. Jocelyn Bell. Figura 10b. Registro del púlsar obtenido con el radiotelescopio. 136 Vida científica hasta entonces desconocidos, los púlsares. El púlsar que ellos observaron se sabe hoy que se trataba de una estrella de neutrones en rotación rápida. El Premio Nobel de Física se le concedió a su director de tesis por este descubrimiento. Cuando acabó su tesis, por razones de matrimonio se fue primero a Southampton y después al Observatorio Real de Edimburgo, donde cambió de campo de trabajo, primero a Astronomía de rayos gamma y, posteriormente; a radiación X de galaxias. Recientemente se le ha reconocido su mérito y ha recibido múltiples honores. En el año 2007 le concedieron un doctorado honoris causa por la Universidad de Durham. Ahora quiero dedicar mi atención a algunos hechos relevantes en el campo de la Astronomía Extragaláctica. Tuvo sus inicios en 1924 cuando el astrónomo Edwin Hubble encontró que las nebulosas identificadas años atrás eran de naturaleza extragaláctica. Cabe preguntarse acerca del papel que jugaron las astrónomas en el conocimiento del Universo Extragaláctico en unas circunstancias sin duda alguna mucho más favorables para su desarrollo profesional. Para ilustrarlo, he elegido a unas pocas astrónomas que considero han contribuido significativamente a nuestro conocimiento. MARGARET BURBIDGE (1919-) aparece como una mujer extraordinaria, además de una excelente científica. Quiero resaltar un hecho importante en su vida y es que gran parte del trabajo que hizo previo a 1967 tuvo que hacerlo utilizando el nombre de su marido, Geoffrey Burbidge, pues no estaba previsto que las mujeres obtuvieran tiempo de telescopio en el Observatorio de Monte Palomar, conocido también como Monasterio. Así que cuando fue rechazada su petición por la Carnegie Insti- tution of Washington, no se amilanó sino que realizó las observaciones como ayudante de su esposo, Geoffrey Burbidge, que era un astrónomo teórico. Las contribuciones científicas de Margaret se pueden agrupar en tres épocas: — En la primera época, conjuntamente con su esposo, con el físico atómico William Fowler y con el astrónomo Fred Hoyle, sentaron las bases de la nucleosíntesis estelar reproduciendo el comportamiento observado en el universo de un decaimiento exponencial de la abundancia de los diferentes elementos químicos en función de su peso atómico, como puede verse en la parte derecha de la Figura 11. Su contribución, en particular en este trabajo, le valió a William Fowler la concesión del Premio Nobel de Física en 1983. — En una segunda época, cabe destacar sus aportaciones al campo de las galaxias. La pareja Burbidge, conjuntamente con el astrónomo Prendergast, publicaron la primera curva de rotación de una galaxia y calcularon la masa de las galaxias utilizando su curva de velocidad. Junto con la astrónoma Vera Rubin estudiaron las velocidades peculiares de algunas galaxias como M82 y concluyeron la existencia de fenómenos explosivos en los núcleos. Por ultimo, ellos secuenciaron la abundancia de gas ionizado en galaxias desde elípticas a espirales. Figura 12. Curva de Rotación de NGC 7146 (arriba). Composición multifrecuencia de M82 donde se aprecian los fenómenos explosivos nucleares (abajo). Figura 11. Margaret Burbidge. Gráfica de las abundancias atómicas en función de su peso atómico. 100cias@uned 137 Vida científica — En una tercera época, que dura hasta la actualidad, derivaron su campo de investigación hacia los objetos más activos y energéticos del Universo, los cuásares (QSOs, por sus siglas en inglés). En este campo han trabajado en redshifts peculiares. Fueron pioneros en considerar que los QSOs tienen una galaxia albergadora, y por ultimo en sistemas de absorción de QSOs que nos permiten evaluar la cantidad de materia oscura en el Universo. VERA RUBIN (1928-) es otra mujer de gran coraje e imaginación científica, la primera mujer que utilizó el telescopio de Monte Palomar de forma legal en 1964. En su tesis de master y posteriormente en su tesis doctoral sobre la densidad de galaxias en el Universo llegó a la conclusión de que las galaxias se agrupaban de forma grumosa, hecho éste que hoy nadie discute. Cuando ella en 1953 lo propuso nadie confió en sus resultados y nunca consiguió que se publicase. El Washington Post dijo de ella «joven madre encuentra el centro de la creación o algo parecido….» . No obstante ella siguió adelante y cuando coincidió con la pareja Burbidge en la Universidad de California recibió un nuevo impulso y, según ella misma describe, fue la primera vez que sentía que era escuchaba. Con ellos comenzó, y después continuó con el astrónomo Kent Ford, el estudio sistemático de curvas de rotación de las galaxias, que culminó con el estudio de curvas de rotación de galaxias de diferentes tipos morfológicos. En contra de las expectativas, todas las curvas de rotación eran bastante parecidas y mostraban un aplanamiento en la velocidad de rotación hasta distancias muy lejos del centro, postulándose como única explicación plausible que hay más materia que la estrictamente luminosa. Su trabajo fue el pionero que sentó las bases so- bre la existencia de la materia oscura en el universo. Ella continúa trabajando en este tema, ahora con galaxias de bajo brillo superficial. No quiero dejar pasar esta oportunidad sin mencionar a MARGARET GELLER (1947-), a la que se le acaba de conceder un doctorado honoris causa en España en la Universidad Rovira Virgili (Tarragona) por sus estudios sobre la distribución a gran escala de las galaxias en el universo. Conjuntamente con los astrónomos Valerie de Lapparent y John Huchra hicieron la primera descripción de cómo se agrupan las galaxias, descubriendo una superestructura que se conoce con el nombre de la gran muralla. Figura 14. Distribución a gran escala de las galaxias. Ya estamos en el siglo XXI. Afortunadamente para las astrónomas, nos encontramos en un sistema profesionalizado donde nuestra existencia es posible sin el concurso de familiares cercanos. Según los datos disponibles de la Unión Astronómica Internacional, representamos aún un escaso 13,7% de la población astronómica mundial. Aún así parece abrirse ante nuestros ojos un futuro esperanzador: En primer lugar mencionaré las buenas noticias. Hay un buen número de astrónomas profesionales en aquellos campos más relevantes en la astronomía extra- Figura 13. Vera Rubin (izquierda), y curva de rotación de M31 superpuesta sobre la imagen óptica de la galaxia. 100cias@uned 138 Vida científica galáctica actual. En mi campo de actividad, la existencia de Agujeros Negros Supermasivos en el Universo, hay que destacar por sus contribuciones las figuras de Megan Urry y Laura Ferrarese. MEGAN URRY, directora del Departamento de Astrofísica de la Universidad de Yale en Estados Unidos, su trabajo está centrado en el estudio de los fenómenos de acreción que tienen lugar cuando existe un Agujero Negro Supermasivo en el núcleo de las galaxias. Es muy conocido por el público no experto el esquema presentado por ella y el astrónomo Padovani de la estructura interna de un núcleo activo. Con este esquema tan simple se comprende de forma muy sencilla el modelo de Unificación de los AGNs: los diferentes tipos de galaxias activas observadas desde las galaxias tipo Seyfert hasta los Blazar son el resultado de diferencias geométricas según el ángulo de visión con que son observados. Más recientemente, en su brillante trabajo sobre el QSO 3C273 muestra cómo la combinación de diferentes frecuencias es fundamental para estudiar la física de estos sistemas mostrando su estructura más interna. El segundo descubrimiento fascinante de este siglo es la constatación de que existe una relación lineal entre la masa de las galaxias en estrellas y la masa de los Agujeros Negros en sus núcleos. Gran parte de este descubrimiento se debe a la astrónoma LAURA FERRARESE. Figura 17. Laura Ferrarese (izquierda) y la gráfica de la relación entre la masa del bulbo de las galaxias y la del agujero negro albergado en su núcleo (derecha). En Europa encontramos mujeres tan relevantes como FRANÇOISE COMBES, la primera astrónoma miembro de la Academia de Ciencias Francesa. Ella nos ha enseñado con sus modelos de dinámica de galaxias cómo Figura 15. Megan Urry y el Esquema de Unificación de AGNs. Si el ángulo de visión atraviesa el toro de polvo, la clasificaríamos como una galaxia tipo Seyfert 2. Por el contrario, si el ángulo de visión es tal que es perpendicular al toro y penetramos directamente en el núcleo veremos un Blazar. Figura 18. Francoise Combes (izquierda) y modelización del gas y las estrellas en una galaxia espiral (derecha). Figura 16. Composición Multifrecuencia de las Observaciones del QSO 3C273. 100cias@uned 139 Vida científica Figura 19. Simulación Dinámica de la evolución de una colisión entre galaxias. evolucionan generando a veces, mediante colisiones entre ellas, estructuras cinemáticas tan complejas como barras o anillos. Ahora las malas noticias: Los estudios más recientes en el campo de investigación de evolución de galaxias y cosmología vuelven a reproducir los viejos esquemas de épocas pasadas. La realización de grandes cartografiados y la falta de liderazgo de mujeres da lugar a que se establezcan relaciones de poder. En la actualidad se están realizando mas de una decena de cartografiados que requieren de grandes equipos y mucha organización de recursos humanos. La mayor parte de ellos son liderados por hombres, y en esto España no es una excepción. Si tomamos como ejemplo el cartografiado COSMOS (http://cosmos.astro.caltech.edu), encontramos que el número de participantes es de 87 investigadores de los cuales sólo 11 son mujeres. A modo de conclusiones de mi exposición quiero destacar la importancia de mentores y, sobre todo, el reto que tenemos ante nuestros ojos de ingeniar un nuevo Sistema de Ciencia y Tecnología en el que las reglas del juego sean más favorables para que las mujeres puedan desarrollar su carrera investigadora como astrónomas. Para terminar acabaré ofreciéndole mi más sincero homenaje a Jocelyn Bell con una frase publicada por ella en la revista Science: “Las mujeres y las minorías no deberían realizar toda la adaptación. Ya es hora de que la sociedad se mueva hacia las mujeres, no las mujeres hacia la sociedad.» (J. Bell, 2004, Science, 304, p. 489). Josefa Masegosa Gallego Instituto de Astrofísica de Andalucía, CSIC Figura 20. Imagen del HST para el Cartografiado COSMOS (izquierda). En la imagen de la derecha pueden observarse algunas de las galaxias en colisión detectadas. 100cias@uned 140 Vida científica 100cias@uned N.º 2 Enseñanza | 2009 ISSN: 1989-7189 Se inicia esta sección con dos trabajos relacionados con la enseñanza y divulgación de la Ciencia. El primero presenta los resultados del concurso Ciencia en Acción, que ha cumplido ya 10 años. Su objetivo primordial es acercar la ciencia y la tecnología al gran público, presentándolas atractivas y mostrando su importancia para el progreso de la sociedad y el bienestar de los ciudadanos. Su Directora, Rosa M.ª Ros Ferré, plantea que es fundamental incidir en la formación científica de los ciudadanos desde los primeros niveles educativos y que para conseguir esto se requiere del esfuerzo de los profesores de todos los niveles, desde enseñanza primaria hasta universidad, así como de los profesionales de los medios de comunicación. El concurso pretende premiar a aquellos que se las ingenian para contribuir con su trabajo diario a la formación de todos los ciudadanos. Pueden participar enseñantes y divulgadores de la Ciencia de todos los países iberoamericanos, incluidos obviamente España y Portugal. El segundo trabajo es la presentación de la Historia de la Astronomía a los participantes en el Curso de Verano que el Grupo de Astronomía de la Facultad de Ciencias organiza cada año sobre iniciación a esta ciencia que es, sin lugar a dudas, una de las más antiguas. Su autor, el profesor Enrique Teso, miembro del Grupo, muestra de forma amena y exhaustiva cómo desde los orígenes de la Humanidad los hombres se han preocupado por los astros que veían, sus movimientos, periodicidad, etc., hasta el momento actual en el que los estados invierten grandes cantidades de dinero para conocer más sobre el Universo. A continuación, en el apartado Taller y Laboratorio podemos encontrar como experimento histórico una descripción del descubrimiento del neutrón por Chadwick, cerrando así el conjunto de partículas que constituyen los átomos (electrones, protones y neutrones)1. Por este 1 (nueva época) Ver 100cias@uned, nº 2, 104-109 (1999), y nº 6, 107-111 (2003). 100cias@uned descubrimiento le concedieron el Premio Nobel de Física en 1935. Como experimento casero, y en homenaje a Galileo y al Año Internacional de la Astronomía, el grupo de profesores de Óptica ha diseñado un espectroscopio muy elemental con el que se pueden observar, además de espectros atómicos, las líneas negras de Fraunhofer en el espectro solar. Este sencillo espectroscopio es utilizado por los miembros del Grupo de Astronomía durante las observaciones solares. Por último, el profesor Delgado, en el apartado dedicado a las Matemáticas, cuestiona la utilidad de los laboratorios virtuales si el profesor, presente o no, no acompaña al estudiante en su proceso de aprendizaje. Para explicar su filosofía utiliza como ejemplo la representación gráfica de funciones. En el apartado dedicado a las Nuevas Tecnologías en la Enseñanza, Luis de la Torre y Juan Pedro Sánchez presentan el portal FisL@bs, que siguiendo el modelo de AutomatL@bs2, como una red de laboratorios virtuales y remotos que permitirá a los alumnos del nuevo Grado en Física compartir a través de la red los recursos experimentales de nuestros laboratorios, tanto de la Facultad de Ciencias como de la Escuela Técnica Superior de Ingeniería Informática de la UNED, a partir del próximo curso 2010/11. Por último, en el apartado dedicado a Recensiones incluimos tres libros de temática muy diferente: principios básicos de Física, como es la Mecánica Cuántica, una revisión de la Toxicología, desde sus cimientos hasta una panorámica de su situación actual, terminando con un precioso y curioso libro dedicado a las primeras mujeres científicas españolas que se incorporaron a la actividad profesional en las primeras décadas del siglo pasado. Esperamos que todos sean de interés para nuestros lectores. 2 Ver 100cias@uned, nº 1 (nueva época, formato digital), 227-237 (2008): http://e-spacio.uned.es/fez/eserv.php?pid=bibliuned:revista 100cias-2008-1ne-2022&dsID=PDF 141 Enseñanza 100cias@uned N.º 2 Enseñanza (nueva época) | 2009 ISSN: 1989-7189 ENSEÑANZA Y DIVULGACIÓN DE LAS CIENCIAS GRANADA, LA ÚLTIMA CITA. Y SEGUIMOS CON CIENCIA EN ACCIÓN La Universidad Nacional de Educación a Distancia (UNED), El Consejo Superior de Investigaciones Científicas (CSIC), Ciencia Viva (CV), la Real Sociedad Española de Física (RSEF) y la Sociedad Geológica de España (SGE) organizan anualmente el programa «Ciencia en Acción». El objetivo principal de «Ciencia en Acción» consiste en acercar la ciencia y la tecnología, en sus diferentes aspectos, al gran público, así como encontrar ideas innovadoras que hagan la ciencia más atractiva para la ciudadanía y mostrar la importancia de la ciencia para el progreso de la sociedad y el bienestar de los ciudadanos. Este programa nació como «Física en Acción» en el año 2000 gracias a la RSEF. La edición 2005 supuso una remodelación del proyecto con la ampliación del programa a todas las áreas del conocimiento científico. Empezó así la nueva singladura de «Ciencia en Acción». 2007 significó la ampliación de todas las modalidades del programa a los países de habla hispana y portuguesa. Este año 2009, hay que destacar la incorporación a la organización de la Sociedad Geológica de España y la organización portuguesa «Ciencia Viva». Si bien desde 2007 ya participaban profesores portugueses en las ediciones de «Ciencia en Acción», hay que recibir con alegría la colaboración con el programa Ciencia Viva. El objetivo fundamental de esta serie de programas consiste en acercar la ciencia al mayor número posible de personas a través de una serie de experimentos presididos por la creatividad y el buen hacer de los diferentes participantes de «Ciencia en Acción», que van desfilando a lo largo de las diversas semanas. Hay que destacar que «Ciencia en Acción» también se coordina con diversos programas europeos como son «EUSCEA», «Science on Stage» y «Catch a Star», bajo el impulso de diversas instituciones europeas de alto prestigio. Este año, «Ciencia en Acción» se ha sumado a la celebración del Año Internacional de la Astronomía (IYA2009), que representa una celebración global de la Astronomía y de su contribución a la sociedad, a la cultura y al desarrollo de la humanidad. Su objetivo principal es motivar a los ciudadanos de todo el mundo a replantearse su lugar en el Universo a través de un conjunto de descubrimientos que se inició hace ya 400 años. Haciendo nuestro este objetivo, «Ciencia en Acción» ha introducido nuevas modalidades en su estructura: la modalidad de «Experimentos para un laboratorio espacial» y para los más jóvenes, la modalidad «Habla de Astronomía» dentro del programa «Adopta una Estrella», que ha mantenido también la modalidad de «Investiga en Astronomía» que fue creada desde sus inicios, hace ya nueve años. En este caso, los equipos de alumnos deben presentar un resumen de todas las actividades que han desarrollado para difundir la astronomía durante este Año Internacional de la Astronomía 2009. Hay que destacar la gran red de profesores que se ha creado a través del intercambio de ideas, experimentos, experiencias… en las diferentes ediciones de Ciencia en Acción y cómo colaboran unos con otros en sus diferentes proyectos, ferias, congresos,… para que la ciencia llegue a todas partes. HISTORIA DE CIENCIA EN ACCIÓN Actualmente, «Ciencia en Acción» tiene una serie semanal dedicada al programa emitida por la segunda cadena de RTVE, dentro del espacio de «La UNED en la 2». 100cias@uned La primera edición de «Física en Acción», que ya estuvo marcada por una clara vocación europea, fue organizada por la Real Sociedad Española de Física. El único premio consistió en un viaje del titular de cada uno de 142 Enseñanza Participantes en Física en Acción 2, junto con los miembros del Jurado, en el Museo Príncipe Felipe de la Ciudad de las Artes y las Ciencias de Valencia. Participantes en Física + Matemáticas en Acción 4 intentando separar dos semiesferas en cuyo interior se había hecho el vacío, al estilo de la experiencia de Magdeburgo. Museo de la Ciencia y de la Técnica de Terrassa (Barcelona). los trabajos seleccionados para la final a la sede del CERN en Ginebra durante la semana de la Ciencia y la Tecnología del 2000. La delegación española también realizó diversas aportaciones y experimentos en la Feria de «Physics on Stage». El Museo Miramon KutxaEspacio de la Ciencia de San Sebastián albergó la final nacional del programa, el cual se desarrolló solo en dos jornadas, los días 29 y 30 de septiembre de 2000. «Física en Acción 2» se desarrolló en el Museo Príncipe Felipe de la Ciutat de les Arts i les Ciencias de Valencia, los días 6 y 7 de octubre de 2001, donde fueron presentados los trabajos preseleccionados y también se organizó, por primera vez, una feria abierta al público en general. En la segunda edición de «Física en Acción» se incorporó la convocatoria internacional de «Life in the Universe» que incluía dos categorías, científica y artística. En este concurso destinado a grupos de alumnos, participaron en el CERN en Ginebra un total de 22 países con más de 70 equipos. España consiguió el segundo premio en la modalidad científica. En la última sesión en el Museo Príncipe Felipe se anunció la celebración de «Physics on Stage 2» en la Agencia Espacial Europea (ESA) en sus instalaciones de ESTEC, cerca de Ámsterdam. En este evento internacional la delegación española participó junto con otros países eu- ropeos en la feria y el conjunto de actividades programadas. España fue el único país que consiguió dos galardones: el primero y el sexto. «Física en Acción 3» se celebró en la Casa de la Ciencia de A Coruña en septiembre de 2003, aunque los participantes no tuvieron la oportunidad de presentar sus trabajos en un foro europeo, ya que la edición europea de «Physics on Stage 3» se celebró en el año 2004. Debido al incremento y la calidad de los trabajos presentados, obligó a la organización a desarrollar la final durante tres días en lugar de los dos habituales. «Física + Matemática en Acción 4» se desarrolló en el Museo de la Ciencia i la Técnica de Terrasa durante los días 26, 27 y 28 de septiembre. Por primera vez, la Real Sociedad Matemática Española (RSME) se sumó a la Real Sociedad Española de Física (RSEF) y la edición amplió su convocatoria al ámbito científico. Se repitió también el concurso «Adopta una Estrella», conectado con la versión europea «Catch a Star», organizado por la ESO y la EAAE. En esta final se reprodujo la Experiencia de Magdeburgo con un par de actores que representaron de manera teatralizada la experiencia realizada por Otto Van Guericke y su ayudante, con la colaboración de 8 caballos percherones que demostraron de forma evidente «la fuerza necesaria para vencer al vacío». 100cias@uned 143 Enseñanza Fuerza de la gravedad, centro de masas y equilibrio, conceptos físicos a prueba de valientes en el Parque de las Ciencias de Granada. «Física + Matemática en Acción 5» tuvo lugar en el Parque de las Ciencias de Granada durante los días 24, 25 y 26 de septiembre con sus puertas abiertas para que todo el mundo pudiera ver los trabajos y exposiciones propuestas, durante los tres días que duró el festival. El Premio Especial del Jurado fue para la sección «Futuro» del diario «El País». El Concurso tuvo una gran acogida por parte del público en general. Hay que destacar que en la final internacional de «Physics on Stage 3», en la sede de la ESA, conseguimos el 4º premio, 3 premios-viajes de los 7 ofrecidos, y una mención de honor. En esta edición, una bicicleta situada a 5 metros de altura hizo las delicias de todos los valerosos participantes que se atrevieron y se subieron a la misma. Durante los días 4, 5 y 6 de marzo se celebró la final del Programa Internacional «Cath a Star 3», en Garching (Alemania), en la sede central de la organización de la ESO. Nuestros estudiantes recibieron el primer premio, consistente en un viaje al «El Paranal» en el desierto de Atacama de Chile, donde la ESO tiene sus instalaciones. Además también de un 6º lugar, 4 premios especiales y un premio para la mejor escuela de Europa. El Museo de la Ciencia y del Cosmos de La Laguna (Tenerife), durante los días 23, 24 y 25 de Septiembre de 2005, albergó la sexta convocatoria del programa y la primera edición que se abría a todas las ramas científicas tal y como anunciaba su nombre: «Ciencia en Acción». Hay que mencionar que el programa «Adopta una Estrella» era la primera vez que abría la convocatoria a países de habla hispana o portuguesa. 100cias@uned Al igual que en otras ocasiones, el Museo ofreció unas jornadas de puertas abiertas a la vez que se celebraba el evento, y de esta manera acercó la ciencia a una audiencia de amplio espectro. Destacaron los «Juegos de Ingravidez», que se desarrollaron con la presencia adicional de Albert Einstein, que se paseaba por el Museo y charlaba con todos los asistentes. El Premio Especial del Jurado, se concedió a la Revista «Muy Interesante» por su labor de difusión de los recientes avances científicos y tecnológicos consiguiendo acercar estos contenidos a amplios sectores de la sociedad española, y llegando especialmente a los más jóvenes. En la Edición de 2005 de «Catch a Star», nuestro país ganó el segundo premio consistente en un viaje a la sede central de ESO en Garching (cerca de Munich) y al Observatorio Wendelstein en Alemania. Otros dos equipos españoles consiguieron dos Menciones por sus trabajos. La séptima edición de «Ciencia en Acción» se celebró los días 29 y 30 de septiembre y 1 de octubre en el Museo «CosmoCaixa» en Alcobendas (Madrid). También los jóvenes alumnos de primaria y secundaria participaron en la quinta edición de «Adopta una Estrella». En esta 144 Enseñanza convocatoria de «Ciencia en Acción» se premiaron a los mejores trabajos presentados y a su vez se seleccionó la delegación española que asistió del 2 al 6 de abril a la final de «Science on Stage 2», que tuvo lugar en la sede del ESRF en Grenoble (Francia). En Grenoble estuvo presente el coche solar «Despertaferro», en el que se subió el entonces Comisario europeo de Ciencia e Investigación Janez Potoccnik, despertando el interés de los medios de comunicación. También llegaron a los periódicos y a la Televisión francesa. La experiencia de Magdeburgo preparada en esta ocasión de forma competitiva entre los equipo de Futbol y Hockey de Grenoble, este último era a la sazón el campeón de la liga de Hockey de Francia. «CosmoCaixa» ofreció tres días de puertas abiertas con entrada libre para todo el público que quería descubrir la aventura de la ciencia. En esta ocasión, visitaron la final más de 12.000 personas. La gran experiencia estaba destinada a un «Túnel de viento» donde los más valerosos sentían la misma impresión que los paracaidistas cuando se lanzan al vacío. El Premio Especial de Jurado fue otorgado a Ernesto Páramo, director del Parque de las Ciencias de Granada. En la edición 2006 del certamen «Catch a Star», nuestro país ganó, por segundo año consecutivo, el segundo premio galardonado con un viaje a la sede central de ESO en Garching (cerca de Munich) y al Observatorio Konigsleiten en Austria. Hay que destacar que también se consiguieron dos Menciones de Honor para nuestros equipos. «Ciencia en Acción» formó parte de la representación seleccionada por la feria «Madrid por la Ciencia» (que organiza la Comunidad de Madrid) en el festival «WONDERS» de la EUSCEA (European Science Events Association) que se celebró en Friburgo (Alemania) del 12 al 14 de octubre de 2006. Por votación popular, el proyecto de «Ciencia en Acción» titulado «Sorpresas Físicas» ganó el pase para participar en la final del Carrusel de Festivales que organizó EUSCEA en el «Heureka Science Center» de Vantaa, cerca de Helsinki (Finlandia) del 8 al 10 de diciembre de 2006. Este proyecto consistió en un completo paquete de experimentos espectaculares e inusuales relativos a la tecnología del motor de vapor, la microgravedad y la física del vacío. Las demostraciones, que correspondían a 21 países europeos, se realizaron en tres escenarios simultáneos, a la vez que podrían mostrarse en diversas mesas por un par de horas. Básicamente, se presentaron actividades interactivas que acercaban la ciencia al observador de una forma amable y entretenida. 100cias@uned La Plaza del Pilar de Zaragoza acogió, durante los días 19, 20 y 21 de octubre, la final de la octava edición de «Ciencia en Acción». Al encuentro acudieron los 100 ganadores de la fase final del concurso. Hay que destacar que en el año 2007, por primera vez, se abrieron todas las modalidades del concurso a los profesores, alumnos y profesionales de los medios de comunicación de todos los países de habla hispana o portuguesa. Así, han resultado ganadores de su pase a la final de Zaragoza trabajos de Portugal, El Salvador, Argentina, Venezuela, Colombia y Uruguay. La «Gran Final» acogió un amplio programa de actividades basado en las actuaciones de los seleccionados por el jurado de «Ciencia en Acción» así como otras actividades festivas programadas por la propia organización: como fueron el «Looping Bike» y la «Funny Ball». Más de 15.000 personas visitaron las dos carpas situadas en la Plaza del Pilar, obteniendo una gran respuesta por parte de la sociedad y también por parte de los participantes. El Museo de la Ciencia de Valladolid acogió, durante los días 19, 20 y 21 de septiembre, la final de la novena edición de «Ciencia en Acción». Al encuentro acudieron los ochenta ganadores de la fase final del concurso. La «Gran Final» acogió un amplio programa de actividades basado en las actuaciones de los seleccionados por el jurado de «Ciencia en Acción» así como otras actividades festivas programadas por la propia organización como fue el «Simulador de Vuelo». El público pudo visitar el Museo gracias a sus jornadas de puertas abiertas, obteniendo una gran respuesta por parte de la sociedad y también por parte de los par- La gran experiencia: «Looping Bike» montada en la Plaza del Pilar de Zaragoza para disfrute de todos los atrevidos. 145 Enseñanza ticipantes, ya que el número de proyectos se había triplicado comparándolo con las primeras ediciones del certamen. LA ÚLTIMA EDICIÓN El Parque de las Ciencias de Granada acogió, durante los días 25 al 27 de septiembre de 2009, la «Gran Final» que reúne a todos los ganadores de «Ciencia en Acción». En esta ocasión, más de 140 trabajos lograron llegar a ella. «Ciencia en Acción» esta destinado, principalmente, a reconocer la labor de profesionales de los medios de comunicación social y profesores de todos los niveles educativos, sin olvidar al personal de los Museos de la Ciencia y centros de comunicación científica. Los jóvenes estudiantes de primaria y secundaria participaron en el concurso «Adopta una Estrella» con sus dos modalidades: «Investiga en Astronomía» y «Habla de Astronomía», al darse la circunstancia de que este año 2009 ha sido declarado por la UNESCO y la IAU Año Internacional de la Astronomía. Sin duda la feria fue la actividad clave de la final de «Ciencia en Acción». Este año se ha desarrollado en diferentes espacios del Museo. Acogía las demostraciones de física, matemáticas, ciencia y tecnología, química, biología y geología. De una forma diferente y amena, los profesores popularizaban la ciencia a todos los niveles. Además se organizaron varias sesiones, tanto en el Auditorio como en los cines del Parque, para presentar los trabajos relativos a divulgación científica, materiales didácticos de ciencias y a ciencia, ingeniería y valores. Hay que destacar que los premios en metálico por mo- dalidades no son lo más interesante ni lo más significativo para los participantes sino la posibilidad de intercambiar información y contenidos entre todos ellos. Lo que más importa y motiva dentro de este encuentro es que ofrece la posibilidad de enseñar y aprender por parte de todos y para todos. Para celebrar la décima edición se llevaron a cabo tres Experiencias Singulares: Danza del Fuego, donde El Jurado «en acción» en la final de Granada. Los participantes de Ciencia en Acción 2009 en la final de Granada. 100cias@uned 146 Enseñanza los visitantes descubrieron con el tubo de Rubens, fuego, música y unos contenidos sobre las características de las ondas. Coge la Física al Vuelo, donde el público tuvo la oportunidad de comprender algunos elementos y conceptos fundamentales de la aerodinámica y de la aviación como el Teorema de Bernoulli, el rozamiento aerodinámico, la sustentación, los fuselajes, las alas, etc. Y por último, Cocina con el Sol, donde los interesados pudieron llevarse su cocina solar, aprender a montarla y sacarle el mayor provecho. Con el objetivo final de deleitar a sus familiares y amigos con deliciosos platos y contribuir a mejorar el medio ambiente. El Taller de Cocina Solar contó con la colaboración de la Fundación Terra, entidad con amplia experiencia en acciones dirigidas a la sostenibilidad medioambiental y pioneros en los encuentros solares dentro del ámbito nacional. El premio estrella del concurso, dentro de los muchos que se entregan, es el Premio Especial de Jurado que se otorga a personas, instituciones o entidades públicas o privadas en el ámbito de la divulgación científica de calidad en nuestro país. En esta ocasión, el jurado acordó por unanimidad, a iniciativa propia, otorgar el Premio Especial del Jurado a Miguel Ángel Quintanilla por ser uno de los precursores de la cultura científica en España y ser un ejemplo del compromiso con la comunicación de la ciencia desde la universidad y desde las instituciones que ha dirigido. Entre todos los trabajos presentados, la UNED se llevó las Menciones de Honor que indicamos a continuación: Por presentar en un atractivo formato televisivo, el papel fundamental, aunque frecuentemente olvidado por la historia, que las mujeres científicas han tenido en el desarrollo de la astronomía y la astrofísica, resaltando sus descubrimientos y comentándolos a través de entrevistas con investigadoras actuales, se concedió Mención de Honor de Trabajos de Divulgación Científica en Soportes Adecuados, al trabajo «Serie de televisión educativa de la UNED: Mujeres en las Estrellas», de Josefa Masegosa Gallego del Instituto de Astrofísica de Andalucía, Granada. En la Modalidad de Cortos Científicos se concedió una Mención de Honor al trabajo «Nikola Tesla: el hombre que iluminó el mundo» de Juan Peire Arroba de la UNED (Madrid), por el interés que suscita, el rigor científico e histórico con el que se aborda, con un 100cias@uned guión equilibrado y ameno, así como por su inteligente combinación de imágenes del pasado y del presente. El trabajo «AutomatL@bs: una red de laboratorios virtuales y remotos para la enseñanza de control automático», cuyos autores son Sebastián Dormido Bencomo, Fernando Morilla García, Mª Antonia Canto Díez, Natividad Duro Carralero, José Sánchez Moreno, Raquel Dormido Canto, Sebastián Dormido Canto, Héctor Vargas Oyarzún y Gonzalo Farias Castro, de la UNED (Madrid), consiguió una Mención de Honor en la modalidad de Ciencia y Tecnología, por ser un proyecto de alto contenido científico-tecnológico y por estar dirigido a un gran número de estudiantes de universidad. Durante la final de Ciencia en Acción en el Parque de las Ciencias de Granada, se ofrecieron las conferencias inaugural y de clausura el viernes y el domingo respectivamente. La conferencia inaugural corrió a cargo del Sr. D. Laureano Castro. El título de su conferencia fue «La Teoría de la Evolución: de Darwin al neodarwinismo» que desarrollaba la idea central de la evolución: esto es que todos los seres vivos sobre la Tierra comparten un antepasado común. La conferencia de clausura la dictó el Sr. D. Antón Álvarez, que explicó al auditorio las bases científicas de las vacunas que se están desarrollando para el Alzheimer y, en particular, habló de los esfuerzos en nuestro país sobre la vacuna MimoVax en su conferencia titulada «Vacunas para el Alzheimer». Este año, como en ediciones anteriores, se han convocado las catorce modalidades relativas a «Ciencia en Acción», dos en «Adopta una Estrella», y el premio especial del jurado. Estos premios los ofrecen diversas entidades colaboradoras del programa: la Universidad Complutense de Madrid, la Universidad Politécnica de Cataluña, la Universidad de Granada, la Universidad de Zaragoza, la Universidad de Valencia, la Cátedra VMO UPC-ENDESA Red, la Revista Mètode, las empresas Sidilab, Pasco-Prodel, 3bScientific, Antares, IBM, Editorial Santillana y el INTA. Hay que mencionar la especial colaboración del Ayuntamiento de Granada, la Consejeria de Innovación, Ciencia y Empresa de la Junta de Andalucía, la Consejeria de Educación de la Junta de Andalucía y la Agencia Andaluza de Energía. El programa Ciencia en Acción premia la tarea diaria de miles de profesores que la desarrollan de forma constante, callada y sin desfallecer, conscientes que las futu- 147 Enseñanza ras generaciones están en sus manos. Sin duda «Ciencia en Acción» no podría tener lugar sin el esfuerzo de todos los participantes que envían sus trabajos, sin ellos no existiría «Ciencia en Acción». EN LA WEB DE «CIENCIA EN ACCIÓN» Después de 10 años, «Ciencia en Acción» ha evolucionado en muchos sentidos. Como ya se ha comentado anteriormente, en la actualidad «Ciencia en Acción» dispone de un programa de televisión dentro del espacio de La UNED en la 2, los viernes por la mañana, que también se repite por el Canal Internacional los sábados y los domingos. Estas imágenes filmadas de experimentos pueden servir para enriquecer las clases de muchos de nuestros profesores. Por este motivo, en la página web de «Ciencia en Acción»: http://www.cienciaenaccion.org, esta disponible un buscador que permite a todos los interesados entrando por categorías y/o palabras clave localizar las imágenes correspondientes. Es una facilidad análoga a la que se dispone para localizar en la web los experimentos de diversas modalidades. formar parte de las base de datos de «Ciencia en Acción», para recibirlo en cada nueva edición. LOS PLANES DE FUTURO Carátulas del programa «Ciencia en Acción» de la Televisión Educativa de la UNED. El usuario dispone de un total de 228 experimentos clasificados por materias y con un buscador por palabras clave que le permite de una forma rápida y dinámica acceder a los experimentos que desea. Estos materiales también se pueden conseguir en el CD resumen anual del programa que se distribuye de forma gratuita a todos los profesores interesados o descargarlo directamente de la pagina web. Para obtenerlo solo hay que enviar un correo electrónico a [email protected] y recibirán de forma gratuita el CD en su domicilio y además pasarán a 100cias@uned La próxima edición tendrá lugar en Santiago de Compostela los días 1, 2 y 3 de octubre de 2010 en el IES Rosalía de Castro, con la colaboración de Tecnopole y la Xunta de Galicia. Science on Stage vuelve a reiniciar su andadura después de unos años difíciles y tendrá lugar en Copenhague del 16 al 19 de abril del 2011. Desde estas páginas queremos animar a todos los lectores a participar en nuestras futuras propuestas. Se puede hallar más información en la página web: http://www.cienciaenaccion.org Rosa M.ª Ros Ferré Directora de Ciencia en Acción 148 Enseñanza 100cias@uned N.º 2 Enseñanza (nueva época) | 2009 ISSN: 1989-7189 ENSEÑANZA Y DIVULGACIÓN DE LAS CIENCIAS HISTORIA DE LA ASTRONOMÍA A TRAVÉS DE LOS INSTRUMENTOS DE OBSERVACIÓN INTRODUCCIÓN La Astronomía es la ciencia que estudia el origen, desarrollo y composición de los astros, así como las leyes de su movimiento en el Universo. Puede considerarse sin duda como la más antigua entre todas las que se desarrollan y estudian en la actualidad. ARQUEOASTRONOMÍA Ya desde tiempos muy remotos los hombres comenzaron a interesarse por la Luna, el Sol y las estrellas, es decir, por todos los astros en general. No obstante, las primeras investigaciones sistemáticas que contribuyeron a desarrollar la Astronomía como ciencia comenzaron a llevarse a cabo en el Neolítico (9000-3000 a.C.), época en que se inició el florecimiento de grandes culturas. La curiosidad humana con respecto a fenómenos cíclicos como el día y la noche y a los movimientos y naturaleza de los astros llevó a los hombres primitivos a la conclusión de que los cuerpos celestes se movían de forma regular. La primera utilidad de sus observaciones fue definir el tiempo y orientarse. La Astronomía solucionó uno de los problemas más inmediatos de las primeras civilizaciones: la necesidad de establecer con precisión las épocas adecuadas para sembrar y recoger las cosechas y la de orientarse en los desplazamientos y viajes. Para los pueblos primitivos el cielo mostraba una conducta muy regular. El Sol salía todas las mañanas desde el este, se movía uniformemente durante el día y se ponía en la dirección opuesta, el oeste. Por la noche se podían ver miles de estrellas que seguían una trayectoria similar. Los habitantes de las zonas templadas comprobaron además la diferente duración de día y noche a lo largo del año. En los días más largos el Sol salía más desplazado hacia el Norte y ascendía más alto en el cielo al mediodía, 100cias@uned mientras que en los más cortos salía más desplazado hacia el Sur y alcanzaba poca altura en el horizonte. El estudio de los movimientos cíclicos de los astros mostró su utilidad para la predicción de fenómenos como el ciclo de las estaciones, de cuyo conocimiento dependía en gran medida la supervivencia del género humano. Para las comunidades cazadoras resultaba trascendental predecir cuándo se produciría la migración estacional de los animales que les servían de alimento y, posteriormente, cuando surgieron las primeras comunidades agrícolas, también era fundamental conocer el momento oportuno para la sementera y la recogida de las cosechas. La alternancia del día y la noche constituyó seguramente la primera unidad de tiempo universalmente utilizada, pero fue la observación de la variación de la intensidad de la luz nocturna en función de la fase de la Luna, y la periodicidad del ciclo de veintinueve a treinta días la que ofreció una manera cómoda de medir el tiempo. Los calendarios primitivos, por tanto, casi siempre se basaban en el ciclo de las fases de la Luna. En lo concerniente a las estrellas, parecían estar agrupados caprichosamente conservando un esquema fijo noche tras noche. Debido a ello, desde épocas muy remotas, los hombres pusieron nombres a muchas constelaciones guiados por su imaginación. De hecho, del Neolítico se conservan grabadas en piedra las figuras de algunas constelaciones, en las que las estrellas están excavadas como alvéolos circulares. También aprendieron a distinguir a los cinco planetas visibles a simple vista del resto de las estrellas debido a su movimiento independiente en la bóveda celeste (planeta = «estrella errante»). Como consecuencia del cambio climático global que tuvo lugar tras el último período glacial (hacia el año 10000 a.C.), la población nómada se agrupó en torno a zonas fértiles en las cuales las comunidades agrícolas y ganaderas evolucionaron, en torno al año 6000 a.C., a sociedades más complejas estructuradas y jerarquizadas. Estas civilizaciones se desarrollaron inicialmente en torno a los ríos Tigris y Éufrates, Nilo, Indo, Huang-Ho, América Central, Altiplano Andino y norte de Europa. Tras un proceso de adaptación al régimen sedentario, los habitantes de estas regiones desarrollaron de manera individualizada sus primeras concepciones científicas acerca del Uni- 149 Enseñanza verso. El progreso inicial de estas sociedades puede considerarse simultáneo comenzando a transmitir sus conocimientos geométricos, a excepción de las comunidades centroamericana y andina, a partir del año 5000 a.C. Antiguos pueblos pobladores de Europa tuvieron conocimientos avanzados de matemática, geometría y movimiento de los astros. Realizaron grandes construcciones para la práctica de la Astronomía, determinaron solsticios y equinoccios y pudieron predecir eclipses. Prueba de los sorprendentes conocimientos que poseían los astrónomos del megalítico son los grupos de grandes piedras erectas (megalitos, algunos de más de 25 toneladas de peso), dispuestas de acuerdo con esquemas geométricos regulares, hallados en muchas partes del mundo. Varios de estos observatorios se han conservado hasta la actualidad, como los de Stonehenge en Inglaterra y Carnac en Francia. Stonehenge, erigido a 51º de latitud norte, es uno de los más estudiados. Se construyó en varias fases entre los años 2200 y 1600 a.C. Su uso como observatorio astronómico permitió al hombre del megalítico realizar un calendario bastante preciso. El círculo de piedras, dividido en 56 segmentos, se utilizaba para averiguar las fechas de los solsticios de verano e invierno, predecir eclipses solares y lunares y determinar la posición de la Luna a lo largo del año. Figura 1. Stonehenge. En la región de las cuencas de los ríos Tigris y Éufrates se desarrolló la civilización sumeria, quizá la primera del mundo, pues ya en el año 5000 a.C. contaba con una compleja organización social, política y religiosa. Los sumerios se unirían posteriormente a otros pueblos, como los acadios, para dar lugar a la cultura babilónica en el siglo XVIII a.C. Los sumerios inventaron la 100cias@uned escritura y establecieron un sistema de numeración en base 12 que más tarde evolucionaría a otro en base 60. La mayoría de las culturas orientales tomaban como base de numeración el 10, basado en los dedos de la mano, mientras que los sumerios utilizaban la base 12, dada la ventaja de su divisibilidad entre muchos otros números. Los sumerios llevaron a cabo, además, la división del círculo en 360 grados, a su vez divididos en sesenta minutos y éstos en sesenta segundos de arco. Esta división sería introducida posteriormente en Grecia por Hiparco de Rodas en el siglo II a.C. Los primitivos sumerios sintieron fascinación al observar desde sus zigurats el Sol, la Luna, los cinco planetas conocidos y las estrellas, que agruparon en constelaciones. Observaron además cómo dichas constelaciones se desplazaban de oriente a occidente manteniendo sus posiciones relativas. También se dieron cuenta de que la salida del Sol no siempre se producía sobre el mismo fondo de estrellas, sino a lo largo de la banda trazada a través de 12 constelaciones que forman el zodíaco. En Mesopotamia, entre los diversos pueblos que dominaron esta región desde el 4000 a.C. hasta el siglo VI d.C., destacó la civilización babilónica que, como se ha comentado antes, fue una de las primeras en desarrollar ampliamente esta ciencia. Babilonios y sumerios conocían ya muchas constelaciones en torno al 3000 a.C. e incluso, algunos siglos después, dispusieron de un calendario basado en las regularidades de los movimientos de diferentes astros. Fueron, de hecho, los babilonios de la ciudad de Ur los que, en el año 2238 a. de C., registraron un eclipse de Luna, el primero del que existe constancia escrita. Sus primeras actividades astronómicas comenzaron en el siglo VIII a.C. Midieron con precisión la duración del mes y la revolución de los planetas y estudiaron los movimientos del Sol y de la Luna para perfeccionar su calendario. Designaban como comienzo de cada mes el día siguiente a la luna nueva y, aunque en principio este día se determinaba mediante la observación, después trataron de calcularlo anticipadamente. La observación más antigua de un eclipse solar procede también de los babilonios y se remonta al 15 de junio del 763 a.C. Calcularon la periodicidad de los eclipses describiendo el ciclo de Saros, el cual aun hoy se utiliza. Confeccionaron un calendario lunar, dividieron el día en 24 horas y nos legaron muchas de las descripciones y nombres de las constelaciones. 150 Enseñanza El pueblo egipcio, cuya supervivencia estaba estrechamente asociada a las periódicas inundaciones provocadas por el Nilo, estudió sistemáticamente la sucesión de las estaciones. Su mayor aportación fue la confección de un calendario lunisolar de 365,25 días que aun perdura hasta la actualidad. Los calendarios Juliano y Gregoriano (el que utilizamos en la actualidad) no son más que modificaciones del calendario civil egipcio. Dicho año tenía 12 meses de 30 días, más 5 días llamados epagómenos. Por tanto había una diferencia de un cuarto de día respecto al año solar. Como no utilizaban años bisiestos, cada 120 años se adelantaba un mes, de tal forma que transcurridos 1456 años el año civil y el astronómico coincidían nuevamente. Fijaron esta unidad de tiempo de forma definitiva en al año 200 a.C., tras milenios de sistemática observación astronómica, sobre la base del período de repetición de los ortos helíacos de la estrella Sirio (para ellos, Sothis) al producirse en esta época el desbordamiento anual del Nilo. La crecida del Nilo comenzaba aproximadamente en la época en que dicha estrella, tras haber sido invisible durante varios meses bajo el horizonte, podía verse de nuevo poco antes de la salida del Sol. El año egipcio comenzaba el primer día del primer mes de la inundación y tenía tres estaciones de cuatro meses: Inundación (Akhet), Invierno (Peret), es decir, «salida» de las tierras fuera del agua, y Verano (Shemú), es decir, «falta de agua». Para la medida del tiempo disponían del gnomon y la clepsidra, además de diagramas estelares que les permitían determinar las horas durante la noche por observación de las estrellas. La orientación de templos y pirámides constituye una prueba del tipo de conocimientos astronómicos de los egipcios: La pirámide de Gizeh se construyó alineada con la estrella polar, de manera que les era posible determinar el inicio de las estaciones guiándose por la posición de su sombra. Asimismo utilizaron las estrellas para guiar la navegación. Figura 2. Pirámides de Egipto. 100cias@uned El pueblo maya (América Central) alcanzó su esplendor entre los siglos III a.C. y IX de nuestra era. Destacó por sus conocimientos astronómicos que todavía siguen sorprendiendo a los científicos actuales. Los mayas confeccionaron su propio calendario solar y conocían la periodicidad de los eclipses. Inscribieron en monumentos de piedra fórmulas para predecir eclipses solares y la salida heliaca de Venus. Su calendario solar resultó ser el más preciso hasta la implantación del sistema gregoriano en el siglo XVI. Figura 3. La pirámide de Chichén Itzá. Todas las ciudades del periodo clásico (tales como Palenque, Tikal, Copán, etc.) están orientadas respecto al movimiento de la bóveda celeste. Muchos edificios se construyeron con el propósito de escenificar fenómenos celestes en la Tierra, como la pirámide de Chichén Itzá, donde se observa el descenso de Kukulkán, serpiente formada por las sombras que se crean en los vértices del edificio durante los solsticios. Las cuatro escaleras del edificio suman 365 peldaños, los días del año. En varios códices de la época se encuentran los cálculos de los ciclos de la Luna, del Sol y de Venus (asociado por ellos al dios de la lluvia), así como tablas de periodicidad de los eclipses. La civilización Azteca surgió a partir del siglo X alcanzando su máximo esplendor entre los siglos XIV al XVI. Los aztecas no sólo desarrollaron la Astronomía y el calendario, sino también la meteorología, consecuencia lógica de sus conocimientos, para facilitar sus labores agrícolas. La piedra del Sol es el monolito más antiguo conservado de la cultura prehispánica. Probablemente se esculpió en torno al año 1479. Consta de cuatro círculos concéntricos: En el centro se distingue el rostro de Tonatiuh (Dios Sol). Los cuatro soles, o eras anteriores, se encuentran representados por figuras de forma cuadrada flanqueando al quinto sol, en el centro. El círculo exterior consta de 20 áreas que representan los días de cada 151 Enseñanza Figura 4. La piedra del Sol. uno de los 18 meses del calendario azteca. Para completar los 365 días del año solar incorporaban 5 días aciagos o nemontemi. Para los aztecas la Astronomía era muy importante, ya que formaba parte de su religión. Construyeron observatorios que les permitieron realizar observaciones muy precisas, hasta el punto que midieron con gran exactitud las revoluciones sinódicas del Sol, la Luna y los planetas Venus y Marte. Al igual que casi todos los pueblos antiguos, los aztecas agruparon las estrellas brillantes en asociaciones aparentes (constelaciones). ASTRONOMÍA OCCIDENTAL Y ERA PRETELESCÓPICA La civilización griega se estableció al sur de los Balkanes en el segundo milenio antes de nuestra era, comenzando a desarrollar lo que ahora conocemos como Astronomía occidental. Sus observaciones tenían como fin primordial servir de guía a los agricultores, por lo que se trabajó intensamente en el diseño de un calendario que fuera útil para estas actividades. La Odisea de Homero ya se refiere a constelaciones como la Osa Mayor y Orión, y describe cómo las estrellas pueden servir de guía en la navegación. La obra «Los trabajos y los días» de Hesíodo informa sobre las constelaciones que salen antes del amanecer en diferentes épocas del año, para indicar el momento oportuno para arar, sembrar y recolectar. Fue la cultura griega la que desarrolló la Astronomía clásica más que ningún otro pueblo de la antigüedad. La concepción general del cosmos que tenían los griegos (excepto casos concretos de sabios como Aristarco o Pitágoras), y junto a ellos el resto de pueblos de aquella época, era la de un modelo geocéntrico; es decir, la Tierra se encontraba situada en el centro del Universo y el resto de 100cias@uned cuerpos celestes giraban en torno a ella. Las bases de la teoría geocéntrica, vigente hasta el siglo XVI, eran: — Los Planetas, el Sol, la Luna y las Estrellas se mueven en orbitas circulares perfectas. — Las velocidades de los Planetas, el Sol, la Luna y las estrellas son perfectamente uniformes. — La Tierra se encuentra en el centro exacto del movimiento de los cuerpos celestes. El más innovador de los antiguos observadores de los cielos fue ARISTARCO DE SAMOS (310-230 a.C.). Propuso para el Universo un modelo heliocéntrico y heliostático 1800 años antes que Copérnico. Creía que los movimientos celestes se podían explicar mediante la hipótesis de que la Tierra gira sobre su eje inclinado una vez cada 24 horas y que, junto con los demás planetas, gira en torno al Sol. Esta explicación fue rechazada por la mayoría de los filósofos griegos aristotélicos que contemplaban a la Tierra como un globo inmóvil alrededor del cual giran los ligeros objetos celestes. Aristarco, durante un eclipse lunar, calculó la relación de diámetros entre la Tierra y la Luna y la distancia Sol-Tierra. Según dichos cálculos, la Tierra era tres veces mayor que la Luna (valor real 3,66). Determinó que la distancia Tierra-Luna sería 79 veces el radio terrestre (valor actual 60) y también calculó que el Sol estaría 20 veces más lejos que la Luna (valor actual 390). Aunque su método era correcto, sus cálculos no lo fueron debido a la falta de instrumentos precisos. Figura 5. Comparación de los tamaños de la Tierra y la Luna (Aristarco de Samos). ERATÓSTENES DE CIRENE (276-195 a.C.) midió la oblicuidad de la eclíptica que coincide con la latitud de Siena, situada en el trópico. Calculó la longitud del meridiano terrestre, el radio de la Tierra y, lógicamente, el tamaño y volumen aproximado de ésta. Sorprendentemente su resultado resultó ser muy exacto, si se tiene en 152 Enseñanza Figura 6. Determinación de la longitud del meridiano terrestre (Eratóstenes de Cirene). cuenta la carencia de instrumentos de medición de aquella época. La precisión de su medida no pudo superarse hasta el siglo XVIII. HIPARCO DE NICEA (190-125 a.C.), también llamado «de Rodas», en el siglo II a.C. utilizó por primera vez el astrolabio, un instrumento perfeccionado posteriormente por Hipatia, discípula de Platón, considerada como la primera científica de occidente. El astrolabio servía para medir la altura de los astros con respecto al horizonte e incluso determinar la distancia en grados entre ellos. Hiparco ideó también el sistema de magnitudes para clasificar las estrellas según su brillo aparente, descubrió la precesión de los equinoccios, realizó uno de los primeros catálogos de estrellas e introdujo en Grecia la división del círculo en 360º, hasta aquel momento sólo utilizada por los babilonios. CLAUDIO PTOLOMEO, autor de la «Syntaxis Mathemática», compiló todos los conocimientos de la Astronomía antigua. Esta obra fue posteriormente traducida por el rey árabe Isháq Ibn Hunyain dando lugar a los trece tomos del «Almagesto». Ptolomeo expuso un sistema donde la Tierra estaría rodeada por esferas de cristal con los otros 6 astros conocidos. La Tierra no ocupaba exactamente el centro de las esferas y los planetas describían un epiciclo cuyo eje era la línea de la órbita que giraba alrededor de la Tierra, llamada deferente. Como el planeta describe un epiciclo se aproxima y se aleja de la Tierra mostrando a veces un movimiento retrogrado. Este sistema permitía realizar predicciones de los movimientos planetarios, aunque tenía una precisión muy pobre. Claudio Ptolomeo, además, clasificó 1022 estrellas, 100cias@uned asignando magnitud en función de su brillo, estableció normas para predecir eclipses y aplicó sus estudios de trigonometría a la construcción de astrolabios y relojes de sol. En el siglo II d.C. el centro de la vida intelectual y científica se trasladó de Atenas a Alejandría, ciudad fundada por Alejandro Magno y modelada Figura 7. Universo geocéntrico según el ideal griego. de Ptolomeo. La Astronomía griega se transmitió más tarde hacia oriente a los sirios, indios y árabes. Los astrónomos árabes recopilaron nuevos catálogos de estrellas en los siglos IX y X y desarrollaron tablas del movimiento planetario. Sin embargo, aunque eran buenos observadores, hicieron pocas aportaciones realmente originales a la Astronomía. No obstante, los astrónomos hispanoárabes perfeccionaron métodos e instrumentos de observación elaborando tablas astronómicas tan completas y precisas que se utilizaron en todo el mundo durante varios siglos. Las traducciones árabes del Almagesto que circulaban por Europa estimularon el interés por la Astronomía en este continente. Los europeos se contentaron en un primer momento con hacer tablas de los movimientos planetarios, basándose en el sistema de Ptolomeo, o divulgar su teoría. Precisamente, en el siglo XIII, nuestro rey, Alfonso X el Sabio, contribuyó de una manera muy notable al desarrollo de la Astronomía. Su obra se centra en los «Libros del Saber de Astronomía» y las «Tablas Alfonsinas». Alfonso X se interesó por la Astronomía estudiando escritos árabes a través de los cuales conoció las obras de los principales filósofos griegos, especialmente de Aristóteles y Ptolomeo. Entendió que el progreso de esta ciencia dependía estrechamente de la observación y que los movimientos periódicos de los astros pueden durar miles de años, siendo por ello necesarias largas series de observaciones. En virtud de ello reunió un equipo de sabios cristianos, árabes y judíos, con sede en Toledo, con objeto de llevar a cabo numerosas observaciones que, unidas a las ya efectuadas en épocas anteriores, 153 Enseñanza permitirían elaborar las Tablas Alfonsinas, utilizadas en toda Europa hasta el siglo XVI. LA REVOLUCIÓN COPERNICANA Con el Renacimiento comenzaron a surgir en Europa ideas científicas independientes y discrepantes de los esquemas tradicionales aristotélicos. La teoría geocéntrica se mantuvo vigente hasta que NICOLÁS COPÉRNICO (14731543) formuló la teoría heliocéntrica, según la cual el Sol se situaría en el centro del Universo y el resto de planetas, incluida la Tierra, giraría en torno a él. Ésta nueva teoría, junto con la invención de la imprenta por Gutenberg en el año 1450, que permitiría una transmisión eficaz del conocimiento, supuso una revolución para la Astronomía, ya que a partir de ese momento dejó de verse al planeta Tierra y al hombre como epicentro del resto de las cosas existentes. En su obra De Revolutionibus Orbium Coelestium, impresa en Nuremberg en 1543, describe la teoría del movimiento de Figura 8. Copérnico. los planetas vigente hasta entonces, sus dificultades y errores, y llega a la conclusión de que en ella se habría pasado por alto algo muy importante, ya que la posición de los planetas y la Luna calculados con las tablas alfonsinas no coincidían con las observaciones. Su teoría representó también un duro golpe para la Iglesia, que defendía la teoría geocéntrica como una interpretación intocable de la Biblia. TYCHO BRAHE (1546-1601) fue el último observador de la era pretelescópica. Sus estudios constituyeron un avance muy significativo para la Astronomía. Confeccionó un catálogo de objetos celestes con más de 1000 estrellas y perfeccionó las técnicas de observación hasta alcanzar una precisión, inaudita en aquella época, de cuatro minutos de arco. Introdujo una modificación del sistema heliocéntrico de Ptolomeo, no aceptando el de Copérnico. La teoría sobre el Universo formulada por Tycho se basaba en que la Tierra sería el centro de éste y el Sol orbitaría en torno a ella, pero los demás planetas lo harían en torno al Sol. Tycho estudió detalladamente la órbita de Marte con cuadrantes de pared. El conjunto completo de las obser- 100cias@uned vaciones de trayectorias de planetas fue heredado por su discípulo Kepler. Construyó instrumentos, tales como cuadrantes, sextantes y teodolitos primitives, y observó una supernova en Casiopea, en 1572, a la que llamó Stella Nova. Ésta alcanzó una magnitud de -4 y era visible incluso durante el día hasta que dejó de serlo en marzo de 1574. Fue éste un descubrimiento importante, ya que en aquella época se creía en la inmutabilidad del cielo sin aparición de estrellas nuevas. Fue el primer astrónomo que intuyó que un cuerpo celeste siguiera una órbita no circular basándose en sus estudios acerca de los cometas. LA ERA TELESCÓPICA Aunque, según los escritos más antiguos, tanto los griegos como los romanos utilizaban lentes, éstas eran muy toscas e imperfectas. A finales del siglo X, el matemático persa ALHAZÉN escribió el primer tratado sobre lentes y describió la imagen formada en la retina, debida al cristalino. En sus investigaciones utilizaba la lupa para observar objetos diminutos. Entre los años 1000 y 1599 los árabes y chinos también experimentaban con lentes y espejos, aunque su interés se desvaneció y el uso de la lente no se extendió hasta el siglo XII, en el que se utilizaban lentes cóncavas y convexas para corregir problemas de visión; pero hasta el siglo XVII no se desarrolló toda su potencialidad. Hasta comienzos del siglo XVII los astrónomos habían observado el cielo sin la ayuda de ningún tipo de instrumento, es decir, a simple vista. Sin embargo, en 1608, se produjo en Holanda la mayor aportación de la técnica a la Astronomía: la invención del telescopio, atribuida a HANS LIPPERSHEY, aunque sus principios ópticos ya habían sido enunciados en el s. XIII por ROGER BACON. Galileo, informado de este descubrimiento por su discípulo Jacques Badouere, fue el primero en utilizarlo con fines astronómicos. GALILEO GALILEI (1564-1642) utilizó por primera vez el telescopio refractor y enunció las primeras leyes de la Mecánica. Su telescopio estaba formado por una lente convergente (objetivo) y una divergente (ocular) y tenía unos 30 aumentos. Con este sencillo instrumento descubrió los cuatro satélites de Júpiter, llamados «galileanos» en su honor, Io, Europa, Ganímedes y Calixto y observó por primera vez el relieve lunar con sus cráteres y montañas. Descubrió por primera vez la «forma irregular» de Saturno así como su cambio cíclico. También 154 Enseñanza Figura 9. Galileo Galilei. no podían describirse con círculos sino con elipses. Publicó en su obra Astronomia Nova (1609) sus dos primeras leyes, acerca del movimiento de los planetas, que asombraron a la comunidad científica y le consagraron como el mejor astrónomo de la época. Posteriormente, en 1618, enunció la tercera ley. La formulación de dichas leyes, gracias en gran medida a los datos obtenidos por Tycho Brahe, marcó el inicio de una nueva época para la Astronomía. Estas tres leyes desterraban, aun más, la concepción geocéntrica del universo. Su enunciado, que describe con precisión el movimiento de los planetas alrededor del Sol, es el siguiente: 1.a Ley: Las órbitas de todos los planetas son elípticas, encontrándose el Sol en uno de los focos. 2.a Ley: El vector de cualquier planeta respecto del Sol barre áreas iguales en tiempos iguales. Esta ley, conocida como «ley de las áreas», es equivalente a la constancia del momento angular: L = mr1v1 = mr2v2. 3.a Ley: Los cuadrados de los períodos de revolución son proporcionales a los cubos de los semiejes mayores de la elipse: P2 = ka3. Figura 10. Telescopio refractor de Galileo. observó por primera vez las manchas solares y acabó enfermando de ceguera por no protegerse los ojos. Galileo colaboró en gran medida al avance de la Astronomía, adquiriendo gran fama por las observaciones de la nova de 1604. Sin embargo, la Iglesia no aceptó sus ideas heliocentristas y le obligó a retractarse. IOANNES KEPLER (1571-1630), discípulo de Tycho Brahe y firme defensor del modelo de Copérnico, fue uno de los astrónomos más brillantes de la historia. Perfeccionó el telescopio de Galileo, sustituyendo la lente divergente del ocular por una convergente, construyendo el llamado telescopio kepleriano. En 1596 escribió el tratado Prodromus Disertationum Cosmographicorum Continens Misterium Cosmographicum, donde expone sus ideas acerca del Sistema Solar (distancias de los planetas al Sol dadas por esferas inscritas en poliedros perfectos). Estudiando los datos recopilados por Tycho, especialmente el movimiento de Marte, entendió que el movimiento de los planetas no podía explicarse con su modelo y llegó a la conclusión de que las órbitas de éstos 100cias@uned En aquella época los telescopios eran muy imperfectos, pues tanto objetivo como ocular estaban constituidos por lentes simples y las imágenes no se veían claras debido al fenómeno de la aberración cromática, que se produce en todas las lentes al comportarse éstas como prismas y no refractar en la misma medida todos los colores del espectro luminoso. Para paliar el efecto negativo de la aberración cromática se utilizaban telescopios de grandes distancias focales, como el de 45,7 m construido por IOANNES HEVELIUS (1611-1687) motivado por los descubrimientos de Huyghens acerca de la disminución de la aberración cromática con el aumento de la distancia focal. Hevelius dedicó 4 años a cartografiar exhaustivamente la superficie lunar y descubrió las «libraciones». Publicó sus descubrimientos en el tratado Selenografía (1647), lo que le valió el título de fundador de la topografía lunar. Descubrió cuatro cometas (1652, 1661, 1672, 1677) y sugirió que describían trayectorias parabólicas alrededor del Sol. Elaboró un catálogo estelar, siguiendo los procedimientos de Tycho Brahe, tabulando la posición exacta de 1564 de estrellas. Observó también las fases de Mercurio y un tránsito por delante del Sol confirmó la variabilidad de la estrella Mira Ceti y estudió ampliamente las manchas solares para determinar el período de rotación del astro. 155 Enseñanza La segunda mitad del siglo XVII fue pródiga en descubrimientos planetarios, debidos en parte al incipiente desarrollo de la astronomía telescópica, erigiéndose los primeros observatorios con instrumentos ópticos (en París, Greenwich, etc.). La nueva era se abrió con CHRISTIAN HUYGENS (1629-1695), astrónomo, matemático y físico holandés que perfeccionó la técnica de tallado de lentes y comprobó que los objetivos de gran distancia focal proporcionaban mejores imágenes. A partir de 1655 construyó anteojos de hasta 70 metros de largo, y otros instrumentos precisos. Entre ellos destaca su telescopio aéreo, sin tubo, de gran distancia focal, sujeto en un mástil. Gracias a este instrumento observó imágenes muy claras de Saturno y en 1655 descubrió sus anillos (aunque sin distinguir sus divisiones) y la sombra que arrojaban sobre el planeta, así como el mayor de sus satélites, Titán, calculando además su período orbital. Así quedó desvelado el enigma de la forma variable que presentaba este planeta cuando era observado por los astrónomos de la época. Como en un principio no estaba demasiado seguro de su hipótesis, comunicó a otros astrónomos conocidos sus descubrimientos relativos a la estructura de los anillos y al satélite Titán mediante anagramas crípticos que después tradujo: «Annulo cingitur tenui plano nusquam cohaerente ad eclipticam inclinato» y «Saturno luna sua circunducitur diebus sexdecim horis quator». Calculó también el tamaño y el período orbital de Marte en 1659 y en 1666 descubrió la nebulosa de Orión, M-42, observando en su interior diminutas estrellas. Diseñó también un micrómetro para medir pequeñas distancias angulares y determinar tamaños de planetas y distancias a sus satélites. Formuló la primera teoría ondulatoria de la luz, inventó el reloj de péndulo y estudió con detalle la fuerza centrífuga. GIOVANNI DOMENICO CASSINI (1625-1712) fue un famoso astrónomo italiano cuyo nombre está ligado a una de las divisiones de los anillos de Saturno que lleva su nombre. Cassini determinó los períodos de revolución de Venus, Marte y Júpiter, así como la distancia a Marte. Con ello midió el tamaño del sistema solar, obteniendo para la unidad astronómica un valor sólo con un 7% de error respecto del actual. A tales resultados llegó mediante la observación de Marte desde París (al tiempo que Richter hacía lo mismo desde la Guayana francesa a 10000 km. de distancia). Calculó la distancia Tierra-Marte y determinó las distancias de los otros planetas al Sol (basándose en la tercera ley de Kepler). 100cias@uned En 1668 elaboró tablas avanzadas con el movimiento preciso de los satélites galileanos de Júpiter lo que, curiosamente, sirvió a los navegantes para su utilización como relojes celestes. Además, Olaf Roemer utilizó posteriormente estos resultados para calcular la velocidad de la luz. Descubrió también los cambios estacionales de Marte, midió su período de rotación, así como el de Saturno, y descubrió un vacío entre los anillos de éste, conocido hoy día como «división de Cassini». Asimismo descubrió cuatro satélites de Saturno: Japeto (1671), Rea (1672), Dione y Tetis (1684). No obstante tuvo grandes errores, como no aceptar la teoría heliocéntrica. ISAAC NEWTON (1643-1727) fue uno de los científicos más relevantes de todos los tiempos. Llevó a cabo importantes trabajos acerca de la naturaleza de la luz. Descubrió el espectro de color que se observa al descomponer la luz blanca por un prisma siendo ello inherente a la luz, según él de naturaleza corpuscular y propagación en línea recta. Publicó sus estudios sobre óptica en el tratado Optiks (1704), donde concluye que el telescopio refractor sufriría aberración cromática. Fue autor, asimismo, de los Philosophiae Naturalis Principia Mathematica (1687), donde describe la Ley de la Gravitación Universal y establece las bases de la mecánica clásica (leyes de Newton). Sus estudios acerca de la naturaleza de la luz, su reflexión y refracción, le llevaron a construir el primer telescopio reflector evitando así la aberración cromática. Demostró matemáticamente las leyes de Kepler a partir de su Ley de la Gravitación Universal y explicó de forma precisa el movimiento de los planetas conocidos y sus satélites (cuatro de Júpiter y cinco de Saturno). Figura 11. Telescopio reflector de Isaac Newton. 156 Enseñanza OLE CHRISTIAN ROEMER (1644-1710) continuó los estudios acerca de la naturaleza de la luz emprendidos por Newton. Las diferencias encontradas por Roemer y Cassini en sus medidas del período orbital del primer satélite de Júpiter, Io, llevaron al primero a la conclusión de que la velocidad de la luz era finita, ya que el período orbital no podía variar. Así pues midió la velocidad de la luz en 1676, basándose en los retrasos del período orbital observados en las apariciones de Io a la salida del cono de sombra de Júpiter en la primera y segunda cuadratura del planeta. El valor obtenido por Roemer para la velocidad de la luz fue de 225.000 km/s. Aunque el error es importante, dada la imprecisión del método de medida, este descubrimiento resultó ser trascendental. EDMUND HALLEY (1656-1742) descubrió el cometa que lleva su nombre. La teoría de la gravitación universal de Newton le impulsó por 1ª vez a calcular la órbita de dicho cometa, que pasó en 1682, prediciendo que volvería a pasar en 1758 (así sucedió) y deduciendo que era el mismo que pasó en 1531 y 1607. Animó a su amigo Newton a publicar sus «Principia» y en 1676 publicó una disertación sobre la teoría de los planetas en Philosophical Transactions. En el mismo año se trasladó a la isla de Santa Elena para compilar un catálogo de estrellas del cielo austral (Catalogus Stellarum Australium) con un telescopio refractor de 7 m de distancia focal. En 1725 publicó mapas estelares con la posición exacta de 3000 estrellas determinadas desde el Observatorio de Greenwich. Descubrió el movimiento propio de las estrellas estudiando la variación de las posiciones relativas de Aldebarán y Arturo respecto a otras. Halley publicó en Philosophical Transactions su método para determinar la paralaje del Sol por medio de los tránsitos de Venus. Reflexionó sobre la idea de medir distancias estelares por medio de la paralaje y calculó la distancia Sol-Sirio, estimándola en 120.000 veces la distancia Tierra-Sol. ASTRONOMÍA MODERNA Tras la época de Newton, la astronomía se ramificó en diversas direcciones. Con su ley de gravitación universal, el viejo problema del movimiento planetario se volvió a estudiar como mecánico celeste. Los telescopios, mucho más perfeccionados, permitieron la exploración de las superficies de los planetas, el descubrimiento de muchas estrellas débiles y la medición de distancias estelares. En el siglo XIX un nuevo instrumento, el espectroscopio, aportó in- 100cias@uned formación sobre la composición química de los cuerpos celestes y nueva información sobre sus movimientos. Conocido en el siglo XVIII el hecho de que los planetas describen órbitas en torno al Sol con alejamiento progresivo, a mediados de este siglo se enunció una ley empírica muy importante para los astrónomos del siglo XIX a la hora de descubrir nuevos planetas, ya que permitía predecir matemáticamente la distancia de éstos al Sol. Esta ley fue enunciada por WOLF en 1741, publicada por TITIUS en 1772 y enunciada nuevamente de forma matemática por BODE en 1778. Proporciona la distribución de los planetas en orden creciente de distancias al Sol de acuerdo con la expresión matemática: a = n + 4/10, donde n = 0, 3, 6, 12, 24, 48, 96, etc. y a es el semieje mayor de la órbita, dado en unidades astronómicas (u.a.). Aplicada a los 6 planetas conocidos hasta entonces, Mercurio, Venus, la Tierra, Marte, Júpiter y Saturno, da los valores 0,4; 0,7; 1; 1,6; (2,8); 5,2; 10,0; (valores reales: 0,38; 0,72; 1; 1,52; 5,2; 9,54). La ley de Bode se consolidó espectacularmente cuando se comprobó, al descubrirse Urano, la coincidencia casi exacta de su distancia con la predicha por la ley [19,6 (valor real = 19,2)]. La ley predecía, además, que para el valor 2,8 debería existir un planeta entre las órbitas de Marte y Júpiter. Varios astrónomos se lanzaron a su búsqueda, hasta que en 1801 GIUSEPPE PIAZZI descubrió el asteroide Ceres dentro de la distancia predicha. Posteriormente se descubrieron más asteroides, cuyas órbitas forman un cinturón entre las de Marte y Júpiter. Sin embargo, Neptuno viola dicha ley (en su formulación original) que, tal vez fue una curiosidad matemática, pero tuvo gran importancia en el desarrollo de la Astronomía a finales del siglo XVIII y principios del XIX. Los hermanos WILLIAM (1738-1822) y CAROLINE LUCRECIA (1750-1848) HERSCHEL fueron quizá los astrónomos que más tiempo de su vida dedicaron a la observación del cielo. William descubrió Urano, en 1781, asombrando a todos los científicos de la época, que consideraban que no podía haber planetas más allá de Saturno. Descubrió además los satélites de Urano, Titania y Oberón (1787) y dos más de Saturno: Mimas y Encélado (1789). Construyó numerosos telescopios reflectores de grandes dimensiones y calidad excepcional, como el de 122 cm, que sería el mayor del mundo en la época. Gracias a estos potentes instrumentos descubrió más de 2000 nebulosas y estableció la base de los modernos catálogos de galaxias que parten del suyo, conocido como «General Cata- 157 Enseñanza Figura 12. William y Caroline Herschel. Figura 13. Uno de los telescopios reflectores construidos por los Herschel. logue». Descubrió también las estrellas dobles y concluyó que se trataba de pares físicos, una girando alrededor de otra, y no alineaciones casuales. William Herschel aplicó las leyes de Newton, no sólo al movimiento de los planetas, sino también a estrellas lejanas, descubriendo que el Sol se mueve lentamente hacia la constelación de Hércules. Siempre fue ayudado de manera infatigable por su hermana, Caroline Herschel, que realizaba observaciones de precisión sobre las previas de su hermano y descubrió ocho cometas. Ésta educó en Astronomía a su sobrino John, hijo de Herschel. CHARLES MESSIER (1730-1817) confeccionó un catálogo (que lleva su nombre) de 110 objetos estelares de variada naturaleza, como galaxias, nebulosas o cúmulos estelares. Muchos de estos objetos siguen siendo conocidos en la actualidad por su número del catálogo. Otros lo son más por su número del catálogo NGC (New General Catalogue). Al parecer, inauguró su catálogo con M-1 (Nebulosa del Cangrejo) cuando buscaba el cometa Halley en la aproximación predicha por el astrónomo inglés. LA ASTROFÍSICA En el siglo XIX, la precisión alcanzada en las determinaciones angulares permitiría vencer uno de los mayores obstáculos en el conocimiento del Universo: la medida de las distancias estelares. FRIEDRICH WILHELM BESSEL (1784-1846), tomando ventaja del perfeccionamiento de los sistemas ópticos, 100cias@uned a partir de la construcción de objetivos acromáticos patentados en 1758 por JOHN DOLLOND, hizo una de las aportaciones más importantes de la Astronomía del s. XIX: conocer las distancias a las estrellas. Utilizando el método de la paralaje publicó, en 1838, la determinación de la distancia Sol-61Cygni (10 años-luz). Bessel desarrolló también en 1844 un método matemático para la detección de estrellas invisibles, compañeras de otras más grandes y luminosas en sistemas múltiples. Observó que la trayectoria de Sirio no era rectilínea y concluyó que formaba parte de un sistema doble que giraba alrededor del centro de masas común. No logró observar Sirio B (enana blanca), mucho menos luminosa que Sirio A, pero condujo a su posterior descubrimiento. Fue ALVAN CLARK quien 16 años después de la muerte de Bessel, con un telescopio refractor de 45 cm, observó en la posición prevista Sirio B, muy pequeña, mucho menos luminosa y extremadamente densa (sólo 1% del diámetro del Sol, pero la misma masa que éste). La masa de Sirio A es 2,3 veces la del Figura 14. Telescopio de Bessel, utilizado para medir paralajes estelares. Sol. 158 Enseñanza Bessel determinó las posiciones de unas 50.000 estrellas con su telescopio especialmente diseñado y calculó, en 1830, la posición media y aparente de 38 estrellas para un período de 100 años. Señaló también las irregularidades del movimiento de Urano, lo que abrió las puertas al descubrimiento de Neptuno. JOSEPH VON FRAUNHOFER (1787-1826) perfeccionó notablemente los telescopios refractores e incorporó por primera vez un espectroscopio a su telescopio, analizando el espectro solar, donde observó las líneas que llevan su nombre. Enumeró 754 de esas líneas que son el resultado de la absorción de luz en ciertas longitudes de onda por átomos presentes en la atmósfera solar. La espectroscopía ofrece la posibilidad de determinar la composición de un astro y su temperatura. Constituye la base para la medida de la velocidad radial, en virtud de la ley enunciada por Doppler en 1848, mediante la cual se han deFigura 15. Telescopio de Fraunhofer. terminado movimientos relativos y rotaciones planetarias. Fraunhofer construyó en 1817 el primer retículo de difracción con el cual midió las longitudes de onda de todos los colores. EL PODER DE LAS MATEMÁTICAS Desde el momento de su descubrimiento, los astrónomos estudiaron el movimiento de Urano encontrando que no seguía exactamente la órbita calculada. Algún cuerpo estelar de gran masa parecía inducir perturbaciones en su movimiento orbital. En 1842, la Academia de Ciencias de Göttingen ofreció un premio a quien encontrara la solución a este problema. URBAIN LEVERRIER (1811-1877) estudió matemáticamente el movimiento de cometas y sabía cómo tratar el problema de Urano. En 1846 completó sus cálculos escribiendo a J. Galle y pidiéndole que observara en el lugar del cielo donde suponía que debía estar Neptuno. ¡Y allí estaba! Cinco días más tarde lo encontró Galle muy cerca de la posición predicha. El descubrimiento 100cias@uned fue motivo de orgullo nacional en Francia, pero sufrió un pequeño contratiempo cuando se supo que esos cálculos habían sido efectuados un año antes por el matemático inglés JOHN COUCH ADAMS (1819-1892). Adams, después de graduarse en la Universidad de Cambridge, decidió atacar el problema de Urano. En 1845 hizo llegar al astrónomo real Airy sus resultados, muy similares a los que encontraría Leverrier, pero ni Airy ni Challis hicieron caso de ellos. Poco después, Galle encontró a Neptuno utilizando los cálculos de Leverrier. No obstante, la Royal Astronomical Society de Inglaterra hizo justicia a Adams concediéndole el mismo premio con el que condecoró a Leverrier el año anterior. Figura 16. John Couch Adams (izquierda) y Urbain Leverrier (derecha). El descubrimiento de Neptuno, mediante el poder de las matemáticas, es sin duda una hazaña sin precedentes; sobre todo si se tiene en cuenta que las únicas herramientas de que disponían estos astrónomos eran lápiz y papel. JOHANN GOTTFRIED GALLE (1812-1910) descubrió Neptuno en 1846, gracias a los cálculos de Leverrier y Adams que predijeron su posición con gran exactitud (sólo 1° de diferencia). En 1838 descubrió el anillo interior C de Saturno. Pero su contribución más importante a la Astronomía fue la propuesta de empleo de la paralaje a los asteroides para determinar la escala de distancias del sistema solar. Ello se llevó a cabo 20 años después. Figura 17. Neptuno (sonda Voyager II). 159 Enseñanza ASAPH HALL (1829-1907), con el telescopio refractor de 66 cm del observatorio de La Marina, en Washington, descubrió en 1877 los dos pequeños satélites de Marte, Phobos y Deimos. Determinó períodos orbitales y tamaños de las órbitas de satélites de otros planetas y observó una mancha clara en Saturno, lo que le sirvió como referencia para determinar su período de rotación. También Determinó la masa de Marte. Figura 18. Phobos (izquierda) y Deimos (derecha). GIOVANNI VIRGINIO SCHIAPARELLI (1835-1910) fue gran observador de Marte y fundador de su topografía. En 1877 creyó descubrir redes de grandes canales en la superficie del planeta, lo que dio lugar a la especulación acerca de si en él podría haber vida inteligente. En realidad, los canales de Marte eran una ilusión óptica. En sus investigaciones sobre la teoría de las estrellas fugaces descubrió la relación entre las perséidas y el cometa 1862 III. Descubrió numerosas estrellas dobles entre 1875 y 1900 así como el asteroide 69 Hesperia en 1861. Fue director del observatorio de Brera, en Milán. Figura 19. Los falsos canales de Marte (dibujo de Schiaparelli). PERCIVAL LOWELL (1855-1916) fue un rico adinerado aficionado a la Astronomía y principal defensor, en Estados Unidos, de la existencia de canales en Marte. Se interesó en el tema por las observaciones y dibujos de 100cias@uned Schiaparelli. Construyó un observatorio (Lowell Observatory) que permanece activo en la actualidad. Su mayor contribución a la Astronomía fue la intensa búsqueda de un planeta X exterior a Neptuno que sería descubierto posteriormente (1930) por Tombaugh (Plutón). ASTRONOMÍA CONTEMPORÁNEA Durante el siglo XX se han construido telescopios reflectores cada vez mayores. Los estudios realizados con estos instrumentos han revelado la estructura de enormes y distantes agrupamientos de estrellas, denominados galaxias, y de cúmulos de galaxias. En la segunda mitad del siglo XX los progresos en física proporcionaron nuevos tipos de instrumentos astronómicos, algunos de los cuales se han emplazado en los satélites que se utilizan como observatorios en la órbita de la Tierra. Estos instrumentos son sensibles a una amplia variedad de longitudes de onda de radiación, incluidos los rayos gamma, rayos X, ultravioleta, infrarrojos y regiones de radio del espectro electromagnético. Los astrónomos no sólo estudian planetas, estrellas y galaxias, sino también plasmas (gases ionizados calientes) que rodean a las estrellas dobles, regiones interestelares que son los lugares de nacimiento de nuevas estrellas, granos de polvo frío invisibles en las regiones ópticas, núcleos energéticos que pueden contener agujeros negros y radiación de fondo de microondas, surgida de la gran explosión, que pueden aportar información sobre las fases iniciales de la historia del Universo. GEORGE ELLERY HALE (1868-1938), físico, profesor de la Universidad de Chicago, dirigió el observatorio Yerkes. Dotó a éste y a otros observatorios con los mejores telescopios del mundo; por ejemplo el observatorio Wilson, con un telescopio de 2,5 m de apertura. Desgraciadamente no vivió para asistir a la inauguración del gran telescopio, que lleva su nombre, del Monte Palomar. Descubrió que las manchas solares eran más frías que el resto de la fotosfera y demostró con técnicas espectroscópicas que dichas manchas son el resultado de fuertes campos magnéticos. Dibujó un sorprendente mapa del ciclo magnético del Sol (22 años), según el cual los patrones de polaridad cambian de signo cada ciclo. Inventó el espectroheliógrafo, que permite fotografiar el Sol en una sola longitud de onda. EDWIN HUBBLE (1889-1953) obtuvo el doctorado en Ciencias Físicas en el Observatorio de Yerkes. Se incorporó posteriormente al Observatorio del Monte Wilson 160 Enseñanza Figura 20. Telescopio reflector Hale (5m) de Monte Palomar. Figura 21. Telescopio espacial Hubble. coincidiendo con la puesta a punto del telescopio Hooker. Sus observaciones con éste establecieron que numerosas nebulosas observadas anteriormente no formaban parte de nuestra galaxia, sino que se trataba de galaxias distintas. En 1924 hizo pública su naturaleza extragaláctica ampliando los límites del Universo conocido. Junto con Milton Humason, comparando las distancias calculadas para diferentes galaxias y sus desplazamientos al rojo establecidos por Slipher, descubrió la relación entre la velocidad con la que se alejan las galaxias y su distancia (ley de Hubble o de recesión de las galaxias). Hubble organizó un sistema de clasificación de galaxias que perdura con pocos cambios hasta la actualidad. Determinó las distancias a muchas de ellas, estableciéndolas en centenares de años-luz y demostró que cuanto más lejanas eran más rápidamente se alejaban (ley de Hubble). La ley de Hubble evidencia la expansión del Universo y el origen del mismo, conocido como gran explosión (Big Bang). CLYDE TOMBAUGH (1906-1997) en 1930, en el Observatorio Lowell, comparando fotografías tomadas en días sucesivos en la constelación de Géminis encontró la evidencia fotográfica de la existencia del 9º planeta del sistema solar: Plutón (actualmente desclasificado como planeta). Descubrió además seis cúmulos estelares, dos cometas, centenares de asteroides, docenas de cúmulos de galaxias y un supercúmulo. En 1932 descubrió una nova en la constelación del Cuervo. La Radioastronomía, otra fundamental rama de la Astronomía, se inició en la práctica en 1932, cuando Karl G. Jansky captó por casualidad las primeras ondas de radio procedentes de la Vía Láctea. La potencialidad de la Radioastronomía como exploradora del universo es prácticamente infinita, hasta el extremo de que en 1937 G. Reber detectó ondas de radio procedentes del centro de la Vía Láctea. También, en 1960 pudo identificarse una galaxia distante de la Tierra 4500 millones de añosluz gracias a este método. En 1946 tuvo lugar otro importante paso en la historia de la Astronomía, ya que en esa fecha se estudiaron por primera vez los ecos de ondas electromagnéticas rebotadas en los cuerpos celestes del Sistema Solar, como alternativa a los métodos empleados hasta entonces (luz visible, principalmente). Este recién estrenado campo, desarrollado principalmente durante la segunda guerra mundial, avanzó con inusitada rapidez y, ya en 1963, científicos soviéticos llevaron a cabo por este medio las primeras observaciones detalladas de los planetas Mercurio y Venus. La Astronomía también se vio beneficiada por el comienzo de la carrera espacial, ya que la posibilidad de poner satélites en órbita permitía el estudio del espacio sin Figura 22. Galaxia de Andrómeda fotografiada por el HST. 100cias@uned 161 Enseñanza las perturbaciones producidas por la atmósfera terrestre. De hecho, los telescopios espaciales (como, por ejemplo, el telescopio Hubble) desempeñan un papel muy importante en la observación actual del firmamento. Además, las sondas científicas permiten observar y estudiar los planetas desde una distancia mucho menor. En 1959, por ejemplo, gracias a una sonda soviética, se obtuvieron las primeras fotografías de la cara oculta de la Luna. Tres años más tarde, la sonda estadounidense Mariner 2 obtuvo datos precisos sobre el planeta Venus, lo que nos permitió conocer la existencia de su densa atmósfera y las extremas condiciones reinantes en su superficie. Desde entonces hasta hoy el estudio de los cuerpos celestes del Sistema Solar, en especial los planetas, no ha cesado, y gracias a ello hemos obtenido un valioso conocimiento de nuestro entorno espacial más próximo. En 1963 se descubrieron los cuásares, objetos de gran actividad que, según se cree, son los núcleos de galaxias muy lejanas. Cuatro años más tarde, se detectaron por primera vez púlsares, que en realidad son estrellas de neutrones orientadas de tal manera que su cono de emisión de ondas electromagnéticas está orientado hacia la Tierra. Este tipo de objetos gira muy rápidamente, por lo que la intensidad de las ondas electromagnéticas que recibimos de ellos varía de forma periódica. En 1965 tuvo lugar el descubrimiento, por parte de ARNO PENZIAS y ROBERT WILSON, de la radiación de fondo del universo. Este hecho apoya en gran medida la idea de una explosión inicial similar al Big Bang. En 1980, Allan Guth propuso la teoría de la inflación cósmica, en la que proponía que durante los primeros instantes del Big Bang tuvo lugar una rapidísima expansión del universo. Las últimas décadas han aportado nuevos métodos e instrumentos gracias a los cuales ha sido posible descubrir numerosos hechos que modifican continuamente nuestra concepción del Universo. Un ejemplo es la interferometría, que permite combinar imágenes de dos telescopios iguales separados, para obtener enormes resoluciones (equivalentes a las que se obtendrían con un telescopio de tamaño igual a la distancia que separa los telescopios interferométricos). Así, el VLA (Very Large Array) consiste en una red de 27 radiotelescopios situados en forma de Y en el desierto de Nuevo Méjico (EE.UU.). Actualmente, los telescopios terrestres más grandes tienen un diámetro de 10 metros, como los Keck en Mauna Kea, Hawai, situados en un lugar privilegiado para realizar observaciones astronómicas. Los avances tecnológicos derivados del espectacular desarrollo de la ingeniería y la técnica de la segunda mitad del siglo XX (tales como ordenadores cada vez más rápidos, telescopios orbitales más sofisticados, sondas espaciales al encuentro de planetas y otros cuerpos, etc.) han permitido que la Astronomía, como el resto de las ciencias, haya presenciado en estos últimos años una revolución muy importante que continuará durante el siglo XXI. BIBLIOGRAFÍA 1. Chang et al. El Universo. Enciclopedia Sarpe de la Astronomía. Ed. Sarpe. Madrid, 1982. 2. Carl Sagan. Cosmos. Ed. Planeta. Madrid, 1980. 3. Fred Hoyle. Iniciación a la Astronomía. Ed. Orbis. Barcelona, 1986. 4. Lloyd Motz. El Universo. Ed. Orbis. Barcelona, 1987. 5. J. B. J. Delambre. Histoire de l´Astronomie Moderne. Johnson Reprint Corporation. New York, 1969. WEBGRAFÍA C. de Toro y Llaca. La evolución de los conocimientos astronómicos a través de la historia: http://www.iag.csic.es/museo/documentos.htm http://es.wikipedia.org/wiki/Astronomia http://www.astrored.net/universo http://www.astromia.com Enrique Teso Vilar Facultad de Ciencias Figura 23. Los satelites galileanos de Júpiter: Io, Europa, Ganímedes y Calixto (sonda Voyager II). 100cias@uned 162 Enseñanza 100cias@uned N.º 2 Enseñanza (nueva época) | 2009 ISSN: 1989-7189 TALLER Y LABORATORIO EXPERIMENTO HISTÓRICO DESCUBRIMIENTO DEL NEUTRÓN INTRODUCCIÓN Cuando en 19191 E. Rutherford (1871-1937) descubrió el protón, la estructura de la materia parecía ser simple si se suponía que la masa y la carga se concentraban de forma elemental en dos partículas fundamentales: el electrón y el protón. Esto explicaba que la carga de cualquier núcleo resultara ser un múltiplo entero de la carga del protón, que es la misma que la del electrón pero de signo opuesto. Además, una vez establecida la existencia de los isótopos2, se vio que era la masa de éstos la que resultaba ser muy cercana a un múltiplo de la masa de protón. Bastaba entonces con suponer que el núcleo estaba constituido por el número de protones necesario para explicar su masa y un número tal de electrones que neutralizara la carga excedente igualándola a la carga característica de cada elemento. Por lo que según esta hipótesis un núcleo de He4 (partícula α) estaría compuesto de 4 protones y 2 electrones, lo que daba como resultado un carga (número atómico) igual a 2 y un número másico de 4. En la actualidad sabemos que esta suposición era incorrecta y la verdadera respuesta la encontró J. Chadwick (1891-1974) cuando en 1932 descubrió una nueva partícula a la que denominó neutrón, término que ya había usado Rutherford en una conferencia que impartió en 1920. Según Rutherford, esta partícula podía originarse en un átomo de hidrógeno en el que el electrón habría «caído» al núcleo neutralizándolo eléctricamente. Chadwick, después de graduarse en 1911 en la Universidad de Manchester, empezó a trabajar como ayu1 El experimento con el que Rutherford descubrió el protón está descrito en el nº 6 de 100cias@uned, págs. 107-111 (2003). 2 Son isótopos de un elemento químico de número Z, los distintos nucleidos con el mismo número de protones (mismo número atómico: mismas propiedades químicas) y con distinto número de neutrones (distinta masa atómica A: distintas propiedades nucleares). 100cias@uned Figura 1. Fotografía de James Chadwick. dante de Rutherford. En 1914, Chadwick viajó a Berlín para trabajar con H. Geiger (1882–1945), otro de los discípulos de Rutherford. No era un buen momento para que un ciudadano inglés estuviera en Alemania, y cuando comenzó la primera guerra mundial, el gobierno alemán lo retuvo como prisionero de guerra. Chadwick fue tratado razonablemente bien, y aunque tuvo malnutrición, se le permitió seguir alimentando su curiosidad académica con lecturas y conversaciones con otros científicos, pero le prohibieron continuar con sus experimentos. Al final de la guerra, en 1918, Chadwick volvió a Manchester, justo en el momento en el que Rutherford estaba trabajando en los experimentos que le llevarían al descubrimiento del protón. En 1919 Rutherford es nombrado Director del Laboratorio de Cavendish y Chadwick le sigue a Cambridge, donde poco después de doctorarse es nombrado ayudante del Director. Chadwick estaba interesado en el «neutrón» de Rutherford y estuvo varios años buscándolo sin éxito. En 1930 algunos resultados experimentales obtenidos en el continente europeo, sobre choques de partículas alfa y núcleos ligeros y la posterior producción de una extraña radiación, llamaron su atención y aunque no estaba de acuerdo con la interpretación que se daba de ellos, le llevaron a repetirlos con algunas modificaciones, realizando una correcta interpretación de los resultados. En 1932 anunció el descubrimiento del neutrón, primero en «Nature»3 en una carta al Editor en la que se avanzaban sus resultados, «Posible Existente of a 3 Nature, 129, 312 (27 de febrero de 1932). Científica Enseñanza 163 Vida significaba un coeficiente de atenuación6 μ ~ 0,3 cm-1. Este poder de penetración era notablemente mayor que el de la radiación gamma emitida por los elementos radiactivos conocidos en ese momento. Además, al determinar la energía de esas extrañas radiaciones, concluyeron que ésta debería ser mayor que la energía de las partículas alfa incidentes, lo que podía ser interpretado como un fenómeno de desintegración. Figura 3. Interpretación de Bothe y Becker sobre la emisión de radiación por Be9 después de ser irradiado por partículas alfa. Figura 2. Carta al Editor publicada en Nature, donde Chadwick adelantaba su descubrimiento de la existencia del neutrón. Neutron» y posteriormente en los «Procceedings of the Royal Society of London»4, donde se desarrollaba todo el descubrimiento y en el que en el título desaparecía la palabra «possible» quedando como afirmación «The Existente of a Neutron». ANTECEDENTES EXPERIMENTALES En 1930, los físicos alemanes W. Bothe (1891-1957) y su discípulo H. Becker5 habían descubierto que al bombardear algunos elementos ligeros (particularmente berilio) con las partículas a, provenientes de un isótopo del polonio, se emitían radiaciones muy penetrantes y eléctricamente neutras que, originalmente, pensaron que eran fotones gamma de alta energía, con un poder de penetración de aproximadamente 20 cm en plomo, lo que 4 Procceedings of the Royal Society of London, Series A, Vol. 136, nº 830, 692 (1 de junio de 1932). 5 Z. f. Physik, Vol. 66, 289 (1930). 100cias@uned Posteriormente, los físicos franceses I. Joliot-Curie (1897–1956) y su marido F. Joliot7 (1900–1958) hicieron pasar la radiación penetrante, descubierta por Bothe y Becker, por blancos de parafina u otros compuestos hidrogenoides y, midiendo la ionización producida al paso de la radiación, descubrieron que se producían protones de alta energía. Lo interpretaron como resultado de la acción de los fotones sobre los núcleos de hidrógeno de la parafina (usando una analogía con el efecto Compton8 de los fotones sobre los electrones) produciendo protones de retroceso. Este efecto había sido observado en la interacción entre rayos X y electrones, pero debería ser igualmente válido para la dispersión de rayos gamma por protones. Sin embargo, los protones son casi 1.836 veces más pesados que los electrones, por lo que, para arrancarlos de un sólido, serían necesarios fotones de gran energía. Otro problema con esta interpretación era que, dado el número de protones observados, habría que suponer que la probabilidad de colisión entre estos fotones y los protones de la parafina era millones de veces mayor a la que se esperaría de extrapolar el cálculo válido para el electrón, esta probabilidad de dispersión en el caso de fotones de alta energía por electrones (efecto Compton) viene dada con bastante exactitud por la fórmula de Klein-Nishima9 y también debería poder ser aplicada a 6 El coeficiente de atenuación es la probabilidad de que un fotón interaccione por unidad de recorrido. 7 C.R. Acad. Sci. Paris, Vol. 193, 1412 (1931). 8 El efecto Compton había sido predicho por A. Einstein en 1905 y confirmado por A.H. Compton en 1923. Consiste en la dispersión de un fotón por un electrón libre o débilmente ligado, en la que parte de la energía del fotón incidente se comunica al electrón y el fotón dispersado tiene una longitud de onda superior a la del incidente. 9 Z. f. Physik, Vol. 52, 853 (1929). 164 Enseñanza Figura 4. Comparación del efecto Compton con electrones y con protones. la dispersión de fotones por protones, pero los resultados experimentales mostraban que la probabilidad de dispersión era varios ordenes de magnitud mayor que la predicha en la fórmula. A Chadwick no le convencían las interpretaciones que se daban a los resultados obtenidos, por lo que se propuso realizar unos experimentos similares y buscar un razonamiento más correcto. que se emitían esos protones, Chadwick utilizó un método basado en la medida del alcance10 de esos protones en aluminio. Intercaló láminas de aluminio entre el blanco y el gas de llenado de la cámara de ionización y midió la variación en la ionización que se producía al aumentar el espesor de aluminio. Llegó a la conclusión de que la velocidad transferida a los protones por la misteriosa radiación emitida por el berilio era de 3,3 × 109 cm/s, lo que equivalía a una energía de 5,7 MeV. Si la emisión de los protones fuera debida a una dispersión Compton con fotones, éstos deberían tener una energía de 55 MeV, pero por conservación de la energía es imposible producir fotones de esa energía en un choque de partículas alfa de 5 MeV en un blanco de Be9. EXPERIMENTO DE CHADWICK Sistema Experimental Figura 5. Esquema del sistema experimental del experimento de Chadwick. El sistema experimental utilizado por Chadwick consistía en una cámara (1) y un contador (2) conectado a un oscilógrafo. En la cámara se hacía vacío y estaba alojado el emisor alfa (una fuente de polonio) y el berilio (Be9). Las partículas alfa al chocar con el berilio producían un haz de la radiación desconocida, n0, cuyos efectos se examinaban con el contador. El contador era en una pequeña cámara de ionización conectada a un amplificador, cuando se producían ionizaciones debidas a la entrada de una partícula ionizante en la cámara, éstas eran registradas en un oscilógrafo. A la entrada del contador se colocaba blancos de distintos materiales. Resultados Cuando el blanco era rico en hidrógeno, como la parafina, se emitían protones como ya había observado el matrimonio Joliot-Curie. Para obtener la energía con 100cias@uned Figura 6. Gráfica de alcances de los protones, que le sirvió a Chadwick para obtener la energía con la que eran emitidos. La curva A se obtuvo midiendo los protones producidos en el mismo sentido que el haz incidente y la B, en sentido contrario. Si se colocaban otros blancos a la entrada de la cámara de ionización (litio, berilio, boro, carbono, nitrógeno….), en todos los casos se comprobaba que se producían ionizaciones posteriores, que sólo podían ser causadas por la producción de partículas ionizantes con un gran poder de ionización y que probablemente eran núcleos de retroceso de los elementos del blanco. A medida que la masa de los núcleos del blanco aumentaba, la energía que deberían tener los fotones para producir los núcleos de retroceso tendría que ser mayor, lo que por conservación de la energía no era posible. 10 La medida de alcances está descrita también en el artículo sobre el descubrimiento del protón, nº 6 de 100cias@uned, págs. 107-111 (2003). 165 Enseñanza LA HIPÓTESIS DEL NEUTRÓN Quedaba claro que la radiación que producía esas emisiones de núcleos de retroceso no podía ser radiación electromagnética de alta energía, ya que esta hipótesis no explicaba la probabilidad de interacción observada ni la conservación de la energía. Sin embargo, si en lugar de rayos gamma se suponía que el proceso era producido por algún tipo de partícula neutra, el neutrón, todas las propiedades podrían ser explicadas. La masa que se deducía en todos los casos resultaba ser consistentemente la misma y aproximadamente igual a la del protón; para ello se supone que los núcleos de retroceso detectados en la dirección de la flecha de la Figura 5 provienen de la colisión frontal elástica entre las partículas que forman la radiación y los núcleos del blanco, por ejemplo, hidrógeno y nitrógeno; sus respectivas velocidades están determinadas por: VH = 2m V m + mH y VN = 2m V m + mH en donde m, mH y mN son las masas de las partículas de la radiación, de los núcleos de hidrógeno (protón) y nitrógeno, respectivamente y V, VH y VN las respectivas magnitudes de las velocidades con las que son emitidas. Dividiendo la primera de estas entre la segunda y sustituyendo mN = 14 mH (dato que ya se sabía), se obtiene: VH VN 艐 m V m + mH la emisión de un neutrón, en lo que hoy sabemos que es una reacción nuclear típica, y la reacción de la Figura 3 es en realidad: Be9 + He4 → C12 + n Por conservación de la energía, teniendo en cuenta que las partículas alfa emitidas por el polonio tienen una energía de 5,25 MeV, se obtiene que la energía con la que se emiten los neutrones no es mayor que 8 MeV, y neutrones de esa energía en su choque con núcleos de hidrógeno sí que podían producir los protones de retroceso observados. Cuando Chadwick reportó sus resultados, los interpretó como evidencia de una nueva partícula neutra, a la que llamó neutrón, igual a la predicha por Rutherford doce años antes. El descubrimiento de Chadwick, sin embargo, no tuvo una repercusión inmediata en la concepción de la estructura del núcleo, puesto que él mismo imaginaba al neutrón como un compuesto electrón-protón. Posteriormente, Heisenberg mostró que el neutrón podría no ser la combinación de un protón y un electrón y se aceptó la existencia del neutrón como una partícula elemental11 constituyente del núcleo. Por el descubrimiento del neutrón Chadwick fue galardonado con el Premio Nobel de Física en diciembre de 1935. En el discurso que pronunció al recibir el premio ya habló del neutrón como constituyente elemental del núcleo aunque sin dar una idea clara de la naturaleza de su interacción con el protón. REFERENCIAS Chadwick midió la relación de velocidades VH//VN (deducidas de sus medidas de alcance) y encontró que era aproximadamente de 7,0. Por lo tanto, el valor de la masa de la partícula que iba buscando tenía que ser m 艐 1,15 mH. Este resultado fue corroborado midiendo las correspondientes velocidades para otros núcleos de retroceso de los elementos usados como blanco en las colisiones. En experimentos posteriores se ha determinado que la relación VH//VN es cercana a 7,5 y se obtiene que m 艐 mH. Además, con este resultado se podía explicar la producción de neutrones en el berilio al ser bombardeado con las partículas alfa. La partícula alfa es capturada por el núcleo de Be9, lo que produce un núcleo de C12 y 100cias@uned 1. J. Chadwick: «Possible Existence of a Neutron». Nature, 129, 312 (27 de febrero de 1932). 2. J. Chadwick: «Existence of a Neutron». Procceedings of the Royal Society of London, Series A, Vol. 136, nº 830, 692 (1 de junio de 1932). 3. D. Lincoln: «Undestanding the Universe: from quarks to the Cosmos». World Scientific (2004). Amalia Williart Torres Dpto. Física de los Materiales 11 En la actualidad sabemos que el neutrón no es una «partícula elemental» en el estricto significado del término, ya que está compuesta por quarks que sí que serían partículas elementales. 166 Enseñanza 100cias@uned N.º 2 Enseñanza (nueva época) | 2009 ISSN: 1989-7189 TALLER Y LABORATORIO EXPERIMENTO CASERO UN ESPECTROSCOPIO CASERO PARA OBSERVAR LAS LÍNEAS DE FRAUNHOFER INTRODUCCIÓN La Espectroscopía es una técnica fisicoquímica que permite conocer la estructura de los átomos y de las moléculas a partir de las imágenes que se obtienen a través de dos fenómenos ópticos: la refracción de la luz por un prisma o la difracción a través de una red. Estas imágenes se conocen desde la época de Newton con el nombre de espectro («alma») de la luz. A partir de los espectros de fuentes luminosas (por ejemplo, el Sol, una vela, una lámpara incandescente, un tubo fluorescente, …) se puede determinar la estructura de los átomos de que están compuestas, es decir, podemos conocer sus niveles atómicos, las energías de dichos niveles, las posibles transiciones, … Cada átomo tiene un espectro típico que lo identifica como si fuera su código de barras. Como contribución a la divulgación de la Ciencia en el Año Internacional de la Astronomía, hemos diseñado un sencillo espectroscopio con una rendija estrecha, una lente convergente y una red de difracción, con el que hemos podido observar los espectros de emisión de diversas lámparas (H, He, Na,…) en el laboratorio y las líneas negras de absorción del espectro del Sol, conocidas como líneas de Fraunhofer. La comparación de las líneas de los espectros de emisión (de colores brillantes) con las líneas negras de los espectros del Sol y de otras estrellas, permite detectar la existencia de los elementos químicos presentes en las atmósferas estelares. ANTECEDENTES HISTÓRICOS Newton, en 1666, utilizando el fenómeno de la refracción en un prisma de vidrio realizó su famoso expe- 100cias@uned rimento de descomposición de la luz blanca procedente del Sol en colores, a lo que denominó su espectro (1). En la Figura 1 puede verse un ejemplo: la luz entra en el prisma por la derecha, se refracta y se refleja en sus caras, y se transmite al exterior, recogiéndose el espectro sobre una hoja de papel blanco. En 1814, el físico alemán Fraunhofer observó unas líneas oscuras sobre el espectro del Sol. Estas líneas fueron interpretadas posteriormente, en 1859, por los físicos alemanes Bunsen y Kirchhoff, dando nacimiento a una técnica de análisis de la composición de la materia que ha revolucionado la Ciencia del siglo XX: la Espectroscopía. En la Figura 2 se puede ver el dibujo original de Fraunhofer en el que señala las líneas negras más importantes. Bunsen y Kirchhoff atribuyeron estas líneas a la absorción de la luz solar por los átomos de su atmósfera. La identificación la realizaron asumiendo que cuando los átomos se encuentran en forma de vapor (átomos libres) absorben y emiten luz en las mismas frecuencias. Es decir, cuando en el laboratorio quemamos sodio con el mechero de Bunsen aparece una luz amarilla: emisión de su famoso doblete amarillo. Inversamente, si enviamos luz blanca sobre vapor de sodio, éste absorbe la radiación amarilla del espectro. Esto es lo que pasa en la atmósfera solar. Existen átomos de sodio que absorben dicha radiación y por ello observamos una línea negra doble en el lugar del espectro solar correspondiente al doblete amarillo. La presencia de esta línea negra nos indica que existe sodio en la atmósfera solar. Lo mismo sucede con muchos otros elementos (hierro, hidrógeno, manganeso, ...). La Espectroscopía ha seguido desarrollándose espectacularmente a lo largo de todo el siglo XX y las nuevas técnicas de detección nos permiten disponer de espectros muy precisos tanto del Sol, de estrellas muy lejanas,..., como de substancias en el laboratorio. Un ejemplo es el magnífico espectro visible del Sol proporcionado por la NASA (ver Figura 3). El final de cada fila horizontal empalma con el principio de la fila siguiente y nos proporciona una visión muy amplia del espectro solar con una gran cantidad de líneas negras, líneas que nos permiten identificar los elementos químicos que se encuentran en la atmósfera solar. 167 Enseñanza Figura 1. Sir Isaac Newton (1642-1727) y la descomposición de la luz del Sol al atravesar un prisma de vidrio. Figura 2. Líneas negras de Fraunhofer (1787-1826). Figura 3. Espectro solar proporcionado por la NASA. Imagen astronómica del 23 de abril de 2006 del Observatorio Solar McMath-Pierce. (http://antwrp.gsfc.nasa.gov/apod/ap060423.html). OBTENCIÓN DE ESPECTROS MEDIANTE UNA RED DE DIFRACCIÓN Una red de difracción está constituida por un número grande de rendijas paralelas (líneas), coplanares, de 100cias@uned anchura muy pequeña, con sus centros alineados. La separación a entre dos rendijas contiguas es constante y mucho mayor que su anchura. A la distancia a se le denomina constante de la red (2-3). Las redes utilizadas para el análisis del espectro visible tienen una constante de unas pocas micras (μm). En la Figura 4 se muestra el esquema de un espectrómetro de red (4). La luz que proviene de la lámpara (Sol, estrella,...) cuyo espectro se quiere estudiar se hace pasar por una rendija limitadora. El observador mira a través de una red, paralela a la rendija de entrada y situada a una distancia D de la misma. En la Figura 5 se indica un ejemplo de lo que se observa a través de la red cuando la fuente luminosa es un tubo de descarga de helio (He). La parte central del espectro corresponde al orden cero de la figura de difracción y es la imagen directa del tubo de descarga. A derecha e izquierda vemos imágenes del tubo en diferentes colores que corresponden al primer orden de difracción. Este primer orden contiene las 168 Enseñanza La teoría de la difracción, basada en el principio de propagación de Huygens-Fresnel, proporciona el perfil de intensidad y las posiciones angulares de sus máximos principales1. Éstas obedecen a la siguiente expresión: sen θm = m Figura 4. Esquema simplificado de un espectrómetro de red. λ a ; m = 0, ±1, ... [1] donde θm es el ángulo de difracción correspondiente al máximo principal de orden m para la longitud de onda λ (ver Figura 4). En la Tabla I se muestra un ejercicio de aplicación de la difracción producida por una red para cuatro longitudes de onda del espectro visible. Se ha utilizado una red de a = 3,33 μm, que corresponde a 300 líneas (rendijas)/mm. TABLA 1. SEPARACIÓN ANGULAR PARA LOS MÁXIMOS DE ORDEN 1 Y 2 Figura 5. Espectro de un tubo de descarga de He obtenido a través de una red. líneas de emisión del espectro del He separadas unas de otras. Si pudiéramos extender la imagen a derecha e izquierda, observaríamos más órdenes de difracción con las mismas líneas, cada vez más separadas entre sí y de menor intensidad. Estos órdenes corresponden a lo que se denomina máximos principales de difracción. En la Figura 6 puede verse un esquema de la distribución de intensidad debida a la difracción producida por una red para una sola longitud de onda. Los picos más pronunciados son los máximos principales que representan los órdenes de difracción anteriormente mencionados. Los picos pequeños que aparecen entre medias corresponden a máximos secundarios, cuya intensidad disminuye enormemente cuando aumenta el número N de rendijas iluminadas. Figura 6. Perfil de la intensidad producida por una red de difracción para luz monocromática (la línea de trazo discontinuo corresponde al perfil de la difracción de una sola rendija de la red). 100cias@uned λ (nm) θm = 1 θm = 2 Azul 430 7,41º 14,95º Verde 500 8,63º 17,46º Amarillo 590 10,20º 20,73º Rojo 650 11,24º 22,95º Color En este caso, para una variación de 220 nm en la longitud de onda, hay 4º de variación en el ángulo de difracción en el primer orden y 8º en el segundo. Esta variación es un orden de magnitud mayor que la que se obtiene para el caso de la refracción por un prisma. Sin embargo, hay que señalar que la intensidad que se obtiene a la salida de un prisma es mucho mayor que la que se obtiene con una red de difracción. Dependiendo del espectro concreto a estudiar, se utiliza un dispositivo de prisma o de red. Por otra parte, para poder separar líneas muy próximas, como por ejemplo el doblete amarillo del sodio, debemos tener en cuenta el poder de resolución de los dispositivos. El poder de resolución R está definido como el cociente entre la longitud de onda λ y la diferencia mínima Δλmin entre longitudes de onda que pueden ser separadas, que en el caso de las redes está relacionado con el orden m de difracción y el número N de rendijas iluminadas: 1 Los interesados en el desarrollo matemático del fenómeno de la difracción de la luz pueden consultar, por ejemplo, el libro «Óptica» de E. Hecht. Ed. Addison-Wesley Iberoamericana, 2000. 169 Enseñanza R= λ = mN Δλmin [2] Con el mismo número N de rendijas iluminadas, cuando aumenta el orden m de difracción disminuye la separación mínima Δλmin que se puede resolver. Ahora bien, como disminuye la intensidad al aumentar m, es necesario buscar un equilibrio entre el aumento del poder de resolución (efecto que favorece la observación) y la disminución de la intensidad (efecto que la limita). Con ayuda de una cámara digital y colocando justo delante de su objetivo una red de difracción de unas 500 líneas/mm se pueden obtener los espectros del Sol, de la Luna y, con ayuda de un telescopio, de Júpiter, Marte, ... En la Figura 7 se encuentran los espectros del Sol y de la Luna. Como puede verse, ambos espectros son similares, lo que quiere decir que se trata de la misma fuente luminosa. La Luna refleja esencialmente la luz que le llega del Sol, no tiene luz propia. (Si se logran obtener espectros de los planetas, se puede comprobar que son similares al del Sol.) En estas imágenes no se observan las líneas negras de Fraunhofer porque el poder de resolución del sistema de detección no es suficiente para esta observación. Figura 7. Espectros del Sol y de la Luna, obtenidos con una cámara digital y una red de difracción de 500 líneas/mm. A continuación se coloca una lente convergente de 35 cm de distancia focal, con su plano focal objeto sobre el plano de la rendija. De esta manera, toda la luz que entra en el tubo por la rendija, se difracta y, después de atravesar la lente, sale paralela al eje del sistema. Figura 8. Fotografía de la rendija de entrada utilizada en nuestro espectroscopio. Tras la lente, una red de unas 500 líneas/mm recoge la luz que incide sobre ella perpendicularmente y produce el fenómeno de la difracción (ver Figura 9). Como todos los rayos (luz blanca) inciden con el mismo ángulo sobre la red, todos los rayos difractados de la misma longitud de onda (mismo color) salen paralelos. Si acercamos nuestro ojo a la red, vemos a derecha y a izquierda los órdenes de difracción que caracterizan los espectros así obtenidos. La lente convergente de nuestro cristalino forma parte del sistema óptico: todos los rayos que llegan a él paralelos alcanzan un mismo punto en la retina (ver de nuevo el esquema de la Figura 9). En la Figura 10 puede verse el espectroscopio montado con una lámpara. DESCRIPCIÓN DE NUESTRO ESPECTROSCOPIO En un extremo de un tubo cilíndrico2 hemos colocado una rendija estrecha (de aproximadamente 0,2 mm), construida con dos hojas de afeitar yuxtapuestas montadas sobre el marco de una diapositiva (ver Figura 8). 2 Nosotros hemos utilizado como tubo el de un telescopio (despiezado) de montura azimutal (horizontal), de fácil y barata adquisición en centros comerciales en época navideña. Nuestro tubo ha sido adquirido como un resto incompleto por 1 €. 100cias@uned Figura 9. Esquema de nuestro espectroscopio. 170 Enseñanza Sobre la rendija incide perpendicularmente el rayo láser y se recoge el espectro de difracción que se muestra en la Figura 12 sobre una pantalla situada a una distancia D de la misma. Figura 10. Espectroscopio de fabricación casera. Para poder determinar las longitudes de onda de las líneas espectrales lo primero que tenemos que conocer es la anchura de la rendija de entrada y el número de líneas por unidad de longitud de la red. En el apartado siguiente indicamos cómo se pueden abordar estas determinaciones, lo que constituye el calibrado del espectroscopio. CALIBRADO DEL ESPECTROSCOPIO Figura 12. Espectro de difracción producido por una rendija de anchura b. Los mínimos de difracción de orden m aparecen a distancias dm que cumplen las siguientes relaciones3: ⇒ λ b = m sen θ m [3] De la geometría de la Figura 11 se deduce el valor del sen θm: sen θm = m Determinación de la anchura de su rendija de entrada Para determinar la anchura b de la rendija disponemos de un pequeño láser de He-Ne rojo, de longitud de onda perfectamente conocida ( λ = 632,8 nm), y procedemos como se indica en la Figura 11 [5]. λ b sen θm = m dm √D + d 2 2 m ⇒ b=mλ √D2 + d2m dm [4] Para m = 1, tenemos: b=λ √D2 + d21 d1 [5] En nuestro caso, D = 1 m, d1 = 3,16 mm y λ = 632,8 nm, con lo que la anchura b de la rendija resulta ser de 200 μm. Además, para garantizar el paralelismo de los bordes de la rendija, como su altura es de unos 2 cm, debe hacerse esta determinación a varias alturas (arriba, en medio y abajo) para corregir el posible defecto. Determinación del número de líneas por milímetro de la red de difracción Figura 11. Esquema del montaje experimental para la determinación de la anchura b de la rendija de entrada del espectroscopio. En el mismo montaje de la Figura 11, se substituye la rendija por la red. Sobre la pantalla se observa el espectro de difracción que se indica en la Figura 13. Los puntos brillantes corresponden a los máximos principales de di3 100cias@uned Ver el libro «Óptica» de E. Hecht, anteriormente mencionado. 171 Enseñanza fracción. Sus distancias dm al punto central de la pantalla verifican la ecuación [4] donde se sustituye b por a. De la misma manera se calcula a a partir de la geometría del sistema [5]. Para D = 1 m, d1 = 33,58 cm y λ = 632,8 nm, a resulta ser de 1,988 μm, o lo que es lo mismo, la red tiene 503 líneas/mm. de tomar en consideración solamente los puntos del máximo central cuya intensidad es igual o superior al 50% del valor máximo. En estas condiciones, la anchura del haz que cumple este requisito es de 0,77 mm y, por lo tanto, el número N de rendijas iluminadas es de 385. Substituyendo este valor en la ecuación [3], el poder de resolución de nuestro espectroscopio de red en el primer orden de difracción (m = 1) resulta ser de 385. Es decir, para λ = 500 nm la separación mínima Δλmin que podemos resolver es de 1,3 nm. No podemos resolver el doblete amarillo del sodio, cuyas líneas están separadas 0,6 nm (λ1 = 589,0 nm y λ2= 589,6 nm), pero sí podemos ver líneas espectrales cuya separación en longitudes de onda sea superior al nanometro. OBTENCIÓN DE ESPECTROS Figura 13. Espectro de difracción producido por una red. Determinación del poder de resolución: Por otra parte, para determinar el poder de resolución del espectroscopio necesitamos conocer el número N de rendijas iluminadas, ver ecuación [3]. En nuestro caso particular, para calcular N, número de rendijas iluminadas por el máximo central del espectro de difracción producido por la rendija de entrada, tenemos que tener en cuenta cómo es este espectro. La mancha central tiene la distribución que se indica en la Figura 14. Corresponde a una función sinc2. Figura 14. Distribución de intensidad producida por una rendija. Como no es una función de tipo rectángulo, es decir, la red no recibe la misma intensidad de luz en todos sus puntos, tenemos que elegir un criterio en el que garanticemos que la iluminación de la red es prácticamente uniforme. Entre los posibles criterios hemos elegido el 100cias@uned Además de hacer la observación a simple vista, es conveniente tomar fotografías de los espectros con una cámara digital; es preciso que permita el uso manual de sus funciones (enfoque, apertura, velocidad de obturación, etc…). En nuestro caso hemos utilizado una cámara Nikon Coolpix P90. En la Figura 15 puede verse una composición con los espectros obtenidos para (de arriba abajo) el Sol, un tubo de descarga de hidrógeno, un tubo de helio, otro de sodio y dos láseres de He-Ne, uno rojo (632,8 nm) y otro verde (543,5 nm). En la parte izquierda de la figura se han hecho coincidir los órdenes m = 0 de todas las fuentes luminosas. En la parte derecha se pueden observar los espectros correspondientes al orden m = 1. En el espectro del Sol se observan unas líneas negras, las líneas de Fraunhofer, que se corresponden con algunas líneas de emisión de la serie de Balmer del átomo de hidrógeno (α y β) y con el doblete amarillo del sodio. Una vez realizadas las fotografías de los espectros observados a través del espectroscopio, se puede llevar a cabo el análisis y posterior interpretación de los mismos. Para ello es preciso el empleo de software de edición y de análisis y procesamiento de imágenes para la obtención de curvas de intensidad a lo largo de cualquier segmento seleccionado. En nuestro caso, hemos utilizado PhotoShop para la edición y MatLab para el procesamiento, aunque el empleo de software gratuito es una opción igualmente válida4. En la Figura 16 hemos repre4 Otros programas para el procesamiento de espectros son: SciLab, Visual Spec, SpcAudace, SpIRIS, ... 172 Enseñanza ANÁLISIS DE UN EJEMPLO Figura 15. Espectros del Sol, los tubos de descarga de hidrógeno, helio y sodio y de dos láseres de He-Ne (rojo y verde), obtenidos con una cámara digital y nuestro espectroscopio. Una vez caracterizado nuestro espectroscopio y conocido el procedimiento de medida vamos a utilizarlo para determinar las longitudes de onda de las líneas espectrales Hα y Hβ de la serie de Balmer del átomo de hidrógeno, a partir de dos longitudes de onda conocidas, por ejemplo, de dos láseres de He-Ne comúnmente utilizados en el laboratorio, uno rojo (λ = 632,8 nm) y otro verde (λ = 543,5 nm). El procedimiento a seguir es el siguiente: hacemos incidir sobre la rendija de entrada de nuestro espectroscopio simultáneamente la luz procedente de los láseres rojo y verde y de la lámpara de vapor de agua que emite la serie de Balmer del átomo de hidrógeno. Disponemos la cámara digital de manera que podamos recoger el espectro de difracción en el orden m = 1 (ver imagen de la Figura 17). Según las ecuaciones [4] y [5], los máximos de primer orden para cada una de las longitudes de onda aparecerán para los siguientes ángulos de difracción: sen θi = m λi a (con i = 1, 2) [6] donde a es la constante de la red. A partir de la función seno podemos conocer la tangente del ángulo de difracción, que está relacionada con las distancias l1 y l2 de cada línea al centro del espectro y con la distancia D de la red al plano de observación: tg θi = li D (con i = 1, 2) [7] Por otra parte, de la fotografía obtenemos la distancia l2 – l1 entre las líneas espectrales5, que podemos relacionar con la distancia D y con las tangentes de los ángulos de difracción de la siguiente manera: l2 – l1 = D (tg θ2 – tg θ1) [8] Lo único que desconocemos de esta expresión es la distancia D.6 Despejando, obtenemos su valor. Repetimos el proceso con las líneas Hα y Hβ de la siguiente manera: Figura 16. Perfiles de intensidad de los espectros del Sol, del hidrógeno y del sodio. sentado los perfiles de intensidad de los tres espectros mencionados en el párrafo anterior. Pueden verse las coincidencias de las líneas de absorción (hendiduras) en el espectro del Sol con las líneas de emisión (picos) de los espectros del hidrógeno y del sodio. 100cias@uned li – l1 = D (tg θi – tg θ1) ⇒ tg θi = li – l1 + tg θ1 D (con i = α, β) 5 Para la ampliación concreta de la fotografía utilizada. Para la misma ampliación concreta de la fotografía utilizada. Nótese que es necesario disponer de dos longitudes de onda de referencia, porque lo que utilizamos es la distancia entre las líneas y no las distancia de cada línea al centro. 6 173 Enseñanza CONCLUSIONES Figura 17. Espectros de primer orden de una lámpara de vapor de agua (líneas Hα y Hβ de la serie de Balmer del átomo de hidrógeno) y de dos láseres de He-Ne (rojo y verde). Conocidas las tangentes de los ángulos de difracción correspondientes a las líneas Hα y Hβ determinamos sus respectivos senos, y a partir de ellos, las longitudes de onda buscadas: λi = a sen θi (con i = α, β) [10] En el caso que nos ocupa, para determinar con precisión las posiciones de las líneas hemos utilizado el cursor del programa PhotoShop, pero podría utilizarse cualquier otro programa o procedimiento de medida. Los valores obtenidos para las líneas Hα y Hβ se muestran en la Tabla II, donde se comparan con los proporcionados en la literatura. Como puede verse, la diferencia es muy pequeña, lo que pone de manifiesto que a pesar de ser el espectroscopio propuesto un dispositivo muy elemental, como conocemos con mucha precisión las longitudes de onda de los láseres utilizados, pueden obtenerse valores muy buenos de magnitudes extremadamente pequeñas como son las longitudes de onda del espectro visible. TABLA 2. LONGITUDES DE ONDA DE LAS LÍNEAS ESPECTRALES Hα Y Hβ DE LA SERIE DE BALMER DEL ÁTOMO DE HIDRÓGENO λ (nm) Línea espectral Determinada Literatura Hα 655,15 656,28 0,2 Hβ 484,72 486,13 0,3 (%) 100cias@uned La construcción del espectroscopio, así como los experimentos cualitativos y cuantitativos que proponemos, son de fácil realización y se pueden llevar a cabo desde los primeros cursos universitarios introductorios de Física (4-5). El espectroscopio es muy versátil, dependiendo del nivel de conocimientos científicos de los estudiantes que lo utilicen. De manera cualitativa, se puede poner en evidencia la importancia de la Espectroscopía en el desarrollo de la Física y de la Química a lo largo del siglo XX. Desde el estudio de los átomos en el laboratorio hasta la identificación de los átomos presentes en las atmósferas estelares, lo que ha permitido asegurar que la vida en la Tierra ha surgido de los materiales estelares. De manera cuantitativa, se pueden determinar con bastante precisión las longitudes de onda de lámparas espectrales. Sin embargo, la resolución del dispositivo no es suficiente para separar algunos dobletes como, por ejemplo, el doblete amarillo del sodio. Por último, se puede utilizar como elemento motivador en la enseñanza de la Ciencia: la Espectroscopía ha sido fundamental en el avance de la Astrofísica, pues gracias a sus resultados se han podido determinar el movimiento de las galaxias y de las nebulosas, la constante de Hubble,…, y un largo etcétera. BIBLIOGRAFÍA 1. Sir Isaac Newton: Óptica o Tratado de las reflexiones, refracciones, inflexiones y colores de la luz (Introducción, Traducción, Notas e Índice Analítico de Carlos Solís). Ediciones Alfaguara, S.A., Madrid (1977). ISBN: 84-204-0304-0. 2. E. Hecht: Óptica. Capítulos 4 y 10. Ed. Addison-Wesley Iberoamericana, S.A., 3ª edición, Madrid (2000). ISBN: 84-7829-025-7. 3. C. Carreras Béjar, A. Fernández-Rañada, J.J. GarcíaSanz y M. Yuste Llandres: Física Básica 2. Capítulo 18. Alianza Editorial, Serie: El libro de Bolsillo, nº 1823 (Madrid, 1997). ISBN: 84-206-0823-8. 4. C. Carreras y M. Yuste: Una forma sencilla y natural de iniciar a los estudiantes en la Física Cuántica: obtención y análisis de algunos espectros atómicos. Óptica Pura y Aplicada, 21(2), 167-177 (1988). ISSN: 0030-3917. 5. Carmen Carreras Béjar: El trabajo experimental en la enseñanza de la Física. Revista Española de Física, 20(2), 53-61 (2006). ISSN: 0213-862X. Manuel Yuste Llandres, Carmen Carreras Béjar y Juan Pedro Sánchez-Fernández Dpto. Física de los Materiales 174 Enseñanza 100cias@uned N.º 2 Enseñanza (nueva época) | 2009 ISSN: 1989-7189 TALLER Y LABORATORIO TALLER DE MATEMÁTICAS LABORATORIO DE MATEMÁTICAS VÍA INTERNET: UN RECURSO INACABADO Al lector le sorprenderá la numeración de los apartados de este trabajo, y la ubicación de cada apartado dentro del conjunto. Si hemos optado por presentar primero el apartado 5 es para mostrar el contenido tecnológico, a modo de escaparate, y que el lector decida si este trabajo tiene suficiente interés como para leer la filosofía educativa en el que se sustenta. Sin duda, una lectura adecuada debería seguir el orden natural de apartados, y así lo sugerimos. hace suya la aplicación informática que se instancia en cada laboratorio. La colaboración de profesores con el autor no sólo no queda descartada si no que sería bienvenida. El objetivo en este caso es: El estudio de la gráfica de algunas funciones reales de variable real. Ya se ha mencionado que los módulos son independientes, es decir, no es necesario desarrollar uno antes de desarrollar otro, aunque si es conveniente hacer una utilización secuencialmente de módulos desde un punto de vista educativo. Todos los módulos presentan características comunes con el fin facilitar la manipulación de los objetos presentes en la pantalla de cada módulo. Éstas son: 5. EL ENTORNO DE EXPERIMENTACIÓN CON GRÁFICAS DE FUNCIONES — Cada módulo se inicia presentado el título y un cuadradillo de selección, Menú Principal, que permite hacer visible el menú principal del módulo, mediante su marcado. Todo a lo que se alude en los apartados 1-4 debe sugerir, más o menos, al lector la seriedad que debe aplicarse en los procesos de innovación docente al emplear laboratorios virtuales. No se puede llegar a pensar que una herramienta virtual es una herramienta educativa por sí misma. Negamos como innovación docente la simple novedad de utilizar, sin control educativo, un laboratorio virtual. Si el laboratorio se emplea en procesos de enseñanza no presencial los controles deben ser más rigurosos, puesto que las dificultades didácticas en las que puede caer cualquier alumno suelen ser indetectables en la enseñanza a distancia, mientras que en la enseñanza presencial se detectan en un corto plazo de tiempo. Procedemos a mostrar una ejemplificación que permita al lector entender las consideraciones previas que son formuladas en los restantes apartados de este trabajo. Nuestro objetivo es hacer visible algunos módulos independientes con el fin de presentar algunas situaciones de simulación aproximada. No describiremos el protocolo de uso, ni siquiera lo insinuaremos, para que cada profesor idee la utilización del laboratorio según su propio interés y el de sus alumnos. Si esto es así, el profesor — Al desmarcar el cuadradillo del menú principal desaparecen las opciones de éste. Esto permite no entorpecer el seguimiento visual de cada experimentación. — Cada una de las opciones del menú principal de cualquier módulo habilita, mediante el marcado del algún cuadradillo de selección, un submenú o alguna acción gráfica o textual. 100cias@uned Científica Enseñanza 175 Vida — — — — El título y los créditos se ocultan al desmarcar el cuadradillo Título del menú principal. — La función objetivo del estudio de cada módulo es elegida por el usuario sin tener que teclear nada. Esta función está constituida por una o dos funciones auxiliares cuyas expresiones son modificables. Además, se puede hacer visible la gráfica de cada una de las funciones auxiliares. — Las gráficas de las funciones auxiliares son visibles o no, aunque inicialmente están ocultas. Lo mismo ocurre con sus expresiones algebraicas. Esta operatividad permite diseñar prácticas que se basen en establecer relaciones oportunas de las funciones auxiliares con la función principal. — Para cada función auxiliar se utiliza un color, tanto para su expresión como para su gráfica. 100cias@uned — Un color distinto para cada función auxiliar y distinto del de la función principal (color negro). El submenú correspondiente a una función auxiliar se escribe con letra del mismo color que la gráfica. Esta característica persigue que identifique todo lo concerniente a una función con un código de color. Las funciones auxiliares de aquellos módulos que las utilizan son funciones polinómicas. Inicialmente, todos los coeficientes de una función auxiliar son nulos. Un coeficiente puede, y debe, ser modificado al actuar sobre un deslizador cuyo desplazamiento está acotado en un intervalo [-a,a]. Este deslizador tiene un nivel de sensibilidad de dos decimales. Los deslizadores relativos a una función pueden quedar visibles aunque las opciones de los menús estén ocultas. Esto posibilita experimentar con funciones de gráficas similares y comprobar algunas variaciones gráficas significativas. — El índice de la raíz empleada en los módulos de funciones irracionales varía según la posición de un deslizador. Inicialmente, el índice de raíz es dos y toma valores enteros en el intervalo [2,20]. Este deslizador puede estar visible aunque las opciones de los submenús estén ocultas. 5.1. Módulo 1: Función polinómica Este módulo está dedicado a presentar gráficas de funciones polinómicas de grado menor que ocho, es decir, aquella gráfica de función cuya expresión es un polinomio. 176 Enseñanza La opción Coeficientes de la función del menú inicial permite activar los deslizadores que se usan para variar los coeficientes del polinomio. Todas las opciones y herramientas del módulo pueden ser visibles al mismo tiempo, si bien, la ventana puede quedar muy cargada información. Sólo si la opción Gráfica de la función está marcada es posible ver la gráfica de la función. Esto mismo sucede con la expresión de la función, pues para que ésta sea visible se marca la opción Expresión de la función. 5.2. Módulo 2: Función racional La opción del menú principal Factores de escala habilita un menú que posibilita modificar el factor de escala tanto para los valores en los que se calcula la función, donde x es sustituida por x/p1, como la escala que se le aplica a la gráfica, donde se muestra e1 f (x) en lugar de f (x). Esto se ejecuta sin hacer uso de cambios de escala en los ejes coordenados. Esta opción permite desarrollar una práctica en la cual la apariencia gráfica se mantiene aunque se modifiquen dichos factores. 100cias@uned Este módulo es el correspondiente al estudio de las gráficas de funciones racionales, es decir, aquellas funciones cuyas expresiones son un cociente de dos funciones polinómicas de grado menor que cinco. Las opciones Función numerador y Función de nominador del menú inicial permite activar los submenús correspondiente a las funciones auxiliares numerador y denominador. Con las opciones de estos submenús se habilitan los deslizadores para modificar los coeficientes de cada polinomio y hacer visible la correspondiente gráfica. 177 Enseñanza 5.3. Módulo 3: Función raíz de un polinomio En este módulo se tratan las gráficas de funciones definidas por la raíz de una función polinómica de grado menor que ocho. Inicialmente, el índice de la raíz es dos. La opción Función radicando del menú inicial permite activar un submenú donde se habilitan los deslizadores de modificación de coeficientes. También permite activar la visualización de la gráfica de la función auxiliar. Las opciones Gráfica de la función y Expresión de la función actúan de la misma forma que las descritas en el módulo anterior, si bien, en este caso tratan la función racional definida. Es posible dejar visibles los deslizadores, sin nada más, para poder experimentar con familias de funciones racionales. 100cias@uned La opción Variar índice de la raíz permite hacer visible el deslizador que posibilita la variación de dicho índice. 178 Enseñanza La opción Gráfica de la función actúa de forma análoga que en módulos anteriores, si bien, en este caso se trata la función irracional con radicando polinómico. 5.4. Módulo 4: Función raíz de una función racional Este módulo se dedica al estudio de las gráficas de funciones definidas por la raíz de una función racional. En este caso las funciones numerador y denominador tienen las mismas restricciones que en el módulo 2, es decir, son dos funciones polinómicas de grado menor que cinco. La opción Función radicando del menú inicial permite activar las opciones Función numerador y Función denominador para tratar con las funciones auxiliares numerador y denominador, y posibilitar el ver la gráfica del radicando. Si se dejan visibles los deslizadores únicamente, se facilita el diseño de experimentos con familias de funciones irracionales. También se pueden tener visibles todas las opciones y herramientas del módulo, aunque la ventana del laboratorio pueda quedar muy cargada de información. Las restantes opciones operan de forma similar a las de igual nombre existentes en módulos anteriores. 100cias@uned 179 Enseñanza La opción Variar índice de la raíz permite hacer visible el deslizador que posibilita la variación de dicho índice. 1. INTRODUCCIÓN 5.5. Un ejemplo de utilización El reto que se quiere visualizar es: «Valore mediante una estrategia gráfica el posible valor de la expresión: lim √n. » n→⬁ En esencia, consiste en dibujar la función f (x) = x, como función radicando, y analizar la gráfica de las funciones de expresión f (x) = n— n— √x, para estimar el conjunto de valores [lim √x, n ∈ N], n→⬁ — y determinar inf [lim √x, n ∈ N]. n→⬁ 100cias@uned Dar respuesta a tres preguntas básicas constituye el problema esencial de todo profesor: ¿Cómo se aprende?, ¿en dónde se aprende? y ¿cuándo se aprende? Poder formular una respuesta coherente obliga a determinar una estrategia que se basa en el desarrollo secuencial de actuaciones didácticas. Ahora bien, de cualquier respuesta didáctica emergen otras tres nuevas preguntas: ¿Cómo se enseña?, ¿en dónde se enseña? y ¿cuándo se enseña? Este conjunto de seis preguntas establece el marco inicial de referencia para cualquier trabajo educativo. Desarrollar un laboratorio, catalogado de virtual, accesible vía red para uso educativo no libera a su constructor de dar respuesta a las preguntas anteriores. Disponer de un laboratorio remoto, con el cual cualquiera puede interactuar, establece un entorno más o menos experimental, que palía la dificultad de acceso a la experimentación directa. Ahora bien, un experimento en vivo, realizado en un laboratorio real requiere establecer ciertas normas de seguridad. Esto es así puesto que en el transcurso de la experimentación se pueden producir daños físicos que pueden ser irreparables. En los laboratorios virtuales no se producen tales daños físicos, pero no disponer de ciertas normas de utilización, mediante un protocolo claro, o no seguir ese protocolo de experimentación puede generar daños educativos que pueden ser irreparables en la práctica. Aprender corresponde a una acción del individuo y la experimentación es una vía para aprender. Parece que favorecer la experimentación del individuo asegurando la ausencia de daños físicos es suficiente para modificar «adecuadamente», o favorecer, el aprendizaje. Ahora bien, si se disponen de recursos suficientes con los que experimentar y cada individuo tiene acceso a ellos, cabe 180 Enseñanza preguntarse: ¿Por qué se enseña? La respuesta es inmediata y corresponde a un «instinto vital» de toda sociedad como ente vivo que es. Una sociedad, o un grupo social, no es una simple unión de individuos, pues ésta se basa en el conjunto de interrelaciones de sus componentes y las relaciones con otras sociedades. Una sociedad que no desee desaparecer en poco tiempo debe perpetuar sus principios fundacionales, por un lado, y adaptarse adecuadamente a las sociedades vecinas con las que se relaciona, por otro. Éstas son obligaciones vitales, por ello se establece máxima prioridad a los procesos de enseñanza de los principios básicos a las nuevas generaciones que emergen en el seno social. Esto obliga que la enseñanza se adapte en todo instante al momento histórico del entorno social. En general, los principios básicos suelen ser expresables en términos de conocimientos tanto generales como específicos y de la utilización práctica de estos conocimientos. Podemos destacar como ejemplo la necesidad existencial de la adquisición del conocimiento relativo al ecosistema que tienen los individuos de los grupos sociales indígenas del Amazonas para asegurar la supervivencia del grupo, así como el empleo de dicho conocimiento. El conocimiento relativo a una sociedad compleja como las sociedades modernas no es acumulable en un individuo, por ello se requiere actuar sobre todos los nuevos miembros con el fin de minimizar pérdidas del conocimiento de una a otra generación. Si bien existen mecanismos tecnológicos suficientes para asegurar el almacenamiento de esos conocimientos, no es menos cierto que dichos conocimientos no se transforman en sabiduría si no existen individuos que los empleen. La falta de utilizadores genera pérdidas prácticas que en algunos casos no son sustituibles por otras prácticas, y hay que redescubrirlas cuando se vuelvan a necesitar. Aun asegurando la aplicación un considerable esfuerzo económico y humano a la enseñanza, no siempre se genera el aprendizaje necesario para no depender del cambio generacional. Esto depende en gran medida de la actitud de los individuos y de la algorítmica aptitudinal que se haya empleado en el proceso de enseñanza. Hemos obviado la referencia a cuestiones como: ¿qué se aprende?, ¿qué se enseña?, ¿para qué se aprende? y ¿para qué se enseña? Pues es tarea de cada grupo social y de cada individuo marcar sus objetivos específicos en la medida que responden a sus deberes sociales. En este artículo tan sólo afrontamos parte del conocimiento matemático como objetivo social. 100cias@uned 2. DIFICULTADES EN EL APRENDIZAJE Y EN LA ENSEÑANZA DE LAS MATEMÁTICAS La capacidad del individuo es sin duda un factor importante a la hora de producirse aprendizaje matemático. ¿Quién aprende? Podemos decir que aprende matemáticas quien está preparado para aprender más que quien quiere aprender. Sin duda, querer acceder a estos conocimientos es una condición necesaria para que se produzca su aprendizaje. La sólida belleza de las Matemáticas no es un factor desencadenante del aprendizaje en todos los individuos. Esta belleza tan sólo mueve a quienes atesoran cierta cantidad de conocimiento matemático. Podemos realizar una analogía con las bondades de un nuevo tipo (o marca) de cerveza, quizás cualquier bebedor prudente la pruebe y sepa apreciarla. Sin embargo, cualquier niño la repudia directamente por amarga. Las Matemáticas disponen de bases del conocimiento matemático (científico) y de reglas propias, que rigen dichos conocimientos, iniciadas en los tiempos de los clásicos griegos. No podemos renunciar a ellas, ni obviarlas, a la hora de aprender matemáticas, y menos en actuaciones que son catalogadas como actuaciones didácticas. Otra cosa es el rigor matemático que debe ser empleado en cada etapa educativa. Es la autoridad académica quien establece el nivel de rigor requerido en cada momento, pero ninguna autoridad está capacitada para cambiar el significado de los objetos matemáticos, aunque pueda emplear objetos aproximados suficientemente manejables. No renunciar a las reglas matemáticas en el proceso de aprendizaje genera algunas dificultades didácticas independientes del individuo que aprende, pues están relacionadas con la naturaleza de los conceptos matemáticos. En algunos casos, las dificultades se derivan de la necesaria restricción del lenguaje natural al entorno matemático para poder precisar este tipo de conocimiento, o del nivel de formalización de estos conceptos o del rigor demandado. Estas son dificultades temporales y puntuales que se solventan en poco tiempo. En otros casos, las dificultades están presentes en cualquier sociedad sin importar el momento histórico ni la situación social. Son dificultades intemporales y universales dentro del conocimiento matemático. Este último tipo de dificultad condicionan fuertemente el aprendizaje, y el alumno aislado las afronta con una estrategia más o menos memorística con poco, o ningún, significado personal. 181 Enseñanza Otra vez resulta ser factor importante la capacidad del que aprende a la hora de producir el proceso de enseñanza matemática. Es fácil comprobar en el día a día de un profesor que enseñar a determinados individuos es más costoso que a otros. ¿Quién enseña? Al enseñar Matemáticas no sólo se tropieza con las dificultades personales de cada alumno, si no con las dificultades universales. Se intenta mitigar todas las dificultades aplicando las herramientas didácticas y tecnológicas disponibles en cada momento en la sociedad o grupo. Es el agente enseñante quien determina el empleo de las herramientas técnicas disponibles en relación a la capacidad de quien aprende. Como ejemplo, podemos citar la estrategia educativa que empleaba Sócrates con sus discípulos: Solicitaba la búsqueda de respuesta a las preguntas que secuencialmente planteaba. Conducía sus razonamientos para que pudieran llegar al entendimiento de las cuestiones en profundidad, a la elaboración de posibles soluciones y a la comprobación de la coherencia de éstas. Hoy en día las matemáticas se reflejan como el aglomerado de conocimiento algorítmico por excelencia, siendo el carácter finito y manipulador de sus elementos «abstractos» lo más destacado y recordado por quienes las estudiaron. Esta concepción forma parte del subconsciente común de nuestra sociedad; sin embargo, esto no es cierto en la actual sociedad tecnológica. Pongamos un ejemplo: El concepto de medir de la Grecia clásica se corresponde a lo que hoy en día podemos aludir por contar el número de veces que se empleaba un elemento patrón (unidad). De hecho, en este sentido, sólo son conmensurables las cantidades enteras positivas y las proporciones positivas. Podríamos decir que algo era medible si puede establecerse algún mecanismo de conteo, de forma análoga a la manera de aproximar el área de una sala contando el número de baldosas del suelo. Este proceso contador se colapsaba con el simple hecho de intentar medir la diagonal de un cuadrado, apareciendo los inconmensurables. Hoy, veinticuatro siglos después, tenemos completamente formalizado el concepto de número real y de medida, y no desde hace mucho. Hoy asumimos que tales conceptos son componentes fundamentales del pensamiento matemático presente en nuestra sociedad. 3. APRENDIZAJE Y COMPETENCIA MATEMÁTICA Existen áreas de conocimiento matemático de carácter algorítmico-algebraico y otras cuya base se sus- 100cias@uned tenta en conceptos que han ido siendo elaborados a lo largo de los últimos siglos, entre estas últimas se encuentra el Análisis o Cálculo Matemático. Si bien el Análisis tiene una praxis algebraica que el alumno capta con relativa facilidad, también tiene una estructura conceptual profunda, que pasa inadvertida a la mayoría de los estudiantes e, incluso, profesores de Enseñanza Secundaria o de Universidad. Si en el proceso de enseñanza tan sólo se hace hincapié en las reglas algebraicas, entonces, el alumno sólo aprende la manipulación de los objetos, abandonando sus significados intrínsecos por cuestión de economía de esfuerzos. Si en algún momento ese alumno debe enseñar ese conocimiento, únicamente generará estrategias manipulativas, que pueden caer en un sin sentido, donde algunas cosas son válidas porque sí, y otras no son válidas porque no. El que aprende debe ampliar su forma de pensar al tratar con ciertos objetos matemáticos. Parte de estar familiarizado con un tipo de razonamiento tipo discreto y debe adquirir una forma de razonar que le permita tratar cuestiones de carácter continuo. El que enseña debe favorecer de alguna forma esa transformación (o evolución) de pensamiento. Así pues, el alumno necesita evolucionar en su forma de pensar con los objetos del Análisis Matemático si quiere ser competente en esta área matemática. Sin duda, la competencia requiere familiarizarse con esa naturaleza profunda para poder detectarla en las diversas situaciones donde aparece. Ante la necesidad de esta adaptación, aparece la dificultad didáctica Efecto Frontera descrita por la desaparición de los conceptos propios del Análisis. En consecuencia se desarrolla la creencia de que el aprendizaje del Cálculo se transforma en una algebraización de sus elementos. Un ejemplo elemental se muestra en el caso de las funciones, donde no se distingue el concepto de función de su expresión algebraica, fórmula para muchos, sin ser relacionadas con sus distintas representaciones. Sorprendentemente, esta dificultad perdura mucho tiempo entre las creencias del alumno, y permanece activa a lo largo de su desarrollo académico si no se ataja adecuadamente. Una cierta razón de este perdurar es que la praxis empleada en la enseñanza es bastante algebraica una vez que se parte de los resultados adecuados. Sin embargo, es necesario que el alumno sepa elegir los resultados de partida y la razón de su elección. Al faltar esta parte esencial, se genera cierta inseguridad en los alumnos. No pueden analizar con profundidad los problemas y llegar a conclusiones satisfactorias en las que el nuevo co- 182 Enseñanza nocimiento se encuentre entroncado en su pensamiento de forma coherente y eficaz. En ese caso, nos encontramos con alumnos que sólo solventan satisfactoriamente los problemas cuando se redactan en planteamientos muy teóricos o próximos al planteamiento teórico. 4. ENSEÑANZA MATEMÁTICA CONCEPTUAL Y VISUAL Asegurar que el estudiante aprende los significados de los conceptos y de los resultados es la vía apropiada para que estos adquieran las competencias tanto en Matemáticas como en sus aplicaciones. El profesor, emulando a Sócrates, paseando o no, debe acompañar al estudiante en su aprendizaje, suscitando preguntas que le lleven a plantearse cuestiones y debe ayudarle a buscar las respuestas aunque su modelo de enseñanza sea no presencial. La finalidad última debe ser que aparezcan las habilidades y las competencias para que el alumno afronte situaciones que no pueden ser previstas en el aula, pues existen una enorme cantidad de ejemplos, situaciones, y diversidad de los objetos a los que se puede aplicar una definición concreta o un resultado. Esta finalidad no cambia si no existe el aula como lugar de encuentro físico, es decir, en la enseñanza no presencial. ¿Cómo puede el profesor de enseñanza no presencial inducir en el alumno las ideas que se aplicarán a distintos casos? Empleando alguna Ingeniería Didáctica adecuada a cada concepto, que represente un reto para el alumno de adquirir el conocimiento y generar sus conclusiones. Esta ingeniería debe verificar que lo aprendido es correcto y coherente con lo que se pretende aprender. Además, debe ser compatible con los tiempos de aprendizaje empleados por sus alumnos, es decir, con el empleo de estudios discontinuos y estudios no sincronizados con la disponibilidad del profesor. La respuesta a la que aludimos se corresponde con el empleo de laboratorios virtuales vía Internet. Una respuesta basada en las necesidades de un aprendizaje conceptual y referenciada como un proyecto dentro del marco IV Proyecto de Redes de Innovación Docente de la UNED, correspondiente al curso 2009-2010. Nos referimos a laboratorios virtuales específicos donde se experimente con sus normas de empleo que aseguren la adquisición del conocimiento base, y sus guías cronométricas que orientan la velocidad de aprendizaje y sugieren tiempos de interacción suficientes. 100cias@uned Esa respuesta corresponde a la oportuna utilización de: — El Entorno Virtual disponible, en nuestro caso, los entornos virtuales de la UNED. — El Entorno de Experimentación Conceptual Aproximado, compuesto por múltiples módulos de simulación, cuya finalidad es experimentar mediante simulación de la información Matemática usando applets Java. — El Entorno de Soporte Didáctico, compuesto por el conjunto de guías didácticas que contienen los protocolos de utilización para que el alumno asuma el reto de su aprendizaje, siguiendo un método de preguntas y respuestas inspirado en el método al que aludíamos al principio del trabajo. Este proyecto tiene una estructura modular ampliable, bien con nuevos módulos temáticos bien con otras aplicaciones internet, o bien con nuevos retos o utilizaciones. En un núcleo básico, a cada módulo le corresponde básicamente un applet y un protocolo de uso con los que se desarrollan distintas aproximaciones al concepto, con los cuales tendrá que trabajar el estudiante y tendrá que hacer pruebas hasta que el concepto haya sido manejado y aprendido. Es el cuidadoso diseño del protocolo de utilización lo que posibilita la función de acompañamiento y sugerencia al alumno. Los applets son concebidos dentro del marco de Visualización de los Conceptos Matemáticos, de forma que al utilizar las capacidades gráficas del ordenador se permita una adquisición abductiva de la aceptación de conocimiento tratado. Además, al emplear la capacidad de emular fenómenos continuos a partir de la discretización natural del proceso digital, se permite acceder al alumno a un nivel de experimentación y recreación de los conceptos. En esencia, la labor de sugerencia en las visualizaciones y su interactividad aumentan las posibilidades de aprendizaje del alumno que interactúa con el módulo de aprendizaje. Destacamos que la función pedagógica no descansa en la repetición similar a la de un libro de ejercicios, sino en la estimulación a la reflexión por medio de la observación de un fenómeno experimental y aproximativo que el applet posibilita y el protocolo adjunto sugiere. El Entorno de Experimentación compuesto por el conjunto de módulos forma un entorno visual, dinámico e interactivo con posibles funcionalidades colaborativas, que guía al alumno en la toma de contacto y aprehensión de los conceptos. A la hora de tratar con aproximaciones gráficas, entendemos que «visualizar» no es un sinónimo de ver, 183 Enseñanza sino de adquirir conocimiento. Visualizar un concepto es almacenar toda la información del concepto codificada dentro de una imagen. Para recordar dicho concepto, tan sólo hay que acceder a la imagen evocadora y decodificar la información. La imagen portadora es necesaria para que se produzca el proceso de visualización y no es más que una representación aproximada del concepto. Es una representación concreta (o particular) no necesariamente genérica. Suele ocurrir que se muestra una imagen portadora y que el estudiante ve una simple imagen sin información añadida, puesto que la simple transmisión de la imagen portadora no pone en marcha el proceso de visualización del receptor. Se requiere una secuencia de preguntas o retos adecuados para iniciar la decodificación de ese tipo de imágenes. La imagen de un ejemplo y la elección de los ejemplos son cruciales en cada módulo en el primer contacto del alumno con el saber simulado. Ni vale cualquier imagen ni vale cualquier ejemplo como punto de partida. Se requieren aquellos que tengan una propiedad arquetípica y que representen de forma clara la propiedad que se desarrolla, es decir se hacen necesarios los denominados «ejemplos arquetípicos». Sólo mediante una cuidada selección de la presentación podemos lograr los fines que nos proponemos para que el alumno genere su propia imagen fruto de la compresión y reflexión. No obstante, una vez trabajado el ejemplo propuesto de inicio se desarrollan otros usos con el mismo applets, admitiendo cambios de ejemplo para ampliar el conocimiento del alumno y situar nuevos elementos conceptuales en conexión con el adquirido. El uso de un applet no sólo sirve para presentar de forma gradual un concepto, si no que puede ser usado para presentar variaciones ejemplificables y contraejemplos. Esto permite que el profesor, aun en la distancia, pueda desarrollar una estrategia de acompañamiento del alumno muy útil. Se presenta la base suficiente para que el estudiante mediante la analogía pueda obtener resultados distintos a los que ha visto o rechazarlos justificadamente, es decir, haya alcanzado un nivel de madurez y unas habilidades que le permitan analizar otros casos. Nada más opuesto a la enumeración tradicional de conceptos perfectamente enunciados donde el alumno los «traduce y aplica» a los ejemplos. Lo sugerido con las técnicas de visualización ayuden a extraer el concepto y, una vez descubierto, tan sólo se tiene que formalizar la idea que 100cias@uned ya se posee. El proceso que proponemos es más respetuoso con la Teoría del Conocimiento y con el proceso histórico, pues si se acude a las fuentes que han dado a lugar a los conceptos, se descubrirá que el método que seguimos es el más natural, aunque se emplee tecnología informática. La presentación inicial de conocimiento que realizamos ni es de tipo deductivo ni es de tipo inductivo; de hecho, perseguimos una adquisición de conocimiento empleando procesos de abducción, es decir, empleamos un método heurístico en el que el alumno sea llevado al concepto y no al revés, de la misma forma en que el alumno se ha hecho consciente del mundo que le rodea. El alumno debe crear su propia imagen portadora de la información relativa al concepto. Por supuesto, los ejemplos arquetípicos no cubren la variedad de posibilidades de los ejemplos con los que el Análisis Matemático trabaja y aparecen algunos ejemplos «patológicos», al igual que los números irracionales en los griegos. Estos son fundamentales en un segundo o tercer nivel de conocimiento, pero deben de ser evitados en primera aproximación para permitir al alumno un primer nivel de visualización. BIBLIOGRAFÍA 1. Matemática Visual: El aprendizaje del concepto de derivada de una función en un punto mediante el desarrollo de una ingeniería visual. M. Delgado Pineda. Proc. de Informática Educativa, UNED (Madrid, España, 2009). 2. Objetos Matemáticos dentro del marco de una Matemática Visual. M. Delgado Pineda. Proc. de EDUMAT 2009 (Buenos Aires, Argentina, 2009). 3. Representation, vision and visualization cognitive functions in mathematical thinking: Basic issues from learning. R. Duval. Procceding (021) ERIC P. (México, 1999). 4. Historia de la Matemática. C.B. Boyer. Alianza Editorial (Madrid, 2001). 5. Elementos de Historia de las Matemáticas. N. Bourbaki. Alianza (Madrid, 1995). 6. Calculus. M. Spivak. Ed. Reverté, S.A. (Barcelona, 1982). 7. Principios de Análisis Matemático. E. Linés. Ed. Reverté, S.A. (Barcelona, 1983). 8. Analyse Mathématique: Fonctions d’une variable. G. Chilov. Éditions de Moscou. (Moscú, 1978). Miguel Delgado Pineda Dpto. de Matemáticas Fundamentales 184 Enseñanza 100cias@uned N.º 2 Enseñanza (nueva época) | 2009 ISSN: 1989-7189 NUEVAS TECNOLOGÍAS EN LA ENSEÑANZA EL PORTAL FisL@bs: UNA RED DE LABORATORIOS VIRTUALES Y REMOTOS DE FÍSICA 1. INTRODUCCIÓN Los laboratorios online son unos recursos que ya pueden considerarse bien asentados en varias disciplinas científicas y técnicas, gracias a la ayuda que ofrecen a la hora de ilustrar fenómenos científicos que pueden requerir un equipo costoso y/o difícil de montar, tal y como ocurre en [1] y [2]. La configuración ideal para estos laboratorios online es que consistan en dos partes distintas: el experimento simulado y el experimento real, controlado de forma remota. A pesar de que las simulaciones cumplen un importante propósito, los laboratorios reales no pueden ser sustituidos únicamente con esta herramienta, especialmente en algunos campos como las ciencias físicas, donde el comportamiento y la respuesta real de los componentes que conforman un experimento son factores cruciales [3]. Por otro lado, aunque los laboratorios remotos (encargados de llevar los recursos de un laboratorio al hogar de los usuarios [4]) pueden perfilarse como un mejor sustituto o complemento de los laboratorios reales, los laboratorios virtuales tienen aún su utilidad. La simulación de los experimentos juega un papel fundamental como un recurso que se usa como primer contacto con el fenómeno que se desea estudiar. Las simulaciones relacionadas con el campo de la física han experimentado un gran aumento tanto en número como en calidad gracias, principalmente, a la aparición de los applets de Java. En [5] y [6], se presentan cientos de experimentos y procesos simulados en muchos de sus campos. Sin embargo, los anteriores trabajos no consideran de manera específica el experimento real asociado. Otros trabajos recientes se centran en el uso e introducción de los ordenadores en los laboratorios de física para recoger y analizar datos ([7], [8]) pero no los usan con el objetivo de la enseñanza a distancia. Final- 100cias@uned mente, la mayor parte de los laboratorios remotos existentes actualmente relacionados con la física, todavía poco numerosos, son experimentos individuales ([9], [10]) o se limitan a un único campo de la misma, como la óptica ([1], [11]) o la electrónica ([12], [13]). Además, ninguno de los trabajos antes mencionados ofrecen el equivalente simulado de cada experimento ni tampoco un entorno web de experimentación que contenga un sistema de gestión de aprendizaje (LMS, por sus siglas del inglés Learning Management System) y sólo en [14] los experimentos se presentan de una manera similar a la que se lleva a cabo en un laboratorio convencional para estudiantes: introducción, teoría, ejercicios y problemas, actividades de laboratorio, análisis, discusión y material de referencia. La UNED ofrece a estudiantes españoles repartidos por todo el mundo la posibilidad de realizar docenas de grados y postgrados a distancia. Por tanto, esta Universidad tiene una gran necesidad de recursos y métodos de educación a distancia y se encuentra siempre en disposición de investigar y analizar cómo mejorar estos aspectos. FisL@bs es un ejemplo de ello. Gracias a la colaboración del Vicerrectorado de Calidad e Innovación Docente y a varios Departamentos de la Facultad de Ciencias y de la Escuela Superior de Informática de la UNED, este proyecto nace con la intención de mejorar el servicio de enseñanza a distancia en el contexto del Espacio Europeo de Enseñanza Superior, el cual estimula el trabajo práctico individual (satisfecho en FisL@bs por medio de los laboratorios remotos y virtuales) sin perder de vista la importancia de pertenecer y colaborar con un grupo de trabajo (asegurado en FisL@bs gracias al uso de un LMS). FisL@bs es una red distribuída de laboratorios, tanto remotos como virtuales, destinados a la educación superior de ciencias físicas a través de Internet. Usa un sencillo LMS (eMersion) a fin de ofrecer canales de comunicación entre los estudiantes y los profesores y de hacer accesible desde un mismo entorno las referencias, teoría y ejercicios necesarios. Esta red, que pretende ser distribuída entre varias universidades españolas, usa la misma estructura que AutomatL@bs [15], una red de laboratorios remotos y virtuales para la enseñan- 185 Enseñanza za/aprendizaje de ingeniería de control, que lleva operativa desde hace más de tres años y que ofrece experimentos tan interesantes como el sistema de tres tanques [16]. FisL@bs da a los estudiantes la posibilidad de realizar experimentos interactivos en diferentes campos de las ciencias físicas, tanto de un modo real pero remoto, como de un modo virtual y simulado. El modo de acceso a los laboratorios es un navegador web compatible con Java y con conexión a Internet, lo cual supone unos requisitos tan bajos y simples que garantiza el acceso a estos recursos a todos los estudiantes prácticamente desde cualquier sitio y en cualquier momento. Como parte del proyecto FisL@bs, están siendo desarrollados varios laboratorios con experimentos diversos: un banco óptico motorizado para la determinación de la distancia focal de lentes delgadas, un experimento para la comprobación de las leyes de la reflexión y la refracción de la luz (ley de Snell), un péndulo rígido, una tabla XYZ (similar a una fresadora) que se usará para medir distribuciones de potencial sobre una hoja de papel resistivo con diferentes configuraciones de campos electrostáticos, un experimento sobre la ley de Hooke, etc. Como se ha mencionado anteriormente, todos estos laboratorios serán accesibles simplemente por medio de un navegador web. Cada uno de estos laboratorios precisa de distintos materiales y herramientas para sus montajes reales y se requiere además que puedan ser controlados de forma remota. A fin de reducir costes y facilitar la fabricación e implementación de los mismos, algunos de los experimentos anteriores (por ejemplo, el relativo a la ley de Hooke y el que usa la fresadora) se han creado usando piezas de Lego Mindstorms. Otros se han construido con piezas de aluminio, controladoras y motores paso a paso, sensores de fuerza y de voltaje, etc. En todos los casos, el hardware es siempre controlado utilizando instrumentos virtuales de tiempo real programados en LabVIEW, un lenguaje de programación gráfica especialmente diseñado para desarrollar sistemas de instrumentación, análisis y adquisición de datos. La interfaz gráfica de usuario (GUI, por sus siglas del inglés Graphical User Interface) usada para experimentar de forma remota con estos laboratorios es una interfaz Java creada con Easy Java Simulations (EJS), un programa escrito en Java que ayuda a crear simulaciones interactivas en Java, principalmente para objetivos de enseñanza y aprendizaje [17], [18]. Los experimentos virtuales correspondientes a cada experimento remoto 100cias@uned también se crean usando EJS. Para alojar las interfaces de EJS y para publicarlas en Internet se usa eMersion [19], un marco de trabajo que facilita el desarrollo de escenarios pedagógicos y recursos de enseñanza para la experimentación web en educación. Finalmente, para realizar la comunicación entre los programas de EJS y los instrumentos virtuales de LabVIEW, se hace necesario utilizar también una herramienta basada en un software que use un servidor Java-Internet-LabVIEW de interconexión. Esta herramienta (que consiste en una aplicación llamada servidor JIL [20] y un fichero de librería Java) utiliza LabVIEW [21] en el lado del servidor (donde el experimento real está localizado), applets de Java en el lado remoto del cliente (el ordenador del estudiante) y el protocolo TCP/IP como mecanismo de comunicación entre ambos elementos. De este modo se conectan las variables definidas en Java con los controladores e indicadores establecidos en LabVIEW. Uno de los experimentos que ya se encuentran operativos es el diseñado para estudiar la ley de Hooke. Los kits de robótica de Lego, empleados en este montaje, se han usado ya en varios proyectos de ciencia e ingeniería tales como [22] y [23], así como en cursos de enseñanza/aprendizaje ([24], [25]), pues son un recurso bastante económico a la hora de fabricar los prototipos. Otro experimento ya completado es el de la ley de Snell, el cual utiliza distintos materiales para su montaje. Este artículo ofrece un breve recorrido por la experimentación remota de ambos experimentos y una descripción detallada de sus montajes reales y de la interactividad que ofrecen sus controles remotos. Un pequeño resumen previo de la estructura de FisL@bs y la exposición final de conclusiones y comentarios relacionados con este proyecto completan el artículo. 2. MARCO DE EXPERIMENTACIÓN WEB PARA LABORATORIOS Continuando con la estructura de laboratorios web utilizada para el proyecto AutomatL@bs [26], FisL@bs usa una arquitectura cliente-servidor en la que se utiliza el protocolo TCP/IP como medio de comunicación a cargo de realizar los intercambios de datos entre ambos. La Figura 1 muestra la arquitectura de esta comunicación. En ella, las líneas que van del remitente desde el lado del cliente al parser del lado del servidor y del remitente desde el lado del servidor al receptor del lado del cliente representan esta comunicación por TCP/IP. Los apartados 186 Enseñanza 2.a y 2.b ofrecen más información acerca de la implementación de los lados cliente y servidor, respectivamente. Los apartados 3 y 4, por su parte, describen dos ejemplos específicos de la información que necesita ser comunicada por medio de los experimentos de las leyes de Snell y de Hooke. real, momento desde el cual el usuario puede interaccionar con el mismo. El estudiante realiza esta interacción por medio del applet, que cuenta con llamadas especiales (los comandos remitentes y receptores de la Figura 1, provistos por la clase JIL [20]). Estas llamadas especiales son las que se encargan de establecer una comunicación con LabVIEW (en el lado del servidor) usando las funciones y rutinas TCP. El comando receptor se usa de manera continua con el objetivo de obtener todos los datos medidos del experimento real, sin embargo, el comando remitente sólo se ejecuta cuando el estudiante cambia un valor en el applet que maneja. Figura 1. Arquitectura cliente-servidor. La comunicación entre las dos partes se basa en el protocolo TCP/IP. El servidor ejecuta el experimento remoto mientras que el simulado se ejecuta localmente en el lado del cliente. a. Implementación del lado del cliente El lado del cliente es una applet de Java creado con el programa EJS y contenido dentro del entorno web que ofrece eMersion. Cuando un estudiante se conecta al laboratorio, el navegador abrirá tres ventanas. La Figura 2 muestra una imagen de esta situación para el caso del laboratorio virtual (simulado) de la ley de Hooke. La ventana superior sirve al estudiante para que examine la lista de actividades que debe llevar a cabo, consultar la documentación, cambiar el idioma o desconectarse del sistema. La ventana derecha muestra los ficheros que se hayan generado usando el laboratorio (simulado o remoto) que se encuentre activo, tales como ficheros de texto con datos o ficheros de imagen con gráficas. Finalmente, la ventana más grande contiene el applet que, o bien es el experimento simulado, o bien es la GUI que controla y visualiza el experimento remoto. Inicialmente, el applet muestra siempre el simulado, ofreciendo tanto la visualización como la interacción necesaria para controlarlo y experimentar con él. Aunque toda la experiencia simulada se lleva a cabo en el lado del cliente (en el propio ordenador del estudiante), una vez que el alumno ha realizado con éxito todas las actividades del experimento virtual, se le permite el acceso a la siguiente fase: el laboratorio remoto. El applet de Java que muestra inicialmente el laboratorio simulado (Fig. 2) contiene un botón cuya función es la de conectar al laboratorio remoto. Tras pulsar dicho botón, la vista del applet cambia y muestra el laboratorio 100cias@uned Figura 2. Entorno web de eMersion y experimento simulado de la ley de Hooke. b. Implementación del lado del servidor Es el mismo ordenador el que ejecuta tanto el servidor web como el controlador del experimento en cuestión. Dicho controlador está desarrollado en LabVIEW y siempre contiene dos lazos principales de información. El primero es un lazo asíncrono que se encarga de la comunicación con el applet (recibiendo las acciones del usuario sobre éste y mandando también la información del sistema), mientras que el segundo es un lazo síncrono que controla continuamente el experimento real. El primer lazo (el asíncrono) puede ocasionar problemas a la hora de intentar controlar un experimento debido a una posible dinámica de evolución rápida del mismo y a retrasos en la red de Internet. Sin embargo, este es un problema que debe ser analizado para cada caso en particular (teniendo en cuenta las magnitudes de tiempo de las dinámicas del proceso en cuestión) y, si las dificultades aparecen realmente, no existe una única 187 Enseñanza manera de tratarlo. Los apartados 3 y 4 presentan dos experimentos cuyo control es lo suficientemente sencillo como para evitar esta problemática. 3. PRIMER CASO DE ESTUDIO: LA LEY DE SNELL que el motor se controla mediante pasos de 0,9º, el error de esta variable es δθi = ± 0,9º. El dispositivo cuenta con un relé para el encendido/apagado del láser cada vez que un estudiante se conecta y desconecta, respectivamente. La ley de Snell, o ley de la refracción de la luz, junto con la ley de la reflexión, constituyen axiomas ya enunciados por Sir Isaac Newton en su libro de Óptica [27] y forman parte de las leyes fundamentales de la Óptica. En particular, la ley de Snell describe la relación entre el ángulo θi de incidencia de la luz sobre la superficie de separación de dos medios isótropos (por ejemplo, aire y agua) y el ángulo θr de refracción. La relación entre los senos de estos dos ángulos es una constante que depende de los medios en cuestión. Matemáticamente se expresa: n1 sen θi = n2 sen θr ⇒ n2 sen θi = ⬅n n1 sen θr (1) donde n1 y n2 son los índices de refracción de ambos medios. Si n2 > n1, ello implica que θr < θi, es decir, la luz se acerca a la normal. Por el contrario, cuando la luz pasa de un medio más refringente a otro menos refringente (n1 > n2), se aleja de la normal. El experimento diseñado, como se describe más adelante, permite el estudio de los ángulos de refracción en función de los ángulos de incidencia tanto para el primer caso (paso de la luz del aire al agua, n2 > n1), como para el segundo (paso de la luz del agua al aire, n1 > n2). En este segundo caso se puede comprobar que existe un valor del ángulo de incidencia para el cual el ángulo de refracción alcanza los 90º. Este ángulo se conoce como «ángulo límite», porque a partir de él deja de producirse la refracción de la luz y la superficie de separación aguaaire se comporta como un espejo, fenómeno conocido como «reflexión total». El montaje experimental (Fig. 3) se hizo utilizando piezas de aluminio, una cubeta de plástico, una webcam, un puntero láser y un motor paso a paso. Las piezas de aluminio forman la estructura básica que sirve de soporte para la cubeta (rellena hasta la mitad de agua u otro líquido), el motor y el puntero láser. El láser se encuentra montado sobre un disco de aluminio que puede rotar en torno a su eje central. Dicho giro viene controlado por el motor paso a paso, de tal forma que al rotar el disco se cambia el ángulo de incidencia (θi) del rayo láser sobre el líquido contenido en la cubeta. Dado 100cias@uned Figura 3. Montaje experimental para la práctica de la ley de Snell. Para poder medir el ángulo de refracción (θr), la GUI del laboratorio remoto (Fig. 5) permite al usuario mover un puntero virtual superpuesto a la imagen que da la webcam. Esto se hace por medio de una barra deslizable graduada que indica el ángulo en el cual se encuentra el puntero en casa momento. De este modo, una vez que el estudiante ha posicionado el puntero haciéndolo coincidir con el rayo refractado, puede realizar la lectura del ángulo θr sobre la barra deslizable graduada. El error estimado para estas medidas es δθr = ± 1º. Dado que la única variable a controlar en este experimento es el ángulo de incidencia (θi) y que el ángulo refractado (θr) se mide de manera visual, sólo hay un parámetro de control (θi) que debe ser enviado desde el remitente en el lado del cliente (EJS view, Fig. 1) al controlador de LabVIEW y ninguna información que deba ser devuelta por parte del mismo. a. Actividades en simulación La simulación para el estudio de las leyes de la reflexión y la refracción de la luz está basada en el mismo dispositivo construido para las actividades remotas, por lo que la vista simulada del experimento sirve al alumno para familiarizarse con el entorno. En la ventana principal de la simulación (Fig. 4) se muestra una figura en 2D del sistema depósito cilíndrico 188 Enseñanza -puntero láser-escala graduada. El depósito contiene, a partes iguales, dos medios isótropos que pueden elegirse previamente de una lista desplegable en el apartado «Opciones». El rayo láser, tras incidir en la línea de separación de los dos medios, se escinde en los rayos reflejado y refractado, pudiéndose medir fácilmente en la escala graduada los valores de los tres ángulos implicados: el incidente, el de reflexión y el de refracción. Actuando directamente sobre la figura (animación Java), o mediante una barra deslizable, el estudiante puede ir variando el ángulo de incidencia y comprobar el comportamiento de los otros dos rayos. Para facilitar el registro de datos, el programa muestra en displays los valores numéricos de estos tres ángulos. Figura 4. Experimento simulado de la ley de Snell. Del análisis de los datos registrados en las correspondientes tablas y gráficas, el estudiante puede llevar a cabo diversas comprobaciones: — Verificación de la ley de la reflexión: Los ángulos de incidencia y los de reflexión coinciden. — Verificación de la ley de Snell: la representación gráfica de sen θi frente a sen θr da lugar a una recta. Si se realiza un ajuste lineal con los puntos de la gráfica es posible, además, deducir la razón n2/n1 entre los índices de refracción de ambos medios (es la pendiente de la recta). — Grado de validez de la aproximación de Gauss: la representación gráfica de θi frente a θr puede aproximarse por una recta sólo para valores pequeños de estos ángulos (hasta unos 30º). En dicho dominio, la pendiente de la curva sigue siendo la razón entre índices de refracción. — Determinación del ángulo límite (fenómeno de la reflexión total): si el medio incidente elegido es 100cias@uned más refringente que el segundo medio, se comprueba fácilmente que a partir de un determinado ángulo, θl, el rayo de luz no atraviesa la superficie de separación de ambos medios, es decir, el rayo se refleja totalmente hacia el interior del medio incidente. En esta simulación, para simular el error experimental que se comete al utilizar un dispositivo real (por ejemplo, el error que se puede cometer en el experimento remoto en la lectura de los ángulos sobre la escala graduada) se ha optado por generar los valores de los ángulos de refracción y de reflexión a partir de los teóricos e incrementarlos con un pequeño porcentaje de error aleatorio (positivo o negativo) generado por el ordenador. En el apartado «Opciones» el estudiante puede elegir el valor máximo (cota superior) de este porcentaje de error aleatorio, para simular medidas más o menos precisas. Si se usa la configuración por defecto, se obtiene la relación n2/n1 con una precisión suficientemente buena en el experimento simulado (alrededor de ± 0,007 cuando se usan, por ejemplo, diez puntos para la regresión lineal). Obviamente, en el cálculo de los ángulos teóricos se hace uso, de manera oculta para el estudiante, de las leyes teóricas correspondientes y de los índices de refracción tomados de la bibliografía. El programa incluye explicaciones, pantallas de ayuda, guión de prácticas, etc., para guiar al alumno en su trabajo en todo momento. Con el empleo de esta simulación, el estudiante adquiere la destreza suficiente para pasar a utilizar el experimento remoto optimizando al máximo el tiempo de conexión. b. Actividades en remoto Una vez conectado al laboratorio remoto, el estudiante podrá verificar empíricamente la ley de Snell usando para ello el experimento real. La Figura 5 muestra la GUI en este modo de trabajo. Se muestran dos barras deslizables en la parte superior del applet en la ventana principal: uno controla el ángulo de incidencia de la luz del láser y el otro se usa para desplazar un puntero virtual que sirve para medir el ángulo refractado. En el lado derecho del applet se muestra el experimento en tiempo real por medio de una imagen de webcam. Finalmente, la gráfica de la izquierda se usa para que el estudiante pueda ir representando sen θi frente a sen θr. Una casilla con el texto «Ver rayos», permite visualizar (o no) los tres rayos simulados (incidente, reflejado y 189 Enseñanza refractado) superpuestos sobre la imagen real de la webcam. De este modo, el estudiante puede comparar inmediatamente los resultados teóricos con los reales. El experimento de la ley de Snell en su variante remota también ofrece a los estudiantes la posibilidad de efectuar regresiones lineales automáticamente con los datos recogidos. Teniendo en cuenta los errores de medición tanto en θi como en θr y asumiendo que el valor de uno de los medios isótropos (el del aire) no tiene error asociado, los estudiantes pueden determinar n2/n1 (o n1/n2 para los casos en los que se busca la reflexión total) con una precisión notablemente buena (alrededor de ±0,008 cuando se utilizan, por ejemplo, 10 puntos para hacer la regresión lineal). Así pues, tanto los errores en las medidas como los resultados obtenidos a partir de ellas son similares para los dos modos de trabajo: experimento simulado y experimento remoto. Figura 5. Experimento remoto de la ley de Snell. El puntero virtual (la flecha naranja) se usa para medir el ángulo de refracción. 4. SEGUNDO CASO DE ESTUDIO: LA LEY DE HOOKE El experimento real de la ley de Hooke utiliza los siguientes elementos: un muelle de constante k = 14 N/m, un motor dc NXT, un raíl de 25 cm de largo, un sensor de contacto, un sensor de fuerza Vernie, una Webcam, y una regla. El muelle tiene uno de sus extremos fijados a una pared, mientras que el otro extremo está enganchado al motor NXT, que está montado sobre el raíl y puede desplazarse sobre él tirando del muelle en su movimiento. El sensor de contacto se usa para resetear el contador de vueltas del motor cada vez que éste llega al principio del raíl. El sensor de fuerza de Vernier tiene un rango de medidas lo suficientemente amplio para este experimento ([–10 N, +10 N]) y una precisión lo bastante buena (± 0,01 N). Finalmente, la regla posee la graduación usual, con marcas 1 mm. La Figura 6 muestra una imagen del montaje real del experimento con los elementos antes descritos. En este experimento, un estudiante puede controlar la posición del motor NXT sobre el raíl y, por tanto, la extensión del muelle. El motor NXT dispone de un contador de giros o encoder que funciona con una precisión de ± 1º, lo cual se traduce en unos ± 0,4 mm de precisión en la medida del estiramiento del muelle para este montaje (considerando que el error asociado al valor conocido de su longitud natural, l, es cero). Esto significa entonces que el estudiante puede controlar la variable x de (2) con una precisión de ± 0,4 mm. Sin embargo, el estudiante también puede usar la regla para medir dicha variable, en cuyo caso obtendría una precisión de ± 1 mm. F es la variable medida por el sensor de fuerza y el error asociado a sus medidas es de ± 0,01 N. La longitud natural del muelle, l, es conocida (y el error asociado se considera nulo) y la constante del muelle, k, es la incógnita. En Mecánica, la ley de Hooke de la elasticidad enuncia que la extensión de un muelle es directamente proporcional a la fuerza aplicada sobre el mismo. Este enunciado es cierto siempre y cuando la fuerza no haga exceder el límite elástico. Matemáticamente: F(t) = – k [x (t) – l] (2) donde k es la constante del muelle, l es su longitud natural, x(t) es la longitud del muelle en el tiempo t y F(t) es la fuerza de restauración ejercida por el muelle en ese instante de tiempo. 100cias@uned Figura 6. Montaje experimental para la práctica de la ley de Hooke. 190 Enseñanza Dado que el área de la sección transversal del muelle, A, también es conocido, es posible calcular además el módulo de elasticidad, E, usando (2) una vez se ha determinado el valor de k. k = A· E l na, mientras que en la parte izquierda hay una gráfica que cambia dinámicamente a fin de representar la fuerza frente a la elongación del muelle, mostrando así la ley de Hooke. (3) Por lo tanto, en este caso hay únicamente un parámetro de control que se envíe desde el remitente en el lado del cliente (EJS view, Fig. 1) al controlador de LabVIEW: la posición del motor NXT sobre el raíl (x). La información devuelta desde el lado del servidor al receptor en el lado del cliente es la fuerza medida y la posición del motor dada por el encoder. El otro modo disponible para medir su posición (usando la regla) no requiere el envío de datos puesto que las medidas se toman visualmente a través de la imagen de la webcam. a. Actividades en simulación El experimento simulado sirve para que el estudiante descubra la ley de Hooke y vea cómo varía la energía potencial (V) cuando se estira o comprime el muelle. La gráfica superior de la Figura 2 muestra la ley de Hooke (la relación lineal entre F y x) mientras que la inferior representa el valor de V frente al estiramiento o compresión del muelle. Ambas gráficas se actualizan de forma dinámica cuando el estudiante mueve la bola unida al muelle (pinchando en ella con el ratón y arrastrando). Se usa un valor por defecto para la constante del muelle (k = 1), pero éste puede ser cambiado en cualquier momento usando la interfaz del experimento simulado. Los datos recogidos tanto durante la realización del experimento real como del simulado se pueden grabar en ficheros de texto de tal modo que el estudiante puede comparar los resultados teóricos con los reales y analizar las posibles diferencias. b. Actividades en remoto La Figura 7 muestra la GUI cuando el estudiante se conecta al laboratorio remoto. Aparecen entonces dos displays en la esquina superior izquierda de la ventana principal: uno para mostrar la fuerza medida y otro para indicar el estiramiento del muelle. La barra deslizable se usa para cambiar la posición del motor sobre el raíl y, por tanto, el estiramiento del muelle. Al igual que en el experimento de la ley de Snell, una webcam muestra la imagen del experimento en la parte derecha de la venta- 100cias@uned Figura 7. Experimento remoto de la ley de Hooke. Aunque el fenómeno físico que se estudia en este experimento es sencillo, sigue habiendo muchas otras actividades importantes relacionadas con la metrología que se pueden realizar a través de este laboratorio. Por ejemplo, las incertidumbres en las medidas son algo que el estudiante debe tener en cuenta. Tal y como ya se mencionó las incertidumbres en las medidas para este experimento son: δx = {± 0,4 mm, ± 1 mm} (dependiendo de cómo se mida el estiramiento del muelle, si por medio del encoder del motor o usando la regla), δl ≈ 0 para la longitud natural del muelle y δF = ± 0,01 N para las medidas de la fuerza de recuperación del mismo. Considerando el último valor y la constante elástica del muelle utilizado (14 N/m), los estudiantes deberían entender que necesitan tomar medidas con al menos 0,7 mm de diferencia entre cada estiramiento del muelle a fin de ser capaces de medir diferencias en la fuerza. La gráfica de la Figura 7 muestra mucho ruido debido al movimiento del motor (que no es perfectamente suave) y a la limitada precisión del sensor de fuerza. Sin embargo, los estudiantes pueden tomar pares de medidas individuales de F-x y representar dichos puntos en otra gráfica distinta. Todo esto se hace por medio de la GUI de la Figura 7. El botón «Medir» dibuja el par F-x que se tenga en ese instante sobre dicha gráfica, la cual puede verse pulsando en la pestaña inferior llamada 191 Enseñanza «Gráfica». La Figura 8 muestra un ejemplo de esta gráfica representando una regresión lineal usando unos pocos puntos, que son medidas particulares reales de este experimento. mínimos cuadrados (manuales y/o computerizados) y la comparación de resultados teóricos y experimentales son aspectos que también se practican por medio de este experimento. 5. CONCLUSIONES Y TRABAJO FUTURO Figura 8. Regresión lineal efectuada con los datos recogidos en el experimento remoto. Al representar los datos de esta manera, el ruido que aparecía en la Figura 7 parece desaparecer (aunque la incertidumbre sigue afectando a las medidas, de modo que, en efecto, el coeficiente de correlación de la regresión no es exactamente 1). En este caso, la regresión lineal da un resultado de k = 13,7 ± 0,2 (N/m), lo que se aproxima bastante al valor real de la constante elástica del muelle (14 N/m) y el error relativo es pequeño (cerca del 1,5%). También se puede practicar el cálculo de incertidumbres, ya que los alumnos deberían dar sus resultados (el valor de la constante del muelle y el del módulo de elasticidad) con las incertidumbres asociadas. Siguiendo estas ideas, este experimento puede así mismo servir para que los alumnos reflexionen acerca de la importancia de utilizar herramientas y dispositivos equilibrados. En este caso, por ejemplo, la gran precisión para las medidas del estiramiento del muelle (usando el encoder del motor) no sirve de mucho y se desperdicia en parte a la hora de determinar la constante del muelle debido a la peor precisión del sensor de fuerza. Finalmente, a fin de obtener k, los estudiantes deben realizar regresiones lineales con los datos recogidos tanto para el experimento simulado como para el remoto y deben también comparar los resultados de las gráficas mostradas en las Figuras 2 y 7. Por tanto, los ajustes por 100cias@uned FisL@bs continua el trabajo iniciado con el proyecto AutomatL@bs, extendiendo su utilidad desde la educación en Ingeniería de Control a la educación en Ciencias Físicas. FisL@bs hereda la sólida estructura de su exitoso homólogo y cambia únicamente los experimentos remotos y simulados para apropiarlos a un curso de Física. Se pretende que FisL@bs comience a funcionar como experiencia piloto durante el curso 2010-2011, con un repertorio inicial de unos 5 ó 6 experimentos (típicos todos de cursos introductorios) de diferentes campos de la Física. Los planes a largo plazo son mantener este portal y desarrollar y añadir nuevos experimentos remotos y virtuales a la red para cursos más avanzados. Para los dos ejemplos aquí presentados, los experimentos simulados sirven a los estudiantes como un primer contacto con el fenómeno que se estudia: descubrir las leyes de Snell y de Hooke y analizar la variación de la energía potencial de un muelle. Continuando el estudio de estos mismos ejemplos, la experimentación remota permite a los estudiantes comprobar empíricamente las leyes de Snell y de Hooke con un experimento real. Aunque estos experimentos (y los fenómenos que tratan) son relativamente sencillos, los estudiantes no sólo aprenderán acerca de asuntos como la refracción, la reflexión, los índices de refracción, los muelles y la ley de Hooke, sino que también lo harán sobre temas como la medida de incertidumbres, cálculo de errores y regresiones lineales, etc. Los datos recogidos durante las experimentaciones reales y simuladas pueden ser guardados, de modo que los estudiantes pueden comparar y contrastar los resultados teóricos con los empíricos, lo que constituye uno de los pasos fundamentales del método científico. Dado que tanto el control remoto de la elongación del muelle como el del posicionamiento del láser se hace con una precisión alta (comparable con la utilizada en la realización de estos experimentos en el laboratorio presencial), los estudiantes obtienen medidas suficientemente buenas con las que poder trabajar. Hay otros experimentos que se encuentran en proceso de desarrollo, como el péndulo rígido, el banco óptico, la fresadora, etc. Todos estos experimentos (tanto en 192 Enseñanza versión simulada como remota) serán integrados en la red de laboratorios de física que constituyen FisL@bs. Todos usarán la misma estructura y las mismas herramientas de software, aunque los materiales para sus montajes difieran. La fresadora, por ejemplo, está construida también con piezas de Lego y su diseño está basado en el que se muestra en [27]. Emplea tres motores NXT, un sensor de contacto, un par de pistones neumáticos, el brick inteligente NXT, un sensor de voltaje, una fuente de alimentación y muchas otras piezas de Lego. Dos de los motores NXT controlan la posición en las coordenadas «x» e «y» del sensor de voltaje mientras que el tercero se encarga de los pistones neumáticos, permitiendo que el sensor baje o suba para estar (o no) en contacto con la hoja de papel resistivo e iniciar (o cesar) la medición. La Figura 9 muestra una imagen del montaje para este experimento de electrostática. Aunque dicho montaje está terminado, el experimento virtual y algunos detalles del control remoto aún están siendo perfilados. 3. 4. 5. 6. 7. 8. BIBLIOGRAFÍA 1. 2. Chang, G.W., Yeh, Z.M., Chang, H.M. and Pan, S.Y., «Teaching Photonics Laboratory Using Remote-Control Web Technologies», IEEE Trans. Edu., 48, 642– 651 (November 2005). S.C. Sivakumar, W. Robertson, M. Artimy and Aslam, N., «A Web-Based Remote Interactive Labo- 9. ratory for Internetworking Education», IEEE Trans. Edu., 48, 586-598 (November 2005). Alhalabi, B. et al. «Remote Labs: An innovative Leap in the World of Distance Education», Proc. of the 4th Multi Conf. on Systemic, Cybern. and Informatics, and the 6th Int. Conf. on Information Syst., Anal. and Synthesis, Orlando, Florida, 303-307 (July 2000). Gorrel, J., «Outcomes of Using Computer Simulations», J. of Research on Comp. Educ., 24-3, 359366 (1992). Hwang, F.K., «NTNU Virtual Physics Laboratory: Java Simulations in Physics», Multimedia in Physics Teaching and Learning Conference, Udine, Italia (2009). Christian, W. and Belloni, M., Physlet Physics, Prentice Hall, EE.UU. (2004). Kocijancic, S., «Online Experiments in Physics and Technology Teaching», IEEE Trans. Edu., 45, 26-32 (February 2002). Schauer, F., Kuritka, I. and Lustig, F., «Creative Laboratory Experiments for Basic Physics using Computer Data Collection and Evaluation Exemplified on the Intelligent School Experimental System (ISES)», iNEER Special Volume: Innovations 2006, 305-312 (2006). Park, S.T., Lee, H., Yuk, K.C. and Lee, H., «Web-Based Nuclear Physics Laboratory», Recent Research Developments in Learning Technologies, 1165–1169 (2005). Figura 9. Fresadora para el experimento de electrostática. 100cias@uned 193 Enseñanza 10. Schauer, F., Lustig, F. and Ozvoldova, M., «Remote Scientific Experiments Across Internet: Photovoltaic Cell Characterization», Interactive Aided Comput. Learning, Villach, Austria (September 2006). 11. Gurkan, D., Mickelson, A., and Benhaddou, D., «Remote Laboratories for Optical Circuits», IEEE Trans. Edu., 51, 53-60 (February 2008). 12. Macías, M.E. and Méndez, I., «eLab - Remote Electronics Lab in Real Time», IEEE Frontiers in Educ. Conf. - Global Eng.: Knowledge Without Borders, Opportunities Without Passports, S3G-12–S3G-17 (October 2007). 13. Moon, I., Han, S., Choi, K., Kim, D., Jeon, C., Lee, S. and Woo, S., «A Remote Laboratory for Electric Circuit using Passive Devices Controlled», Proc. of the Int. Conf. on Engineering Educ., Budapest, Hungría (July 2008). 14. Gröber, S., Vetter, M., Eckert, B. and Jodl, H.J., «Remotelly Controlled Laboratories: Aims, Examples and Exercises», American J. of Physics, 76-4, 374378 (2008). 15. Vargas, H. et al., «The Spanish University Network of Web-based Laboratories for Control Engineering Education: The AutomatL@bs Project», European Control Conf., Budapest, Hungría (2009). 16. Dormido, R., Vargas, H., Duro, N., Sánchez, J., Dormido-Canto, S., Farias, G., Esquembre, F. and Dormido, S., «Development of a Web-Based Control Laboratory for Automation Technicians: The ThreeTank System», IEEE Trans. Edu., 51, 35-43 (February 2008). 17. Esquembre, F., «Easy Java Simulations: A Software Tool to Create Scientific Simulations in Java», Comput. Physics Commun., 156-2, 199–204 (2004). 18. Christian, W. and Esquembre, F., «Modelling Physics with Easy Java Simulations», The Physics Teacher, 45-8, 475-480 (November 2007). 19. Gillet, D., Nguyen Ngoc, A.V. and Rekik, Y., «Collaborative Web-based Experimentation in Flexible Engineering Education», IEEE Trans. Edu., 48, 696704 (November 2005). 100cias@uned 20. Vargas, H., Sánchez, J., Dormido, S., Salzmann, C., Gillet, D. and Esquembre, F., «Web-Enabled Remote Scientific Environments», Comp. Sci. and Eng., 11-3, 36-46 (2009). 21. Travis, J. «Using Java with LabVIEW», Internet Applications in LabVIEW, Prentice-Hall, EE.UU. (2000). 22. Iversen, T.K. et al. «Model-checking real-time control programs: verifying LEGO(R) MINDSTORMSTM systems using UPPAAL», 12th Euromicro Conf. on Real-Time Syst., Estocolmo, Suecia, 147-155 (June 2000). 23. Trung, P. et al., «Development of Vision Service in Robotics Studio for Road Signs Recognition and Control of LEGO MINDSTORMS ROBOT», IEEE Int. Conf. on Robotics and Biomimetics, Bangkok, Tailandia, 1176-1181 (February 2008). 24. Kim, S.H. and Jeon, J.W., «Introduction for Freshmen to Embedded Systems Using LEGO Mindstorms», IEEE Trans. Edu., 52, 99-08 (February 2009). 25. García-Cerezo, A. et al., «Using LEGO Robots with LabVIEW for a Summer School on Mechatronics», Proc. 2009 IEEE Int. Conf. on Mechatronics, Málaga, España, 1-6 (April 2009). 26. Dormido, S. et al., «Developing and Implementing Virtual and Remote Labs for Control Education: The UNED pilot experience», 17th Int. Federation of Automat. Control World Congr., 8159-8164 (July 2008). 27. I. Newton, Opticks or a treatise of the reflections, refractions, inflections and colours of light. London (1704). 28. A. Søborg, Anders’ Mindstorms Page [Online]. Disponible en: http://www.norgesgade14.dk/index.php. Luis de la Torre Cubillo Dpto. de Informática y Automática ETS de Ingeniería Informática Juan Pedro Sánchez Fernández Dpto. de Física de los Materiales 194 Enseñanza 100cias@uned N.º 2 Enseñanza (nueva época) | 2009 ISSN: 1989-7189 RECENSIONES DE LIBROS MECÁNICA CUÁNTICA. FUNDAMENTOS Y APLICACIONES Autores: Marcelo Alonso y Henry Valk. Edición a cargo de Jesús Martín Martín Editorial: Ediciones Universidad de Salamanca, 760 págs. (2009) ISBN: 978-84-7800-330-3 Muchos físicos en todo el mundo iniciaron sus estudios universitarios con el libro Física de Marcelo Alonso y Edward Finn, el «Alonso-Finn» como se le conocía familiarmente. La primera edición del libro data de 1967 y se enmarca en esa campaña de renovación de los textos de física que se produjo en los Estados Unidos en la década de los 60. Desde entonces el libro ha tenido continuas reediciones y mejoras: se han vendido más de 1.500.000 ejemplares y se ha traducido a 15 idiomas. Menos conocido era que Marcelo Alonso había escrito también, en colaboración con Henry Valk, un texto sobre Mecánica Cuántica, que publicó Addison Wesley en 1983, aunque dejó de editarse años más tarde. En sus últimos años de vida, Marcelo Alonso mantuvo una intensa relación con la física en España. Sus visitas eran frecuentes, especialmente para participar en encuentros sobre la enseñanza de la física. De uno de estos encuentros nació la idea de hacer una edición española de su libro, tarea cuya dirección asumió Jesús Martín. Alonso acogió la idea con entusiasmo y escribió unas notas introductorias para esta nueva edición. Desgraciadamente, Marcelo murió sin ver la obra concluida. El libro se titula Mecánica Cuántica. Fundamentos y Aplicaciones. Afirman los autores que «aunque exis- 100cias@uned ten muchos textos… solo hay unos pocos que ponen el acento adecuadamente en la aplicación de las técnicas cuánticas a problemas específicos, tal y como ocurre con otros textos orientados, por ejemplo, a la Mecánica Clásica o al Electromagnetismo». El presente libro, en consecuencia, ha sido escrito con el propósito de cubrir la necesidad de una exposición de este tipo, sin despreciar en exceso los fundamentos de la Mecánica Cuántica». Los capítulos 1 y 2 constituyen una buena exposición de la mecánica ondulatoria elemental: ecuación de Schrödinger estacionaria y dependiente del tiempo, corriente de probabilidad, pozos de potencial, escalones y barreras, etc. También incluye un tratamiento, basado en el principio de correspondencia, de la radiación dipolar, probabilidades de transición y reglas de selección. Concluye con una interesante discusión de la molécula de amoniaco como ejemplo de un pozo doble con efecto túnel. El capítulo 3 expone el formalismo abstracto de la mecánica cuántica. Como ya es habitual en muchos textos similares, los autores optan por definir directamente los bra como simples vectores conjugados de los kets sin pasar por la introducción de los funcionales en un espacio dual. Aceptado este «atajo», el capítulo explica de un tirón la teoría de la transformación, la descomposición espectral de operadores, las representaciones de posiciones y momentos y las imágenes de Schrödinger, Heisenberg e interacción. El capítulo 4 trata de las fuerzas centrales. Se incluye aquí el estudio de los estados moleculares de vibración y rotación. Más sorprendente es la inclusión en este capítulo del estudio de sistemas en presencia de un campo magnético; en cualquier caso, es un tema que debe estar tratado en cualquier libro, independientemente de en qué lugar se incluya. 195 Enseñanza El capítulo 5 está dedicado a los métodos aproximados para estados acotados: método variacional, WKB y métodos perturbativos con diferentes variantes. Dentro del método variacional hay interesantes aplicaciones al estudio del átomo de He y la molécula H2+. El capítulo 6 trata la teoría formal del momento angular. El capítulo 7 trata las interacciones dependientes del espín, con interesantes aplicaciones a los efectos eléctricos y magnéticos en las interacciones nucleares. Además, y esto es algo difícil de encontrar en otros libros, utiliza el formalismo del isospín para estudiar las interacciones fuertes. El capítulo 8 trata los sistemas de muchas partículas, aunque se centra básicamente en sistemas de fermiones. Se estudian así las estructuras de átomos y moléculas. También se trata el formalismo partícula-hueco y se aplica a líquidos de Fermi, aunque no hay una aplicación concreta a la teoría de los metales y los semiconductores. Por el contrario, apenas se consideran sistemas de bosones. El capítulo 9 trata de las perturbaciones dependientes del tiempo y los procesos radiativos. Como es habitual se incluye la cuantización del campo electromagnético y se estudia la absorción y emisión de radiación. Pero más allá de esto, hay aquí un interesante conjunto de aplicaciones que no se suelen encontrar en textos introductorios: dispersión Raman, efecto Lamb, momento magnético anómalo. El capítulo 10 trata la teoría de la dispersión, incluida la dispersión por fuerzas dependientes del espín y los efectos de polarización. El capítulo 11 trata la mecánica cuántica relativista y el capítulo 12 es una buena introducción a la teoría cuántica de campos, con la utilización de los diagramas de Feynman que ya se habían introducido de forma elemental en el capítulo 8. El libro se completa con tres apéndices sobre Mecánica Relativista, Transformación de Fourier y Funciones Especiales. Dada la fecha de su publicación original, es explicable que no se traten temas que han cobrado relevancia desde entonces: condensados de Bose-Einstein, teoría de la medida, información cuántica, entrelazamiento, etc. (En este sentido es discutible la afirmación de que «poco ha cambiado la mecánica cuántica desde la fecha de publicación del libro en lo que se refiere a sus aspectos fundamentales».) Pero ya se ha dicho que el acento está puesto fundamentalmente en las aplicaciones, y éstas 100cias@uned son realmente interesantes y variadas. Hay que señalar, no obstante, que las aplicaciones se limitan al dominio atómico, nuclear y molecular, y no se extienden a la física del estado sólido, metales, semiconductores, etc. que ya disponen de una abundante bibliografía por sí mismas. Como ya se ha dicho, los autores escribieron unas notas para la edición española. No obstante, dichas notas son básicamente introducciones históricas y no modifican la estructura ni los contenidos del libro original. Por ello se han incluido todas al principio de la edición española. El libro, con una selección apropiada de capítulos, dada la abundancia de material, puede ser utilizado como libro de texto en un curso de Mecánica Cuántica. Adicionalmente puede ser un buen libro de consulta para algunos temas más específicos que rebasan los contenidos de un Grado. Por ello, esta traducción es bienvenida especialmente en un mercado en lengua castellana, donde la existencia de textos de esta materia es bastante escasa. J. Javier García Sanz Dpto. de Física Fundamental TOXICOLOGÍA FUNDAMENTAL (4ª edición) Autores: Manuel Repetto Jiménez y Guillermo Repetto Kuhn Editorial: Díaz de Santos, 587 págs. (2009) ISBN: 978-84-7978-898-8 Precio: 54,00 € Vista previa del libro: http://www. diazdesantos.es/libros/repetto-jimenezmanuel-toxicologia-fundamentalC0000410004015.html#contenido Contenido: Desarrollo y evolución histórica de la Toxicología. Conceptos y definiciones: Toxicología, Toxicidad. Tránsito de los xenobióticos en el organismo: Toxicinética. Biotransformaciones de los tóxicos. Fenómenos de inhibición, activación e inducción enzimática. Mecanismos de toxicidad. Factores que modifican la toxicidad. Interacciones entre fármacos. Antagonistas y antídotos. Evaluación de la toxicidad y del riesgo: Toxicología experimental. Toxicología clínica. Diagnóstico de la intoxicación. El análisis químico-toxicológico. Sistemáticas analíticas toxicológicas. Bases generales para la asistencia y tratamiento de intoxicados. 196 Enseñanza NI TONTAS NI LOCAS. LAS INTELECTUALES EN EL MADRID DEL PRIMER TERCIO DEL SIGLO XX Coordinadoras: Paloma Alcalá Cortijo, Capi Corrales Rodrigáñez y Julia López Giráldez Editorial: FECYT (febrero, 2009) En esta nueva edición, los autores siguen manteniendo el mismo número de capítulos (16), pero introduciendo los avances más importantes en las distintas facetas de esta ciencia. Se mantiene la misma estructura de la tercera edición, manteniendo aquellos capítulos dedicados al conocimiento de los principales cimientos de la Toxicología: bases químicas, biológicas, bioquímicas, anatómicas y fisiológicas, que se van profundizando a lo largo de los capítulos, tratando de incorporar los conocimientos toxicológicos basados en la evidencia más reciente y los avances sobre mecanismos de toxicidad que permiten comprender los procesos fisiopatológicos y las posibilidades terapéuticas. Igualmente, las bases toxicocinéticas contribuyen al diagnóstico y a la interpretación de los resultados analíticos; se renueva en su totalidad el capítulo 11 dedicado a la evaluación de la toxicidad y del riesgo tóxico. Se han introducido nuevos esquemas, figuras y tablas que ayudan a clarificar los conceptos con menor exigencia memorística. Tal y como comentan los autores, la Toxicología mecanicista, hoy en día, es más importante que la descriptiva clásica con el estudio del tóxico a tóxico, relegado a diccionarios o enciclopedias. El libro resulta de gran utilidad para todos los estudiosos y profesionales, y no sólo de la Toxicología y ciencias afines (Ciencias Experimentales, de la Vida y Ambientales, Medicina Clínica y Forense, Ingenierías, etc.). El libro no es un diccionario o catálogo de tóxicos sino una revisión progresiva y panorámica de la ciencia toxicológica en nuestros días. J. Senén Durand Alegría Dpto. de Ciencias Analíticas 100cias@uned Este libro surgió como un proyecto en el Año de la Ciencia 2007, proclamado así para celebrar el centenario de la creación de la Junta de Ampliación de Estudios (JAE) y dar un impulso fundamental a la cultura científica en nuestro país. La celebración del Año de la Ciencia en España representó una oportunidad única para promover la cultura científica de la ciudadanía, realizando un esfuerzo por mejorar la comunicación entre los investigadores y la población en general y por propiciar en la sociedad un mejor conocimiento sobre el rol de la ciencia y la tecnología en el desarrollo socioeconómico y el bienestar social. Con todo ello se pretendía, en primer lugar, que la ciudadanía fuera más capaz de comprender y de valorar el esfuerzo de todas las administraciones por fomentar la investigación científica y tecnológica; en segundo lugar, estimular entre los ciudadanos el interés por la ciencia y la tecnología, así como fortalecer las enseñanzas científico-técnicas mediante el aumento de vocaciones y la mejora docente, y, en tercer lugar, que el sistema científico-tecnológico estuviera más abierto a las inquietudes y a los intereses de los ciudadanos. Y no debemos olvidar que las mujeres constituyen la mitad de esa ciudadanía. Cuentan María Teresa León y Carmen Baroja en sus respectivas memorias que, al invitar a Jacinto Benavente a dar una conferencia en el Lyceum Club de Madrid, el autor contestó que no hablaba «a tontas y a locas». Esta institución, una de las muchas creadas durante el primer tercio del siglo Portada del volumen 1: Ni tontas XX, nació de la mano ni locas. Las intelectuales en el de un grupo de mujeMadrid del primer tercio del siglo XX. res, en absoluto tontas, 197 Enseñanza Institución Libre de Enseñanza, que revolucionó la docencia desde finales del siglo XIX, abogando por la libertad de cátedra, laica y sin dogmatismos e introduciendo nuevos métodos pedagógicos y teorías científicas. Dicha institución mantuvo una línea fuerte de apoyo a la educación de las mujeres y a su promoción en la investigación y a la docencia. La Residencia de Señoritas, que junto con la de varones formaban la Residencia de Estudiantes y a través de la JAE dependía del Ministerio de Instrucción Pública, no sólo permitió que mujeres de fuera de Madrid pudieran ir a esa ciudad a cursar estudios universitarios o de Biblioteca de la Residencia de Señoritas (c/ Fortuny, 53, Madrid). magisterio sino que contribuyó de manera activa a crear una atmósfera pero que debían de tener un punto de locura para lanfértil a la vez que fomentó en las mujeres jóvenes de la zarse a la aventura intelectual de modernizar España. época aspiraciones personales y profesionales. En ella se Esa empresa había recibido su máximo impulso en 1907 ofrecían actividades y servicios tales como laboratorios, con la creación de la Junta de Ampliación de Estudios e biblioteca, cursos de idiomas, conferencias y clases comInvestigaciones Científicas, que se ha considerado el plementarias a las que se impartían en la Universidad. primer proyecto modernizador de la cultura emanado Además, la JAE desarrolló un programa de pensiones del Estado y que apostaba por la ciencia como elemeno becas para cursar estudios o investigar en el extranjeto fundamental de ésta. Este libro quiere ser un pero, del que no sólo se aprovecharon los varones: entre queño reconocimiento a muchas de las que lo hicieron 1908 y 1934, se concedieron 121 pensiones a mujeres, 8 posible. de las cuales fueron a grupos para visitar el funcionaA comienzos del siglo XX, el analfabetismo era casi miento educativo de otros países. Gracias a estas pengeneral en nuestro país, pues alcanzaba a más del setensiones algunas mujeres pudieron estudiar la situación ta y uno por ciento en las mujeres y el cincuenta y cinco social de las mujeres en Europa, los aspectos pedagógicos por ciento en los hombres. Poco a poco se fue reduciende la enseñanza de las ciencias, problemas o técnicas esdo y las mujeres comenzaron a frecuentar las universipecíficas y especializarse en diversas disciplinas que iban dades. Las mujeres españolas podían entrar en la Unidesde las matemáticas a las humanidades, pasando por la versidad desde 1868, pero en el año 1882 una Real fisiología general y vegetal, la genética o la botánica. Orden suspendió ese derecho a menos que lo permitiera Las mujeres físicas y químicas, por ejemplo, tuvieron la autoridad competente. Cuando se creó la Junta de un papel destacado en esta época, pues fueron numeroAmpliación de Estudios e Investigaciones Científicas sas las que pasaron por el Instituto Nacional de Física y (JAE), todavía no se les permitía el acceso sin restriccioQuímica, como becarias o colaboradoras y contribuyenes, pero en 1910 el Ministro de Instrucción Pública, ron, fundamentalmente, en dos campos: el de la especJulio Burell, promovió la Real Orden que permitía el actroscopia y el de la electroquímica. Todas ellas fueron ceso de las mujeres a la Universidad libremente. «alumnas brillantes e investigadoras fructíferas». PerteEl primer tercio del siglo XX fue un periodo en el necían a la clase media ilustrada, pues eran hijas de que se crearon nuevos e importantes mecanismos e insfuncionarios, catedráticos, etc., y con madres que ejertituciones para mejorar y promover la investigación y cían de amas de casa. Para que nos hagamos una idea, el educación científicas. La JAE hizo suyas las ideas de la grupo de científicas del Instituto Nacional de Física y 100cias@uned 198 Enseñanza Química (en su mayoría licenciadas en Química o Farmacia, sólo seis en Física) realizó un total de 63 publicaciones entre 1931 y 1937. En la década de 1920, el número de becadas o pensionadas aumentó significativamente, gracias, en parte, al acuerdo suscrito con la Association of Collegiate Alumnae, fundada en EstaPáginas 206 y 207 del primer volumen. dos Unidos en 1881 con el objetide expertas que debían ocuparse de proponer, diseñar o vo de promover la educación universitaria de las mujeevaluar acciones encaminadas a recuperar el trabajo y res. Dicho acuerdo permitió intercambiar alumnas y prolas vidas de las mujeres en este periodo singular de nuesfesoras entre las universidades españolas y los Women’s tra época. El grupo estaba formado por Paloma Alcalá, Colleges norteamericanos, que complementaba otro susAntonio Canales, Rosa María Capel, Capitolina Díaz, crito previamente con el International Institute for Girls Consuelo Flecha, Alicia Gómez Navarro, Carmen Magade Madrid. llón, Elisa Navas, Pilar Piñón, Ana Romero y yo misma, Así pues, a lo largo del primer tercio del siglo XX las que en aquél entonces estaba al frente de la Fundación. españolas se unieron a sus congéneres europeas y norteSu trabajo y esfuerzo dio como resultado diversas actiamericanas en su afán por incorporarse a estudios, providades como seminarios, exposiciones, etc. Este libro, a fesiones y actividades que antes les estaban vedadas, y cargo de Paloma Alcalá, Capi Corrales y Julia López entraron a formar parte de los grupos de investigación y Giráldez pretende, como no podía ser menos, recuperar a las sociedades científicas. Por ejemplo, en este periodo esas mujeres que han contribuido a nuestro pensamiento, entra la primera mujer en una Real Academia: Mercedes a nuestra cultura, en especial la científica. A hacerlas Gabrois fue admitida en la Real Academia de la Historia visibles. en 1932, aunque ingresó en 1935 (tendrían que pasar Las autoras han contado para ello con la colaboramás de cincuenta años para que otra mujer ingresara en ción de un nutrido grupo de especialistas: Rosa Capel otra Real Academia: María Cascales lo hizo en la de Martínez, Antonio Canales Serrano, Consuelo Flecha Farmacia en 1987). La JAE, animada por María de MaezGarcía, Carmen Magallón Portolés, Teresa Marín Eced, tu, auténtica y entusiasta impulsora de la educación suIsabel Pérez-Villanueva, Pilar Piñón, Mercedes Rico Caperior de las mujeres y de la moderna renovación pedarabias y Conchita Zamacona. El libro, en dos volúmenes, gógica en todos los niveles, contribuyó a ello con su se estructura de la siguiente manera. En primer lugar se política equitativa de becas, dejando las mujeres de ser nos ofrece una panorámica de la lucha por conseguir el una excepción en la ciencia y la cultura españolas. Sin acceso a la educación en Europa y América y el papel embargo, estas y otras muchas mujeres han estado y esque el Instituto Internacional desempeñó en España. En tán en el olvido, algo que pretende corregir esta obra. la segunda parte, «Tiempo de Esperanza. España 1900A comienzos del año 2007, la Fundación Española 1936» se analiza la situación de la mujer en España para la Ciencia y la Tecnología (FECYT) reunió un grupo 100cias@uned 199 Enseñanza (dando la palabra a una de nuestras feministas avant garde, Dña. Emilia Pardo Bazán), de la educación ‘femenina’ y del feminismo en ese periodo. En la tercera parte, «Madrid se abre al mundo. Ni tontas ni locas», se presenta la renovación pedagógica que para el conocimiento en general y para las mujeres en particular supuso la Institución Libre de Enseñanza y la JAE, con especial atención a la Residencia de Señoritas y a su directora, María de Maeztu, tan injustamente invisibilizada. Termina este primer volumen con un «Epílogo» que consta de tres secciones: en una, Josefina Rico Carabias evoca a su madre, la singular Josefina Carabias, que tantos límites rompió; en otra, Conchita Zamarcona, antigua residente, recuerda la Residencia y cómo se fue de ella sin saber que sería para siempre (palabras que la Sra. Zamarcona pronunció en el acto Memoria y homenaje: Científicas, pensadoras y educadoras de la Edad de Plata, organizado por FECYT en junio de 2007). Y Paloma Alcalá y Antonio Canales, en un sentido, sintético y lúcido artículo presentan el desolador paisaje que quedó en la educación y la ciencia españolas tras la Guerra Civil. A lo largo del libro se van intercalando biografías de muchas de las mujeres, desconocidas para la mayoría y sobre todo para las y los jóvenes, que contribuyeron al florecimiento del conocimiento en este periodo. Este tomo termina con un listado de esas mujeres y lo que fue de ellas tras la contienda. El segundo volumen de este libro nos propone y ofrece un paseo por el Madrid en el que vivieron nuestras protagonistas, por los edificios en los que estudiaron o trabajaron, por los cafés en los que se citaban y charlaban. Todo ello con magníficos dibujos salidos de la pluma de Capi Corrales que complementan las lucidas y resplandecientes ilustraciones que hay en los dos volúmenes. Y hay que resaltar, además, la cuidadísima y vistosa edición que la FECYT ha hecho de esta obra. En los años treinta, las mujeres eran sólo el 8,8% de los estudiantes universitarios. Hoy en día, constituyen más del Portada del volumen 2: Un paseo por Madrid. 60% y, sin embargo, las 100cias@uned catedráticas de universidad apenas llegan al 14%. A pesar de que Gloria Begué fue la primera mujer en ser Decana de una universidad española en 1969 (en la Facultad de Derecho de la Universidad de Salamanca), hoy, cuarenta años después, el número de rectoras es meramente anecdótico y lo mismo sucede con las académicas u otros puestos de responsabilidad o toma de decisiones. Desde aquél año de 1907, que dio origen a este libro, es mucho lo conseguido, es cierto. Pero todavía queda mucho por hacer. Eliminar la discriminación jerárquica o vertical que deja a la mayoría de las mujeres en los niveles más bajos o intermedios de los escalafones de sus respectivas carreras; romper el techo de cristal, invisible pero sofocante; acabar con la discriminación horizontal o territorial que relega a las mujeres a profesiones o campos marcados por el sexo (algo que se va reconfigurando en el conocimiento, aunque aún quedan campos resistentes como las ingenierías o la filosofía). Aún así, vamos avanzando. Y todo eso no habría sido posible sin muchas mujeres que nos precedieron y de muchas y muchos que nos acompañan en este camino. Pero, sobre todo, de mujeres que han sabido estudiar, indagar, avanzando en el conocimiento. En un conocimiento que, respetando las diferencias, cuando las hubiere, promueve valores como la novedad o la mutualidad de interacción. Que da preferencia a programas de investigación que incorporan relaciones de cooperación, no de dominador/subordinado y, por tanto, propicia el control democrático de la investigación. Un conocimiento, en suma, que promueve la igualdad entre todos los seres humanos. Y aún falta mucho por hacer, por lo que no debemos renunciar al papel que nos corresponde en la sociedad, en la cultura o en las profesiones. La lucha no es nueva y tenemos modelos de referencia: por lo menos, las mujeres que aparecen en este libro que, sin duda, no son todas. Y no eran ni tontas, ni locas, tan solo mujeres que, hace ya un siglo, como nosotras hoy, luchaban y apostaron por los mismos ideales de justicia e igualdad. Los interesados en estos dos volúmenes pueden acceder a ellos a través de las siguientes direcciones: http://www.fecyt.es/fecyt/docs/tmp/1256490884.pdf http://www.fecyt.es/fecyt/docs/tmp/-1595437946.pdf Eulalia Pérez Sedeño Dpto. de Ciencia, Tecnología, Sociedad Instituto de Filosofía (CSIC) 200 Enseñanza