Número completo - e-Spacio

Anuncio
100cias@uned
N.º 2
(nueva época)
| 2009
ISSN: 1989-7189
REVISTA DE LA FACULTAD DE CIENCIAS DE LA UNED
http://e-spacio.uned.es:8080/fedora/get/bibliuned:revista100cias-2009-numero2ne/PDF
digital
Nuestra Facultad
Festival: Ciencia para la juventud en la UNED
Vida científica
Dos grandes efemérides:
Galileo y el Año Internacional de la Astronomía
Darwin y la evolución de las especies
Enseñanza
Diez años de Ciencia en Acción
El Portal FisL@bs
100cias@uned
REVISTA DE LA FACULTAD DE CIENCIAS
N.º 2 (nueva época) — 2009
EDITOR
Universidad Nacional de Educación a Distancia
PRESIDENTE
Víctor Fairén Le Lay
Decano de la Facultad de Ciencias
DIRECTORA
Carmen Carreras Béjar
CONSEJO DE REDACCIÓN
Carmen Carreras Béjar
(Dpto. de Física de los Materiales)
Rosa M.ª Claramunt Vallespí
(Dpto. de Química Orgánica y Bio-Orgánica)
Pedro Córdoba Torres
(Dpto. de Física Matemática y de Fluidos)
Fernando Peral Fernández
(Dpto. de Ciencias y Técnicas Fisicoquímicas)
Miguel Delgado Pineda
(Dpto. de Matemáticas Fundamentales)
Pilar Fernández Hernando
(Dpto. de Ciencias Analíticas)
J. Javier García Sanz
(Dpto. de Física Fundamental)
Hilario Navarro Veguillas
(Dpto. de Estadística, Investigación Operativa y Cálculo Numérico)
Eloísa Ortega Cantero
(Dpto. de Química Inorgánica y Química Técnica)
Manuel Yuste Llandres
(Dpto. de Física de los Materiales)
Esta revista está dedicada a aspectos generales de la Ciencia y a su enseñanza en la Facultad de Ciencias de la UNED.
Pretende servir de vehículo de información entre los diferentes estamentos que constituyen la comunidad universitaria
de la Facultad, desde los profesores hasta los alumnos, pasando por todos y cada uno de los eslabones: Centros Asociados, profesores-tutores, personal de la administración y servicios…, ofreciendo un canal de información, discusión y
debate sobre los problemas que conlleva nuestra razón de ser, la enseñanza de la Ciencia.
También pretende dar a conocer las actividades que cada uno de los estamentos realiza, las relaciones que mantiene
con otras instituciones docentes e investigadoras, tanto nacionales como internacionales. En definitiva, acortar la
«distancia» que nos separa a través de un mayor conocimiento de lo que hacemos.
100cias@uned
N.º 2
Índice
Editorial
........................................................................
Noticias del Decanato .......................................................
— Festival: Ciencia para la juventud en la UNED,
por M.ª Luisa Rojas Cervantes ....................
— San Alberto Magno 2009:
• Docencia e investigación en la universidad: ¿hay intereses contrapuestos?, por
Sebastián Dormido Bencomo .................
• IX Concurso de Fotografía Científica ....
Información de los Departamentos .........................
Resúmenes de Tesis Doctorales ...................................
Seminarios, reuniones científicas y cursos de
verano .........................................................................................
Premios y distinciones a profesores y estudiantes
de la Facultad de Ciencias .............................................
El Grupo de Astronomía de la Facultad de Ciencias ................................................................................................
Vida científica
| 2009
ISSN: 1989-7189
.............................................................................................
Nuestra Facultad
(nueva época)
..............................................................................
Colaboraciones .......................................................................
— En Ciencias de la Naturaleza: ..............................
• El agua, fuente de vida y de problemas,
por Pilar Fernández Hernando ....................
• Aportaciones de Darwin a la Biología
moderna, por Rosario Planelló Carro .......
— En Física: Los rayos cósmicos, las partículas más energéticas de la naturaleza, por
Fernando Arqueros Martínez (UCM) ..............
— En Química: «Una breve historia de los
átomos: la evolución química del Universo»,
por Enrique Pérez Jiménez (IAA, CSIC) .......
Novedades científicas en 2009: ...................................
— En Ciencias Medioambientales, por Consuelo
Escolástico León ...........................................................
— En Química, por Fernando Peral Fernández .
Semblanzas de los Premios Nobel:
— Premio Nobel de Física 2008, por Pablo
García González ...........................................................
— Premio Nobel de Química 2008, por Jesús
López Sanz, Elena Pérez Mayoral, Antonio J.
López Peinado y Rosa M.ª Martín Aranda ..
Efemérides:
— 1609, Galileo: el telescopio y las primeras
disputas astronómicas, por J. Javier García
Sanz ..................................................................................... 109
— 1809, Charles Robert Darwin, por Fernando
Escaso Santos ................................................................ 117
— 1989, Hace veinte años que se implantó
el primer ventrículo artificial totalmente
español por un equipo multidisciplinar en
el Hospital de La Princesa de Madrid, por
J. Carlos Antoranz y M. Mar Desco ............... 121
— 2009, Adiós al Año Internacional de la Astronomía, por Montserrat Villar Martín (IAA,
CSIC) .................................................................................... 125
Las mujeres y la Ciencia: ................................................. 131
— Mujeres y Astronomía, por Josefa Masegosa
Gallego (IAA, CSIC) ................................................... 131
4
5
6
6
9
17
20
30
37
41
Enseñanza
50
Enseñanza (y Divulgación) de las Ciencias: .......
— Granada, la última cita. Y seguimos con
Ciencia en Acción, por Rosa M.ª Ros Ferré
(UPC), Directora de Ciencia en Acción .........
— Historia de la Astronomía a través de los
instrumentos de observación, por Enrique
Teso Vilar .........................................................................
Taller y Laboratorio: ..........................................................
— Experimento histórico: El descubrimiento del
del neutrón, por Amalia Williart Torres .......
— Experimento casero: Un espectroscopio casero para observar las líneas de Fraunhofer,
por Manuel Yuste Llandres, Carmen Carreras Béjar y Juan Pedro Sánchez Fernández ...........................................................
— Laboratorio de matemáticas vía Internet:
Un recurso inacabado, por Miguel Delgado
Pineda ...............................................................................
Nuevas Tecnologías en la Enseñanza: ...................
— El portal FisL@bs: Una red de laboratorios virtuales y remotos de Física, por Luis
de la Torre Cubillo y Juan Pedro Sánchez
Fernández .......................................................................
56
57
57
57
63
66
76
83
83
88
95
141
142
142
149
163
163
167
175
185
185
Recensiones de libros: ......................................... 195
104
100cias@uned
........................................................................................
3
Índice
100cias@uned
N.º 2
Editorial
(nueva época)
| 2009
ISSN: 1989-7189
bian y la vida evoluciona. Esta teoría tuvo una gran influencia en todas las áreas relacionadas con las Ciencias
Naturales, la Zoología, la Botánica,… y con otros campos
del pensamiento, la Filosofía, la Psicología,…
Por todo ello el año 2009 fue declarado Año Internacional de la Astronomía y Año Darwin. 100cias@uned
se ha sumado a ambos acontecimientos y dedica un parte considerable de este número a trabajos relacionados
con la Astronomía y la Biología.
Durante el curso pasado tuvimos la desgracia de
perder a la profesora Daniela Martín Nevskaia, de la
Sección de Químicas, y al profesor Ignacio Carmelo
Garijo Amilburu, de la Sección de Matemáticas. Se fueron demasiado pronto. El Consejo de Redacción quiere
dejar constancia de su más sentido pésame a sus familiares y compañeros de los Departamentos de Química
Inorgánica y Química Técnica y de Matemáticas Fundamentales.
Éste es el segundo número de nuestra etapa digital.
Aunque con un poco de retraso, justificado por el mucho
trabajo que todos tenemos que afrontar, fundamentalmente la preparación de materiales para los nuevos grados que comienzan el curso próximo, contiene información detallada de gran parte de las actividades no
curriculares realizadas por la comunidad universitaria
de la Facultad de Ciencias.
En el año 2009 se conmemoraron dos grandes efemérides y muchas de las actividades organizadas giraron
en torno a ellas: el cuarto centenario de la utilización por
parte de Galileo Galilei del telescopio para observar el
cielo, y el bicentenario del nacimiento de Charles R.
Darwin y el 150 aniversario de la publicación de El origen de las Especies.
Ambos acontecimientos supusieron una revolución
científica que cambió drásticamente la concepción del
Universo y de los seres vivos que habitan la Tierra. Galileo se queda asombrado de los millares de estrellas que
ve al apuntar al cielo con su telescopio; la Luna, el cuerpo celeste más cercano, presenta una superficie rugosa
en la que se aprecian montañas, cuya altura calculó y resultó ser mucho mayor que la montaña más alta de Europa, el Mont Blanc; logró asignar el carácter de satélites
a las estrellas móviles alrededor de Júpiter; y un largo
etcétera que supuso una concepción nueva del Universo
y del lugar que nuestro planeta ocupa en él. La Astronomía se convierte en una ciencia nueva, muy interesante,
a la que se dedican muchos esfuerzos humanos y económicos y cuyo desarrollo no ha dejado de crecer. Hoy es
uno de los campos científicos con mayor futuro, en el
que los Estados invierten grandes cantidades de dinero y
en el que trabajan millares de hombres y mujeres por
todo el mundo, esclareciendo cada día un poquito más
las incógnitas de nuestro origen.
Doscientos cincuenta años después otra teoría revolucionó la concepción del origen del hombre, y aunque
hoy siguen existiendo grupos poderosos que se oponen a
ella, los científicos creen firmemente en la evolución de
las especies, tal y como predijo Darwin: las especies cam-
100cias@uned
Ignacio Carmelo Garijo
Amilburu
Daniela Martín Nevskaia
Por último, nos congratulamos del éxito de visitas que
ha tenido el primer número digital de 100cias@uned,
pues ha superado las 6000 y, además, ha habido más
de 3000 descargas de los trabajos que en él aparecen.
Esto nos da ánimo para seguir por esta vía.
4
Editorial
100cias@uned
N.º 2
Nuestra Facultad
| 2009
ISSN: 1989-7189
Se inicia esta sección describiendo dos de las actividades más importantes, desde el punto de vista divulgativo, realizadas por la Facultad de Ciencias: el ya tradicional acto de celebración de la festividad de nuestro
patrón, San Alberto Magno, en el que además de la lección magistral, que trató sobre el papel de la enseñanza
y la investigación dentro de la Universidad, en cuyo
marco el profesor Dormido se preguntaba si ambas actividades tenían intereses contrapuestos (debate muy interesante por lo que animamos a nuestros lectores a que
lean con atención los argumentos expuestos), se proclamaron los ganadores del IX Concurso de Fotografía
Científica, que cada año cuenta con un número mayor
de aspirantes.
La segunda actividad es el Festival de Ciencia para
la Juventud, que se celebró a lo largo de los meses de
100cias@uned
(nueva época)
noviembre y diciembre de 2009, tanto en la Sede Central
como en dieciséis Centros Asociados de la UNED.
A continuación se encuentran los apartados ya habituales en esta sección, a saber: los informes de las actividades más importantes que han realizado algunos
departamentos a lo largo del año; los resúmenes de las
tesis doctorales de algunos de los doctorandos que las
han defendido en 2009; asimismo, están incluidos los
premios recibidos por los miembros de la comunidad
universitaria de la Facultad, los congresos, cursos de verano, seminarios, …, organizados por algunos de sus
miembros; y, por último, las actividades del Grupo de
Astronomía que durante el año 2009, Año Internacional
de la Astronomía, han sido muchas y muy variadas: ciclo de conferencias, exposiciones, observaciones astronómicas, cursos de verano, …
5
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
(nueva época)
| 2009
ISSN: 1989-7189
NOTICIAS DEL DECANATO
vidades, establecimiento del cronograma definitivo, contactos con los directores de los Centros Asociados… Por
fin, el día 2 de noviembre estábamos listos para comenFESTIVAL: CIENCIA PARA LA
zar una nueva andadura de divulgación científica.
JUVENTUD EN LA UNED
Así, durante nueve días, del 2 al 13 de noviembre
(incluyendo parte de la Semana de la Ciencia), nuestra FaAl igual que en años anteriores, la FECYT (Fundacultad se convirtió en un punto de encuentro entre cientíción Española de Ciencia y Tecnología) publicó en el
ficos y escolares, estos con edades comprendidas entre
mes de marzo una convocatoria a nivel nacional para la
11 y 14 años (desde 6.º de Enseñanza Primaria hasta 3.°
concesión de una serie de proyectos de divulgación cienESO). Se realizaron un total de 32 sesiones, participando
tífica. En el año 2007, en la Facultad de Ciencias de la
unos 800 escolares de 13 colegios diferentes de la ComuUNED ya desarrollamos un proyecto financiado por la
nidad de Madrid, que eran trasladados gratuitamente en
misma entidad, llevando a cabo la divulgación de una
autocar junto con sus profesores desde sus respectivos
serie de actividades científicas con escolares de la Cocentros hasta nuestra Facultad. Se editaron carteles anunmunidad de Madrid y en diferentes Centros Asociados de
ciadores de la acción, que se repartieron por todos los
la UNED. El éxito fue tal que nos animó a volver solicitar
colegios y Centros Asociados participantes, así como trípde nuevo este año otro proyecto de características simiticos que recogían el programa completo y detallado de
lares al anterior. En el mes de mayo nos fue concedido y
las dos semanas. Se organizaron sesiones de mañana y
en septiembre comenzamos con los planes de organizatarde, asistiendo a cada sesión un número aproximado
ción del mismo: búsqueda de colegios de contacto, disede 50 escolares, que eran divididos en dos grupos. En las
ño de los carteles anunciadores y de las camisetas de resesiones de mañana, que comenzaban a las 10:30 h, se
galo para los escolares, contratación de autocares, diseño
realizaban tres actividades seguidas, cada una de ellas
y edición de los dípticos con información sobre las acticon una duración aproximada de 30
minutos. Las sesiones de tarde comenzaban a las 15:00 h y duraban aproximadamente una hora y media, participando los alumnos en dos actividades
diferentes, de unos 30 minutos cada
una. Durante la última media hora,
tanto en sesiones de mañana como de
tarde, los escolares podían visitar la
exposición de «Momentos matemáticos», colección de pósters divulgativos
editados por la American Mathematical Society (AMS), expuesta en la primera planta de nuestra Facultad. Estos
pósters ponían de manifiesto el papel
relevante que las matemáticas desempeñan en la ciencia, la naturaleza, la
tecnología y la cultura.
Por último, antes de marcharse,
Presentación de la conferencia «Cuando los dinosaurios dominaban la península», impartida por el los chicos recibían como regalo un
profesor Francisco Ortega, dentro del área temática «Esencias de nuestro entorno natural».
100cias@uned
6
Nuestra Facultad
El taller experimental «La luz, el láser, los colores y la materia»,
impartido por los profesores Manuel Yuste, Carmen Carreras y Juan
Pedro Sánchez, dentro del área temática «Por una Física más cercana».
kit formado por una camiseta, un bolígrafo y unos pos-it
de colores, impresos con los logos del Proyecto, además
de una baraja de Familias Astronómicas, realizadas por
el Grupo de Astronomía de la UNED (gracias al apoyo
económico de todos los Departamentos de la Facultad, el
Decanato y el Vicerrectorado de Formación Continua y
Extensión Universitaria)..
Este año se han realizado un total de 41 actividades
científicas, que abarcaban desde conferencias hasta experimentos de laboratorio, pasando por talleres con ordenador, juegos, etc. Las áreas temáticas que englobaban a las
actividades eran las siguientes: «Jugando con las Matemáticas» (6 actividades), «Por una Física más cercana» (8
actividades), «Experimentando con la Química» (15 actividades); «Esencias de nuestro entorno natural» (6 actividades) y «El desarrollo sostenible» (5 actividades). Además, la
exposición de «Momentos matemáticos» se encontraba
abierta al gran público, en horario de 10:00 a 14:00 h y de
15:00 a 18:00 h. De cada una de las actividades se editaron unos dípticos que incluían información detallada acerca del contenido de la actividad y del autor de la misma.
La participación e implicación de los profesores de la
Facultad fue muy buena, siendo 46 los profesores que colaboraron en la realización de las distintas actividades,
Algunos de ellos descubrieron su faceta docente dirigida a
un público más joven del que estaban acostumbrados y lo
gratificante que resultaba transmitir sus conocimientos a
los chicos.
Como colaboradores externos a la Facultad, hay que
destacar la participación de tres profesores de la Universidad Jaume I de Castellón, que impartieron la actividad
«La realidad aumentada» (ofrecida también a todos los
miembros de la Facultad, fuera del horario de las actividades) y de Francisco Plou, Investigador Científico del CSIC,
que impartió la conferencia. ¿Para qué sirven las enzimas?, además de ceder gustosamente los juegos de «La
tabla periódica» y «El concurso de los catalizadores».
Por otra parte, es de agradecer la estrecha colaboración que prestaron los bedeles en todo momento, tanto
en los días previos a la Semana de la Ciencia como
durante el transcurso de la misma (preparación de las
bolsas de regalo, distribución de las sillas y mesas en las
aulas necesarias, reparto de las camisetas, etc.). Especialmente quiero agradecer a Nacho su esfuerzo en preparar los carteles con los cronogramas de las actividades
y en «estar al quite” cuando la llegada de los chicos a la
Facultad se adelantaba… Y también a Fernando, el ad-
El juego: «El gran concurso de los catalizadores», llevado a cabo por
Francisco José Plou (CSIC) y M.ª Luisa Rojas, M.ª Jesús Ávila y Ángel
Maroto (UNED), dentro del área «Experimentando con la Química».
100cias@uned
7
Nuestra Facultad
El profesor Antonio Costa impartiendo la conferencia «La simetría»
dentro del área temática «Jugando con las Matemáticas», en el IES
Pere Alsius de Banyoles.
Escolares de 3.º de la ESO, del IES Pere Alsius de Banyoles, muy
atentos en la actividad «El juego de la Tabla periódica», dentro del
área temática «Experimentando con la Química».
ministrador, por gestionar todo el tema económico que
implica el proyecto, siempre con buen talante…
Respecto a las actividades en los Centros Asociados, se llevaron a cabo en unas fechas comprendidas
entre el 15 de octubre y el 16 de diciembre. Fueron un
total de 33 actividades las que se realizaron en 16
Centros Asociados de la UNED, a los que se desplazaron los profesores responsables de las mismas, desarrollándose 2, 3, e incluso 4 actividades en cada Centro. En algunos casos, en lugar de realizar la actividad
en la ciudad sede del Centro Asociado, se llevó a cabo
en otra localidad cercana, con objeto de intentar favorecer a escolares que habitualmente tienen menos
oportunidades de acceder a actividades de divulgación
científica. Este fue, por ejemplo, el caso de las tres actividades programadas a través del Centro Asociado
de Girona, que se realizaron los días 30 de noviembre y
1 de diciembre en Banyoles, y a las que asistió un total
de 180 escolares de 2.º y 3.º de la ESO, repartidos en
grupos de 30 alumnos.
En la mayoría de los casos ha existido una gran
acogida por parte de los centros implicados, siendo muy
elevado el número de participantes y recogiéndose la
noticia en ciertos medios locales de comunicación, como
prensa y radio.
En cuanto a la divulgación y publicidad del proyecto, hay que indicar que la Televisión Educativa de la
UNED grabó un programa1 el día 5 de noviembre (emi-
tido el día 27), en el que se mostraba la participación de
profesores y estudiantes durante el desarrollo de las actividades. Se realizó también un programa de radio en el
que se contaba la génesis y los objetivos del proyecto.
Además de los dípticos de las actividades, trípticos con
el programa y carteles anunciadores de la acción, se
publicitó todo el proyecto a través de un enlace en la
página Web de la Facultad, que incluía información detallada de las actividades, el cronograma completo y la
relación de actividades a realizar en cada uno de los
Centros Asociados.
Han sido muchos los mensajes de agradecimiento y
felicitación recibidos de parte de los colegios participantes, tanto en Madrid como en los Centros Asociados
y en general, los profesores responsables de las actividades científicas han quedado muy satisfechos con la experiencia. A pesar de ciertas dificultades y malos ratos
(relacionados principalmente con el tema del transporte
de los escolares en autocar) al final «siempre queda lo
bueno…” y de esto último ha habido bastante, así que
como dicen aquello de «no hay dos sin tres…” probablemente estemos dentro de poco inmersos en una nueva
andadura de divulgación científica…
M.ª Luisa Rojas Cervantes
Vicedecana de Químicas
y Coordinadora del Proyecto
1
Los interesados pueden ver el programa en la siguiente URL:
http://www.canaluned.com/#frontaleID=F_RC&sectionID=S_TELEUNE&videoID=3626.
100cias@uned
8
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
| 2009
ISSN: 1989-7189
NOTICIAS DEL DECANATO
to que siempre me he considerado un miembro más de la
misma. Así me he sentido y así me han tratado y por eso
me produjo una íntima satisfacción la designación con la
que el Decano me honró. Gracias de corazón Víctor por
tu llamada que inmediatamente acepté.
El tema que elegí tiene que ver con los intereses
contrapuestos que se plantean en la Universidad entre la
investigación y la docencia. Es un tema que a todos nos
concierne, que suscita un gran debate y para el que no
hay respuestas definitivas. Llevo más de 40 años enseñando en la Universidad (de ellos, más de 25 en la Universidad Nacional de Educación a Distancia). El ejercicio
diario de la profesión, la prudencia que nos viene con el
paso de los años, el cambio gradual de énfasis doctrinal
desde el «qué» hacia el «cómo», un mayor distanciamiento entre lo que realmente se sabe y lo que en último
término se transmite creo modestamente, y sin ninguna
petulancia, que me ha ido mejorando como docente y, en
definitiva, como profesor. Contamos al comenzar este
nuevo milenio con una sociedad científica más vertebrada y vigorosa, más motivada que la que los de mi generación nos encontramos cuando a mediados de los
años 60 llegamos a la Universidad. Una sociedad con
producción científica más ajustada en volumen y calidad
media a nuestro entorno occidental.
Parece pues fuera de cuestión que la Universidad
más adecuada en el presente es la Universidad científica
en la que la gran mayoría de sus académicos investigan
y enseñan. Pero ¿cuánto se investiga y cuánto se enseña?, ¿dónde está el equilibrio que debe mantener un
profesor entre ambas actividades?, ¿cuál se considera
que es la función preferente de la universidad: enseñar o
investigar?, ¿la Universidad debe rendir cuentas a la sociedad en general y acoplarse a sus demandas o debe fijarse con independencia sus propias metas?, ¿debe buscar el saber por el saber o la aplicabilidad de la
investigación y la empleabilidad de sus estudiantes?,
¿debe primarse una evolución similar, en busca de la
calidad para todas las universidades o es preferible centrar los esfuerzos en las más avanzadas? Éstas y otras
muchas preguntas nos surgen de inmediato cuando tratamos de analizar con espíritu crítico el papel de la Universidad en la sociedad actual.
SAN ALBERTO MAGNO 2009
DOCENCIA E INVESTIGACIÓN
EN LA UNIVERSIDAD:
¿HAY INTERESES CONTRAPUESTOS?
1. INTRODUCCIÓN
Estas notas recogen las reflexiones que expresé en la
conferencia que con ocasión de la celebración del día de
San Alberto Magno tuve el honor de impartir en la Facultad de Ciencias en un acto que se ha convertido ya en
tradicional. Lo hago con gusto y siguiendo el requerimiento que con tal fin me ha hecho la directora y «alma
mater» de la revista 100cias@uned, mi buena amiga la
profesora Carmen Carreras.
Dice el saber popular que es de «bien nacido ser
agradecido» y por eso para empezar quisiera expresar mi
agradecimiento al Decano de la Facultad, profesor Víctor Fairén, que muy amablemente me invitó para participar en este acto en el que lo habitual es que sea un
profesor de la Facultad quien sea el encargado de tomar
la palabra. He sido miembro de la Facultad de Ciencias
desde mi incorporación a la UNED en el año 1982 hasta
que se creó la Escuela Técnica Superior de Ingeniería
Informática hace ya algunos años. Muchos de mis afectos y recuerdos se sitúan en esta Facultad y no les ocul-
El profesor Dormido impartiendo la lección magistral en el acto
académico de celebración del patrón de la Facultad.
100cias@uned
(nueva época)
9
Nuestra Facultad
En un libro1 escrito a mediados de los años 90, Bill
Reading, destacado profesor de la Universidad de Harvard, califica como de «estado en ruinas» a la universidad
tradicional enfrentando la concepción de la Universidad
de la Cultura con la de la Universidad de la Excelencia. El
título elegido por Reading es
más una provocación al lector que una convicción. La
llamada de atención de su autor por una universidad de la
excelencia la trata de acentuar
a partir de una institución que
considera sobrepasada al seguir anclada en los valores
tradicionales de una universidad de la cultura.
Naturalmente, Reading no propone renunciar a la
herencia del pasado sino dar una preponderancia a la
excelencia como justificación social de su existencia y es
aquí donde comienza, desde mi modesto punto de vista,
el gran debate sobre las diversas «universidades» que
pueden configurarse en un futuro más o menos inmediato. La excelencia per se no es un referente claro de las
funciones universitarias.
En primer lugar habrá que decidir qué queremos hacer y después intentar hacerlo con calidad, que nunca
podrá ser lo mismo para todas las instituciones universitarias. En segundo término, muchos pensamos que existe y seguirá existiendo una misión cultural en las universidades, que incluye la transmisión de conocimiento y
valores a la sociedad así como un compromiso en la resolución de problemas que afectan al entorno en que
cada centro se localiza.
Como decía Ortega y Gasset2 la función de la Universidad es difundir la cultura ya que es necesario disponer de ella y no hay otro camino para moverse por la
jungla de la vida. Incluso avisaba de que el predominio
absoluto de la investigación puede llevar a descuidar
tanto la educación de profesionales como la transmisión de la cultura, aunque inmediatamente matizaba que
una atmósfera cargada de entusiasmo y esfuerzo científico es el supuesto radical para la existencia de la universidad.
La Universidad de hoy se enfrenta a grandes retos a
los que debe dar respuesta:
• La globalización.
• Una competencia creciente.
• Las nuevas tecnologías de la sociedad del conocimiento.
• Nuevos tipos de estudiantes.
Hay pues que adoptar una actitud pro activa para
adelantarse a las nuevas situaciones que se nos avecinan.
De todas formas, lo que a nosotros nos parecen nuevos
problemas son en realidad viejos problemas adaptados a
la situación actual que han sido consustanciales con la
historia de la institución universitaria desde que a finales
del siglo XVIII Wilhelm von Humboldt sentó las bases de
la Universidad tal como la concebimos hoy día.
2. ORÍGENES DE LA UNIVERSIDAD MODERNA
La pretensión de que las universidades existen para
enseñar e investigar parece un hecho incontrovertible a
muchos, aunque la importancia relativa de cada uno y la
relación entre ambos ha sido fuertemente debatida por
los intereses contrapuestos que se manifiestan entre ambos3. Los orígenes de la institución universitaria probablemente se inician en la cultura árabe como centros de
formación y enseñanza en el período medieval. Así, el
grado de bachiller deriva de un énfasis por la enseñanza
y toma su nombre del vocablo árabe baccalaureus que
significa «con el derecho a enseñar por la autoridad de
otro».
Newman4, en su obra La Idea de una Universidad,
consideraba que «descubrir y
enseñar son funciones distintas; son también dones distintos y no se encuentran normalmente unidos en la misma
persona. Quien emplea su
tiempo en otorgar sus conocimientos a otros es poco probable que tenga o el tiempo o
la energía para adquirir lo
nuevo». Newman recomendaba que el objetivo principal de
3
J. Hattie and H. W. Marsh: The relation between research and teaching:
A meta-analysis. Review of Educational Research, 66 (4), 507-542
(1996).
4
J. H. Newman: The idea of a university. Garden City, NY, Doubleday
(1853).
1
Bill Reading: The University in Ruins. Harvard University Press (1996).
Ortega y Gasset: Misión de la Universidad, Obras Completas (12
vol.), t. IV, pp. 313-353, Alianza, (Madrid, 1987).
2
100cias@uned
10
Nuestra Facultad
similar a otras de su tipo. Pero Liebig estaba determinado a hacer investigación para contribuir al nuevo conocimiento. Al hacerlo siguiendo los esquemas de Humboldt le dio a su laboratorio una ventaja competitiva
sobre los que ya existían y rivalizaban con él en otras
universidades.
Liebig concentraba las clases en el semestre del verano, lo que le dejaba libre todo el invierno para concentrarse en el trabajo práctico en el laboratorio. Proponía problemas de investigación a sus alumnos,
inventó instrumentación más sencilla y fiable para el
análisis químico que hacían posible que todos los integrantes del grupo pudiesen realizar su trabajo experimental de forma más rápida. La investigación de los estudiantes se convirtió en la norma del laboratorio,
primero centrada en los problemas que planteaba el
director y luego dando cierta libertad de acción a todos
sus componentes.
Hacia 1840 la ventaja competitiva del grupo de Liebig era evidente. La creación del grupo le permitió explorar nuevas avenidas en la investigación con una rapidez que no les era posible seguir a los químicos que
trabajaban de forma solitaria o con un muy reducido
equipo de colaboradores. Esta misma línea de acción rápidamente fue seguida por otros influyentes profesores
como Bunsen en Heidelberg, Kolbe en Leipzig, Bayer en
Munich o Franz Neuman en Konigsberg.
La enseñanza no se basaba ya esencialmente en la
clase magistral y en textos escritos. Ahora giraba alrededor de ejercicios prácticos con técnicas de cuantificación, diseño de instrumentos innovadores y la revisión
de los problemas y resultados en el seno del propio grupo. Los estudiantes aprendían a seguir ciertas reglas,
protocolos y técnicas rigurosas propias del campo de
investigación. Se había producido un cambio de paradigma donde el profesor no presentaba el conocimiento
totalmente codificado y estructurado a sus alumnos confiando que estos absorbieran lo mejor del pasado para a
partir de ahí intentar construir el futuro.
Desde esta base germana, la idea y la práctica de
educar por medio del proceso de descubrir se expandió a
otros lugares durante la segunda mitad del siglo XIX y
primera parte del siglo XX a través de los países mas
desarrollados.
Pero dos hechos básicos aparecen en la escena en la
segunda mitad del siglo XX que ponen en cuestión esta
estructura como esquema universal de funcionamiento
en la educación superior:
una universidad era enseñar conocimiento universal,
mientras que la investigación se hacía mejor fuera de
ella, estableciendo así una clara distinción entre enseñanza e investigación. Su idea de universidad está relacionada con la idea de una educación liberal.
Por su parte von Humboldt, político, ministro de
Educación, filósofo y lingüista, al que se le reconoce
como el arquitecto del sistema de educación prusiano y
fundador de la Universidad Humboldt en Berlín, representa una corriente más idealista donde la relación entre
investigación y docencia se considera esencial porque
ambas están intrínsecamente relacionadas. En sus propias palabras5 «la universidad no es un lugar donde los
estudiantes aprenden a través de la enseñanza si no un
lugar donde los estudiantes aprenden a través de su participación en la investigación.»
Su modelo fue utilizado como referencia de los sistemas de educación superior en paises tales como Estados Unidos y Japón. En palabras de Margarita Bertilsson
el pensamiento «humboldtiano» era una ideología extravagante. En su concepción la relación entre profesor y
alumno se hace diferente. En la educación superior el
profesor como tal desde una visión tradicional no existe;
ambos, profesores y estudiantes, tienen su justificación
en la persecución común del conocimiento como co-investigadores.
Su ideología sirvió para abrir nuevos espacios conceptuales y, especialmente, racionalizar las intenciones y
acciones de las nuevas disciplinas que emergieron con
fuerza en las décadas entre 1820 y 1870 en el sistema alemán y, muy especialmente, en la Química y en la Física.
Aquí encuentra sus raíces el grupo de investigación
académico como una unidad básica de organización en
la educación superior. La herramienta principal de esta
nueva estructura no fue ni la clase magistral ni la lectura de textos canónicos sino la actividad orientada al
descubrimiento en los nuevos laboratorios y seminarios
de enseñanza-investigación.
El primer ejemplo claro de esta nueva concepción
fue el laboratorio organizado y dirigido por el químico
Justus Liebig en la pequeña universidad de provincia de
Giessen que comenzó a funcionar en 1836 y que perduró durante 3 décadas. El laboratorio comenzó como una
escuela de entrenamiento para farmacéuticos de forma
5
W. Humboldt: On the spirit and the organizational framework of intellectual institutions in Berlin. Minerva, 8, 242-267 (1970). (El trabajo original fue publicado en 1809.)
100cias@uned
11
Nuestra Facultad
1. La investigación tiene el potencial de ser capaz de
ayudar a mejorar la enseñanza.
2. La investigación se ha demostrado en la práctica
que ayuda a mejorar la enseñanza.
Aquellos que argumentan que la investigación mejora la enseñanza ofrecen evidencias en línea con la primera proposición, apuntando todas las formas y mecanismos con que los profesores podrían mejorar sus
métodos de enseñanza, tales como mantener el contenido del curso actualizado o educar a los estudiantes en la
curiosidad intelectual y el pensamiento crítico que caracteriza a la buena investigación.
La mayoría de los que argumentan de acuerdo con la
segunda proposición rápidamente conceden que enseñanza e investigación pueden ser actividades complementarias, pero inmediatamente citan los numerosos estudios empíricos que se han realizado y que de forma
consistente muestran una correlación casi nula entre la
productividad de la investigación y el rendimiento de la
enseñanza. En esta línea argumentan que la investigación y la enseñanza tienen objetivos diferentes y requieren atributos y habilidades personales distintas.
El fin fundamental de la investigación es avanzar en el
conocimiento mientras que el de la enseñanza es desarrollar y mejorar las capacidades de los que aprenden. A los
investigadores se les reconoce principalmente por lo que
descubren y por los problemas que resuelven. Aquellos
investigadores que consideramos de primer nivel suelen
ser observantes, objetivos, entrenados en realizar inferencias y tolerantes con la ambigüedad, mientras que
un profesor excelente debe de tener dotes de buen comunicador y tener una cierta empatía con sus alumnos.
Teniendo bosquejados el conjunto de trazos que delinean ambos perfiles es claramente posible y deseable
aunque no necesario que tengamos un comportamiento
satisfactorio en un dominio o en el otro. La enseñanza y
la investigación de calidad son tareas de dedicación
completa de forma que el tiempo que empleamos en una
de ellas generalmente se lo quitamos a la otra. No debería pues sorprendernos si los estudios empíricos no revelan una correlación significativa entre la investigación de
un profesor y la efectividad de su enseñanza.
Aunque la productividad investigadora no excluye la
calidad de la enseñanza, las dos no están relacionadas a
nivel individual. Son posibles todas las combinaciones:
excelentes profesores e investigadores, aquellos que destacan solo en una faceta y finalmente quien no lo hace
en ninguna de ellas. El «mito del profesor super humano»
1. El paso de una educación de élite a una educación de masas en la educación superior que hacían que este modelo no resultase viable a nivel
de una educación de grado.
2. La tendencia de ir de lo simple a lo complejo
complica enormemente cada disciplina colocando barreras en la investigación que requieren niveles avanzados de formación que quedan muy
lejos del conocimiento bastante más rudimentario que se lograba en una educación al nivel de
grado. Es el llamado problema de poner en las
condiciones iniciales adecuadas a los componentes de un grupo para poder hacer investigación
en un campo.
Las ciencias biomédicas ofrecen el ejemplo más espectacular de un cambio muy rápido en el conocimiento en las últimas décadas. La investigación cada vez
más requiere de una especialización más dirigida, lo
que plantea otros tipos de problemas que pueden encontrar cierto alivio en un sistema, que combine de forma armónica investigación y docencia. Las cifras son
importantes. Por dar un ejemplo en matemáticas, la clasificación de temas de investigación incluyen 4.500 subtópicos dispuestos en 62 grandes áreas y esto es la norma en todas las disciplinas de ciencias e ingeniería.
Los costes en la educación superior se disparan y los
gobiernos de los estados más avanzados de manera cada
vez más creciente indican que no están preparados para
sufragar los costes unitarios de una educción superior de
masas con los niveles de la educación de elite.
3. RELACIÓN ENTRE DOCENCIA
E INVESTIGACIÓN
Hay quienes opinan que el poner el énfasis de una
institución universitaria en la investigación encuentra
una de sus justificaciones en la creencia de que con ello
se mejora la enseñanza. En realidad hay un fuerte debate y una gran controversia al respecto sobre este tema
que, en mi modesta opinión, no tiene todavía una respuesta definitiva a pesar de la ingente y documentada
bibliografía que hay sobre el tema.
Se puede afirmar que una gran parte del mundo
académico y de los responsables de la administración de
universidades con perfil investigador apoyan esta creencia que otros muchos cuestionan. En realidad lo que
está pasando es que ambas partes están debatiendo dos
proposiciones que a mi juicio son diferentes:
100cias@uned
12
Nuestra Facultad
ba haciendo y si podrían haber alternativas para mejorar
su tarea como profesor. En los años siguientes vino a
concluir que nadie aprende cualquier cosa no trivial
simplemente porque alguien se la cuente, aunque esté
muy bien explicada. Para que los estudiantes aprendan
de una forma significativa deben estar activamente comprometidos en su propio proceso de aprendizaje.
Un compromiso activo es lo que hay que intentar
conseguir en la clase. En lugar de emplear todo el tiempo escribiendo deducciones detalladas y soluciones a los
problemas en la pizarra para que los estudiantes la copien, lo que hay que hacer es que algunas veces trabajen
individualmente, otras en pequeños grupos para que
confronten ellos mismos las soluciones de sus problemas
durante la clase. Algunos de ellos son directos, con una
solución correcta y otros tienen diversas soluciones que
son posibles que los estudiantes deben primero pensar y
luego evaluar críticamente para determinar cual es la
mejor. El que obtengan o no la respuesta correcta no es
tan importante, lo que realmente es fundamental es que
ellos se encuentren implicados de forma activa en su
búsqueda. A menudo lo logran y cuando no lo hacen están preparados para escuchar de una forma que no sería
posible en una clase impartida al modo tradicional.
Las asignaciones de tareas para después de las clases
así como los tests que ahora realiza Felder son también
diferentes. Antes solían consistir casi en su totalidad en
sustituciones de fórmulas del tipo «dado esto y esto calcular aquello» y en deducciones de determinadas expresiones. También asigna nuevas tareas de formulación de
problemas y algunos ejercicios que requieren que el
alumno «piense» poniendo lo mejor de sí en buscar una
solución y que implican la lectura de material que explícitamente no se ha considerado en las clases. Quizás el
cambio más grande de cómo ahora enseña Felder ha
sido su adopción del aprendizaje cooperativo6 como el
estilo vehicular que impregna toda su enseñanza.
Esta sinergia entre investigación y docencia que se
suele proclamar es incluso más difícil de justificar a nivel
institucional que a nivel individual.
es que no tenemos suficientes profesores-investigadores de la primera categoría para poder poblar todas las
aulas de nuestras universidades. La realidad es bastante
diferente.
A este respecto quisiera comentar la experiencia personal de Richard Felder, profesor de Ingeniería Química durante los últimos 40 años en la Universidad de Carolina del
Norte, que personalmente comparto ya que refleja en buena medida mi propia trayectoria personal como profesor.
Felder entra en la profesión de «profesor universitario» en 1968 con el entrenamiento y formación en pedagogía que la mayoría de los profesores reciben, es decir,
ninguno y por defecto procede a hacer con sus estudiantes lo que habían hecho antes con él sus profesores.
Felder preparaba sus notas de clase y las transcribía en la
pizarra para que sus estudiantes las copiasen. Algunas
veces planteaba preguntas que ocasionalmente obtenían
respuestas de sus alumnos menos temerosos y periódicamente les hacía unos tests que en promedio obtenían
unas calificaciones de 55 puntos sobre 100 con algunas
puntuaciones por debajo de 20.
Después de una década con esta rutina, comienza a
pensar que las cosas no estaban yendo exactamente de la
forma en que se las había imaginado. Siempre había
considerado las bajas calificaciones en los tests como el
orden natural de las cosas en ingeniería, pero ahora comenzaba a preguntarse si la responsabilidad de este bajo
rendimiento de algunos de sus estudiantes podía ser parcialmente suya. No es que Felder se considerase un profesor no preocupado y carente de interés por sus alumnos. En realidad empleaba mucho tiempo preparando
las notas de sus clases y se las entregaba de una forma
clara y bien organizada a sus estudiantes. De manera
consistente obtenía excelentes evaluaciones docentes e
incluso había ganado algún premio de enseñanza.
La verdadera medida de la efectividad de la enseñanza es la calidad del aprendizaje de los alumnos y
así cuanto más pensaba Felder en las bajas calificaciones
más tenía que reconocer que sus enseñanzas no eran
efectivas. Estaba haciendo todo el trabajo intelectual de
organizar e ilustrar los conceptos del curso, lo cual lo
apreciaban realmente los estudiantes, pero haciendo todo
esto era lo que le llevaba a él a una comprensión de la
materia que estaba enseñando. El resultado era que el
profesor, ¡estaba aprendiendo el material del curso extremadamente bien! pero no así sus alumnos.
En ese punto de reflexión comenzó por primera vez
en su carrera a pensar seriamente acerca de lo que esta-
100cias@uned
6
Es un subconjunto del aprendizaje colaborativo que tiene por objetivo que los alumnos aprendan trabajando en equipo. Estas actividades se
estructuran de forma que cumplan 5 criterios: a) interdependencia positiva, b) rendición de cuentas individual, c) interacción cara a cara, d)
uso apropiado de las habilidades interpersonales, y e) auto-evaluación
regular del funcionamiento del equipo.
7
A. W. Astin: What matters in college? Four critical years revisited,
San Francisco, Jossey-Bass (1993).
13
Nuestra Facultad
Hay que cambiar la cultura de estudiantes de grado
«receptores de información» a la de estudiantes de grado
«inquisidores del saber y el conocimiento», un escenario
en definitiva en el que profesores y alumnos compartan
la apasionante aventura del descubrimiento.
Es preciso disponer de un marco donde se premie el
interés por descubrir lo nuevo, de forma que cada una de
las materias de un programa de grado debería ser una
ocasión de proporcionar una oportunidad para que los
estudiantes se superen a través de métodos basados en el
descubrimiento. Se trata de logar un equilibrio razonable
con la mirada puesta en el ideal de Humboldt en el nacimiento de la universidad moderna.
En su monumental estudio sobre la educación superior en Estados Unidos, A. W.
Astin7 encontró una correlación negativa significativa
entre el perfil investigador de
una universidad y el número
de objetivos educativos alcanzados. Concluía su trabajo
en los términos siguientes:
«Asistir a un centro universitario cuyo profesorado está
volcado esencialmente en la investigación aumenta el
grado de insatisfacción de los estudiantes e impacta negativamente sobre la mayoría de las medidas de su desarrollo cognitivo y afectivo. Por el contrario, en aquellas
instituciones académicas que están fuertemente orientadas hacia el desarrollo del estudiante muestran una estructura de efectos opuesta a la anterior».
Astin opina que esta correlación negativa se debe al
menos en parte a que las universidades contratan a profesorado con una fuerte orientación investigadora que
dan una prioridad baja a la enseñanza a nivel de grado
en lugar de a un conflicto inherente entre enseñanza e
investigación. Por otra parte, están también aumentando
los mecanismos de «rendición de cuentas públicas» y en
los últimos años se observa que hay un interés creciente
en reforzar la conexión entre investigación y docencia o
lo que se ha venido en denominar el «nexo investigación-docencia».
El informe Boyer8 de mediados de los 90 fue un aldabonazo para las universidades de perfil investigador
que habían desatendido la formación de sus estudiantes
de grado. Entre otras muchas acciones dicho informe
proponía lo siguiente: «Las
universidades con perfil investigador deben hacer que
el nexo docencia-investigación sea el eje central de su
misión como formadores de
estudiantes a nivel de grado» El informa ofrecía evidencias muy persuasivas de
que habían fallado seriamente en esta tarea.
4. ENSEÑANZA Y APRENDIZAJE
Enseñanza puede significar dos cosas completamente diferentes. En primer lugar, puede simplemente significar presentar información, de forma que si doy una
clase sobre un determinado tema yo puedo decir que
enseño independientemente de que alguien haya aprendido. El segundo significado de enseñanza es ayudar a
alguien a aprender. De acuerdo con este significado —que
yo personalmente acepto— si doy una clase sobre algo y
los estudiantes no aprenden, yo no he enseñado.
El enfoque tradicional de «enseñar un curso» implícitamente utiliza el primer significado. Preparo un programa, explicitando los temas que planifico que voy a
cubrir, expongo los temas en clase y por esta tarea me
gano mi sueldo como profesor. No importa cuántos estudiantes aprenden, si he explicado el programa he hecho mi trabajo.
El enfoque alternativo, en el que se fundamenta muchas de las ideas del proceso de Bolonia, se suele denominar a veces educación basada en resultados. En lugar de
definir un curso simplemente escribiendo un programa,
se intenta precisar con tanto detalle como sea posible los
conocimientos, habilidades y actitudes que deseamos que
adquieran nuestros estudiantes cuando finalice el curso.
Cuando enseñamos el curso debemos intentar presentar y
explicar el conocimiento especificado, proporcionar ejercicios prácticos y realimentación a lo largo del curso y ofrecer ayudas y modelos para las actitudes que consideramos
que son importantes que nuestros estudiantes adopten.
Incluso si cubrimos el programa en su totalidad, si
nuestros estudiantes no aprenden lo que pensamos que
deberían aprender deberíamos aceptar que hemos fallado
en nuestra tarea.
8
E. Boyer, Scholarship reconsidered: Priorities of the professoriate,
Princeton, NJ, Princeton University Press (1990).
100cias@uned
14
Nuestra Facultad
cesar nueva información. Los estudiantes funcionan con
una panoplia de estrategias en las situaciones de aprendizaje. Algunos prefieren tratar con información concreta —hechos, observaciones, datos experimentales— y otros
se encuentran más cómodos con conceptos abstractos y
modelos matemáticos. Algunos retienen más de la información visual (figuras, diagramas, gráficas) que de la información estrictamente verbal (palabra hablada o escrita) y otros progresan mejor de forma inversa.
Si enseñamos a nuestros estudiantes de una manera
que entra fuertemente en conflicto con su estilo de
aprendizaje, con seguridad no aprenderán mucho. Desgraciadamente estos desajustes son bastante comunes
entre la forma que la mayoría de los profesores de ciencias e ingeniería enseñan y los estilos de aprendizaje de
la mayoría de sus estudiantes.
Un ejemplo muy común de esta situación es que la
mayoría de los estudiantes son «aprendices visuales» y la
forma en que presentamos la información en nuestras
explicaciones es en su mayor parte de naturaleza verbal.
Utilizamos solo la palabra cuando damos clase y esencialmente texto y fórmulas matemáticas en la pizarra,
en las trasparencias y en los libros de texto.
Otro problema es que nuestros estudiantes aprenden de una forma activa y obtienen su mayor grado de
asimilación cuando hacen algo —resuelven problemas o
mantienen intercambios de ideas con otros—. Sin embargo, la mayor parte de la enseñanza en nuestras universidades sigue un formato de clase magistral. Los cursos basados en los laboratorios son excepciones notables.
Para el aprendizaje activo, sentarse pasivamente hora
tras hora mirando a los profesores dar una clase es una
gran pérdida de tiempo.
Quizás el desajuste más serio en los cursos de ciencias e ingeniería a nivel de grado surgen del hecho de
que la mayoría de los estudiantes aprenden por un estilo
que podríamos llamar «aprendizaje sensorial». Se encuentran incómodos si no pueden ver conexiones entre
lo que se les enseña y el «mundo real». Desgraciadamente para ellos, la mayoría de los profesores de ciencias
e ingeniería enseñan de una forma, con la que se encuentran confortablemente asentados en materias de tipo
teórico-abstractas, que opera en su contra y en favor
de un tipo de «aprendizaje intuitivo».
Ya desde el primer año de carrera universitaria, enseguida introducimos a nuestros alumnos en técnicas
matemáticas fundamentales, principios científicos básicos, teorías moleculares, etc., y hacemos que esperen al-
Las estrategias principales que hay que emplear para
seguir este enfoque son:
1. Escribir unos objetivos de aprendizaje claros y
usarlos para estructurar los cursos que enseñamos.
2. Utilizar el espectro de estilos de aprendizaje que
emplean los estudiantes cuando enseñamos.
3. Emplear un aprendizaje cooperativo y activo.
4.1. Objetivos del aprendizaje
Los objetivos del aprendizaje deben formularse a través
de sentencias explícitas de lo que los estudiantes deberían
ser capaces de hacer si realmente han aprendido algo.
Un objetivo de aprendizaje tiene dos partes: un predicado, que dice cuando el estudiante debería ser capaz
de realizar una acción especificada, seguida por la acción
propiamente dicha. Objetivos de aprendizaje típicos se
expresan de la forma siguiente: «Cuando hayas terminado el tema 5 deberías ser capaz de ….» La frase que sigue
al predicado debe empezar con un verbo que refleje una
acción observable, tales como: «explicar», «calcular»,
«probar», «derivar», «diseñar» u «optimizar» y tendría que
ser una sentencia clara de lo que se espera que el estudiante sea capaz de hacer. Verbos como: «conocer»,
«aprender», «comprender» y «apreciar» no se deberían
usar —esas acciones no son observables directamente.
Aunque los objetivos reales que perseguimos son
que nuestros alumnos conozcan y comprendan el contenido del curso, la única forma que tenemos de asegurarlo es observando cómo hacen algo que demuestre su
conocimiento o comprensión. Por ejemplo, se puede decir que el objetivo es que comprendan la ecuación de estado de un gas ideal y la pregunta es entonces ¿cómo sabemos que realmente lo comprenden? La respuesta
podría ser «si les doy algunas temperaturas y presiones
de un gas ideal y les pido que calculen el correspondiente volumen específico». En este sencillo ejemplo ése
es el objetivo de aprendizaje.
Una razón de escribir objetivos de aprendizaje es dar a
los estudiantes «benchmarks» contra los cuales puedan verificar su comprensión. Cuanto más explícitos seamos en
dar estos objetivos, especialmente aquellos que requieren
de altos niveles de pensamiento crítico y creativo, más
probable es que los estudiantes lo alcancen.
4.2. Estilos de aprendizaje
Los estilos de aprendizaje son las diferentes formas
que los estudiantes característicamente adoptan para pro-
100cias@uned
15
Nuestra Facultad
universidades se ha dejado de considerar prioritaria la
educación a nivel de grado. Hoy el prestigio social de
una universidad viene a través de la fama de sus profesores como investigadores; a ver quién se atreve a decir
a un famoso investigador recién contratado que tiene
que dedicar más tiempo a la enseñanza. Para que acepte
el puesto casi siempre hay que garantizarle que su carga
docente será ligera. ¿Por qué mejora claramente el nivel
de investigación de una generación a otra y no el de la
docencia?
He aquí un problema que el mundo académico debe
corregir de inmediato para acallar las justas críticas que
recibe del contribuyente. Hay que impartir una educación superior adecuada a las grandes metas a que aspiran
los alumnos y esto no debe ser en absoluto una tarea secundaria de la Universidad.
En un sentido similar se pronunció la prestigiosa
revista Nature hace algunos años en su manifiesto «For
British Science». Entre otras cosas afirma lo siguiente: «la
experiencia común demuestra la falsedad de que todos
los buenos profesores deben ser también investigadores
activos y prestigiosos. Es típico que los buenos Departamentos incluyan un puñado de gente interesada más en
la docencia que en la investigación, y matiza: «pero un
Departamento con éxito docente debe transmitir también
a sus alumnos una visión de primera mano de las fronteras de su tema. Ningún departamento universitario importante con docencia en ciencia y tecnología debe carecer de investigación».
Sería deseable que nuestros alumnos recordasen a
nuestra Universidad como lo hace John Updike con la
suya: «Cinco años en Harvard fueron suficientes. Aún me
quedaba mucho por aprender, pero se me había inculcado la liberadora idea de que ahora podría aprender por
cuenta propia».
gunos años para presentarles las aplicaciones de estas
abstracciones.
No es difícil inferir de este cuadro que aquellos estudiantes a los que se les trata de enseñar de una forma
que entra en conflicto con su estilo natural de aprendizaje encontrarán pocos incentivos en la enseñanza universitaria. Es como si el profesor les estuviese enseñando
en una lengua extranjera que ellos desconocen por lo
que rápidamente se desconectan y de ahí a desalentarse
y fallar en los exámenes solo hay un paso. No resulta
pues sorprendente que las investigaciones de naturaleza
empírica que se han llevado a cabo muestren que aquellos estudiantes a los que se les enseña casi enteramente
utilizando estilos de aprendizaje que no están en sintonía
con su estilo preferido no aprenden tanto como aquellos
estudiantes en los que sí concuerda.
5. CONCLUSIÓN
La buena actividad docente no tiene el reconocimiento social otorgado a la buena actividad investigadora. Si no, compárese el tamizado producido por las
evaluaciones de los sexenios de investigación con la total indiferenciación resultante del «café para todos» en
la asignación de los quinquenios docentes. Es injusto y
desalentador para quien cuida su docencia con mimo y
le dedica una parte sustancial de su tiempo. Estoy convencido de que algún día no muy lejano una sociedad
sensible y crítica, como aspiro que sea la nuestra con la
calidad docente, condenará este desprecio por la docencia.
El ex Rector de la Universidad de Harvard y destacado educador estadounidense Derek Bok hacía al dejar
su mandato, en la década de los 90, unas interesantes reflexiones en Science sobre cómo las universidades debían
recuperar la confianza de la sociedad americana. Decía
Bok: «A pesar de que la calidad de la docencia ha mejorado, que la oferta de cursos es mucho más amplia y variada que en el pasado, que hay muchas más conferencias, etc., hay ahora más críticas que hubo antaño. ¿A
qué se deben?» Para Bok, la razón está en que en las
100cias@uned
Sebastián Dormido Bencomo
Dpto. de Informática y Automática
E.T.S. de Ingeniería Informática
[email protected]
16
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
| 2009
ISSN: 1989-7189
NOTICIAS DEL DECANATO
Descripción: Un golpe de viento infortunado nos ofrece la
fantástica oportunidad de observar directamente el espectáculo secreto que se oculta bajo una cáscara: el crecimiento de un pollo de gaviota. El increíble invento del
huevo permite a las aves crecer separadas de su mamá.
Dentro del huevo, al embrión no le falta de nada para
crecer. El intenso color amarillo del vitelo nos da una idea
de su alto contenido nutritivo. A la derecha vemos restos
de la clara, convertida en la vesícula amniótica que, además de satisfacer las necesidades de agua y albúmina, se
encarga del reciclaje, haciendo de reservorio de los desechos nitrogenados producidos por el metabolismo del
embrión, que podrán ingerirse nuevamente. El pico todavía
no es necesario para comer. La arteria umbilical y las venas
transportan continuamente todo el alimento directamente
al estómago. Tampoco hace falta abrir el pico para respirar.
La membrana coroidea que apenas se adivina rodeando
todo el embrión, es el pulmón que oxigena los finos capilares que se hacen invisibles. La gran misión del pico es la
de romper la cáscara, y por eso vemos en la punta una
protuberancia blanquecina, conocida como «el diamante»,
que desaparecerá a los pocos días de nacer. Por desgracia,
esta vez ese momento no podremos contemplarlo…
SAN ALBERTO MAGNO 2009
IX CONCURSO DE FOTOGRAFÍA
CIENTÍFICA
El Jurado para la concesión de los premios del IX
Concurso de Fotografía Científica, estuvo constituido
por las siguientes personas:
— D. Víctor Fairén Le Lay, Decano de la Facultad de
Ciencias.
— D. José Carlos Antoranz Callejo, Representante
del PDI.
— D.ª M.ª Rosario Planelló Carro, Representante del
PDI.
— D. Juan Pedro Sánchez Femández, Representante
del PAS.
— D. Gerardo Ojeda Castañeda, Director Técnico del
CEMAV.
— D. Bernardo Gómez García, Realizador del Dpto.
de TV y Vídeo del CEMAV.
Se presentaron cuarenta y ocho fotografías al concurso. El fallo del Jurado se hizo público durante el acto
académico de celebración del patrón de la Facultad el 15
de noviembre, y fue el siguiente:
SEGUNDO PREMIO (ex aequo):
D. SANTIAGO REIG REDONDO por su fotografía titulada: «6 ojos mejor que uno».
Descripción: En las ricas playas de Maputo (Mozambique), el cangrejo arenícola aprovecha la bajada de marea
PRIMER PREMIO:
D.ª AURORA MARTÍNEZ DE CASTILLA, por su fotografía titulada: «Creciendo sin mamá».
100cias@uned
(nueva época)
17
Nuestra Facultad
hide a primeros de junio, soportando un calor importante ya que se plantó el hide en un claro.
Los EXIF`S son:
— Velocidad: 1/3000 segundos
— Apertura: 5,6
— Medición Puntual
— ISO 400
— AF: AI Servo
— Distancia focal: 400 mm
— Formato RAW
La fotografía ha sido revelada digitalmente con el
Digital Photo Professional (DPP). Con el CS4 se ha saturado ligeramente amarillos, azules y rojos, así como eliminado una ramita que estaba tapando una pata del ave
y parte del cuerpo.
para salir a pastar algas y otros invertebrados todavía
más diminutos que ellos mismos. Veinte gramos escasos
de peso no les convierten en majar suculento, pero sus
rápidos movimientos atraen la atención de multitud de
gaviotas y pequeños limícolos. Su supervivencia depende de la rapidez en enterrar su frágil cuerpo de apenas 2
cm. Sólo se aventuran a salir de la arena si el riesgo es
compartido y manteniendo una perfecta sincronización
con el resto de individuos del grupo. Perder de vista a un
compañero en plena alerta puede significar un retraso
mortal, refugiarse a tiempo bajo la arena protectora…
Características técnicas:
Cámara Nikon D80, 1/320 sec f/11 ISO 160, objetivo 18135 mm, luz natural
Técnica: Fotografía digital con ajustes básicos
TERCER PREMIO:
SEGUNDO PREMIO (ex aequo):
D. ISRAEL DURÁN PINEL, por su fotografía titulada:
«La lucha por la vida».
D. ALBERTO RODRÍGUEZ VIDAL, por su fotografía
titulada: «El despegue del abejaruco».
Descripción: La fotografía está tomada en el Parque Nacional de Tortuguero, situado en la zona noroeste de
Costa Rica, a orillas del mar Caribe, con una cámara
Sony Alfa 200 y no ha sido manipulada digitalmente.
En ella podemos observar el momento en el que una
tortuga verde (Chelomia mydas – Carl Von Linné, 1758)
llega a la orilla del mar momentos después de su nacimiento. Los especimenes adultos pueden llegar a medir
hasta 1,5 metros de longitud y llegan a pesar más de 230
kg. Es la única especie herbívora entre las tortugas marinas y se alimenta de pastos marinos y algas. Debido a
esta dieta, sus reservas de grasa son de color verde, de
allí su nombre. Se distribuyen en océanos y mares de todas las regiones tropicales del mundo y, esporádicamente, en zonas subtropicales. En la actualidad existe una
Descripción: Para la obtención de esta toma del abejaruco alzando el vuelo, fue necesario, en primer lugar,
buscar zonas frecuentadas por los mismos. En este caso,
se tuvo la suerte de encontrar un área de nidificación. Al
estar en zona protegida, hubo que solicitar los permisos
pertinentes para poder realizar la actividad fotográfica en
dicha zona. Una vez obtenidos, se estudió el terreno
para ubicar el hide lo más cerca posible de los nidos
pero sin perturbar su actividad diaria. El equipo usado
para la fotografía del abejaruco fue: un hide, cámara
Canon 40 D, objetivo 100-400 L y trípode.
Para esta fotografía se tuvo que estar cuatro horas y
media haciendo casi 500 fotografías en el interior del
100cias@uned
18
Nuestra Facultad
Después de la incubación, las tortuguillas usan un
diente especializado en la punta de su nariz para romper
la cáscara del huevo. Este diente desaparece poco después de la explosión. Una vez liberadas de su cáscara, las
tortuguillas se mueven en grupo hacia la superficie (en
un efecto llamado «protocooperación»). Antes de emerger
de la arena, las tortuguillas descansan bajo la superficie
hasta que la arena se enfría (señalando la llegada de la
noche). Luego, emergen en grupo y se apresuran rápidamente hacia el mar. Según las gentes del lugar, es bastante difícil observar un nacimiento de tortugas en directo, pero nosotros tuvimos esa gran suerte.
Los «recién nacidos» se orientan hacia la luz más fuerte que encuentran, que en condiciones naturales, es el
horizonte. Si en la playa en la que se encuentran existen
muchas luces artificiales, es común que las pequeñas tortugas se desorienten, se desplacen hacia el lado contrario y
nunca lleguen al agua. El esfuerzo en conjunto que realizan las tortuguillas para salir del nido y llegar al agua incrementa sus probabilidades de supervivencia. Para llegar
al mar, las tortuguillas deben llegar a la orilla antes de ser
atacadas por los buitres, cuervos (bastante abundantes en
esa zona) e incluso por los cangrejos, que intentarán devorarlas. Emerger de los nidos en la noche las protege de
muchos de estos predadores. Por otro lado, obstáculos en
la playa como troncos, basura, botes, huellas de vehículos
o hasta pisadas de una persona, pueden generar grandes
barreras e impedir que las pequeñas tortugas lleguen a su
destino. Fue una experiencia inolvidable el poder ayudar a
que llegaran todas vivas al agua, evitando que se las comieran o que se desorientaran por el camino. Eso sí, sin
tocarlas para no contaminarlas. Los machos que llegan al
mar nunca regresarán a tierra. Las hembras, en cambio,
regresarán muchas veces para depositar sus huevos. A
partir de ahí, las crías de las tortugas verdes vivirán en el
océano y las juveniles y adultas, en arrecifes de coral y
entre pastos marinos. Su vida ha comenzado.
tendencia positiva al crecimiento en la población; sin
embargo, aún se mantiene el consumo de carne, grasa y
la cosecha ilegal de huevos en el Caribe. Según la Lista
Roja (de Especies Amenazadas de la Unión Internacional
para la Conservación de la Naturaleza y los Recursos
Naturales) se encuentra en peligro de extinción.
Respecto al desove, dichas tortugas deben salir a
tierra para soltar sus huevos, ya que éstos no están adaptados a la vida bajo el agua. Por otra parte, el cuerpo de
las tortugas marinas no está adaptado para la vida en la
tierra, por lo que las tortugas son lentas y vulnerables
cuando salen a las playas. Así, generalmente anidan por
las noches cuando existe menor peligro. Cuando es tiempo para que la hembra adulta anide, ésta migra a la playa donde nació. Sobre cómo llegan a localizar este lugar,
no he llegado a obtener ninguna explicación científica
(según los guías del parque natural, las pequeñas tortugas se impregnan del olor y la química de la arena y
después buscarán de nuevo esta playa, guiadas por el
olor de dicha arena, para poner sus primeros huevos)
pero seguiré documentándome. Al llegar, se desplaza
hasta encontrarse fuera del alcance de la marea alta.
Aquí, con sus aletas posteriores, forma una profunda
cavidad en la arena (de hasta un metro de profundidad), donde deposita de cien a doscientos huevos y posteriormente los cubre con arena y regresa al mar. Una
sola hembra puede anidar hasta 12 veces (pero generalmente lo hace entre 3 y 6 veces) durante una sola temporada de anidación. Una vez terminada esta temporada,
regresa a su zona de alimentación, que puede encontrarse a miles de kilómetros de distancia. Repite esta migración cada 2 a 5 años por el resto de su vida.
La incubación de los huevos generalmente dura de
50 a 80 días, según las condiciones ambientales. La temperatura de la arena determina si las tortugas a nacer serán machos o hembras. Temperaturas bajas generalmente producen machos y temperaturas más altas, hembras.
Los huevos son porosos, dejando pasar tanto vapor de
agua como oxígeno y dejando salir el dióxido de carbono eliminado por el embrión. Este intercambio obviamente depende del estado de la playa. Si los huevos son
colocados en una playa con bajos niveles de oxígeno
(como por ejemplo, donde existe gran cantidad de residuos), es improbable que sobrevivan los embriones.
100cias@uned
El Consejo de Redacción de 100cias@uned felicita a
los ganadores. Estas fotografías, junto con todas las premiadas en ediciones anteriores, decoran los pasillos de la
Facultad de Ciencias.
19
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
(nueva época)
| 2009
ISSN: 1989-7189
INFORMACIÓN DE LOS
DEPARTAMENTOS
nes locales que nos permitieron disfrutar del cielo
de la isla a través de sus telescopios, solo superables por las instalaciones de los grandes observatorios internacionales. En este curso no puede dejarse de mencionar la magnífica visita a las
instalaciones del Observatorio Astronómico del
Roque de los Muchachos y la más que agradable
excursión por la isla, con almuerzo y música canaria incluidos, que subvencionó el Centro Asociado para todos los participantes en el curso, estudiantes y profesores.
DEPARTAMENTO DE FÍSICA
DE LOS MATERIALES
Cuatro profesores de nuestro Departamento ocupan
cargos de gestión en nuestra Universidad:
— Joaquín Summers Gámez, Director del Curso de
Acceso para mayores de 25 años, desde marzo de
2006,
— Amalia Williart Torres, Vicedecana de Ciencias Físicas de la Facultad de Ciencias, desde octubre de
2005,
— Manuel Pancorbo Castro, Secretario de la Facultad de Ciencias, desde octubre de 2006, y
— M.ª del Mar Montoya Lirola, Coordinadora del
Título de Grado en Física, desde marzo de 2009.
CURSOS DE VERANO Y JORNADAS DE FIN DE
SEMANA
Algunos profesores del Departamento, como miembros del Grupo de Astronomía de la Facultad, han organizado los siguientes cursos de verano y jornadas de fin
de semana:
— Curso de Verano «Introducción a la Astronomía
desde un lugar único: la isla de La Palma», celebrado del 30 de junio al 4 de julio de 2009 en La
Palma, codirigido por la profesora Carmen Carreras y el astrónomo David Galadí del Centro
Astronómico Hispano Alemán-Observatorio de
Calar Alto (Almería). Participaron como ponentes
los profesores del Departamento Manuel Yuste,
Amalia Williart, Manuel Pancorbo, Mª del Mar
Montoya y Carmen Carreras. Otros profesores invitados fueron Ernesto Martínez, del Dpto. de Matemáticas Fundamentales y Director del Grupo de
Astronomía de la Facultad de Ciencias de la
UNED, Antonio San Blas Álvarez, Gerente de la
Reserva Mundial de la Biosfera La Palma, así
como numerosos aficionados de las agrupacio-
100cias@uned
Figura 1. Carátula del Folleto del Curso“Introducción
a la Astronomía desde un lugar único: la isla de
La Palma», que se entrega a los participantes
con todas las ponencias.
20
Nuestra Facultad
Figura 3. Alumnos y profesores del Curso de Verano «La UNED
y el Año Internacional de la Astronomía. Curso de introducción
a la Ciencia Astronómica» en la sede de El Barco de Ávila.
Figura 2. Alumnos y profesores del Curso de Verano «Introducción a
la Astronomía desde un lugar único: la isla de La Palma», visitando
las instalaciones del Observatorio Astronómico del Roque de los
Muchachos (isla de La Palma).
verso para que lo descubras» (mayor información
puede encontrarse en el apartado del Grupo de
Astronomía, al final de esta misma sección).
— “II Jornadas de Introducción a la Astronomía», celebradas entre los días 18 y 20 de septiembre de
2009 en Arcos de las Salinas (Teruel). Las jornadas fueron dirigidas por el profesor Manuel Yuste
y en ellas actuaron como ponentes los profesores
Enrique Teso, Manuel Pancorbo, Amalia Williart y
Javier García Sanz de la Facultad de Ciencias de
la UNED, David Galadí Enríquez del Centro Astronómico Hispano Alemán de Calar Alto (Almería) y Sebastián Francisco Sánchez Sánchez y
Mariano Moles Villamate del Centro de Estudios
de Física del Cosmos de Aragón (CEFCA). Durante las jornadas se visitaron las instalaciones de
éste último centro astronómico en el Pico del Buitre en la Sierra de Javalambre. También se pudo
disfrutar de la Exposición en el Centro Cultural de
Arcos de las Salinas.
— Curso de Verano «La UNED y el Año Internacional
de la Astronomía. Curso de introducción a la
Ciencia Astronómica», celebrado del 13 al 17 de
julio de 2009 en El Barco de Ávila, codirigido
por los profesores M.a del Mar Montoya, de nuestro departamento, y Ernesto Martínez, del Dpto.
de Matemáticas Fundamentales. Actuaron como
ponentes las profesoras del Departamento Amalia
Williart, Carmen Carreras y M.a del Mar Montoya.
Otros ponentes del curso fueron los profesores
Enrique Teso, José Antonio Bujalance y Ernesto
Martínez, de la UNED, y los astrónomos Santos
Pedraz, de Calar Alto, Ana Ulla, de la Universidad
de Vigo y Presidenta del Grupo Especializado de
Astronomía y Astrofísica de la RSEF, y Rosa M.a
Ros, de la Universidad Politécnica de Cataluña. En
esta ocasión se inauguró la Exposición «El Uni-
Figura 4. Tríptico anunciador de las «II Jornadas de
Introducción a la Astronomía» en Arcos de las Salinas
(Teruel).
100cias@uned
21
Nuestra Facultad
CURSOS DE FORMACIÓN CONTINUA
PROYECTOS DE INNOVACIÓN DOCENTE
Dentro de los Cursos del Programa de Formación
del Profesorado, la profesora M.ª Begoña de Luis Fernández dirige el curso «Introducción a la Astrofísica».
Dentro del Programa de Formación en el Área de la
Salud, las profesoras María Shaw y Amalia Williart dirigen el curso «Aspectos Físicos del uso de las Radiaciones
en Medicina. Radioprotección».
Varios profesores del Departamento han participado
en la II convocatoria de Redes de Investigación para la
Innovación Docente con los siguientes proyectos:
— La profesora Carreras coordinó la red de innovación docente «Una experiencia piloto: incorporación de actividades e incentivos académicos en el
Curso Virtual de la asignatura de Óptica» (código
nº 0903019).
— El profesor Juan Pedro Sánchez-Fernández coordinó la «Red de innovación docente para el desarrollo de simulaciones de prácticas en Easy Java
y su incorporación en asignaturas de Ciencias Físicas (plan actual y futuros grados) impartidas
por el Departamento de Física de los Materiales»
(código nº 0903085), siendo integrantes de la red
los profesores Manuel Pancorbo, M.ª del Mar
Montoya y Pablo Domínguez.
— El profesor Manuel Pancorbo coordinó la red «Mejora del curso virtual de Física (Ingeniería Técnica
de Informática de Gestión) mediante la introducción de la evaluación continua (código nº 62)».
PROYECTOS DE INVESTIGACIÓN
Durante el curso académico 2008-2009 continuaron los siguientes Proyectos de Investigación:
— Estudio del daño por radiación producido por
electrones secundarios en sistemas biomoleculares,
financiado por el Consejo de Seguridad Nuclear
(Ref. 2004I/P00P/004, prorrogado hasta 2009) y
cuya investigadora responsable ha sido la profesora María Shaw. Participa también en él la profesora Amalia Williart.
— Estudio de procesos atómicos y moleculares con
aplicaciones en el uso biomédico de radiaciones,
del Programa Nacional de Física (Ref. FIS200910245), cuyo investigador principal es el Dr. Gustavo García Gómez-Tejedor, del Instituto de Física
Fundamental del CSIC. En él colabora también
la profesora Amalia Williart.
— Estructura y dinámica de Fluidos Complejos: problemas de volumen y de interfase, del MEC (Ref.
FIS2006-12281-C02-02), cuyo investigador principal es el profesor Miguel Ángel Rubio Álvarez,
del Dpto. de Física Fundamental. En él colabora el
profesor Pablo Domínguez García de nuestro departamento.
— Materiales nanoestructurados de base polimérica:
Fenómenos de interfase en relación con sus propiedades y aplicaciones avanzados, financiado
por el Consorcio entre Grupos de Investigación de
la Comunidad de Madrid (Ref. S0505/MAT-0227),
en el que participa Pablo Domínguez.
— MICRO-REOLOGÍA: Estructura y dinámica de sistemas coloidales confinados, del Ministerio de
Ciencia e Innovación (Referencia FIS2009-14008C02-02), cuyo investigador principal es el profesor Miguel Ángel Rubio, y en el que colabora Pablo Domínguez.
COLABORACIÓN CON OTRAS ENTIDADES
El Departamento mantiene colaboraciones con otras
entidades, entre las que cabe destacar la RSEF y la Asociación Ciencia en Acción:
X Concurso CIENCIA EN ACCIÓN celebrado del 25
al 27 de septiembre de 2009 en el Parque de las Ciencias
de Granada, participando como Jurado los profesores
del Departamento Manuel Yuste y Carmen Carreras.
Por otra parte, en el marco de la colaboración con la
Facultad de Física de la Universidad de La Habana, el
profesor Octavio Calzadilla Amaya, Catedrático de Física
General en esa universidad, ha pasado una estancia de 3
Figura 5. Vista general del Parque de las Ciencias de Granada, donde
se celebró la X edición del concurso Ciencia en Acción.
100cias@uned
22
Nuestra Facultad
REUNIÓN ANUAL DE PROFESORES TUTORES
DE LA SECCIÓN DE FÍSICA
meses en nuestro departamento, colaborando con los
profesores del Grupo de Óptica: Manuel Yuste, Carmen
Carreras y Juan Pedro Sánchez-Fernández.
Los Departamentos de Física Fundamental, Física de
los Materiales y Física Matemática y de Fluidos organizaron conjuntamente la reunión anual de Profesores-Tutores
de la Sección de Físicas el 27 de noviembre en la Facultad
de Ciencias, con el fin de coordinar las enseñanzas entre
los profesores-tutores de los Centros Asociados y los profesores responsables de las asignaturas en la Sede Central.
Como es habitual, además de las sesiones de trabajo, los
participantes disfrutaron de un almuerzo en la Cafetería de
la Facultad de Ciencias Económicas y Empresariales, en el
que de manera más distendida comentaron sus opiniones
sobre el nuevo proceso de incorporación de todas las universidades al llamado Plan Bolonia.
SEMINARIOS Y CONFERENCIAS
A lo largo de 2009 se impartieron las siguientes
conferencias:
— Lo que sabemos del Universo, impartida el 25 de febrero por el Dr. D. Antonio Fernández-Rañada, Catedrático de Electromagnetismo en la Facultad de Ciencias Físicas de la Universidad Complutense de Madrid.
— La interferencia en películas delgadas para determinar las constantes ópticas de los materiales,
impartida el 19 de junio por el Dr. D. Octavio
Calzadilla Amaya, Catedrático de Física Aplicada
en la Universidad de La Habana (Cuba).
— Presentación del proyecto: Incorporación de medidas reales al laboratorio virtual, impartida el 23
de junio por el Dr. D. Octavio Calzadilla Amaya.
— Determinación de las incertidumbres en las medidas experimentales. Propuesta de elaboración del
material a incorporar a los guiones de prácticas
(presenciales y virtuales), impartida el 25 de junio
de 2009 por el Dr. Octavio Calzadilla Amaya.
— Durante el Taller experimental de Óptica y de
Electricidad y Óptica (julio, 2009), el profesor
D. Octavio Calzadilla impartió a los alumnos las
siguientes conferencias:
• Sistema internacional de unidades. Curiosidades de algunos patrones (6 de julio).
• Procesamiento de datos en el laboratorio (7 de
julio).
• Interferencias en películas delgadas. Aplicaciones, (8 de julio).
— Presentación del laboratorio virtual de Óptica,
impartida el 9 de julio por D. Juan Pedro Sánchez
Fernández, Profesor Asociado del Departamento
de Física de los Materiales de la UNED.
— Teoría Vectorial del principio de Huygens, impartida
el 18 de diciembre por el Dr. D. Luis Manuel Hernández García, Profesor de Óptica en la Facultad de
Física de la Universidad de La Habana (Cuba).
Por otra parte, varios profesores del Departamento
han participado en actividades de divulgación, tanto en
la Sede Central como en Centros Asociados, en el marco
del «Festival: Ciencia para la juventud en la UNED» (para
mayor información ver la presentación del proyecto en el
apartado anterior).
100cias@uned
DIPLOMA DE ESTUDIOS AVANZADOS
Han tenido lugar los siguientes actos de defensa del
DEA en el Departamento:
Título: Aplicaciones Geofísicas de la Ecuación de la
Difusión
Autor: D. José Ramón Ruiz Rodríguez
Tutor: D. José María Pérez Casas
Fecha de lectura: 23 de marzo de 2009
Calificación: Sobresaliente
Tribunal: Manuel Yuste Llandres, M.ª del Mar Montoya Lirola y Margarita Chevalier del Río (UCM).
Título: Estados de intercara en uniones de nanotubos
de carbono
Autor: D. Hernán Santos Expósito
Tutora: D.ª M.ª del Mar Montoya Lirola
Fecha de lectura: 8 de julio de 2009
Calificación: Sobresaliente
Tribunal: Manuel Yuste Llandres, M.ª del Mar
Montoya Lirola y Margarita Chevalier del Río (UCM).
TESIS DOCTORALES PRESENTADAS
Se ha defendido la siguiente tesis doctoral:
«Espectroscopia alfa-beta-gamma con detectores
phoswich mediante discriminación digital de forma de
pulsos y su aplicación a la determinación de coincidencias», presentada por D. Roberto de la Fuente Álvarez, el 12
de marzo de 2009, siendo Director de la tesis el Dr. D. Benito de Celis Carrillo, del Dpto. de Física Aplicada de la Universidad de León, y tutora la Dra. D.ª Amalia Williart Torres.
Carmen Carreras Béjar
Secretaria Docente
Carlos García García
Secretario Administrativo
23
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
(nueva época)
| 2009
ISSN: 1989-7189
INFORMACIÓN DE LOS
DEPARTAMENTOS
en las Sedes de Baza (Granada), Palencia y Cáceres, el
curso: «Alimentación y calidad de vida en las personas
mayores: un reto frente al siglo XXI». La impartición de
este Curso con «videoconferencias simultáneas» es una
experiencia realizada por tercer año consecutivo en los
Cursos de Verano con una participación de 67 alumnos
entre las tres Sedes.
En julio de 2009, el profesor Antonio J. López
Peinado ha dirigido el Curso de Verano titulado «Cambio
climático: causas e impacto económico-social», celebrado
en el Centro Penitenciario de Dueñas en Palencia.
DEPARTAMENTO DE QUÍMICA
INORGÁNICA Y QUÍMICA TÉCNICA
Cinco de nuestros profesores siguen ocupando cargos de gestión, tanto en nuestra Facultad como en el
Rectorado:
— Coordinadora del Curso de Nivelación de conocimientos de ATS, dependiente del Vicerrectorado
de Ordenación Académica: Socorro Coral Calvo
Bruzos, desde febrero de 2006.
— Secretaria del Curso de Acceso para mayores de
25 años, dependiente del Vicerrectorado de Ordenación Académica: Eloísa Ortega Cantero, desde
abril de 2006.
— Vicedecana de Ciencias Químicas de la Facultad
de Ciencias: M.ª Luisa Rojas Cervantes, desde julio
de 2006.
— Vicedecana de Ciencias Ambientales de la Facultad de Ciencias: Rosa M.ª Martín Aranda, desde
julio de 2006.
— Director del Centro Asociado de la UNED en Palencia: Juan de Dios Casquero Ruiz, desde septiembre de 2008.
INVESTIGACIÓN Y COLABORACIÓN CON OTRAS
INSTITUCIONES
Durante el curso académico 2008-2009, se continua
el Proyecto de Investigación concedido el año anterior titulado: «Desarrollo de un nuevo sistema de eliminación
de compuestos tóxicos y corrosivos en aire generados en
depuradoras de aguas residuales». Los organismos participantes en este Proyecto son: CIEMAT, ICP (CSIC), ICV
(CSIC) y UNED. Este Proyecto, que empezó en 2006, tiene un periodo de ejecución de cuatro años. Los profesores de nuestro departamento que participan en el mismo
son: M.ª Luisa Rojas (coordinadora del grupo de la
UNED), Rosa M.ª Martín Aranda y Antonio J. López Peinado. Se ha prorrogado el contrato de investigación con
la empresa Hynergreen Technologies. S.A., de acuerdo
con el artículo 83 de la LOU.
El Departamento de Química Inorgánica y Química
Técnica ha llevado a cabo, durante el curso 2008-2009,
las siguientes actividades docentes e investigadoras:
SEMINARIOS Y CONFERENCIAS
PARTICIPACIÓN DEL DEPARTAMENTO EN LA
ORGANIZACIÓN DE CURSOS
En el pasado año se han impartido en nuestro Departamento las siguientes conferencias:
— Structural and Morphological Control of Novel
Nanoporous Materials, impartida por el Dr. Ajayan Vinu del International Center for Materials
Nanoarchitectonics, World Premier International
Research Center, NIMS, Tsukuba, Japón, en el
mes de julio.
— New Perspectives in Catalysis, impartida por el
profesor Jacques C. Védrine, del Laboratoire de
Dentro de los Cursos de Extensión Universitaria, el
26 y 27 de enero de 2009, en la Sede de Plasencia, el Departamento organizó el curso: «Obesidad y prevención:
abordaje educativo y nutricional», dirigido por la profesora Socorro Coral Calvo Bruzos.
La profesora Calvo también dirigió dentro de los
Cursos de Verano de la UNED, del 6 al 8 de julio de
2009, en la Sede de Plasencia, y con videoconferencias
100cias@uned
24
Nuestra Facultad
Licenciada: CRISTINA GUTIÉRREZ SÁNCHEZ
Título: Síntesis de cumarinas mediante reacción de
Pechmann y activación de zeolitas por ultrasonidos
Directores: R.M.ª Martín Aranda, A.J. López-Peinado
y J. Cejka.
Facultad de Ciencias, Sección de Químicas.
Fecha: 4 de diciembre 2009.
Physico-Chimie des Surfaces, Ecole Nationale Supérieure de Chimie de Paris (ENSCP), Francia, en
el mes de septiembre.
DIPLOMA DE ESTUDIOS AVANZADOS
EN QUÍMICA INORGÁNICA
El 8 de mayo de 2009, con el tribunal compuesto por
los profesores: Antonio R. Guerrero Ruiz, Vicenta Muñoz
Andrés y Eduardo Ruiz Hitzky, y el 4 de diciembre de
200, con el tribunal formado por: Antonio R. Guerrero
Ruiz, Eduardo Ruiz Hitzky y Ángel Maroto Valiente, se
han celebrado las convocatorias correspondientes al curso 2008/09 para la obtención del Diploma de Estudios
Avanzados, DEA. En mayo de 2009 expuso públicamente los contenidos de su Memoria docente e investigadora
un alumno y en diciembre de 2009 lo hicieron tres alumnos, obteniendo los tres primeros la calificación de Sobresaliente y el último la calificación de Notable. A continuación se detallan los alumnos, el titulo de las
Memorias y los directores de las mismas:
Licenciado: JORGE HURTADO DE MENDOZA
Título: Análisis de multirresiduos de compuestos semivolátiles en especia azafrán, tras extracción con SBSE
y análisis por deserción térmica (ATD) acoplada a cromatografía de gases (GC) y espectrometría de masas
(MS) en tandem.
Directores: R.M.ª Martín Aranda, M. Delgado Carmona, L. Maggi.
Facultad de Ciencias, Sección de Químicas.
Fecha: 4 de diciembre 2009.
Licenciada: M.ª LUISA CARMONA CARMONA
Título: Diseño y desarrollo de mezclas bituminosas
con polvo de neumáticos usados.
Directores: R. M.ª Martín Aranda, A. J. López Peinado, C. J. Durán Valle.
Facultad de Ciencias, Sección de Químicas.
Fecha: 4 de diciembre 2009.
Licenciada: MARÍA SORIA SÁNCHEZ
Título: Oxidación de Fenol disuelto en agua con
catalizadores metálicos anclados en nanofibras de carbono.
Directores: A.R. Guerrero Ruiz y A. Maroto Valiente.
Facultad de Ciencias, Sección de Químicas.
Fecha: 8 de mayo 2009.
100cias@uned
Antonio J. López Peinado
Dpto. de Química Inorgánica
y Química Técnica
25
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
(nueva época)
| 2009
ISSN: 1989-7189
INFORMACIÓN DE LOS
DEPARTAMENTOS
CONFERENCIANTES INVITADOS
El Dr. José Carlos Iglesias Sánchez, contratado postdoctoral con cargo al proyecto CTQ2007-62113, presentó
el trabajo desarrollado durante su Tesis Doctoral en la
Universidad Autónoma de Madrid sobre «Canales y
transportadores de iones basados en estructuras aromáticas pre-organizadas», el 16 de febrero de 2009.
La Dra. Pilar Goya Laza, profesora de investigación y
directora del Instituto de Química Médica del Centro de
Química Orgánica Manuel Lora-Tamayo del Consejo Superior de Investigaciones Científicas impartió el 21 de
abril de 2009 la siguiente conferencia: «Química y Fármacos: un binomio imprescindible». Esta actividad se
enmarca en el contexto del desarrollo de las prácticas
correspondientes a las asignaturas de Segundo Ciclo de
la titulación de Ciencias Químicas en los laboratorios
del Departamento en la Facultad de Ciencias.
El Profesor Dr. Raúl Mocelo Castell del Departamento de Química Orgánica de la Facultad de Química de la
Universidad de la Habana (Cuba) realizó una estancia en
el Departamento, donde además de discutir con el personal docente e investigador sobre actividades científicas
de colaboración, impartió la conferencia «Trabajos recientes en el campo de la síntesis orgánica de heterociclos
de cinco miembros con dos heteroátomos», el día 13 de
noviembre de 2009.
DEPARTAMENTO DE QUÍMICA
ORGÁNICA Y BIO-ORGÁNICA
SEMINARIO PARA PROFESORES TUTORES
Con objeto de establecer las directrices para una correcta coordinación y desarrollo en las asignaturas responsabilidad del Departamento en las titulaciones de
Ciencias Químicas y Ciencias Ambientales en el curso
académico 2008-2009, se organizó un Seminario para el
profesorado que ejerce la acción tutorial en los Centros
Asociados, en el mes de enero de 2009.
En dicho Seminario se presentó la Guía Didáctica de
la asignatura «Biotecnología Aplicada al Medio Ambiente», editada por la UNED, y elaborada por un equipo
multidisciplinar de docentes del Departamento.
La elaboración de un documento de trabajo, recogiendo las conclusiones generales sobre los diferentes
aspectos tratados durante el seminario, ha sido de gran
utilidad a lo largo del curso, en particular en lo que se
refiere a la superación con éxito por el estudiantado de
las diferentes materias.
Figura 1. Guía
Didáctica de
Biotecnología
Aplicada al
Medio Ambiente.
100cias@uned
Figura 2. Una imagen de la presentación «Química y Fármacos».
26
Nuestra Facultad
Figura 3. La profesora Dra. Pilar Goya Laza (en el centro de la imagen) con su grupo de investigación.
mento de Química Orgánica y Bio-Orgánica de la UNED.
La exposición pública del mismo se realizó el 10 de julio
de 2009.
El proyecto consistió en la síntesis en fase sólida de
dos modelos de dipéptidos cíclicos (dicetopiperazinas,
DKP), Brevianamida F y DKP Trp_Ala y en la preparación adicional de espaciadores bifuncionales derivados
de 3,4-dihidro-2H-pirano.
Figura 4. El profesor Dr. Raúl Mocelo Castell con la profesora
Dra. Pilar Cabildo Miranda.
COLABORACIONES Y PROYECTOS CON OTRAS
INSTITUCIONES
Figura 6. Estructuras de los dipéptidos Brevianamida F y DKP Trp-Ala.
2. Diploma de Estudios Avanzados de Química
Orgánica
La firma de un convenio de colaboración entre el
Departamento de Química Orgánica y Bio-Orgánica de la
UNED y el Departamento de Química Orgánica del Institut Químic de Sarrià, Universitat Ramon Llull, ha originado un trabajo de investigación, con el título «Diseño
de Inhibidores potenciales de VEGFR-2 mediante cribado
virtual con MOE», desarrollado por D. Jesús Planesas
Gálvez bajo la dirección de los Dres. José I. Borrell y
Violeta Pérez-Nueno y tutorizado por la Dra. Rosa M.ª
Claramunt Vallespí, en el curso académico 2008-2009.
Para ello, se ha construido un modelo in silico para
realizar el cribado virtual de quimiotecas de moléculas
candidatas a inhibir la proteína VEGFR-2 (Vascular Endothelial Growth Factor Receptor), partiendo de moléculas activas y de la estructura cristalográfica de dicho receptor. Como herramienta de cálculo se ha utilizado el
1. Proyecto de investigación en el Máster en Ciencia
y Tecnología Química (módulo Química Orgánica)
Mediante la firma de un convenio entre la Universidad de Barcelona y la UNED ha
sido posible la realización del
proyecto titulado «Una nueva
aproximación a la síntesis en fase
sólida de ciclopéptidos que contienen triptófano» por D.ª Cristina
Pulido Lozano.
Figura 5. D.ª Cristina Pulido Lozano.
El trabajo de investigación ha sido dirigido por el Dr.
Don Ernesto Nicolás Galindo del Departamento de Química Orgánica de la Universidad de Barcelona y tutorizado por la Dra. Dionisia Sanz del Castillo del Departa-
100cias@uned
27
Nuestra Facultad
— «Limpiando nuestro entorno con plantas», por la Dra. Consuelo Escolástico
León, para introducir los mecanismos
de recuperación de suelos mediante la
utilización de plantas y presentar diferentes técnicas de fitorremediación.
— «Las reacciones oscilantes. Ondas químicas», por las Dras. Marta Pérez Torralba, M.ª Ángeles Farrán Morales y
M.ª Ángeles García Fernández, que desarrollaron una serie de experimentos
donde el color de una disolución cambia cíclicamente en función de la concentración de las diferentes especies
químicas que se forman o consumen en
Figura 7. Farmacóforo obtenido por análisis de interacciones proteína-ligando.
una reacción química.
— «El Arte de la Joyería y la Química»,
software computacional MOE®2008.10 (Molecular Opepor la Dra. Soledad Esteban Santos,
rating Environment).
donde mediante una serie de imágenes y
La defensa de las Memorias Docente e Investigadora
diversos objetos, se presenta cómo el
para la obtención del Diploma de Estudios Avanzados
arte de la joyería se halla conectado al
(DEA) en Química Orgánica, se realizó finalmente el 5 de
desarrollo de la Química.
marzo de 2010.
Estas actividades se realizaron tanto en la Facultad
de Ciencias de Madrid como en diferentes Centros Asociados (Valdepeñas, Lugo, Melilla, Cádiz,…), y su repercusión ha sido ampliamente reflejada en periódicos y
otros medios de comunicación.
La profesora Soledad Esteban Santos participó además en la Semana de la Ciencia en la Universidad de
Jaén con la conferencia «Química y Sociedad. Interés
social de la Química a través de su Historia» en el mes
de noviembre de 2009.
Figura 8. Las Dras. López, Claramunt y Ávila con Don Jesús Planesas.
Tanto para el proyecto de investigación del Máster
como para el DEA, actuó el Tribunal compuesto por las
Profesoras Dra. M.ª Jesús Ávila Rey, Dra. Rosa M.ª Claramunt Vallespí y Dra. Concepción López García.
PARTICIPACIÓN EN PROYECTOS DE
DIVULGACIÓN CIENTÍFICA
En el marco del «Festival: Ciencia para la Juventud
en la UNED», nuestro departamento contribuyó con las
siguientes actividades:
100cias@uned
Figura 9. Las Doctoras participantes en el proyecto «Festival: Ciencia
para la Juventud», de izquierda a derecha: Soledad Esteban Santos,
Consuelo Escolástico León, Angeles Farrán Morales y M.ª Ángeles
García Fernández.
28
Nuestra Facultad
REDES DE INVESTIGACIÓN PARA LA
INNOVACIÓN DOCENTE
Los objetivos planteados fueron: i) aplicar un sistema
de evaluación continua mediante el desarrollo de ejercicios
de autoevaluación formativa, y ii) implementar metodologías de aprendizaje activo utilizando sistemas de autoevaluación a través del Curso Virtual (plataforma WebCT).
Para ello se han utilizado tres estrategias: i) ampliación de
la base de datos de preguntas, iniciada el curso 20072008, ii) diseño y elaboración de pruebas de respuesta objetiva (test de autoevaluación, verdadero/falso y opción
múltiple), trabajos en grupo y otras actividades y iii) realización de informes y tratamiento de los datos obtenidos.
A modo de ejemplo, en las figuras 10 y 11 se muestran los datos de los resultados (%) del total de los 583
estudiantes matriculados en la asignatura de Ecología.
Los avances y resultados del proyecto del curso
2007/2008, junto con la difusión del proyecto actual,
2008/2009, se presentaron en las II Jornadas de Investigación en Innovación Docente en la Universidad Nacional de Educación a Distancia (UNED). Implantación de
Grados en el EEES (2009) y en las III Jornadas Internacionales de la Universidad Politécnica de Madrid (UPM)
sobre Innovación Educativa y Convergencia Europea
(2009), además de en Canal UNED y otros medios de
divulgación científica.
Dentro de la III Convocatoria de Redes de Investigación para la Innovación Docente: Proyectos Piloto para
la Adaptación de la Docencia al Espacio Europeo de la
UNED, el Departamento de Química Orgánica y Bio-Orgánica, ha participado con el proyecto de investigación
«Aprendizaje Activo a través de la Autoevaluación en los
Cursos Virtuales», aplicado a las asignaturas de Ecología
y Bases Químicas del Medio Ambiente.
El proyecto ha sido desarrollado por el profesorado
de ambas asignaturas: Rosa M.ª Claramunt, M.ª Pilar
Cabildo, Concepción López, Javier Pérez y Consuelo Escolástico, esta última como Coordinadora. Y la colaboración del profesorado tutor: Antoni Almirall (Centro
Asociado de Terrassa), en Ecología, Miguel Ángel Vázquez (Centro Asociado de Baleares) y María del Carmen
Sanmartín (Centro Asociado de Pamplona), en Bases
Químicas del Medio Ambiente.
Los resultados satisfactorios del proyecto anterior,
2007/2008, llevaron a plantear la prórroga del mismo
durante el curso 2008/2009. La principal diferencia entre
ambos reside en la ampliación al conjunto de estudiantes
matriculados. Participaron, 273 (47% de matrícula) en el
primer cuatrimestre y 259 (44% de la matrícula) en el segundo cuatrimestre para Ecología. En el caso de la asignatura cuatrimestral, Bases Químicas del Medio Ambiente, el número de participantes ha sido de 92 (14% de
matrícula).
Rosa M.ª Claramunt Vallespí
Directora
Consuelo Escolástico León
Secretaria Docente del Departamento
Figura 10. Porcentaje de presentados y resultados (%) obtenidos por
los estudiantes PRESENTADOS, (no participantes a la izquierda en
negro y participantes en el Proyecto a la derecha en rojo) en la
Primera Prueba Presencial de la asignatura de Ecología
(convocatoria de febrero).
100cias@uned
Figura 11. Porcentaje de presentados y resultados
(%) obtenidos por los estudiantes PRESENTADOS, (no participantes
a la izquierda en negro y participantes en el Proyecto a la derecha
en rojo) en la Segunda Prueba Presencial de la asignatura
de Ecología (convocatoria de junio).
29
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
(nueva época)
| 2009
ISSN: 1989-7189
RESÚMENES DE TESIS DOCTORALES
• D. Adolfo Gonzalo Vázquez Quesada: «Micro-Reología Computación».
DIRECTOR: D. Pep Español Garrigós.
DEPARTAMENTO: Física Fundamental.
CALIFICACIÓN: Sobresaliente cum laude por unanimidad.
FECHA DE LECTURA: 18 de febrero de 2010.
Desde finales del año 2008 hasta el momento de cerrar el presente número de 100cias@uned se han defendido las Tesis Doctorales que se indican a continuación,
agrupadas por Secciones. Al final de dicha relación se
adjuntan los resúmenes de las mismas que nos han enviado sus correspondientes autores, ordenados por fecha
de lectura.
• D. Óscar Sotolongo Grau: «Ister, Nuevo Índice Oncológico que Optimiza los Tratamientos Radioterápicos y
sus Implicaciones en la Planificación de Servicios de
Oncología Radioterápica».
DIRECTOR: D. J. Carlos Antoranz Callejo.
CODIRECTOR: D. Daniel Rodríguez Pérez.
DEPARTAMENTO: Física Matemática y de Fluidos.
CALIFICACIÓN: Sobresaliente cum laude por unanimidad.
FECHA DE LECTURA: 23 de febrero de 2010.
SECCIÓN DE FÍSICAS
• D.ª Silvia Palero Monllor: «Estudio Teórico-Experimental de la Transferencia de Calor en Absorbedores
Solares Volumétricos: Estados Críticos».
DIRECTORES: D. Manuel Romero Álvarez y D. José
Luís Castillo Gimeno.
DEPARTAMENTO: Física Matemática y de Fluidos.
CALIFICACIÓN: Sobresaliente cum laude por unanimidad.
FECHA DE LECTURA: 12 de diciembre de 2008.
SECCIÓN DE QUÍMICAS
• D. Roberto de la Fuente Álvarez: «Espectroscopía
Alfa-Beta-Gamma con Detectores Phoswich Mediante
Discriminación Digital de Forma de Pulsos y su Aplicación a la Determinación de Coincidencias».
DIRECTOR: D. Benito Celis Carrillo.
TUTORA: Amalia Williart Torres.
DEPARTAMENTO: Física de los Materiales.
CALIFICACIÓN: Sobresaliente cum laude por unanimidad.
FECHA DE LECTURA: 12 de marzo de 2009.
• D. Francisco Rafael García García: «Producción de
Hidrógeno por Descomposición de Amoniaco: Diseño
de Nuevos Catalizadores Basados en Rutenio, Estudio
de los Mecanismos de Reacción en Superficie y Aplicación en un Reactor Membrana».
DIRECTORES: D.ª Inmaculada Rodríguez Ramos y D.
Antonio R. Guerrero Ruiz.
DEPARTAMENTO: Química Inorgánica y Química Técnica,
CALIFICACIÓN: Sobresaliente cum laude por unanimidad.
FECHA DE LECTURA: 12 de diciembre de 2008.
• Dª Carmen Hijón de Miguel: «La Teoría del Granulado y su Aplicación a Sistemas Moleculares Complejos».
DIRECTOR: D. Pep Español Garrigós.
CODIRECTOR: D. Rafael Delgado Buscalioni.
DEPARTAMENTO: Física Fundamental.
CALIFICACIÓN: Sobresaliente cum laude por unanimidad.
FECHA DE LECTURA: 9 de diciembre de 2009.
• D. Amirhossein Ahmadi: «Estudio por Simulación de
la Compatibilidad de Mezclas de Polímeros».
DIRECTOR: D. Juan José Freire Gómez
DEPARTAMENTO: Ciencias y Técnicas Fisicoquímicas
CALIFICACIÓN: Sobresaliente cum laude por unanimidad.
FECHA DE LECTURA: 19 de diciembre de 2008.
100cias@uned
30
Nuestra Facultad
• D.ª Gema Paniagua González: «Desarrollo de Nuevos
Sensores Fluorescentes con Reconocimiento Selectivo
para la Determinación de Digoxina y su Aplicación a
Muestras de Suero Humano».
DIRECTORES: D.ª Pilar Fernández Hernando y D. J.
Senén Durand Alegría.
DEPARTAMENTO: Ciencias Analíticas.
CALIFICACIÓN: Sobresaliente cum laude por unanimidad
FECHA DE LECTURA: 2 de julio de 2009
DEPARTAMENTO: Ciencias y Técnicas Fisicoquímicas.
CALIFICACIÓN: Sobresaliente cum laude por unanimidad.
FECHA DE LECTURA: 29 de septiembre de 2009
• D. Javier Carretero González: «Efecto de la Nanoarcilla en la Estructura y Dinámica del Caucho Natural».
DIRECTOR: D. Miguel Ángel López Manchado
TUTORA: Vicenta Muñoz Andrés
DEPARTAMENTO: Química Inorgánica y Química
Técnica.
CALIFICACIÓN: Sobresaliente cum laude.
FECHA DE LECTURA: 14 de diciembre de 2009.
• D.ª Zuzana Jurasekova: «Espectroscopías Ópticas sobre Superficies Metálicas Nanoestructuradas Aplicadas
al Estudio de Flavonoides: Pigmentos Amarillos de
Interés en el Patrimonio Histórico Cultural».
DIRECTORES: D. José Vicente García Ramos y D. Santiago Sánchez Cortés.
100cias@uned
M.ª Teresa Miguel Salazar
Personal de la Administración y Servicios
Sección: Atención al Estudiante
31
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
| 2009
ISSN: 1989-7189
RESÚMENES DE TESIS DOCTORALES
tico convencional (RCC), de los diferentes catalizadores
soportados seleccionados. Una vez estudiadas y definidas
las propiedades químico-físicas que determinan una mayor actividad catalítica, se evaluó el efecto de un reactor
catalítico multifuncional de membrana (RCMM) en la
conversión del amoniaco y en la selectividad hacia hidrógeno. Por último se estudiaron los mecanismos de la
reacción en superficie, utilizando técnicas «in situ».
Producción de hidrógeno por
descomposición de amoniaco: diseño de
nuevos catalizadores basados en rutenio,
estudio de los mecanismos de reacción
en su superficie y aplicación en un
reactor membrana
DISEÑO Y SÍNTESIS DE NUEVOS
CATALIZADORES SOPORTADOS:
D. Francisco Rafael García García. Autor
D. Antonio Guerrero Ruiz y
D.a Inmaculada Rodríguez Ramos. Directores
Departamento de Química Inorgánica y Química Técnica
Fecha de lectura: 12 de diciembre de 2009
Calificación: Sobresaliente cum laude por unanimidad
Mención Doctorado Europeo
La optimización de los actuales catalizadores soportados, empleados en la descomposición catalítica del
NH3, requiere de la síntesis de nuevos materiales que
puedan ser empleados con soportes, del crecimiento cristalino controlado de las fases activas y de un conocimiento profundo de la acción promotora de los dopantes
utilizados.
De acuerdo con la bibliografía los materiales empleados como soporte, en la descomposición catalítica
del NH3, deben de ser; básicos, conductores de la electricidad, con un área superficial elevada que facilite la dispersión de la fase activa y estables en la condiciones de
reacción. En este sentido, los materiales carbonosos empleados en este trabajo se adaptan perfectamente: grafitos de alta superficie (comerciales), carbones activos (comerciales), nanotubos de carbono (producidos en el
Grupo de Diseño Molecular de Catalizadores Heterogéneos [GDMCH] de la UNED-ICP/CSIC) y nanotubos de
carbono dopados con N (GDMCH). Los nanotubos de
carbono y los nanotubos de carbono dopados con N se
obtuvieron respectivamente por descomposición catalítica de C2H2 o C2H2/NH3 en un reactor de lecho fluidizado,
utilizando un catalizador de Fe/SiO2. La Figura 1 muestra
los nanotubos de carbono después de haber sido purificados con distintos tratamientos ácidos. Por otro lado, la
basidad, conductividad eléctrica y grafitización de los soportes se incrementó después de tratarlos a alta temperatura en atmósfera inerte. Todos los soportes empleados
en este trabajo fueron caracterizados por TEM, HRTEM,
BET-N2-77K, TPD y TPO.
Hoy en día, la clara relación que existe entre energía
(producción, transporte y consumo) y contaminación atmosférica pone en evidencia la necesidad de utilizar
vectores energéticos limpios. Los nuevos vectores energéticos hacen posible el desarrollo de las actuales políticas medioambientales, reduciendo o eliminando la emisión de gases con efecto invernadero a la atmósfera. En
este escenario, dos tecnologías están atrayendo la atención de la opinión pública y del sector privado: el H2
como vector energético y las pilas de combustible como
sistemas eficaces para la producción de energía eléctrica.
Sin embargo, la aplicación del H2 como vector energético pasa por el desarrollo de nuevos métodos para su almacenamiento y transporte. En este sentido, las propiedades físicas del NH3 (líquido a temperatura ambiente y
bajas presiones) y su alta densidad energética (17% en
peso de H2) hacen posible el uso de éste como molécula
almacén de H2. Por otro lado, esta molécula presenta la
ventaja de que su descomposición genera corrientes libres de COX: NH3 → N2 + H2.
El objetivo de esta Tesis Doctoral ha sido estudiar la
descomposición catalítica del NH3 desde tres puntos de
vista. En primer lugar, se realizó una investigación en la
que se midió la actividad catalítica, en un reactor catalí-
100cias@uned
(nueva época)
32
Nuestra Facultad
Figura 1. Imágenes TEM de los nanotubos
de carbono, empleados como soportes de
catalizadores, obtenidos por descomposición
catalítica de C2H2: (A) Purificados con HF;
(B) Purificados con HF + NNO3.
[F.R. García-García et al., Catalysis Today,
133–135, 815–821 (2008).]
Es bien sabido que el Ru es uno de los metales más
activos en la descomposición catalítica del NH3, por lo
que se eligió como fase activa de los distintos catalizadores soportados empleados en este trabajo. Los catalizadores de Ru se prepararon por impregnación a humedad incipiente de los diferentes soportes con una
disolución acuosa de Ru(NO)(NO3). El control del tamaño,
la forma y la distribución de la partícula metálica durante la síntesis de los catalizadores y su interacción
con los diferentes soportes han sido uno de los principales retos estudiados en esta Tesis Doctoral. La Figura 2
muestra cómo las caras de la partícula de Ru cambian en
función del tamaño de la misma.
Por otro lado, es ampliamente aceptado que la desorción asociativa de los átomos de N para formar N2 es la
etapa limitante en la descomposición catalítica del NH3 y
que la transferencia electrónica desde elementos electropositivos hacia la fase activa disminuye la energía de activación de la formación de N2. De acuerdo con lo ante-
rior, se determinó estudiar el efecto promotor del Na en
la actividad catalítica de los catalizadores. Los catalizadores de Ru promovidos con Na se prepararon por impregnación a humedad incipiente sucesiva de los catalizadores de Ru con una disolución acuosa de NaOH.
Todos los catalizadores empleados en este trabajo fueron
caracterizados por XPS, TPR y quimisorción de CO.
Por último, las medidas de actividad catalítica se
llevaron a cabo en un RCC. El principal objetivo en esta
parte del trabajo fue estudiar diferentes factores que
afectan la actividad catalítica: soporte, tratamiento térmico aplicado al soporte, tamaño de partícula de Ru y la
presencia del promotor Na. Además, en las instalaciones
«European Synchrotron Radiation Facility - ID24» de
Grenoble, se estudió por Quick-XANES la evolución de
las partículas de Ru durante la descomposición catalítica
del NH3. La Figura 3 muestra el efecto del tratamiento
térmico y de la adición de N sobre los nanotubos de
carbono en la reacción de descomposición de NH3.
Figura 2. Diferentes etapas del crecimiento de una partícula de Ru. [F.R. García-García et al., Topics in Catálisis, 52, 758-764 (2009).]
100cias@uned
33
Nuestra Facultad
Figura 3. Conversión
obtenida en un RCC
durante la reacción de
descomposición del NH3
para los catalizadores:
(● ) RuCNTs-0, ( ■)
RuCNTs-N, ( ◆) RuCNTs-1
y (▼) RuCNTs-2.
[R. García-García et al.
Carbon, 48, 267-276
(2010).]
Figura.4. Imágenes SEM de una de las membranas de Pd empleadas
en la reacción de descomposición de NH3, después de 100 h de
reacción: (a) corte transversal, (b) plano basal y (c) capa de Pd. [F.R.
García-García et al., Catalysis Comunications, 9, 482-486 (2008).]
DESARROLLO DE UN REACTOR CATALÍTICO
MULTIFUNCIONAL DE MEMBRANA (RCMM)
en superficie sobre los distintos catalizadores: Análisis Temporal de Productos (TAP) e Intercambio Isotópico H2/D2.
Los experimentos TAP se llevaron a cabo en los laboratorios del «Centre for the Theory and Application of
Catalysts« de la «Queen University of Belfast» (UK). Estos
experimentos han hecho posible estudiar las diferencias
en los mecanismos de reacción entre los catalizadores de
Ru e Ir, tal y como se muestra en la Figura 5. Además, se
evaluó el efecto del tratamiento térmico aplicado sobre
los soportes y del promotor alcalino en el mecanismo de
reacción.
El RCMM empleado en este trabajo integra en una
misma unidad, un reactor catalítico y una membrana de
Pd altamente selectiva al H2. Este reactor ofrece significativas ventajas sobre los métodos de producción de H2
existentes, ya que puede trabajar a temperaturas significativamente más bajas y/o usar menos cantidad de catalizador que los reactores catalíticos convencionales. Por
otro lado, combina en una sola etapa el proceso de generación y separación del H2. Esto es posible debido a la altísima selectividad de la capa de Pd, que hace posible que
solo el H2 producido durante la descomposición del NH3
atraviese la membrana de Pd. En esta parte del trabajo
también se han estudiados los efectos de la temperatura y
del gas de arrastre sobre la permeabilidad del H2 a través
de la capa de Pd. La Figura 4 muestra el aspecto de una
de las membranas de Pd utilizadas en la descomposición
catalítica del NH3, después de 100 h de reacción.
Las membranas de Pd se depositaron sobre soportes
tubulares de acero inoxidable poroso, por electroless plating deposition en el «department of chemistry engineering» de «Worcester Polytechnic Institute» (EE.UU.). Todas
las membranas empleadas en este trabajo fueron caracterizadas midiendo su permeabilidad a H2, He y NH3 a
distintas temperaturas y presiones transmembrana.
Figura.5. Esquema de las reacciones superficiales, durante la reacción
de descomposición de NH3, sobre una partícula de Ru y sobre una
partícula de Ir. [F.R. García-García et al., Journal of Catálisis, in press.]
Por último, los experimentos desarrollados en el
«Equipe Catalyse par les Métaux /LACCO» del CNRSUniversité de Poitiers (Francia), además de informarnos
sobre la naturaleza de las partículas metálicas de Ru
han proporcionado información muy útil sobre el probable comportamiento del H2 durante la descomposición del NH3, lo que hace posible proponer un mecanismo probable para desorción asociativa de los átomos de
H para formar H2.
ESTUDIO DE LOS MECANISMOS DE LA
REACCIÓN EN SUPERFICIE
En el último capítulo de esta Tesis Doctoral se recurrió a
las dos técnicas para estudiar los mecanismos de reacción
100cias@uned
34
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
| 2009
ISSN: 1989-7189
RESÚMENES DE TESIS DOCTORALES
dologías de desarrollo de sensores químicos para la determinación de los niveles séricos de digoxina, permitiendo el control y mantenimiento de la dosis adecuada.
Los sensores desarrollados suponen una alternativa a
los métodos existentes, en cuanto a reducción de tiempo
de análisis, determinación en continuo, simplicidad de
procedimiento, costes, y mayor sensibilidad.
El trabajo llevado a cabo se divide fundamentalmente en cinco partes. La investigación desarrollada se
presenta exponiendo una serie de trabajos publicados
en revistas científicas indexadas:
1. La primera parte consiste en el desarrollo de un
inmunosensor químico fluorescente en flujo basado en el empleo de bio-receptores moleculares
(anticuerpos) para la determinación de digoxina
en muestras de suero humano. “Permanently oriented antibody immobilization for digoxin determination with a flow-through fluoroimmunosensor”. Analytical and Bioanalytical Chemistry, 375,
1020-1023 (2003). (Fig. 1).
Desarrollo de nuevos sensores
fluorescentes con reconocimiento selectivo
para la determinación de digoxina y su aplicación a muestras de suero humano
Gema Paniagua González. Autora
Dres. J. Senén Durand Alegría y
Pilar Fernández Hernando.
Directores Departamento de Ciencias Analíticas
Fecha de lectura: 2 de julio de 2009
Calificación: Sobresaliente cum laude por unanimidad
La digoxina es un fármaco muy utilizado en el tratamiento de las enfermedades cardiovasculares. Entre
sus efectos beneficiosos destaca el aumento de la fuerza
de contracción del músculo del corazón, a la vez que
disminuye la frecuencia cardiaca. Sin embargo, su toxicidad puede ser grave si se administra fuera del estrecho
intervalo terapéutico que presenta (0,5-2,0 mg l-1).
La determinación de digoxina en fluidos biológicos,
dentro de sus límites terapéuticos, requiere métodos analíticos rápidos, selectivos y capaces de evitar falsos positivos que pueden producirse debido a las interferencias
por parte de algunos compuestos. Los métodos por excelencia para su determinación son los inmunológicos,
siendo la tendencia general la comercialización de kits de
inmunoensayos para estos compuestos de interés clínico.
Sin embargo, la mayoría de este tipo de dispositivos no
están pensados para el análisis en continuo; además, se
trata de ensayos irreversibles, o en el caso de que operen
de forma reversible presentan el problema de la falta de
regenerabilidad y reutilización del sensor; en general,
su coste es elevado. Todo ello ha conducido al estudio y
desarrollo de nuevas metodologías analíticas que deberán ser lo suficientemente sencillas, rápidas y asequibles
desde el punto de vista económico para hacer factible la
determinación rutinaria de dicho compuesto dentro de su
margen terapéutico de aplicación de forma sensible, selectiva y con la mínima manipulación.
El trabajo de investigación realizado en esta Tesis
Doctoral supone una contribución a la Química Analítica y Clínica, centrándose en el estudio de nuevas meto-
100cias@uned
(nueva época)
Figura 1.
2. La segunda parte engloba estudios dirigidos a la
obtención de un receptor molecular selectivo sintético, mediante la síntesis y evaluación analítica de
varios polímeros de impresión molecular (MIPs) para
el analito digoxina, con el objeto de ser aplicados
en el desarrollo de un sensor polimérico. “A morphological study of molecularly imprinted polymers
using the scanning electron microscope”. Analytica
Chimica Acta, 557, 179-183 (2006). (Fig. 2).
3. A partir del polímero cuyas condiciones se han
seleccionado como óptimas en los estudios ante-
35
Nuestra Facultad
Figura 2.
riores se desarrolló un sensor en flujo. El empleo
de este receptor molecular sintético (MIP) permite la monitorización y determinación de digoxina,
de forma sensible y selectiva, en muestras séricas
de pacientes tratados con dicho compuesto. «Determination of digoxin in serum samples using a
flow-through fluorosensor based on a molecularly
imprinted polymer». Biosensors & Bioelectronics,
23, 1754-1758 (2008).
4. Como conclusión a los trabajos anteriores, en lo
que podemos decir constituye la cuarta parte del
trabajo, se realiza un estudio comparativo entre
los dos fluorosensores desarrollados mediante ambos tipos de receptores, donde se analizan y comparan las características analíticas, así como las
ventajas y desventajas existentes entre ellos. Estudio de la posibilidad del uso de polímeros de impresión molecular como alternativa a la tradicional
utilización de receptores biológicos. «A MIP-based
flow-through fluoroimmunosensor as an alternative
to immunosensors for the determination of digoxin
in serum samples». Analytical and Bioanalytical
Chemistry, 394, 963-970 (2009).
5. La última parte de la investigación, recogida en el
último artículo publicado, se orienta a la síntesis
de una membrana receptora polimérica (cloruro
de polivinilo, con el MIP para digoxina seleccionado de trabajos anteriores), con la que se desarrolla un dispositivo sensor que permita su futura
aplicación al diseño de un kit o dispositivo diagnóstico para ser utilizado en la determinación de
digoxina en el análisis de rutina de laboratorio de
forma rápida y sencilla en muestras de suero humano. «An optical sensor for the determination of
digoxin in serum samples based on a molecularly
imprinted polymer membrane». Analytica Chimica Acta, 638, 209-212 (2009). (Fig. 3).
100cias@uned
Figura 3.
En las condiciones óptimas de trabajo, los tres sensores desarrollados fueron muy selectivos, comprobándose
en cada caso mediante estudios de reactividad cruzada, la
no existencia de interferencias por parte de varios compuestos, como digitoxina y otros fármacos de estructura
similar a la digoxina que podían interferir en las determinaciones. Además, fueron aplicados con éxito al análisis
de muestras de suero humano procedentes de pacientes del
Hospital de Puerta de Hierro tratados con este fármaco. En
el caso de los sensores poliméricos, bien usando directamente el MIP en partículas (LDD = 1,7 ´ 10-2 mg l-1), o una
conformación de éste en membrana (LDD = 3,17 ´ 10-2 mg
l-1), se alcanzaron límites de detección por debajo del límite inferior de concentración del intervalo terapéutico
(0,5-2 mg l-1) en el que este analito se suministra.
Los fundamentos y desarrollos derivados de esta
Tesis Doctoral pueden servir como base de otras futuras
investigaciones y para ampliar el conocimiento científico en este área. Así, podría ser posible la extrapolación
de los métodos desarrollados a otros analitos. Además,
el MIP desarrollado para digoxina ofrece un gran potencial de aplicación, no solo como fase sensora, sino
como fase sólida para la extracción y limpieza de este
analito en muestras orgánicas, en las que el interés del
análisis vaya encaminado a la determinación de otro/s
analito/s.
36
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
| 2009
ISSN: 1989-7189
SEMINARIOS, REUNIONES
CIENTÍFICAS Y CURSOS DE VERANO
Programa:
1. INTRODUCTION TO COMPUTATIONAL FLUID
MECHANICS
1.1. What is CFD?
1.2. Possibilities and limitations of Numerical Methods.
1.3. Properties of Numerical Solution Methods.
1.4. Major Discretization Approaches: Finite difference, Finite volume, Finite element.
2. INTRODUCTION TO TURBULENCE
2.1. The nature of turbulent flows.
2.2. The study of turbulent flows.
2.3. The scales of turbulent motion.
3. LARGE-EDDY SIMULATION
3.1. Introduction.
3.2. Filtering.
3.3. Filtered conservation equations.
3.4. The Smagorinsky and related models.
3.5. LES in wavenumber space.
— Triad interactions.
— The spectral energy balance.
— The spectral eddy viscosity.
3.6. Further residual-stress models.
— The dynamic model.
— Transport-equations models.
— Implicit numerical filters.
— Near-wall treatment.
— Very Large Eddy simulation.
3.7. Final perspectives.
Todas ellas fueron impartidas en inglés por el Dr.
Eric Serre, del Departamento de Modélisation et Simulation Numérique en Mécanique & Génie des Procédés
del CNRS/Universités Aix-Marsella I, II & III (Francia).
CICLO DE CONFERENCIAS:
Dpto. de Ciencias Analíticas
29 de abril
El Departamento del Ciencias Analíticas ha organizado una sesión de conferencias que tuvo lugar en el
Salón de Actos de la Facultad de Ciencias el 29 de abril,
en el marco de los cursos:
— Aguas potables para consumo humano Gestión y
control de calidad, y
— Calidad del aire y control de la contaminación
atmosférica.
Las conferencias impartidas y los ponentes fueron
los siguientes:
— «Contaminación atmosférica por partículas en
suspensión en la Comunidad de Madrid», por
el Dr. Pedro Salvador Martínez, Investigador del
Dpto. de Medio Ambiente del CIEMAT.
— «Gestión de un abastecimiento de aguas potables: gestión de sequías», por D. Ricardo González Igualada, Ingeniero Técnico de Obras Públicas
del Canal de Isabel II.
Dpto. de Física Fundamental
11-14 y 18-22 de mayo
En el marco del Programa Interuniversitario de Doctorado FÍSICA DE SISTEMAS COMPLEJOS, que tiene
una Mención de Calidad del Ministerio de Educación
desde el curso 2003-04 ininterrumpidamente hasta 200809, el Departamento de Física Fundamental ha organizado los ciclos de conferencias indicados más abajo a lo
largo del mes de mayo.
Ciclo 2: Hydrodynamic Instabilities, Turbulence and
Geophysical Applications
Fechas: 11, 12, 13, 14, 18, 19, 20, 21 y 22 de mayo
Programa:
1. Basic conservation laws for mass, momentum
and energy, kinematics of deformation. Stress
tensor, Euler equations and basic theorems of
Bernoulli, Helmholtz and Kelvin, Navier-Stokes
equations.
Ciclo 1: An introduction to large eddy simulation of
turbulent flow
Fechas: 13 y 14 de mayo
100cias@uned
(nueva época)
37
Nuestra Facultad
Los profesores de la Facultad de Ciencias participan
en cada edición con un buen número de Cursos, que
suelen tener muy buena acogida y son posteriormente
bien valorados por los participantes en ellos. En esta
edición, los cursos y directores de los mismos fueron:
2.
Surface waves, internal waves, Rayleigh-Taylor
instability, seiches, hydraulic jumps.
3. Shear flow instabilities, Squire’s theorem, criteria
of Rayleigh and Fjortoft, Orr-Sommerfeld problem, Kelvin-Helmholtz instability.
4. Dynamics of rotating systems, Proudman-Taylor
theorem, Rossby waves, inertial waves, Ekman
boundary layers, spin-up problem.
5. Boussinesq approximation and linear theories of thermal convection in rotating and magnetic systems.
6. Baroclinic instabilities, doubly diffusive instabilities, general circulation of the atmosphere.
7. The dynamo problem: Generation of planetary
magnetism by convection.
8. Comparison of energy stability and linear stability, application to the Taylor-Couette problem.
9. Nonlinear evolution of instabilities, pattern selections and sequences of bifurcations.
10. Statistical theory of turbulence, Kolmogorov cascade, structure functions, the problem of intermittency.
Todas ellas fueron impartidas también en inglés por
el Prof. Friedrich H. Busse, de la Universidad de Bayreuth (Alemania).
En ambos casos, la entrada fue libre para todos los
interesados en los temas, matriculados o no en el programa de doctorado.
1.
Obesidad infantil y prevención: Abordaje educativo y nutricional (Centro Asociado de Les Illes
Balears, del 29 de junio al 1 de julio, el curso se
impartió por videoconferencia en las sedes de los
Centros Asociados de Mallorca, Menorca e Ibiza).
Directora del curso: S. Coral Calvo Bruzos (Dpto.
de Química Inorgánica y Química Técnica).
2. Actualizaciones en cáncer: Aspectos clínicos y
de investigación básica (Centro Asociado de Plasencia, del 29 de junio al 1 de julio). Directora del
curso: Consuelo Boticario Boticario (Dpto. de
Ciencias Analíticas).
3. Introducción a la Astronomía desde un lugar
único: La isla de La Palma (Centro Asociado de
Santa Cruz de la Palma, del 30 de junio al 4 de
julio). Directores del curso: Carmen Carreras Béjar (Dpto. de Física de los Materiales) y David
Galadí Enríquez (Centro Astronómico Hispano
Alemán Observatorio de Calar Alto, Almería).
4. Visión actual sobre drogas (Centro Asociado de
Les Illes Balears, del 2 al 4 de julio, el curso se impartió por videoconferencia en las sedes de los
Centros Asociados de Mallorca, Menorca e Ibiza).
Directora del curso: M.ª del Pilar Cabildo Miranda (Dpto. de Química Orgánica y Bio-Orgánica).
5. Alimentación y calidad de vida en las personas
mayores: Un reto frente al siglo XXI (Centro
Asociado de Plasencia, del 6 al 8 de julio, el curso se impartió por videoconferencia en las sedes
de los Centros Asociados de Baza (Granada) y
Palencia). Directora del curso: S. Coral Calvo
Bruzos (Dpto. de Química Inorgánica y Química
Técnica).
6. Cáncer y sus causas: Mecanismos moleculares
que gobiernan el cáncer y el envejecimiento
(Centro Asociado de Plasencia, del 6 al 8 de julio).
Directora del curso: Consuelo Boticario Boticario
(Dpto. de Ciencias Analíticas).
7. Geoquímica y contaminación de agua y suelo
(Centro Asociado de Plasencia, del 8 al 10 de julio). Director del curso: Antonio Zapardiel Palenzuela (Dpto. de Ciencias Analíticas).
XX CURSOS DE VERANO 2009
22 de junio - 19 de septiembre
Entre el 22 de junio y el 19 de septiembre de 2009
tuvo lugar la XX edición de los Cursos de Verano de la
UNED, lugar de encuentro de profesores, profesores-tutores, alumnos de la UNED y público interesado en alguna de las temáticas de actualidad, ya sea académica,
cultural o científica.
100cias@uned
38
Nuestra Facultad
8.
La UNED y el año internacional de la Astronomía. Curso de introducción a la ciencia astronómica (Centro Asociado de Ávila, Sede de
El Barco de Ávila, del 13 al 17 de julio). Directores del curso: M.ª del Mar Montoya Lirola
(Dpto. Física de los Materiales y Ernesto Martínez
García (Dpto. de Matemáticas Fundamentales).
9. Aplicaciones de hoy y mañana de la teledetección (Centro Asociado de Mérida, del 15 al 17
de julio). Director del curso: J. Carlos Antoranz
Callejo (Dpto. Física Matemática y de Fluidos).
10. La proyección sociocultural de los dinosaurios: Cuando la paleontología produce monstruos (Centro Asociado de Cuenca, del 20 al 22
de julio). Director del curso: Francisco Ortega
Coloma (Dpto. Física Matemática y de Fluidos).
Valverde, Magistrado del Tribunal Supremo. El curso ha
sido coordinado por el Teniente de la Guardia Civil D.
Benigno Martín García y la profesora Rosa M.ª Martín
Aranda, Vicedecana de Ciencias Ambientales de nuestra
Facultad.
El objetivo de estos cursos es acercar el mundo académico y universitario a la importante labor de los agentes del Seprona, al mismo tiempo que poner en común
los distintos casos a los que los agentes se enfrentan
día a día en su labor de protección del medio ambiente.
Para ello, han participado como profesores del curso
tanto fiscales, magistrados, mandos de la jefatura del
Seprona y profesores de universidad. Los ponentes que
han participado en esta edición de 2009 son:
— D. Rafael Fernández Valverde, Magistrado del
Tribunal Supremo, que presentó una ponencia
sobre los delitos sobre la ordenación del territorio
y el patrimonio histórico.
— D. José Joaquín Pérez de Gregorio, Fiscal Coordinador Delegado de Medio Ambiente y Urbanismo del TSJC de Barcelona, que abordó la temática de los delitos contra los recursos naturales y el
medio ambiente.
— D. Jorge Moradell Ávila, Fiscal Delegado de Medio Ambiente y Urbanismo de Teruel, que presentó una ponencia sobre los delitos relativos a la
ordenación del territorio y la protección del pa-
M.ª Teresa Miguel Salazar
Personal de la Administración y Servicios
Sección: Atención al Estudiante
CURSO:
LOS DELITOS RELACIONADOS
CON EL MEDIO AMBIENTE
10-13 de noviembre de 2009
Un año más, la Facultad de
Ciencias ha organizado, en colaboración con el Instituto Universitario de Seguridad Interior (IUISI,
http://www.iuisi.es/index.php), un
curso exclusivamente dedicado a los
agentes de la Guardia Civil (Seprona). Este año el curso ha tratado el
estudio de los delitos relacionados
con el medio ambiente. Entre los días
10 y 13 de noviembre de 2009, treinta guardias civiles de toda España
han asistido a las conferencias impartidas.
A la inauguración del curso asistieron el General Gabella, de la Guardia Civil, la profesora Consuelo Maqueda, Directora del IUISI, el profesor
Víctor Fairén, Decano de la Facultad
de Ciencias, y D. Rafael Fernández
Figura 1. Agentes investigando cebos envenenados.
100cias@uned
39
Nuestra Facultad
Todas las ponencias dedicaron una importante parte
de su tiempo al estudio de casos prácticos, permitiendo a
los asistentes establecer un debate para el intercambio de
ideas y la resolución de casos.
Finalmente, la clausura y entrega de diplomas estuvo presidida por la Vicerrectora Adjunta de Investigación, D.ª Pilar Fernández Hernando, profesora de nuestra
Facultad, y por D. Antonio Vercher.
Desde estas líneas, los coordinadores del curso y la
Facultad de Ciencias desean agradecer a todos los profesores participantes, a la Directora del IUISI y a la Guardia
Civil la generosidad a la hora de colaborar con nuestra
universidad en el desarrollo de estos cursos.
trimonio histórico y del medio ambiente, analizando los diferentes tipos y normativa administrativa.
— D.ª M.ª Dolores Serrano, profesora de la Facultad
de Derecho de la UNED, que trató los delitos relativos a la protección de la flora, la fauna y los
animales domésticos.
— D.ª Blanca Lozano Cutanda, profesora de la Universidad del País Vasco, que analizó la articulación entre el Derecho Penal y sancionador administrativo en la persecución de los ilícitos.
— D. Benigno Martín García, de la jefatura del Seprona, dedicó su conferencia a los aspectos policiales prácticos.
Y, finalmente, la conferencia de clausura fue presentada por D. Antonio Vercher Noguera, Fiscal de Sala Coordinador de Medio Ambiente y Urbanismo, que trató de
forma global e integradora la labor del Ministerio Fiscal
ante estos delitos.
Benigno Martín García
y Rosa M.ª Martín Aranda
Coordinadores del curso
Figura 2. Agentes patrullando.
100cias@uned
40
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
| 2009
ISSN: 1989-7189
PREMIOS Y DISTINCIONES A
PROFESORES DE LA FACULTAD
DE CIENCIAS
Premio de la Sociedad Española de Química Analítica
(SEQA) al trabajo de innovación docente: Estrategias innovadoras en un entorno virtual para el estudio de la
«Toxicología Analítica». Aprendizaje colaborativo y Convergencia de medios.
La Toxicología Analítica es uno de los campos fundamentales de la Toxicología, pues en cualquiera de sus
ramas se utilizan los métodos de análisis químico, entre
otros. La asignatura Toxicología Analítica está englobada
en el Máster en Ciencia y Tecnología Química de la
UNED (Módulo I. Química Analítica) y se imparte en el
Dpto. de Ciencias Analíticas de la Facultad de Ciencias
desde el curso académico 2008/2009.
MEJOR TRABAJO DE INNOVACIÓN
DOCENTE PRESENTADO EN LA XV REUNIÓN DE LA SOCIEDAD ESPAÑOLA
DE QUÍMICA ANALÍTICA (SEQA)
San Sebastián, 19-21 de julio
Los profesores Rosa M.ª Garcinuño, Pilar Fernández, Alejandrina Gallego y J. Senén Durand, del Dpto. de
Ciencias Analíticas de nuestra Facultad, han recibido el
100cias@uned
(nueva época)
41
Nuestra Facultad
X CIENCIA EN ACCIÓN
PREMIOS A «MATERIALES DIDÁCTICOS»,
“UNIDAD DIDÁCTICA DE NUEVA EDICIÓN»
Y “PROYECTOS DE INNOVACIÓN DOCENTE»
MENCIÓN DE HONOR EN TRABAJOS
DE DIVULGACIÓN CIENTÍFICA
EN SOPORTES ADECUADOS
Granada, 25-27 de septiembre
Accésit al Premio «Mejor Unidad Didáctica de nueva
edición»:
Este premio está dotado con 3.000 euros: «Reciclado
y Tratamientos de Residuos», del que son autores los siguientes profesores: Dionisia Sanz, Soledad Esteban, Pilar Cornago, M.ª del Pilar Cabildo, M.ª Dolores Santa
María, Concepción López, Rosa M.ª Claramunt, Consuelo Escolástico, Marta Pérez, Pilar Cabildo, Javier Pérez, M.ª Ángeles García y M.ª Ángeles Farrán (ISBN:
9788436255041).
Mujeres en las Estrellas, serie de 8 programas realizados por la Televisión Educativa de la UNED, siendo coordinadoras del proyecto Josefa Masegosa Gallego, del
Instituto de Astrofísica de Andalucía (Granada), y Carmen Carreras Béjar, de la Facultad de Ciencias de la
UNED, ha recibido una Mención de Honor en Trabajos de
Divulgación Científica en Soportes Adecuados, en la X
edición del Concurso Ciencia en Acción que se celebró
en el Parque de la Ciencias de Granada del 25 al 27 de
septiembre. El premio fue concedido por presentar en
un atractivo formato televisivo, el papel fundamental,
aunque frecuentemente olvidado por la historia, que las
mujeres científicas han tenido en el desarrollo de la Astronomía y la Astrofísica, resaltando sus descubrimientos
y comentándolos a través de entrevistas con investigadoras actuales.
Recomendamos a los interesados en esta serie que
lean la colaboración que han realizado sus responsables
al final de este apartado.
PREMIOS DEL CONSEJO SOCIAL
DE LA UNED
Portada del libro «Reciclado
y Tratamientos de Residuos».
CONVOCATORIA 2008
El Consejo Social y la Fundación de la
UNED entregaron sus premios anuales en
la ceremonia tradicional de Navidad, celebrada el 17 de diciembre de 2009 y presidida por los señores: Juan A. Gimeno, Rector
de la UNED, César Alierta, Presidente del
Consejo Social, y Jesús Martín Cordero, Presidente de la Fundación UNED.
A continuación indicamos las modalidades en las que en esta convocatoria profesores y alumnos de la Facultad de Ciencias han sido premiados.
De izquierda a derecha, los profesores Consuelo Escolástico, M.ª Ángeles Farrán, Javier Pérez,
M.ª Ángeles García, Marta Pérez y Dolores Santa María, recogiendo el premio.
100cias@uned
42
Nuestra Facultad
PREMIOS «FIN DE CARRERA»
Y “CURSO ACADÉMICO»
PREMIOS «CURSO ACADÉMICO»:
En la Facultad de Ciencias, Sección de Física:
D. Eliot Hijano Cubelos, del Centro Asociado de Pamplona.
A todos ellos el Consejo de Redacción les felicita
por los reconocimientos recibidos.
PREMIOS «FIN DE CARRERA»
En Ciencias Matemáticas: D. Luis Juan Utrera Molina, del Centro Asociado de Sevilla.
D. Luis Juan Utrera Molina recibiendo el Premio «Fin de Carrera» 2009.
D. Eliot Hijano Cubelos recibiendo el Premio «Curso Académico» 2009.
100cias@uned
43
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
| 2009
ISSN: 1989-7189
SERIE DE LA TELEVISIÓN EDUCATIVA
DE LA UNED:
Entre las muchas actividades que este grupo planificaron estaba el realizar una mesa redonda con las
más representativas, desde las más mayores hasta las
más jóvenes, las que han trabajado en universidades,
formando a muchas generaciones de astrónomos, y las
que han desarrollado su labor en observatorios astronómicos nacionales o internacionales… Pensaron que
la televisión educativa de la UNED era un medio idóneo para llegar a todos los hogares españoles, a través
de su espacio en la 2 de TVE, y allende nuestras fronteras, a través del Canal Internacional, y acudieron a
nosotros. De esta manera surgió una colaboración entre
la UNED y el equipo Ella es una Astrónoma. La Directora de la televisión educativa de la UNED, que desde
el primer momento se entusiasmó con el proyecto, nos
animó a desestimar la idea inicial de una mesa redonda
y realizar una serie que recogiera la actividad profesional de dichas mujeres en sus centros de trabajo, lo
que suponía buscar financiación para los desplazamientos de los técnicos del equipo a los diferentes observatorios.
El poder realizar una serie de siete u ocho reportajes para TVE sobre las astrónomas españolas que a lo
largo de varias décadas han contribuido al desarrollo de
la Astronomía en nuestro país hizo que todas ellas decidieran buscar la financiación donde fuera necesario.
Y así lo hicieron, consiguiendo una Acción Complementaria del Ministerio de Ciencia e Innovación y un
proyecto de la FECYT y el apoyo económico del Observatorio de Calar Alto, del Instituto de Astrofísica de Canarias y del Instituto de Astrofísica de Andalucía, que
ha permitido la realización de la serie que a continuación presentamos.
Por el entusiasmo derrochado y el trabajo bien hecho, queremos indicar también los nombres del equipo
técnico del CEMAV que se ha encargado de la realización
de la serie:
— Directora Televisión Educativa UNED: ÁNGELA
UBREVA AMOR.
— Guión: BERTA DEL ÁGUILA GARCÍA.
— Realización: PEDRO DOMÍNGUEZ ZARANDÓN.
— Ayudante de realización: VERÓNICA SIEBELIST
BASCHWITZ.
“MUJERES EN LAS ESTRELLAS»
LOS ANTECEDENTES
Con motivo del AÑO INTERNACIONAL DE LA ASTRONOMÍA (AIA 2009) se creó en España, y en muchos
otros países, equipos de trabajo para realizar proyectos en
torno a algunos temas que supusieran acercar a la población distintos aspectos relacionados con la Astronomía y
la Astrofísica. Así, bajo el nombre de Ella es una Astrónoma se creó un equipo interdisciplinar que tenía por
objeto poner en evidencia el papel desarrollado por las
astrónomas españolas en el desarrollo de esta rama de la
Ciencia. Por la cantidad y calidad de los proyectos realizados es de justicia incluir el nombre de todas ellas:
— FRANCESCA FIGUERAS SIÑOL, astrónoma, profesora titular del departamento de Astronomía de
la Universidad de Barcelona, coordinadora de
«Ella es una Astrónoma»
— JOSEFINA LING, astrónoma, profesora titular de
Astronomía y Astrofísica en la Universidad de
Santiago.
— BELEN LÓPEZ MARTÍ, astrónoma, investigadora
del Centro de Astrobiología del CSIC-INTA.
— ADRIANA KICZKOWSKI, socióloga, consultora de
género.
— ISABEL MÁRQUEZ PÉREZ, astrónoma, investigadora científica en el Instituto de Astrofísica de
Andalucía del CSIC (Granada).
— JOSEFA MASEGOSA GALLEGO, astrónoma, investigadora científica en el Instituto de Astrofísica de Andalucía del CSIC (Granada).
— EULALIA PÉREZ SEDEÑO, filósofa e historiadora
de la ciencia, profesora de investigación en el
Centro de Ciencias Humanas y Sociales del CSIC.
— BLANCA THROUGHTON LUQUE, profesora de
instituto, presidenta de la sociedad malagueña de
Astronomía.
— MONSERRAT VILLAR MARTÍN, astrónoma, científica titular en el Instituto de Astrofísica de Andalucía del CSIC (Granada).
100cias@uned
(nueva época)
44
Nuestra Facultad
CONTENIDOS DE LA SERIE
— Ayudante de realización: MIKEL MARTÍNEZ
GAGO.
— Locución: ROSA DEL FRESNO DÍAZ.
— Producción: VIRGINIA ROJO BARROSO.
— Ayudante de Producción: M.ª TERESA LINARES
DEL CASTILLO.
— Editor: RAÚL GARCÍA GARCÍA.
— Operador de cámara: JUAN MANUEL SEGURA
REYES.
— Ayudante de cámara: PABLO BRAGADO BLANCHART.
— Infografía: VÍCTOR SAÚCO DORADO.
— Maquillaje: YOLANDA MORENO TIRADO.
A continuación indicamos el título y los contenidos
de cada uno de los programas, su fecha de emisión y las
direcciones URL donde pueden visualizarse (a partir del
segundo programa, sólo indicamos el número final adjudicado a cada unos de los programas).
Mujeres en las estrellas.
2009. Año Internacional de la Astronomía
Fecha de emisión: 06/03/2009
http://www.canaluned.com/#frontaleID=F_RC&sectionID=S_TELUNE&videoID=1548
Este primer programa se grabó en el Observatorio
Astronómico Nacional (OAN), fundado en 1790, que junto al Real Instituto y Observatorio de La Marina de San
Fernando es una de las instituciones astronómicas españolas más antiguas.
En él se hace una presentación de los objetivos planteados con la realización de la serie, así como del Año
Internacional de la Astronomía y de las actividades concretas que se realizarán en el pilar Ella es una Astrónoma. Participaron las Dras. EULALIA PÉREZ SEDEÑO,
FRANCESCA FIGUERAS y JOSEFA MASEGOSA, miembros de este equipo, la astrónoma más antigua del OAN,
la Dra. ASUNCIÓN FUENTE, y la Dra. CARMEN CARRERAS, de la UNED. También se incluye en este programa
las entrevistas realizadas durante el acto de inauguración
en el CSIC del Año Internacional de la Astronomía a la
coordinadora española, Dra. MONSERRAT VILLAR, a la
presidenta de la Unión Astronómica Internacional, Prof.
CATHERINE CESARSKY y al presidente del CSIC, Prof.
RAFAEL RODRIGO.
OBJETIVOS DEL PROYECTO
La motivación de la producción de estos programas
era dar a conocer a la audiencia la contribución de las
mujeres pioneras de la Astronomía en España al desarrollo de la Ciencia en general y de la Astronomía en
particular.
Los objetivos principales para hacer visibles a nuestras pioneras fueron:
— Intentar responder a la pregunta de ¿hasta qué
punto la realidad actual de la Astronomía en España hubiera sido posible sin su trabajo?
— Compartir su experiencia vital en los diferentes
ámbitos en que realizaron su actividad investigadora dando a conocer las dificultades que encontraron para desarrollarse como científicas en un
ámbito estrictamente masculino.
Consideramos además, como un valor añadido, la
posibilidad de mostrar al gran público los lugares más
emblemáticos de la Astronomía española. Así se cubría
un objetivo doble: difundir la Astronomía y hacer visibles a nuestras astrónomas.
La realización de la serie de documentales correría a
cargo del CEMAV (Centro de Diseño y Producción de
Medios Audiovisuales de la UNED), se retransmitiría por
la 2 de TVE, en el programa semanal de la UNED, y por
el canal internacional de la RTVE. Además, el CEMAV
intentaría producir un DVD con el contenido de los diferentes programas emitidos para su distribución a centros
públicos.
Las coordinadoras del proyecto fueron JOSEFA MASEGOSA, por el equipo Ella es una Astrónoma, y CARMEN CARRERAS, por la UNED.
Figura 1. Fotograma de inicio del primer programa.
100cias@uned
45
Nuestra Facultad
Mujeres en las estrellas II.
Las pioneras españolas: El inicio del camino
Fecha de emisión: 17/04/2009
http://www.canaluned.com/..... =1804
Mujeres en las estrellas III.
Astrónomas en la Universidad
Fecha de emisión: 22/05/2009
http://www.canaluned.com/..... =2032
En este programa se presenta la importancia jugada
por la Universidad en el acceso a la carrera investigadora de mujeres interesadas en Astronomía, centrándonos
en las grandes universidades madrileñas (Universidad
Complutense y Universidad Autónoma). Se ha considerado que es especialmente relevante que existan modelos
de mujeres profesoras de Astronomía para el desarrollo
posterior de las universitarias como profesionales de la
Astronomía.
Para ayudarnos a comprender esta situación contamos con las Dras. M.ª JOSÉ FERNÁNDEZ FIGUEROA y
ELISA DE CASTRO de la UCM, y ROSA DOMÍNGUEZ
TENREIRO y ÁNGELES DÍAZ de la UAM. Todas ellas
fueron las primeras en ambas universidades y han sido
maestras de una buena parte de los astrónomos profesionales del país.
Este segundo programa está dedicado a las primeras
astrónomas profesionales de las que se tienen noticias en
la joven historia de la Astronomía en España. Se grabó
en el Observatorio Astronómico Ramón Maria Aller de la
Universidad de Santiago de Compostela, construido en
1943. Allí se formó la primera astrónoma profesional
de nuestro país, la Dra. ANTONIA FERRÍN. En este programa se ilustran las dificultades con las que se encontraron estas primeras mujeres en un mundo donde el
acceso a la Universidad estaba restringido sólo a unas
pocas privilegiadas.
De la mano de las Dras. JOSEFINA LING, astrónoma
de este observatorio, y FRANCESCA FIGUERAS, coordinadora española del proyecto pilar Ella es una Astrónoma, contamos con las contribuciones de las Dras. ANTONIA FERRÍN, más arriba mencionada, y ASSUMPCIÓ
CATALÁ, primera astrónoma de la Universidad de Barcelona. (Para todos nosotros este programa tiene un gran
significado emocional ya que ambas han fallecido durante 2009 y éste programa será el testimonio gráfico
para las generaciones futuras de las mujeres a las que les
debemos la apertura de la puerta para las astrónomas españolas al mundo profesional.)
Figura 2. Las Dras. Assumpció Catalá (izquierda)
y Antonia Ferrín (derecha).
100cias@uned
Figura 3. Fotograma de inicio del tercer programa
y la Dra. Elisa de Castro (UCM).
46
Nuestra Facultad
Mujeres en las estrellas IV. Mirando al Cielo
(Mujeres en los Observatorios I)
Fecha de emisión: 19/06/2009
http://www.canaluned.com/..... =2064
pamiento científico en las Islas Canarias. Se hace un recorrido tanto por los inicios de las astronomía observacional infrarroja en el Observatorio del Teide (Isla de Tenerife) así como por las instalaciones del Observatorio del
Roque de los Muchachos (Isla de La Palma), para concluir
con el instrumento más poderoso de que disponemos a
nivel mundial para la observación en el rango ópticoinfrarrojo del espectro electromagnético, el Gran Telescopio Canarias. Todo ello de la mano de astrónomas del
Instituto de Astrofísica de Canarias, las Dras. MERCEDES
PRIETO, M.ª JESÚS ARÉVALO, ANTONIA VARELA y BEGOÑA GARCÍA LORENZO.
Este programa refleja otra realidad bien distinta
complementaria de la anterior, la de las astrónomas en
los Observatorios. Se grabó en los Observatorios de Sierra
Nevada (Granada) y de Calar Alto (Almería). Las experiencias vividas en ambos observatorios pusieron de manifiesto las dificultades que tuvieron que afrontar las
primeras astrónomas no sólo para hacerse su lugar en la
ciencia, sino incluso para hacer posible el realizar una
observación por ellas mismas.
Las primeras astrónomas observacionales del país,
Dras. PILAR LÓPEZ DE COCA y MERCEDES PRIETO, nos
muestran la realidad que vivieron en los comienzos de la
astronomía observacional española, durante las décadas
de los años setenta y ochenta. Las Dras. ISABEL MÁRQUEZ y JOSEFA MASEGOSA ilustran su desarrollo a
partir de los noventa hasta nuestros días. También entrevistamos a la Dra. CARMEN MORALES, que ha realizado una trayectoria de tipo más técnico en el Instituto
Nacional de Técnica Aeroespacial (INTA), quien nos acercó a la realidad de las astrónomas en los observatorios
espaciales.
Mujeres en las estrellas VI.
Los observatorios espaciales
Fecha de emisión: 27/11/2009
http://www.canaluned.com/..... =3628
En este programa se muestra otra realidad diferente,
la de aquellas mujeres que han desarrollado su trayectoria investigadora en centros tecnológicos, no vinculados
a universidades. Se grabó en Madrid, en los siguientes
centros: Centro de Seguimiento de Satélites (Villafranca
del Castillo), Instituto Nacional de Técnica Aeroespacial
(INTA), Centro de Astrobiología del CSIC-INTA y Centro
de Investigaciones Energéticas y Medioambientales (CIEMAT). Gracias a la colaboración de las Dras. MARÍA
SANTOS LLEÓ, de la Agencia Europea del Espacio, MERCEDES MOLLÁ, del CIEMAT, y MERCEDES LÓPEZ, de la
Institución Carnegie de Washington, se ha podido visibilizar cómo es la realidad de la observación en los observatorios espaciales.
Mujeres en las estrellas V. El Grantecan
(Mujeres en los Observatorios II)
Fecha de emisión: 02/10/2009
http://www.canaluned.com/..... =3038
Este programa muestra cómo el desarrollo de la astronomía observacional en España ha estado desde sus
inicios en los años ochenta ligado al desarrollo del equi-
Figura 5. La Dra. María Santos Lleó en la
Agencia Europea del Espacio.
Figura 4. La Dra. Antonia Varela Pérez en el GRANTECAN.
100cias@uned
47
Nuestra Facultad
Mujeres en las estrellas VII. Un futuro prometedor
Fecha de emisión: 08/01/2010
http://www.canaluned.com/..... =3659
Mujeres en las estrellas VIII. Con nombres y apellidos
Fecha de emisión: 05/03/2010
http://www.canaluned.com/..... =4470
Con este programa cerramos nuestro viaje por las diferentes realidades de las astrónomas españolas. Se ha
grabado en Barcelona, en el Centro de Supercomputación
y la sede central de la Universidad de Barcelona. En este
programa se muestra cómo la astronomía teórica necesita del concurso de grandes medios instrumentales, grandes ordenadores, en vez de telescopios, para mostrarnos cómo es el Universo que observamos mediante
simulaciones informáticas. Con la colaboración de la
única profesora de investigación del país, la Dra. MARGARITA HERRANZ, de la profesora de la Universidad de
Barcelona, CARME JORDI, y de dos astrónomas jóvenes
y brillantes, las Dras. OLGA MUÑOZ y MAITE BELTRÁN,
podemos entender la realidad con la que se encuentran
en la actualidad las mujeres que quieren hacer una carrera profesional en el campo de la Astronomía.
Aunque existían sospechas fundadas en el trabajo
realizado por las doctoras JOSEFA MASEGOSA e ISABEL
MÁRQUEZ de la desigualdad de género en la Astronomía
en España, sin embargo no existía aún un trabajo riguroso que permitiera extraer conclusiones de tipo sociológico sobre nuestra realidad. El equipo de trabajo de
Ella es una Astrónoma se embarcó en la realización de
un estudio sociológico detallado sobre dicha realidad.
Este estudio ha sido financiado por el CSIC. En este programa, dedicado a la sociología de la Astronomía, se
presentaron los resultados de dicho análisis por las sociólogas responsables del mismo, ADRIANA KICZKOWSKI y la Dra. EULALIA PÉREZ SEDEÑO.
Y, a modo de resumen, todo el equipo de Ella es
una Astrónoma hizo una evaluación de esta fascinante
experiencia que ha sido conocer la Astronomía española
Figura 6. Recortes de las diferentes entrevistas realizadas en el que la protagonista es la Astronomía realizada por mujeres.
100cias@uned
48
Nuestra Facultad
Figura 7. Varias de las protagonistas de la serie en los jardines de la Residencia de Señoritas de la calle Fortuny
de Madrid, hoy Fundación Ortega y Gasset.
a través de sus astrónomas. Contamos para ello con el
inmejorable marco de la biblioteca, sala de reuniones y
jardines de la Residencia de Señoritas (actual Fundación
Ortega y Gasset), por la que pasaron gran parte de las
primeras mujeres científicas en el primer tercio del siglo
pasado, desde su fundación en 1915 hasta su cierre con
motivo de la Guerra Civil.
serie como el mejor trabajo en este campo y el único
en su modalidad.
Para concluir, queremos manifestar que todos los
implicados en esta serie: el equipo del pilar Ella es una
Astrónoma, los técnicos de la televisión educativa de la
UNED, su Directora y la profesora de la UNED que ha
servido de enlace entre ambos, Carmen Carreras, han
disfrutado en la realización de cada uno de los programas de esta serie, están muy satisfechos de los resultados
de la misma, de su impacto en la comunidad científica
de nuestro país (los programas se han difundido en directo y en diferido también a través de la página web
oficial del nodo español del Año Internacional de la Astronomía), y muy probablemente nos animemos a realizar proyectos similares en otros ámbitos científicos: la
Física, la Química, la Biología,…
RECONOCIMIENTOS Y PREMIOS RECIBIDOS
La X edición del Concurso Ciencia en Acción, que se
celebró en el Parque de las Ciencias de Granada en septiembre de 2009, premió la Serie de televisión educativa
de la UNED: Mujeres en las Estrellas con una Mención
de Honor en la modalidad de Trabajos de Divulgación
Científica en Soportes Adecuados.
En el acto de clausura del Año Internacional de la
Astronomía1, en el que se presentaron todos los proyectos realizados por los equipos formados para el
desarrollo de los distintos pilares, se reconoció esta
Josefa Masegosa Gallego
Instituto de Astrofísica de Andalucía,
Ángela Ubreva Amor
Directora de la Televisión Educativa de la UNED, y
1
Congreso Astronomy beyond 2009, celebrado en París el 9 y 10 de
enero de 2010. Visitar la conferencia de Catherine Cesarsky en:
http://www.virtualmeeting.info/astronomy/beyond2009/
100cias@uned
Carmen Carreras Béjar
Dpto. de Física de los Materiales, UNED
49
Nuestra Facultad
100cias@uned
N.º 2
Nuestra Facultad
(nueva época)
| 2009
ISSN: 1989-7189
EL GRUPO DE ASTRONOMÍA DE LA
FACULTAD DE CIENCIAS
dos sitios diferentes, es posible determinar el radio de la
Tierra. Se aconseja a los interesados en conocer más exhaustivamente el procedimiento de medida propuesto
por Eratóstenes consultar La UNED y el radio de la Tierra, 100cias@uned, 0, 77-79 (1997), del profesor Yuste.
ACTIVIDADES DEL GRUPO DE
ASTRONOMÍA EN EL AÑO
INTERNACIONAL DE LA ASTRONOMÍA
En el año 1609 Galileo Galilei apuntó por primera
vez al cielo con un telescopio. Fue el comienzo de 400
años de descubrimientos que aún continúan. El 27 de octubre de 2006 la Unión Astronómica Internacional (UAI)
anunció la declaración por la UNESCO de 2009 como el
Año Internacional de la Astronomía (AIA2009), ratificada por la ONU el 19 de diciembre de 2007.
El Año Internacional de la Astronomía ha representado una celebración global de la Astronomía y de su contribución a la sociedad, a la cultura, y al desarrollo de la
humanidad. Su objetivo principal ha sido motivar a los
ciudadanos de todo el mundo a replantearse su lugar en el
Universo a través de todo un camino de descubrimientos
que se inició hace ya 400 años. Para ello, desde el nodo
español del Año Internacional de la Astronomía, se promovieron actividades repartidas por todo el mundo con las
que se ha pretendido estimular el interés por la Astronomía y la Ciencia en general; desde su influencia en nuestras vidas diarias hasta cómo el conocimiento científico
puede contribuir a un mundo más libre e igualitario.
El Grupo decidió desde el primer momento estar presente en esta celebración y en su reunión anual del 10 de
noviembre de 2008, aprobó la organización y participación
en diferentes actividades, que se desarrollaron a lo largo de
2009. Ofrecemos un breve resumen de las mismas.
Figura 1. Marcando en un pliego sobre el suelo la posición
de la sombra del gnomón (comenzamos a medir a las 12:00 h.
y terminamos a las 15:00 h.).
PARTICIPACIÓN EN LA MEDICIÓN DEL RADIO
DE LA TIERRA
El 26 de marzo, «Día de la UNED», el Grupo organizó una Jornada de observación solar para colaborar,
junto a más de 800 centros educativos y colegios, en la
medición del radio de la Tierra, mediante el método de
Eratóstenes. En la gráfica de la Figura 1 pueden verse los
resultados obtenidos. Con el valor mínimo de la sombra
de un gnomón y las coordenadas del lugar, tomados en
100cias@uned
Figura 2. Representación gráfica de la longitud de la sombra
del gnomón en función del tiempo.
50
Nuestra Facultad
CONFERENCIAS
(10/11/2009), durante la IX Semana de la Ciencia.
Se realizó un programa corto para la televisión
educativa, titulado: El Universo para que lo descubras (fecha de emisión: 04/12/2009):
http://www.canaluned.com/#frontaleID=F_RC&sec
tionID=S_TELUNE&video ID=3675.
Un viaje por el Sistema Solar, por David Galadí
Enríquez del Centro Astronómico Hispano Alemán-Observatorio de Calar Alto (19-11-2009),
durante la IX Semana de la Ciencia. Se realizó
también un programa corto para la televisión educativa, titulado: Conoce al astro rey (fecha de emisión: 11/12/2009):
http://www.canaluned.com/#frontaleID=F_RC&sec
tionID=S_TELUNE&video ID=3714.
Las conferencias que se impartieron en el Salón de
Actos de la Facultad de Ciencias Económicas y Empresariales fueron retransmitidas en directo y en diferido
por Internet a través de la página web UNED (“Teleactos»). También se hicieron programas para la televisión
educativa. A continuación indicamos el título de las
conferencias, los nombre de los conferenciantes, las
fechas en que se impartieron y las URL’s donde pueden
visualizarse.
— Lo que sabemos del Universo, por Antonio Fernández-Rañada, de la Universidad Complutense
de Madrid (25/02/2009):
http://teleuned.uned.es/teleuned2001/directo.asp?ID=3888&Tipo=C (teleacto) y
http://www.canaluned.com/#frontaleID=F_RC&se
ctionID=S_TELUNE&videoID=1546 (noticia emitida el 06/03/2009).
— El cielo visto por las astrónomas, por Josefa Masegosa del Instituto de Astrofísica de Andalucía),
en el Acto de entrega del Premio Elisa Pérez Vera
(11/03/2009):
http://www.canaluned.com/#frontaleID=F_RC
&section ID=S_TELUNE&videoID=1966 (teleacto) y
http://www.canaluned.com/#frontaleID=F_RC&sectionID=S_TELUNE&videoID=1681 (noticia emitida
el 20/03/2009).
— Rayos cósmicos de ultra alta energía: las partículas más energéticas de la naturaleza, por Fernando Arqueros de la Universidad Complutense de
Madrid (25/03/2009):
http://teleuned.uned.es/teleuned2001/directo.asp?ID
=3992&Tipo=C (teleacto) y
http://www.canaluned.com/#frontaleID=F_RC&sect
ionID=S_TELUNE&videoID=1802 (noticia emitida el 17/04/2009).
Sistema exoplanetarios: ¿hay otras Tierras?, por
Carlos Eiroa de la Universidad Autónoma de Madrid (29/04/2009):
http://teleuned.uned.es/teleuned2001/directo.asp?ID
=3993&Tipo=C (teleacto) y
http://www.canaluned.com/#frontaleID=F_RC&section ID=S_TELUNE&video ID=2028 (noticia emitida el 22/05/2009).
— Una breve historia de los átomos: la evolución
química del Universo, por Enrique Pérez Jiménez
del Instituto de Astrofísica de Andalucía
100cias@uned
CURSOS DE VERANO Y JORNADAS DE FIN DE
SEMANA
Desde que se organizó el primero en Mérida (julio
2006), se ha ido configurando un perfil característico
de los Cursos de Verano de Astronomía de la UNED que
les confiere una personalidad especial basada en la complementariedad entre teoría y práctica, entre ciencia conceptual y experiencia. La pasión por la realidad observable se combina con la capacidad explicativa y descriptiva
de la Física a nivel elemental. Así, contenidos fundamentales sobre óptica, espectroscopía o evolución estelar
se acompañan de una sesión de observación diurna del
Sol, para estudiar su espectro, las manchas solares y las
líneas negras de Fraunhofer, y otra nocturna, para ver el
siempre sorprendente cielo.
El pasado verano de 2009, el Grupo de Astronomía,
con motivo del Año Internacional de la Astronomía,
quiso estar especialmente presente en la XX convocatoria de los Cursos de Verano de la UNED, y por ello organizó dos cursos de larga duración (5 días) y unas jornadas de fin de semana en Arcos de la Salina en
colaboración con el Centro Asociado de Teruel.
— «Introducción a la Astronomía desde un lugar
único: la isla de La Palma», con visita a los Observatorios del Roque de los Muchachos y la participación de las Asociaciones locales de Aficionados a la Astronomía. Tuvo lugar del 30 de
junio al 4 de julio en nuestro Centro Asociado de
la isla de La Palma.
— La UNED y el Año Internacional de la Astronomía. Curso de introducción a la Ciencia Astronó-
51
Nuestra Facultad
Figura 3. Alumnos del Curso «Introducción a la Astronomía desde
un lugar único: la isla de La Palma» visitando el GRANTECAN
en el Observatorio Astronómico del Roque de los Muchachos
(Isla de La Palma).
Figura 5. Cartel anunciador de las II Jornadas de Introducción
a la Astronomía, en Arcos de las Salinas (Teruel).
exposición «El Universo para que lo descubras»,
(ver apartado siguiente) cuya inauguración tuvo
lugar el lunes 13 de julio.
Entre los 3 cursos participaron más de 90 personas,
se impartieron 35 conferencias sobre temas de Astronomía y Astrofísica, y del primero de ellos se hizo un
programa para nuestra televisión educativa. Los interesados pueden visualizarlo en la siguiente URL:
http://www.canaluned.com/#frontaleID=F_RC&sectionID=S_TELUNE&videoID=2152.
Figura 4. Carátula del Folleto del Curso «La UNED y el Año
Internacional de la Astronomía. Curso de introducción a la
Ciencia Astronómica», que se entrega a los participantes
con todas las ponencias.
EXPOSICIÓN:
EL UNIVERSO PARA QUE LO DESCUBRAS
mica», en el Centro Asociado de Ávila, en la Sede
de El Barco de Ávila, del 13 al 17 de julio.
— II Jornadas de «Introducción a la Astronomía»,
en Arcos de las Salinas (Teruel), con visita al Observatorio de Javalambre, del Centro de Estudios
de Física del Cosmos de Aragón, 18-20 de septiembre. Los alumnos de este curso, y todas las
personas interesadas, pudieron disfrutar con la
100cias@uned
Esta exposición itinerante de Astronomía, «El Universo para que lo descubras», fue diseñada y editada por
el Grupo de Astronomía de la Facultad de Ciencias de la
UNED a partir de los documentos gráficos y los textos literarios reunidos, y ofrecidos a todos los interesados
para divulgar la Astronomía en su Año Internacional,
por Guillermo Tenorio Tagle, del Instituto Nacional de
52
Nuestra Facultad
Astrofísica, Óptica y Electrónica (INAOE) de México, y
por Enrique Pérez Jiménez, del IAA del CSIC de España.
La exposición consta de 50 paneles de 70 cm de ancho por 170 cm de alto, cada uno de los cuales contiene
una imagen astronómica, una breve descripción científica de ella y una cita poética de la literatura universal
con la que se pretende establecer un acercamiento emocional hacia el Universo.
Está dividida en cuatro secciones: nuestro Sistema
Solar, estrellas y nebulosas, galaxias y el Universo. Además contiene 2 carteles de créditos, en los que se indican
las personas e instituciones gracias a las cuales la Expo-
sición ha podido realizarse, y 4 carteles explicativos del
Grupo de Astronomía de la Facultad de Ciencias de la
UNED y de las actividades organizadas a lo largo de su
historia.
Se ha expuesto en los siguientes lugares:
— Facultad de Ciencias Químicas de la Universidad
de Burgos, durante las IV Jornadas sobre Enseñanza de la Física: Física y Astronomía. Dimensión social de la Ciencia, del 22 al 29 de mayo.
— Centro Asociado de Ávila (Sede, El Barco de Ávila), durante el Curso de Verano «La UNED y el
Año Internacional de la Astronomía. Curso de in-
Figura 6. Dos ejemplos de carteles de los 50 que componían la exposición “El Universo para que lo descubras».
100cias@uned
53
Nuestra Facultad
Figura 7. Díptico informativo sobre la exposición «El Universo para que lo descubras».
troducción a la Ciencia Astronómica», del 13 al
17 de julio.
— Universidad de Castilla-La Mancha en Ciudad
Real, durante la XXXII Reunión Bienal de la RSEF
y 19º Encuentro Ibérico para la Enseñanza de la
Física, del 7 al 11 de septiembre.
— Ayuntamiento de Arcos de las Salinas (Teruel),
durante las II Jornadas de Introducción a la Astronomía, organizadas por el Grupo de Astronomía de la Facultad de Ciencias y el Centro Asociado de Teruel, del 18 al 20 de septiembre.
— Centro de Zona Madrid-Escuelas Pías, durante la IX
Semana de la Ciencia, del 10 al 13 de noviembre.
— Facultad de Ciencias de la UNED, durante la IX
Semana de la Ciencia, del 17 al 27 de noviembre.
— Sala de Exposiciones del Convento de Sto. Domingo en Baza (Granada), organizado por el Centro Asociado de Baza, del 3 al 13 de diciembre.
— IES «Vallecas-Magerit» de Madrid, del 14 al 18 de
diciembre.
A lo largo de 2010 la Exposición recorrerá algunos
IES de Madrid y varios Centros Asociados de la UNED.
Figura 8. Exposición en la Biblioteca del IES
«Vallecas-Magerit» de Madrid.
Figura 9. Dos cartas de la baraja de «Familias Astronómicas».
100cias@uned
54
Nuestra Facultad
Figura 10. Fotograma del primer programa
de la serie «Mujeres en las estrellas» .
OTRAS ACTIVIDADES
Como se anunció en el número anterior de esta revista correspondiente al año 2008, a iniciativa de algunos profesores miembros del Grupo, en los nuevos planes
de estudio de los Grados de Física y Matemáticas se
ofertarán en ambos, las asignaturas optativas Introducción a la Astronomía e Introducción a la Astrofísica.
Los Grados fueron aprobados por la ANECA en julio de
2009, por lo que estas asignaturas empezarán a impartirse en el curso 2013-14.
– Durante la IX Semana de la Ciencia se llevó a
cabo un Taller experimental en la calle (alrededores de la Facultad de Ciencias), para ver las
manchas solares y hacer experimentos con la luz
del Sol (descomposición de la luz blanca en colores, espectro solar y líneas negras de Fraunhofer,
polarización,…).
– Se editaron 5000 ejemplares de una baraja de cartas
de familias astronómicas como recuerdo del Año
Internacional de la Astronomía. Se han distribuido
entre todos los alumnos de todos los Cursos de Verano de la UNED (más de 3000), todos los jóvenes
participantes en la Semana de la Ciencia en la Facultad (800) y entre los asistentes a las conferencias
de divulgación en el segundo semestre del año.
— Hemos colaborado (con las astrónomas del pilar
«Ella es una Astrónoma» del AIA) en la realización de una serie de 8 programas de televisión
para «La UNED en la 2» (que se retransmiten los
viernes de 10 a 11 de la mañana en la 2 de TVE y
por el Canal Internacional), que se ha titulado:
Mujeres en las estrellas. Información más detallada de esta actividad se proporciona en otra colaboración en este mismo número de la revista.
AGRADECIMIENTOS
El Grupo de Astronomía quiere dejar constancia de
su sincero agradecimiento a los Vicerrectores de Formación Continua y Extensión Universitaria, de Investigación y de Centros Asociados, al Decano y a los Directores de todos los Departamentos de la Facultad de
Ciencias por su colaboración en la financiación de algunas de las actividades realizadas por el Grupo (conferencias, exposición y baraja), sin la cual no hubiera sido posible llevarlas a cabo. A todos muchas gracias.
Ernesto Martínez García
Director del Grupo de Astronomía
Dpto. de Matemáticas Fundamentales
M.ª del Mar Montoya Lirola
Secretaria del Grupo de Astronomía
Dpto. de Física de los Materiales
INFLUENCIA EN LA ACTIVIDAD DOCENTE
Algunos miembros del Grupo se encargaron de realizar la Guía Didáctica de la asignatura Introducción a la
Astronomía que oferta el Programa UNED-Senior.
100cias@uned
Carmen Carreras Béjar
Dpto. de Física de los Materiales
55
Nuestra Facultad
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
En el año 2009, en el que se han celebrado dos
grandes efemérides, los 400 años desde que Galileo utilizó por primera vez un telescopio para acercarnos a los
objetos celestes y los 200 años del nacimiento de Darwin, el hombre que cambió nuestra forma de entender
la evolución de los organismos vivos, en esta sección de
100cias@uned se pueden encontrar más trabajos dedicados a estos temas que en números anteriores, aunque
no hemos dejado de lado otros campos científicos.
En el apartado de Colaboraciones, en el área de las
Ciencias del Medioambiente, contamos con un trabajo
dedicado al agua como fuente de vida, pero también,
como indica su autora, de numerosos problemas. Sólo un
porcentaje muy pequeño del agua disponible en nuestro
planeta es apta para el consumo. El crecimiento de la población y el desarrollo económico traen consigo una demanda espectacular de agua dulce. Además, los diferentes tipos de contaminación, producidos por el desarrollo
industrial, tienen como consecuencia que el disponer de
agua dulce sea un lujo que no todas las sociedades y
países se pueden permitir. La profesora Pilar Fernández
Hernando describe la situación en nuestro país, desde las
fuentes de contaminación, sus efectos sobre la salud,…,
hasta las normas y recomendaciones establecidas por
las autoridades sanitarias y su seguimiento y control
desde las Administraciones públicas. También en el campo de las Ciencias de la Naturaleza podemos encontrar
un trabajo de la profesora Rosario Planelló sobre las
aportaciones de Darwin a la Biología moderna.
En el área de Física, el profesor Fernando Arqueros,
de la Universidad Complutense de Madrid, nos describe
el Proyecto Pierre Auger para la detección de las partículas más energéticas que existen en la naturaleza: los
rayos cósmicos. Al igual que hizo en la conferencia que
impartió en la Facultad de Ciencias de la UNED con motivo del Año Internacional de la Astronomía (AIA), nos
presenta la evolución de la Física desde que los rayos
cósmicos fueron descubiertos a principios del siglo XX
(Física de las partículas elementales) hasta el momento
actual en el que la nueva Física de los rayos cósmicos
puede desvelar muchos misterios, como por ejemplo, las
interacciones de los núcleos a una energía tan extremadamente alta, los objetos cósmicos que los producen o
los procesos físicos que están detrás de ellos. Nuestros
100cias@uned
lectores, y muy particularmente nuestros estudiantes,
podrán darse cuenta de cómo la Ciencia no tiene límites
y sigue siendo necesaria la colaboración de muchos científicos y la realización de muchos proyectos para comprender nuestro Universo.
En el área de Química contamos con un precioso
trabajo sobre la formación de átomos en el Universo. Su
autor, el profesor de investigación Enrique Pérez del Instituto de Astrofísica de Andalucía, quien también participó en el ciclo de conferencias organizado por el Grupo
de Astronomía de la Facultad con motivo del AIA, presenta los 118 átomos diferentes que hasta hoy conocemos ligados a la evolución del Universo y destaca la
importancia de la Astronomía y de la Astrofísica en el
desarrollo de este conocimiento. Seguimos invitando a
nuestros lectores al fascinante mundo de la Ciencia.
A continuación se encuentran nuestras secciones
habituales: Novedades científicas, Semblanzas de los Premios Nobel y Efemérides. Como no podía ser de otra
manera, sendas semblanzas de Galileo y de Darwin ocupan estas páginas. También es de destacar la colaboración sobre el AIA de la Coordinadora del nodo español,
la profesora de investigación Montserrat Villar del Instituto de Astrofísica de Andalucía, quien describe el conjunto de actividades realizadas en España para sumarnos
a la celebración de la gran fiesta internacional de la Astronomía. Su adiós es solo un hasta siempre, pues la
multitud de actividades realizadas en la calle han dejado
una huella en los ciudadanos que no permitirá ni el olvido ni la pasividad. Sin AIA también habrá que seguir
enseñando en las plazas públicas, en los colegios..., los
grandes logros de la Astronomía y habrá que seguir mirando al cielo. Desde cualquier punto del planeta el cielo es una aventura del pensamiento, el origen de la necesidad de observar, medir, ….
Finalizamos con el apartado dedicado a Las mujeres
y la Ciencia. En esta ocasión contamos con un trabajo
dedicado a realzar el importante papel desarrollado por
mujeres en el campo de la Astronomía. Es el texto de la
conferencia impartida por la investigadora Josefa Masegosa en la entrega del Premio «Elisa Pérez Vera, 2009»,
que tiene por objeto premiar los trabajos que traten sobre
género y/o feminismo realizados por alumnos o exalumnos de la UNED.
56
Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
COLABORACIONES EN CIENCIAS
DE LA NATURALEZA
piensa lo mismo. Las demandas actuales de agua dulce
son las mayores de la historia de la humanidad, y están
en progresivo aumento. La necesidad de agua en el
mundo ha crecido un 600% en los últimos 100 años, un
crecimiento exponencial que se explica por el incremento de la población y el desarrollo industrial. El agua
dulce comienza a resultar un bien escaso, que además
sufre problemas de contaminaciones de todo tipo y deterioro del entorno natural, lo cual afecta a la vida y a
la salud humanas.
La contaminación del agua es uno de los peores
problemas ambientales que la naturaleza sufre hoy en
día. La contaminación del agua no solo ocurre en los ríos
o lagos, sino también en el océano. Desafortunadamente,
muchos barcos han arrojado, accidentalmente, petróleo
en el mar causando su contaminación y la muerte de
muchos animales marinos. El hombre ha cambiado el color cristalino radiante de las aguas por borroso y en algún caso marrón.
La contaminación y eutroficación de los cuerpos
acuáticos a causa de poluentes de origen humano originan serios problemas para el abastecimiento de agua
potable en el mundo.
Durante los últimos veinte años, la palabra eutroficación ha sido utilizada cada vez más para designar el
aporte artificial e indeseable de nutrientes tales como el
fósforo, el nitrógeno y el carbono. Sin embargo, este
concepto puede llevar a cierta confusión, ya que en algunos casos el ingreso de nutrientes a un lago o pantano
puede resultar muy favorable, dependiendo el fin y el
uso de las aguas del sistema en cuestión.
La Organización para la Cooperación y el Desarrollo
Económico (OCDE, 1982) define a la eutrofización como
«el enriquecimiento en nutrientes de las aguas, que provoca la estimulación de una serie de cambios sintomáticos, entre los que el incremento en la producción de algas y macrófitas (especies vegetales superiores), el
deterioro de la calidad de agua y otros cambios sintomáticos resultan indeseables e interfieren con la utilización del agua».
Etimológicamente, eutroficación viene del griego, se
puede hacer referencia a que oligotrófico significa poco
alimentado y eutrófico, bien alimentado.
EL AGUA, FUENTE DE VIDA
Y DE PROBLEMAS
Fuente pública para el consumo.
Por todos es sabido que el agua es el origen de todos
los procesos biológicos y ecológicos y es el elemento
esencial para el desarrollo de la vida en el planeta. Desde la época antigua, se hacen referencias específicas al
agua. Aristóteles define el agua como uno de los cuatro
elementos básicos de la creación, junto con la tierra, el
aire y el fuego. Nuestras vidas por completo dependen de
ella, no es concebible ninguna actividad que no gire alrededor de este preciado líquido, ciudades, industrias,
cultivos, etc.
En el planeta, el 97% es agua salada, el 2% se encuentra atrapada en capas de hielo y glaciares, por lo
tanto, sólo el 1% restante puede ser utilizada por el ser
humano. Actualmente existe en la Tierra la misma cantidad de agua que existía hace 3.800 millones de años
atrás, época en la que se originó el agua de nuestro
planeta. Gracias al denominado ciclo hidrológico por
el que el agua cambia de estado —sólido, líquido y gaseoso—, esa misma cantidad primigenia de líquido circula desde entonces por todos los rincones de la Tierra.
Es por esto que durante siglos se ha considerado el agua
como un recurso ilimitado que, en consecuencia, no era
preciso administrar cuidadosamente, pero en estos momentos, a principios del siglo XXI, mucha gente no
100cias@uned
57
Vida científica
ejemplo, la contaminación urbana se manifiesta por el
aumento de la salinidad en el agua, adición de materia
orgánica (que se puede manifestar como amonio, NH4+,
nitratos, NO3– y nitritos, NO2–) y posible contaminación
biológica, mientras que la contaminación de origen agrícola se manifiesta por fuertes incrementos de compuestos
nitrogenados, la presencia de organoclorados y otros
compuestos orgánicos en las aguas.
Los procesos contaminantes, independientemente de su
origen, se encuentran afectados, en cantidad e importancia,
por las características del medio receptor, los usos del agua
y calidades exigidas a la misma, aportes hídricos indirectos
en relación a las características de la zona y otros factores
que afecten a la dispersión de los contaminantes.
La eutroficación es un problema mayor para las reservas de agua dulce y ocurre en primer lugar como resultado de nuestras actividades humanas en las cuencas.
Algunos contaminantes sintéticos, como los detergentes de
las aguas de lavado, y los escurrimientos de fertilizantes
de las zonas agrícolas aledañas aumentan considerablemente el nivel de sustancias que sirven como nutrientes de
las plantas acuáticas que flotan sobre las aguas; este aumento produce el crecimiento y proliferación masiva de
ellas. Estas plantas acuáticas pueden formar entonces una
gruesa capa sobre la superficie del estanque que tiene
consecuencias catastróficas para el ecosistema.
Toda esta materia orgánica anormal incrementa el
trabajo bacteriano en el agua. Como las bacterias consumen el oxígeno disuelto en el agua para vivir y la cantidad de bacterias vivas se dispara a niveles extremos, la
cantidad de oxígeno en el agua se reduce drásticamente
y no puede sostener la vida de los peces; en consecuencia, el ecosistema se destruye. El agua se vuelve mal
oliente y desprovista de vida animal. En casos graves,
persistentes, y en estanques de poca profundidad puede
darse el caso de que las plantas acuáticas sequen y hagan desaparecer el propio estanque.
El fenómeno de eutroficación se da principalmente
en aguas superficiales, en los grandes reservorios (lagos y
lagunas), y últimamente en ríos que atraviesan ciudades.
La eutroficación no puede ser ignorada, es un problema
grave a resolver.
Si se habla, en general, de contaminación se puede
afirmar que el origen de la contaminación de las aguas
está ligado a alguna de estas cuatro actividades:
— Contaminación por actividades urbanas, consecuencia de la inadecuada eliminación y ubicación
de los residuos, junto a las aguas residuales urbanas
procedentes de usos domésticos (limpieza y cocina)
y sanitarios, así como de la limpieza de calles.
— Contaminación de las aguas por prácticas agrícolas, debida fundamentalmente a la utilización de
fertilizantes y biocidas en exceso.
— Contaminación de aguas por explotaciones ganaderas, debida a compuestos orgánicos y biológicos procedentes de residuos de instalaciones
ganaderas y purines de animales estabulados.
— Contaminación del agua por actividades industriales, la cual es la más diversa, compleja y, en
muchos casos, difícil de eliminar.
Los productos de cada una de estas fuentes de contaminación guardan cierta semejanza entre sí. Así por
100cias@uned
CONTAMINACIÓN POR COMPUESTOS
NITROGENADOS
El nitrógeno en el agua puede tener principalmente
dos orígenes:
— Nitrógeno orgánico: debido a contaminación orgánica, casi siempre de origen residual. Este nitrógeno se transforma sucesivamente en nitrógeno amoniacal, nitroso y nítrico, en función del
tiempo y de la capacidad de oxidación del medio.
En aguas muy contaminadas la evolución puede
bloquearse en nitrito y en condiciones anaerobias, es decir, en ausencia de oxígeno, los nitratos
pueden evolucionar en sentido contrario:
Nitratos → Nitritos → Amoniaco → Nitrógeno
gaseoso (forma neutra)
— Nitrógeno inorgánico: la contaminación es debida
principalmente al lavado de suelos ricos en nitratos como consecuencia de prácticas agrícolas.
Esta contaminación en forma de nitratos suele
ser bastante estable y difícilmente reversible.
En las aguas superficiales (ríos, lagos, embalses...) el
nitrógeno puede encontrarse formando parte tanto de
compuestos orgánicos como inorgánicos. El consumo de
compuestos nitrogenados como fertilizantes en las prácticas agrícolas es considerable, al igual que la aplicación
en exceso de fertilizantes inorgánicos (fósforo y nitrógeno) es una práctica normal, debido al desconocimiento
del nivel de nutrientes en el suelo y a la idea de obtener
un mejor cultivo.
Dado que la velocidad con la que se aportan estas
sustancias es mayor que la velocidad con la que se degradan, se produce una contaminación del suelo, con el
58
Vida científica
consiguiente riesgo de contaminación de las aguas superficiales y subterráneas.
La forma amoniacal se absorbe muy fuertemente
por el suelo salvo en los calcáreos; en cambio, los nitratos son muy móviles y se disuelven fácilmente por lavado. El problema se complica con la nitrificación permanente del nitrógeno amoniacal, es decir, con su paso a
nitrato y nitrito en función del tiempo.
Figura 2. Vertidos.
Los nitratos en las aguas de pozos o fuentes no conectadas a redes municipales pueden también presentar
concentraciones relativamente importantes. En este caso,
los nitratos tienen habitualmente por origen una nitrificación del nitrógeno orgánico, pero también pueden
proceder de la disolución de este elemento procedente de
los terrenos atravesados. Se ha de señalar que muy a menudo estas aguas son de calidad mediocre o mala en lo
que concierne a otros elementos.
Figura 1. Aplicación de purines en la agricultura.
Por lo tanto, el uso indiscriminado de fertilizantes
nitrogenados plantea una gran preocupación a distintos
niveles debido a que su uso indiscriminado genera una
repercusión económica, introduce impactos e indirectamente puede plantear problemas de salud pública ligados
al consumo de agua.
En los vertidos urbanos, el nitrógeno tiene principalmente por origen la orina, que está compuesta por 25
gramos por litro (g/l) de urea, 0,6 g/l de ácido úrico, 1,5
g/l de creatina y 0,6 g/l de nitrógeno amoniacal. La mayor parte de estos compuestos dan muy rápidamente
amoniaco por hidrólisis. En general, se admite que, en
las aguas residuales urbanas, se eliminan 13 g de nitrógeno por habitante y día.
Los desechos industriales son también una fuente
importante de nitrógeno, sobre todo los procedentes de
instalaciones agrícolas, alimentarias e industrias químicas. Por lo que en función del grado de industrialización
de la zona, la aportación de nitrógeno a las aguas, debida a los vertidos domésticos, industriales, agrícolas y
ganaderos, será extremadamente variable.
La concentración de nitratos de origen natural en las
aguas es, generalmente, de unos pocos mg/l. Sin embargo, se ha observado en numerosas ocasiones en las aguas
subterráneas que esta concentración aumenta hasta varios centenares de mg/l, debido, de nuevo, a la intensificación de las prácticas agrícolas.
100cias@uned
El aumento de las concentraciones de nitratos en
estos pozos y acuíferos también tiene la causa en determinadas prácticas agrícolas, ya que los agricultores vierten grandes cantidades de abonos nitrogenados en los
campos para poder mantener una producción adecuada e
incrementar las cosechas, la mayoría de los cuales no
son absorbidos por las plantas ni por los árboles, sino
que se depositan en el suelo y o bien van filtrándose hacia capas progresivamente más profundas hasta que se
concentran en las capas freáticas, es decir, aquellas capas
superficiales de los acuíferos que son susceptibles de ser
explotadas mediante pozos, o bien por escorrentía llegan
hasta las aguas superficiales.
Con la captación de este agua para el consumo a
través de la red pública de abastecimiento, se completa el
ciclo que permite pasar a los nitratos del medio natural
al organismo humano.
CÓMO REDUCIR LA CONCENTRACIÓN DE
NITRATOS
Hay dos modos de reducir la concentración de nitratos en los abastecimientos de agua potable. Mejorar
las prácticas agrícolas (prevención) o reducir su concentración en los suministros de agua (remedio).
59
Vida científica
(MHb), es decir, un incremento de metahemoglobina en la
sangre, que es una hemoglobina (Hb) modificada (oxidada)
incapaz de fijar el oxígeno y que provoca limitaciones de
su transporte a los tejidos. La metahemoglobina se forma
cuando en la Hb se oxida el Fe2+ a Fe3+.
Cuando la metahemoglobinemia es elevada, la primera manifestación clínica es la cianosis, generalmente
asociada a una tonalidad azulada de la piel, por lo que la
enfermedad se la conoce como «enfermedad de los niños
azules». Los síntomas son los siguientes: si la MHb es
mayor del 10% de la Hb total, se producen dolores de cabeza, debilidad, taquicardias y falta de respiración. Si es
mayor del 50%, da lugar a hipoxemia grave y a depresión del sistema nervioso central, y cuando es mayor
del 70%, puede llegar a causar la muerte.
La eliminación de los compuestos nitrogenados de las
aguas que ya han sido contaminadas es difícil: los iones
amonio pueden convertirse en cloraminas, pero para ello
se necesitan concentraciones de cloro diez veces mayores
que las utilizadas normalmente en la desinfección, teniendo en cuenta que ni el dióxido de cloro ni el ozono
actúan sobre estos compuestos. Podrían eliminarse también por nitrificación y aireación, para lo cual habría
que prescindir de la precloración para no eliminar las
bacterias implicadas en este tratamiento. Otra forma es
por oxidación, los nitritos se oxidan fácilmente a nitratos
en presencia de cloro u ozono. La eliminación de los nitratos se puede llevar a cabo de forma más compleja por
desnitrificación biológica en condiciones de anaerobiosis,
intercambio iónico e incluso osmosis inversa.
Entre los métodos de eliminar los nitratos de los suministros de agua se incluyen los siguientes:
— Sustitución. Reemplazar los suministros de alto
contenido en nitratos por suministros de bajo
contenido. En la práctica esta opción está normalmente restringida a pequeños y aislados recursos de aguas subterráneas contaminadas.
— Mezclado. Reducción de la concentración de nitratos mezclando el agua rica en nitratos con
agua pobre en este compuesto. Para ello es necesario disponer de un suministro alternativo adecuado y de dispositivos para mezclar el agua en
la proporción adecuada.
— Almacenamiento. Se puede conseguir alguna eliminación de nitratos almacenando el vertido durante largos periodos de tiempo en depósitos. El
nitrato se reduce a nitrógeno gas por las bacterias
en las condiciones de bajo nivel de oxigeno que
existen en los sedimentos de los depósitos, un
proceso conocido como desnitrificación.
— Tratamiento. Se pueden eliminar por intercambio
iónico o desnitrificación microbiana. Ambos son
caros y de operación en continuo.
— Sustitución selectiva. En vez de tratar la totalidad
del suministro de agua, muchas compañías de
aguas suministran un abastecimiento alternativo
como agua embotellada o unidades de tratamiento domésticas.
Figura 3. Enfermedad de los niños azules.
Por otro lado, se ha estudiado la posible asociación
de la ingestión de nitratos con el cáncer debido a la
formación de compuestos N-nitroso que son agentes teratógenos, mutágenos y probables carcinógenos, altamente peligrosos para la salud humana. Los nitratos no
son carcinogénicos para los animales de laboratorio. Parece ser que los nitritos tampoco lo son para ellos, pero
pueden reaccionar con otros compuestos (aminas y amidas) y formar derivados N-nitrosos. Estas reacciones de
nitrosación pueden producirse durante la maduración o
el procesamiento de los alimentos, o en el mismo organismo (generalmente, en el estómago) a partir de los nitratos y nitritos absorbidos y presentes en la sangre.
En la valoración del riesgo de formación de nitrosaminas y nitrosamidas, se ha de tener en cuenta que a
través de la dieta también se pueden ingerir inhibidores o
potenciadores de las reacciones de nitrosación.
Entre el resto de la población, las personas que podrían sufrir efectos adversos son aquellas que presentan
alteraciones que provocan un aumento de la formación
EFECTOS SOBRE LA SALUD
Desde hace tiempo, se ha puesto de manifiesto que el
principal efecto perjudicial para la salud derivado de la ingestión de nitratos y nitritos es la metahemoglobinemia
100cias@uned
60
Vida científica
al mismo tiempo en el agua de bebida, la OMS indicó
que la suma de las relaciones entre la concentración y el
valor guía de los dos parámetros (50 mg/l para los nitratos
y 3 mg/l para los nitritos) no debería de superar la unidad:
de nitritos, que tienen una hemoglobina anómala o que
sufren deficiencias en el sistema enzimático encargado
de transformar la metahemoglobina en hemoglobina.
Entre estas personas están las mujeres embarazadas, las
personas con hipoclorhidria gástrica natural o provocada
por tratamientos antiácidos (úlcera péptica, gastritis crónica), las personas con deficiencias hereditarias de metahemoglobina-reductasa o de NADH y las personas con
hemoglobina anómala.
[nitratos]
[nitratos]
+
≤1
50
50
En la Directiva comunitaria que regula la calidad de
las aguas destinadas al consumo humano, los valores
máximos admitidos son 50 mg/l de nitratos y 0,5 mg/l de
nitritos. En España, la norma que traspone la citada directiva (RD 140/2003) también establece un valor paramétrico de 50 mg/l de nitratos. En cambio, para los nitritos es mucho más rigurosa en la concentración máxima a
la salida del tratamiento (0,1 mg/l) mientras que mantiene los 0,5 mg/l en el agua de la red de distribución.
¿CUÁL ES EL NIVEL SEGURO DE NITRATOS
Y NITRITOS EN EL AGUA DE CONSUMO?
Por lo que respecta a los efectos crónicos, en el año
1995, el JECFA (Join Expert Committee on Food Additives) (FAO- Food Agricultural Organization/WHO-OMSWorld Health Organization-Organización Mundial de la
Salud) establecieron la ingesta diaria admisible (IDA) de
nitratos en 0-3,65 mg/kg de peso corporal y día y la ingesta diaria admisible de nitritos en 0-0,06 mg/kg.
Por lo tanto, para una persona de 60 kg la ingesta
admisible de nitratos en el caso más desfavorable es de
219 mg al día. Esta IDA, establecida para los adultos, no
se debe aplicar a los menores de tres meses de edad,
porque la presencia de hemoglobina fetal en la sangre
(más fácilmente oxidable a metahemoglobina), la acidez
más baja de su estómago (que favorece la reducción de
nitratos a nitritos) y las carencias en el sistema enzimático capaz de transformar la metahemoglobina en hemoglobina, los hacen más susceptibles de sufrir los efectos perjudiciales de la metahemoglobinemia.
Para prevenir los efectos agudos de la metahemoglobinemia en los neonatos, en el año 2004, la OMS
confirmó un valor máximo orientativo de 50 mg/l de nitratos en el agua de consumo. Este valor fue establecido
exclusivamente para prevenir la metahemoglobinemia,
indicando que el grupo más vulnerable son los neonatos
menores de tres meses alimentados con leche artificial.
La OMS indicó que disponía de amplia información
epidemiológica que justificaba el valor recomendado.
Por lo que respecta a los nitritos, la OMS aceptó para el
nitrito y el nitrato una potencia relativa respecto a la
formación de metahemoglobina de 10:1 (en términos
molares) y propuso para los nitritos un valor guía provisional de 3 mg/l en relación con los efectos agudos.
Respecto a los posibles efectos a largo plazo, la OMS
propuso un valor guía de 0,2 mg/l de nitritos. Sin embargo, como los nitratos y los nitritos pueden estar presentes
100cias@uned
VIGILANCIA SANITARIA
Las autoridades sanitarias deberán realizar una serie
de actuaciones a fin de evitar riesgos para la Salud Pública derivados del mal uso y/o abuso de los compuestos
nitrogenados que pueden encontrarse posteriormente en
aguas de consumo, alimentos, etc.
Con respecto al agua de consumo público, la vigilancia corresponde a la autoridad sanitaria, que velará
para que se realicen las inspecciones periódicas del abastecimiento, debiendo cumplir los criterios sanitarios de
calidad establecidos en el RD 140/2003, de 7 de febrero,
por el que se establecen los criterios sanitarios de la calidad del agua del consumo humano.
Estos criterios se aplican a todas aquellas aguas que,
independientemente de su origen y del tratamiento de
potabilización que reciban, se utilicen en la industria
alimentaria o se suministren a través de redes de distribución pública o privada, depósitos o cisternas.
Se fijan parámetros y valores paramétricos a cumplir
en el punto donde se pone el agua de consumo humano
a disposición del consumidor. Estos valores se basan
principalmente en las recomendaciones de la OMS y en
motivos de salud pública aplicándose, en algunos casos,
el principio de precaución para asegurar un alto nivel de
protección de la salud de la población.
Los valores paramétricos establecidos para nitratos y
nitritos en el agua y en la salida del depósito de la red de
distribución son los mencionados anteriormente.
La concentración de nitritos se determinará cuando
se utilice la cloraminación como método de desinfección.
61
Vida científica
grandes aglomeraciones deberá incluirse la eliminación de fósforo y/o nitrógeno a menos que
se demuestre que su eliminación no tendrá consecuencias sobre el nivel de eutrofización.
— Aguas continentales superficiales destinadas a la
obtención de agua potable que podrían contener
una concentración de nitratos superior a la que
establecen las disposiciones pertinentes del RD
927/1988, de 29 de julio, por el que se aprueba el
Reglamento de la Administración Pública del
Agua y de la Planificación Hidrológica.
— Masas de agua en las que sea necesario un tratamiento adicional al tratamiento secundario.
Un medio o zona de agua marina podrá catalogarse
como zona menos sensible cuando el vertido de aguas residuales no tenga efectos negativos sobre el medio ambiente debido a la morfología, hidrología o condiciones
hidráulicas específicas existentes en esta zona.
Al determinar las zonas menos sensibles, se tomará
en consideración el riesgo de que la carga vertida pueda
desplazarse a zonas adyacentes y ser perjudicial para el
medio ambiente. Para determinar las zonas menos sensibles se tendrán en cuenta los siguientes elementos: Bahías abiertas, estuarios y otras aguas marítimas con un intercambio de agua bueno y que no tengan eutrofización o
agotamiento del oxígeno, o en las que se considere que es
improbable que lleguen a desarrollarse fenómenos de eutrofización o de agotamiento del oxígeno por el vertido
de aguas residuales urbanas. La declaración de dichas
zonas se revisará al menos cada cuatro años.
En los Reales Decretos antes mencionados quedan fijados los requisitos técnicos que deberán cumplir los sistemas colectores y las instalaciones de tratamiento de las
aguas residuales, los requisitos de los vertidos procedentes
de instalaciones secundarias o de aquellos que vayan a
realizarse en zonas sensibles y regula el tratamiento previo
de los vertidos de las aguas residuales industriales cuando
éstos se realicen a sistemas colectores o a instalaciones de
depuración de aguas residuales urbanas.
Las Administraciones públicas, en el ámbito de sus
respectivas competencias, deberán efectuar el seguimiento
y los controles precisos para garantizar el cumplimiento de
las obligaciones contempladas en las citadas normativas,
fijando los métodos de referencia para el seguimiento y
evaluación de los resultados de dichos controles.
Figura 4. Riego por aspersión.
En cuanto al tratamiento de las aguas residuales urbanas la vigilancia se centra en el cumplimiento del RDLey 11/1995, de 28 de diciembre, por el que se establecen
las Normas Aplicables al Tratamiento de las Aguas Residuales Urbanas, y del RD 509/1996, de 15 de marzo,
que lo desarrolla.
Se impone a determinadas aglomeraciones urbanas la
obligación de disponer de sistemas colectores para la recogida y conducción de las aguas residuales, y de aplicar
a éstas distintos tratamientos antes de su vertido a las
aguas continentales o marítimas. En la determinación de
estos tratamientos se tiene en cuenta si los vertidos se
efectúan en zonas sensibles o en zonas menos sensibles, lo
que determinará un tratamiento más o menos riguroso.
Se considerará que un medio acuático es zona sensible si puede incluirse en uno de los siguientes grupos:
— Lagos, lagunas, embalses, estuarios y aguas marítimas que sean eutróficos o que podrían llegar a
ser eutróficos en un futuro próximo si no se
adoptan medidas de protección.
— Lagos y cursos de agua que desemboquen en lagos, lagunas, embalses, bahías cerradas que tengan un intercambio de aguas escaso y en los que,
por lo tanto, puede producirse una acumulación.
En dichas zonas conviene prever la eliminación
de fósforo a no ser que se demuestre que dicha
eliminación no tendrá consecuencias sobre el nivel de eutrofización. También podrá considerarse
la eliminación de nitrógeno cuando se realicen
vertidos de grandes aglomeraciones urbanas.
— Estuarios, bahías y otras aguas marítimas que
tengan un intercambio de aguas escaso o que reciban gran cantidad de nutrientes. Los vertidos de
aglomeraciones pequeñas tienen normalmente
poca importancia en dichas zonas, pero para las
100cias@uned
Pilar Fernández Hernando
Dpto. de Ciencias Analíticas
62
Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
APORTACIONES DE DARWIN
A LA BIOLOGIA MODERNA
nueces y semillas, otros finos para penetrar profundamente en las flores, otros curvados o puntiagudos (Fig.
2). Supervivencia y reproducción diferencial de unos organismos que presentan unas características «favorables», y que permite que una gran parte de la población
se adapte a las condiciones ambientales prevalecientes.
El billete de 10 libras (Fig. 1) lleva en el anverso una
imagen de la reina Isabel II y en el reverso la imagen de
un anciano de barba majestuosa. Cualquier niño inglés
sabe su nombre, incluso cuando muchos no sepan por
qué es tan famoso. Se trata de CHARLES DARWIN, uno
de los hombres más importantes de todos los tiempos en
el ámbito científico . Su verdadera aportación la hizo en
su obra El origen de las especies, publicada en 1859,
donde se mostraba por primera vez una teoría sobre cómo
podía producirse la evolución de los organismos vivos
mediante mecanismos puramente naturales. A partir de
ese momento se abría un nuevo camino para la ciencia,
para poder entender la complejidad de la vida.
Figura 2. Pinzones «darwinianos».
Es evidente que la Teoría de la Evolución ha ido
modelándose con el paso del tiempo desde que fuera
presentada de forma oficial por Charles Darwin en su
obra «El origen de las especies», gracias a importantes
descubrimientos en disciplinas como la Genética, la Embriología y la Biología Molecular. Pero no debe ser una
razón para olvidar una de las mayores aportaciones de
Darwin a esta teoría, que precisamente se ha mantenido
en todas las versiones hasta llegar a la actual. Se trata de
la idea de selección natural como motor de la evolución.
Empecemos por preguntarnos qué es la selección
natural y llegaremos a la conclusión de que la selección
natural no existe, no al menos en el mismo sentido en
que existen las moléculas o los planetas, por ejemplo.
¿Es entonces una fuerza, como pensaba Darwin?
Simplificándolo mucho, supongamos que existe una
población de ratones, la mitad de los cuales son claros y
la otra mitad oscuros. En el ambiente en el que habitan
un predador devora los negros porque resaltan más en
ese entorno, de manera que al cabo de unas pocas generaciones la población es casi totalmente blanca. Esta
¿CÓMO SE ORIGINAN LAS ESPECIES Y CÓMO
HAN LLEGADO A ESTAR DONDE ESTÁN?
Situando al lector en un contexto social, la versión
ortodoxa que predominaba en Inglaterra en los tiempos
de Darwin defendía la Teología Natural, un sistema de
pensamiento sobre el mundo natural que manifestaba la
bondad y las excelencias divinas basándose en la perfección de las formas y las leyes naturales. Pero por
aquel entonces, las observaciones paleontológicas que
había hecho este joven naturalista comenzaban a sugerirle un proceso más racional: la idea de parentesco y
sucesión entre especies estrechamente vinculadas. En
aquellos tiempos, una suposición así era un atrevimiento.
Darwin estaba en lo cierto, y un buen ejemplo de
ello (aunque no el único) son las famosas aves darwinianas, diferentes especies de pinzones todas ellas con
diferentes picos: algunos cortos y gruesos para cascar
100cias@uned
63
Vida científica
«fuerza selectiva» no es otra cosa que una reproducción
diferencial en los genes, fruto precisamente de que un
grupo de organismos ha dejado menos descendencia en
las generaciones siguientes. No hay en la selección natural nada más que esto. Evidentemente la dirección en
la que actúa la selección no es predecible, ya que atiende a gran cantidad de variables en cada entorno, lo que
confiere a unas u otras combinaciones genéticas mayor o
menor capacidad de adaptación al mismo. La aportación más importante de Darwin a su teoría fue, sin duda,
establecer este término como posible explicación a sus
observaciones y al proceso de especiación mediante acumulación de cambios graduales que acaban fijándose
en las poblaciones por selección natural.
Figura 3. Gregor Mendel.
En 1953, FRANCIS CRICK y JAMES WATSON (Fig.
4) hicieron un descubrimiento que confirmó de manera
definitiva todo cuanto Darwin había postulado acerca de
la evolución. Se trata del código químico que determina
la creación de los organismos, el ácido desoxirribonucleico o ADN (Fig. 5), hallazgo que otorgaría a ambos
científicos el Premio Nobel de Medicina en 1962. Esta
molécula constituye un lenguaje común a todas las formas vivas, por lo que los investigadores de nuestros días
sólo tienen que recurrir a este «libro» de la genética para
entender muchos de los mecanismos que son responsables de la evolución.
Los descubrimientos de Mendel, Watson y Crick
han permitido resolver, entre muchas otras cuestiones,
el misterio de los pinzones de Darwin. En su ADN se
puede comprobar no sólo la existencia del proceso evolutivo, sino también los cambios en los seres vivos y
sus apariencias exteriores: si se activa un gen, produce
una proteína concreta en la célula. Si se activa, por
ejemplo, un gen para la proteína BMP4, el pico del ave
¿QUÉ ES LO QUE DARWIN NO SABÍA?
Sin embargo, a pesar de que la intuición de Darwin
fue asombrosa, no fue capaz de explicar cómo se transmiten esos cambios a la descendencia, al igual que muchos otros puntos poco claros de su obra, relacionados con
la embriología o la genética de poblaciones. Esto es comprensible teniendo en cuenta que desconocía la existencia
del ADN, de los genes y de los cambios que pueden producirse en ellos, que hoy se consideran el motor de la
evolución (las mutaciones y los cambios en la expresión).
En este sentido, los experimentos de GREGOR MENDEL supusieron un gran avance dentro de la Genética y
constituyeron además una gran aportación a la clásica
teoría de la evolución. Fascinado por la Biología, en la década de 1860 este fraile agustino llevó a cabo unos estudios sobre la naturaleza de la variación que ahora consideramos revolucionarios (Fig. 3). Aunque sus experimentos
pasaron inicialmente inadvertidos por la Sociedad Científica, Mendel demostró que en los organismos existen ciertos «factores» (que después se llamarían «genes») que se
transmiten de manera independiente unos de otros en las
sucesivas generaciones. Este descubrimiento ha ayudado a
explicar muchas de las cuestiones que no pudo aclarar
Darwin en su teoría. A pesar de que en determinados momentos de la historia se consideró que los experimentos de
Mendel hacían irrelevante lo expuesto por Darwin, lo cierto es que no se contraponen, al contrario, se complementan y describen distintas partes del panorama general de la
evolución. Había cosas que Darwin, simplemente, no podía
resolver. No sabía que ciertas características podían transmitirse. Él pensaba simplemente en algún mecanismo que
ofreciera esta posibilidad.
100cias@uned
Figura 4. Francis Crick y James Watson.
64
Vida científica
Figura 5. El ácido desoxirribonucleico o ADN.
será corto y grueso. Si se activa el gen para la proteína
calmodulina, el pico será fino y alargado.
Además, los científicos sabemos hoy que la evolución
no se produce sólo mediante cambios en los genes, entendiendo éstos como mutaciones, sino por medio de diferentes activaciones de los mismos. El «libro» de la Genética tiene un contenido muy similar en una mosca, un
ratón y un ser humano. ¿Qué nos hace entonces diferentes? El número de páginas que se leen en cada organismo
y el tiempo que se tarda en leerlas. El ser humano posee
aproximadamente 21.000 genes, exactamente los mismos que un ratón. Y la mayoría de ellos son iguales que
los del ratón. Esto constituye una prueba de que no se
precisa de nuevos genes para la creación de una nueva
especie, sino que se trata de combinarlos de forma diferente y activar determinadas unidades.
PERSPECTIVAS DE FUTURO
Respecto a cómo se presenta el futuro gracias a las
observaciones de Darwin y a las posteriores aportaciones
de grandes naturalistas e investigadores es incierto. Algunos científicos como CRAIG VENTER, fundador de
Celera Genomics y promotor de su propio Proyecto Genoma Humano o el «padre» y creador de la oveja Dolly,
IAN WILMUT, piensan que el diseño y la selección genética sustituirán a la evolución de Darwin.
100cias@uned
Afortunadamente, lo cierto es
que esa idea por el momento forma parte de la ciencia ficción. El
hecho de conocer que un gen es
el responsable de una determinada característica no significa que
podamos alterarlo y manipularlo.
Un organismo es demasiado complejo y es prácticamente imposible modificar un gen sin que se
cause con ello efectos secundarios sobre otros genes. Y en este
sentido, científicos como la Premio Nobel de Medicina de 1995,
CHRISTIANE NÜSSLEIN-VOLHARD, avisan de los peligros
que pueden acarrear posibles intervenciones tecnológico-genéticas sobre la evolución.
En cualquier caso, sean cuales sean los caminos
que recorramos los investigadores de hoy, es incuestionable que la obra «El origen de las especies» de
Charles Darwin influyó profundamente en el pensamiento acerca de nosotros mismos y, conjuntamente
con las teorías astronómicas de grandes pensadores y
científicos como COPÉRNICO y GALILEO (siglos XVI y
XVII, respectivamente), cambió la forma de pensar del
mundo occidental. Al igual que la Astronomía nos
muestra que no somos el centro del Universo, la Biología nos enseña que, hasta donde la Ciencia puede
mostrar, no somos fundamentalmente diferentes de
otros organismos en cuanto a orígenes o lugar que
ocupamos en la Naturaleza.
La ley de descendencia y selección natural que Charles Darwin plasmó en su obra puede observarse hoy mejor que nunca gracias a nuevos métodos de investigación
en genética, biología molecular, etc.
De una cosa estoy segura, si Darwin siguiera vivo
hoy, se sentiría fascinado de los avances a los que dieron
lugar sus ideas y, quién sabe, quizás fuese un biólogo
molecular.
Rosario Planelló Carro
Grupo de Biología
Dpto. de Física Matemática y de Fluidos
65
Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
COLABORACIONES EN FÍSICA
concreto de una pequeñísima fracción de la radiación
cósmica; y es que se han detectados partículas con energías superiores a 1020 eV, es decir, varios órdenes de
magnitud superior a la de los protones de LHC. En este
caso corresponde a una energía de aproximadamente
50 J (fig. 2). Para hacerse una idea práctica de lo que
representa diremos que es similar a la de un saque de tenis en el que una pelota de 56 g se acelera hasta una velocidad de 150 km/h. Obviamente la energía del saque de
tenis es incomparablemente superior a la del inofensivo
mosquito.
LAS PARTÍCULAS MÁS ENERGÉTICAS
DE LA NATURALEZA
¿Cuáles son las partículas más energéticas que existen en la naturaleza? Ante esta pregunta muchos lectores
estarán quizá pensando en el LHC, el «Large Hadron Collider», recientemente puesto en marcha y que será capaz
de producir haces de protones con energía extremadamente alta. Efectivamente en el LHC se espera conseguir
protones y antiprotones de 7 TeV de energía, es decir
7 × 1012 eV. Nunca antes se había podido alcanzar, en un
acelerador hecho por el hombre, tan alta energía. De hecho
esta energía tiene dimensiones macroscópicas puesto que
es del orden de 1 μJ (7 × 1012 eV × 1,6 × 10-19 J/eV = 1,1 ×
10-6 J). Por compararlo con un objeto macroscópico familiar diremos que es aproximadamente igual a la energía cinética de un mosquito de 60 mg volando a 20
cm/s. El vuelo de un inofensivo mosquito puede parecer
poca cosa pero pensemos en que esa energía cinética
está siendo (será) transportada por una única partícula
elemental (fig. 1). Sin embargo, no son éstas las partículas más energéticas que existen en la naturaleza. Las
partículas con mayor energía que han sido detectadas
provienen del espacio. Se trata de los rayos cósmicos, en
Figura 2. Algunos rayos cósmicos que llegan a la Tierra transportan
tanta energía como la que se comunica a una pelota de tenis
en un saque, 50 J.
¿Qué son estas partículas?, ¿cómo se descubrieron?,
¿cómo se detectan?, ¿cómo se puede medir su energía?
Intentaremos en este artículo responder de manera breve
a estas preguntas. Pero también nos haremos otras, como
¿cuál es el origen de estas partículas?, ¿en qué objetos
cósmicos se generan?, ¿cómo pueden acelerarse hasta alcanzar tan alta energía?. Desgraciadamente aún estamos lejos de poder responder con precisión a estas últimas preguntas.
EL DESCUBRIMIENTO DE LOS RAYOS
CÓSMICOS
Figura 1. El gran colisionador de hadrones LHC en el CERN podrá
acelerar protones hasta una energía de 7 TeV. Cada protón tendrá la
misma energía cinética que un mosquito en vuelo, 1 μJ.
100cias@uned
Tradicionalmente se atribuye el descubrimiento de la
radiación cósmica al físico austríaco Victor Hess que en
66
Vida científica
cámaras de niebla, detectores Geiger y, por primera vez,
la técnica de coincidencias. Fue algo más tarde, empleando emulsiones nucleares, cuando en 1947 el grupo
de Bristol (Lattes, Muirhead, Occhialini y Powell) descubre el pión y su desintegración en un muón que con una
masa de 207 veces la del electrón, resulta ser la partícula penetrante que da lugar a la radiación de fondo observada por Victor Hess. Estos experimentos pudieron ser
adecuadamente interpretados gracias al desarrollo de la
teoría de la radiación desarrollada por Bethe y Heitler
(1934). Debido a su gran masa, el poder de frenado radiativo de un muón es mucho menor que el del electrón
y por tanto los muones resultan ser extraordinariamente
penetrantes.
Otro importante hito en la historia del descubrimiento de los rayos cósmicos fue la observación de las
llamadas cascadas atmosféricas extensas. En 1938, Pierre
Auger (fig. 4) y sus colegas de la Escuela Normal Superior de París observaron coincidencias entre señales producidas en contadores Geiger que se encontraban sepa-
una serie de vuelos en globo que realizó durante 1912
(fig. 3) comprobó que la señal de ionización de fondo
que los electroscopios registraban, aun en aparente ausencia de fuentes radiactivas, aumentaba con la altura en
vez de disminuir, como sería de esperar si esta señal
proviniera de fuentes naturales en la Tierra. Una vez
descartadas otras posibles explicaciones se llegó a la
conclusión de que esta radiación provenía de arriba, es
decir, del exterior de la Tierra. Este experimento supuso
el nacimiento de la Física de Rayos Cósmicos, bautizados con este nombre por Millikan (1925). El experimento de Hess mostró además el gran poder de penetración
de esta radiación. Por este motivo muchos científicos
(entre ellos Millikan) supusieron que debían ser rayos γ.
Una serie de brillantes experimentos realizados por Skobelzyn (1925), Bothe y Kolhörster (1937), Neddermeyer
y Anderson (1937) y Street y Stevenson (1937) demostraron que esta radiación penetrante consistía realmente
en partículas cargadas similares a los electrones, pero de
mucha mayor masa. En estos experimentos se emplearon
Figura 3.- Victor F. Hess aterriza tras su histórico vuelo a 5.300 metros el 7 de agosto de 1912 (derecha).
Preparativos para uno de sus vuelos (izquierda) [1].
100cias@uned
67
Vida científica
conoce como rayos cósmicos secundarios. La mayor parte de los cuales son absorbidos en la atmósfera, no así
los muones que llegan al suelo debido a su gran poder
de penetración unido a su relativamente larga vida media (2,2 μs), aumentada por el efecto de la dilatación
relativista.
Muchos más detalles sobre los estudios pioneros de
la radiación cósmica pueden encontrarse en [1].
rados por distancias de hasta 150 metros. La teoría de las
llamadas cascadas electromagnéticas había sido desarrollada poco antes por Babha y Heitler (1937) y Carlson y Oppenheimer (1937). Cuando un rayo γ de alta
energía atraviesa la materia se convierte en un par electrón – positrón (e- - e+) y éstos a su vez generan rayos γ
por el efecto conocido como bremsstrahlug. El proceso se
repite dando lugar a una cascada de partículas (rayos γ,
e+, e–). Debido a las numerosas colisiones elásticas de los
electrones y positrones con los núcleos del medio la extensión física de esta cascada aumenta con la distancia
recorrida.
Las medidas de Auger resultaron ser compatibles
con una cascada electromagnética generada a lo largo de
la atmósfera por un rayo γ con energía del orden de
1015 eV. Fue un resultado sorprendente para la comunidad científica pues nunca antes se había observado una
partícula tan extraordinariamente energética. Piénsese
que la energía típica de los electrones en los átomos varían entre 1 y 103 eV (keV) y la de las radiaciones asociadas a los fenómenos nucleares son del orden de 106
eV (MeV).
Sin embargo, en una cascada electromagnética no se
producen los piones y muones observados pocos años
más tarde por el grupo de Bristol. La combinación de
ambas observaciones permitió ajustar las piezas del rompecabezas. La Tierra está sometida al constante bombardeo de núcleos atómicos desnudos (sin electrones), en
su mayor parte protones. Ésta es la conocida como radiación cósmica primaria. Al penetrar en la atmósfera,
cada uno de estos rayos cósmicos primarios interacciona
con un núcleo atmosférico (nitrógeno u oxígeno) produciendo lo que se conoce como una cascada hadrónica, similar a la cascada electromagnética, pero en la que debido a la naturaleza
de las interacciones
nucleares, se producen
una gran variedad de
partículas elementales
(fig. 5), no solo electrones, positrones y
rayos g, sino además
los piones y muones
observados por el grupo de Bristol, junto a
muchas otras partícuFigura 4. Pierre Auger, descubridor de las. Estos productos
las cascadas atmosféricas extensas.
constituyen lo que se
100cias@uned
Figura 5. Cascada de partículas generada por una rayo cósmico
de alta energía a su entrada en la atmósfera.
LAS MÁS ALTAS ENERGÍAS
Una pequeña fracción de los rayos cósmicos primarios posee energías tan altas que una parte muy importante de sus productos secundarios incluidos electrones,
positrones y rayos γ alcanzan el suelo. Fueron cascadas
de este tipo las que P. Auger observó y aunque el cálculo de 1015 eV de energía primaria se hizo suponiendo una
cascada electromagnética, la energía de la correspondiente cascada hadrónica es similar. A estas altas ener-
68
Vida científica
gías, incluso la componente electromagnética de la cascada llega al suelo y, por lo tanto, las señales que registran los detectores son en buena parte debidas a electrones y positrones. Empleando esta técnica J. Linsley
observó en 1962 una cascada de partículas cuyas características indicaban una energía primaria del orden de
1020 eV. Esta detección conmocionó a la comunidad científica puesto que resultaba inimaginable la posibilidad de
acelerar partículas hasta energías tan extraordinariamente altas.
Este resultado impulsó la construcción de otros detectores. La principal dificultad reside en el bajísimo flujo de rayos cósmicos a estas energías. El espectro de
energía de los rayos cósmicos decrece según una ley de
potencia E-γ (figs. 6 y 7) de tal modo que la frecuencia de
llegada a la Tierra de rayos cósmicos con energía superior a 1015 eV es de 1 m-2 año-1 reduciéndose a 1 km-2
año-1 a energías superiores a 1018 eV, no esperándose
una frecuencia superior a 1 km-2 siglo-1 por encima de
1020 eV.
Figura 6. El espectro de energía de los rayos cósmicos sigue una ley E-γ.
Obsérvese el aumento en la pendiente que tiene lugar a 1015 eV (la rodilla).
Se sospecha que pueda ser debido a un cambio en el mecanismo de
aceleración. También se observa una ligera suavización a 1018 eV (el
tobillo). A partir de esta energía el flujo de rayos cósmicos que llegan a la
Tierra se hace extremadamente bajo.
Figura 7. La escala de
energías de los rayos cósmicos
extremos. Se sospecha que el
tobillo del espectro pueda
estar relacionado con la
transición de rayos cósmicos
galácticos a extragalácticos.
Se indica la energía del corte
GZK por encima de la cual el
flujo de rayos cósmicos debe
disminuir sensiblemente. Sin
embargo se han observado
algunos rayos cósmicos con
energías superiores a 50 J.
100cias@uned
69
Vida científica
gran número de espejos cubriendo cada uno una pequeña fracción del cielo. La luz de cada uno de ellos era
concentrada en un fotomultiplicador (fig. 9). La detección simultánea de un flash luz por varios espejos a lo
largo de una trayectoria sobre el cielo indicaba la penetración de un rayo cósmico en la atmósfera. La intensidad de luz de fluorescencia proporciona una medida de
la energía del primario. En el año 1991 este experimento
observó un rayo cósmico de 3,2 × 1020 eV. El experimento Fly’s Eye fue posteriormente ampliado pasando a
denominarse HiRes (High Resolution Fly’s Eye).
Para más detalles de esta sección se recomienda la
referencia [2].
Para poder compensar el bajo flujo es necesario habilitar inmensas áreas de detección. Por ejemplo, la colaboración AGASA instaló sobre una superficie de alrededor de 100 km2 111 centelleadores de 2,2 m2 cada uno
y 27 dispositivos blindados específicos para la detección de muones (fig. 8). En el año 1993 este detector registró un suceso de 2 × 1020 eV.
Otra técnica alternativa está basada en la observación de la luz de fluorescencia producida por la cascada
de partículas al atravesar la atmósfera. Las partículas
cargadas, principalmente electrones/positrones excitan
moléculas del nitrógeno atmosférico que en su desexcitación emiten de forma isótropa fotones en el rango del
ultravioleta próximo. De este modo, el desarrollo de una
cascada iniciada por un rayo cósmico puede ser observado de manera similar a la entrada de un meteorito en
la atmósfera. Un rayo cósmico de ultra-alta energía genera la luz equivalente a una bombilla de 100 W moviéndose hacia el suelo a la velocidad de la luz. Para detectar este flash de luz el experimento Fly’s Eye usó un
EL CORTE GZK
Cuatro años después de que J. Linsley detectara por
primera vez un rayo cósmico ultra-energético, Greisen, e
independientemente Zatsepin y Kuz’min [3] se dieron
cuenta de que la radiación de fondo de microondas de-
Figura 8. Akeno Giant Air Shower Array (AGASA). Distribución en el suelo de los detectores de la cascada (derecha)
y uno de los detectores individuales (izquierda).
100cias@uned
70
Vida científica
tiene ninguna correlación con la fuente en donde se originó el rayo cósmico. Resulta innecesario recordar que la
astronomía está basada en el hecho de que los fotones
viajan en línea recta independientemente de estos campos magnéticos. De otro modo al mirar al cielo no veríamos más que un fondo luminoso uniforme.
La información que poseemos de los campos magnéticos cósmicos nos indica que los rayos cósmicos con
energías superiores al corte GZK no deberían desviarse
de forma importante en su camino hasta nosotros. Por
tanto si se detectan rayos cósmicos por encima del corte GZK, la dirección de llegada a la Tierra debería apuntar a la fuente. ¿Sería posible la Astronomía de Rayos
Cósmicos?
¿CUÁL ES SU ORIGEN?
Aunque aún no se han identificado de forma precisa
las fuentes, es muy probable que estos núcleos de ultraalta energía sean de origen extragaláctico. En cualquier
caso nuestra galaxia no sería capaz de confinarlos puesto que su campo magnético no puede curvarlos suficientemente. En otras palabras, el radio de Larmor es
inferior al tamaño de nuestra galaxia.
La pregunta ahora es ¿qué objetos cósmicos son
capaces de acelerar núcleos hasta tan altas energías? El
procedimiento más eficiente para la aceleración de rayos cósmicos es el conocido como mecanismo de Fermi
de primer orden. En este modelo las partículas son aceleradas en las múltiples colisiones que pueden sufrir en
ondas de choque como las que se generan en explosiones de supernovas. Sin embargo, los remanentes de supernova solo pueden explicar aceleraciones hasta ~1015
eV, simplemente porque no tienen tamaño suficiente
para conseguir las energías extremas. Existen otros objetos cósmicos donde se espera que se generen fuertes
ondas de choque y con características (campo magnético y tamaño) más favorables para alcanzar mayores
energías. Uno de los candidatos a ser fuente de rayos
cósmicos de ultra-alta energía son los núcleos activos
de galaxias AGN. Se trata de galaxias en las que se sospecha que alojan en su centro un agujero negro supermasivo.
Obviamente, la posibilidad de determinar de manera
directa las fuentes emisoras a partir de la dirección de
llegada de rayos cósmicos de suficiente energía permitiría resolver de manera inequívoca el problema. Sin embargo, para ello se necesita recolectar un gran número de
Figura 9. Algunos de los espejos del detector de fluorescencia Fly’s
Eye (arriba). Uno de los telescopios del proyecto HiRes (abajo).
bería de hacer relativamente opaco al Universo para
rayos cósmicos de tan alta energía. Suponiendo que
estos rayos cósmicos sean protones, puede tener lugar la
reacción:
γ3K + p → Δ+ → π0 + p
con la consecuente degradación de su energía, de tal
modo que para E > 1020 eV la longitud de atenuación
resulta ser inferior a 50 Mpc. Esta predicción tiene varias consecuencias trascendentales. En primer lugar, suponiendo el origen universal de estos rayos cósmicos, es
de esperar un corte en el espectro a energías del orden
de 5 × 1019 eV. Es decir, los rayos cósmicos con energías por encima de este valor no pueden llegar con tanta
frecuencia porque una fracción significativa del Universo resulta opaca para ellos. Éste es el conocido como
corte GZK.
Otra consecuencia importante está relacionada con
las direcciones de llegada de estos rayos cósmicos. En
principio, la distribución de direcciones de llegada de la
radiación cósmica primaria es perfectamente isótropa.
Esto es debido a que los rayos cósmicos antes de llegar a
la Tierra atraviesan regiones del espacio en los que existen campos magnéticos con una importante componente aleatoria. Por este motivo la dirección de llegada no
100cias@uned
71
Vida científica
ron el corte GZK y las direcciones de llegada resultaron
compatibles con una perfecta isotropía. Es difícil interpretar estas notables discrepancias teniendo en cuenta
que en ambos experimentos el número de rayos cósmicos detectados es muy bajo y además emplean técnicas
experimentales muy distintas, sujetas a diferentes tipos
de errores sistemáticos.
Con el objetivo de resolver este importante problema
científico la colaboración internacional Pierre Auger,
constituida por científicos de 17 países, ha puesto en
marcha en la provincia argentina de Mendoza el mayor
observatorio de rayos cósmicos del mundo. Este Observatorio, cuya construcción ha sido recientemente finalizada, ya ha proporcionado nuevos datos con mucha mayor precisión que los conocidos hasta ahora. Con el
objetivo de tener acceso a todo el cielo y aumentar de
forma significativa la muestra de datos, la colaboración
ha propuesto la construcción de otro observatorio aún
mayor en el hemisferio norte, concretamente en el estado de Colorado (USA).
Figura 10. Centauro A contiene un núcleo galáctico activo. Ésta es
una de las posibles fuentes de rayos cósmicos ultraenergéticos.
EL PROYECTO PIERRE AUGER
rayos cósmicos ultraenergéticos. Por lo dicho anteriormente, el hallazgo de anisotropías correlacionadas con
las posiciones de AGNs sería un primer paso que podría
más tarde materializarse en verdaderas detecciones cuando dispongamos de suficiente estadística.
Se han propuesto también modelos del tipo topdown en los que fuentes exóticas, como materia oscura
superpesada o defectos topológicos, podrían generar
en su desintegración rayos cósmicos ultraenergéticos.
Estos modelos pueden ponerse a prueba, pues tienen
implicaciones que pueden ser comprobadas experimentalmente. Por ejemplo, en estos modelos no aparece el
corte GZK del espectro de energía pero se predice un
alto flujo de rayos γ ultra-energéticos que deberían ser
observados.
Más detalles sobre el origen de los rayos cósmicos de
ultra-alta energía se pueden encontrar en [2].
El Observatorio
El Observatorio Pierre Auger Sur consta de dos instrumentos: Un array, con más de 6000 detectores ocupando una superficie de alrededor de 3000 km2, y un detector de fluorescencia, con un total de 24 telescopios
distribuidos entre 4 ubicaciones para observar la entrada
en la atmósfera de los rayos cósmicos. Este observatorio
supone un gran avance frente a sus antecesores, puesto
que el array de superficie (fig. 11) dispone de un área de
detección 30 veces superior a AGASA y el sistema de telescopios de fluorescencia (fig. 12) es significativamente
más eficiente que el de HiRes. El carácter híbrido del
Observatorio Pierre Auger, es decir, la capacidad de registrar los rayos cósmicos empleando de manera simultánea las dos técnicas de detección, le permite reducir de
manera significativa los errores sistemáticos.
Cada técnica tiene sus ventajas e inconvenientes.
Por ejemplo, los telescopios pueden medir la energía del
rayo cósmico primario a partir de la luz de fluorescencia
cuya intensidad es proporcional a la energía depositada
en la atmósfera. En cambio un array de superficie necesita usar los modelos de interacción hadrónica (colisiones
nucleares) para obtener la energía a partir de los productos secundarios registrados en el suelo. Estos modelos
ESTADO ACTUAL
El proyecto AGASA finalizó sus operaciones en enero de 2004. Los resultados obtenidos pueden básicamente resumirse en la ausencia del corte GZK en el espectro
y la posible observación de anisotropía en una dirección
muy próxima al centro galáctico. El experimento HiRes
operó durante el periodo 1997-2006 obteniendo resultados contradictorios a los de AGASA puesto que observa-
100cias@uned
72
Vida científica
Figura 11. «Array» de superficie del Observatorio Pierre Auger. Los detectores se extienden sobre un área total de 6000 km2 (izquierda). Sobre la
foto se señalan con flechas algunos de los detectores separados entre sí por una distancia de 1,5 km (derecha).
hadrónicos solo han podido ser probados hasta las máximas energías disponibles en aceleradores, y por lo tanto muchos órdenes de magnitud inferior a las colisiones
entre el rayo cósmico y los núcleos atmosféricos. Sin
embargo, los telescopios de fluorescencia solo pueden
operar durante periodos limitados de tiempo (noches
claras y sin Luna). La combinación de ambas técnicas
(fig. 13) ha permitido al Observatorio Auger calibrar en
energía el detector de superficie usando los sucesos híbridos, es decir, registrados simultáneamente por ambos
detectores.
la escala de energía y se estima en alrededor del 22%. Se
ha medido con precisión el cambio de pendiente en la
región alrededor de 4 × 1018 eV (el llamado tobillo del espectro) probablemente debido a la transición de rayos
cósmicos galácticos a extragalácticos. A partir de esta
energía el espectro cae con una ley de potencia (γ =
2,55 ± 0,04) hasta una energía de 3,98 × 1019 eV, a partir
de la cual se observa una clara disminución del flujo,
perfectamente compatible con el efecto GZK predicho
en 1966.
Se ha estudiado la distribución de direcciones de
llegada en busca de anisotropías, tanto a pequeña como
a gran escala. No se han observado indicios de direcciones privilegiadas alrededor del centro galáctico en oposición al resultado de AGASA. Sin embargo, la búsqueda
de correlaciones con un conjunto específico de AGNs
llevado a cabo en 2007 dio un resultado positivo que fue
publicado en la revista Science con gran repercusión en
la comunidad científica (más de 160 citas en solo 2
años). En aquel momento se habían registrado 27 rayos
cósmicos con energías superiores a 57 EeV que mostraban una clara correlación con los 472 AGNs del catálogo Véron-Cetty/Véron con distancias superiores a 75
Mpc. Esta correlación específica ha disminuido durante
Resultados del Proyecto Auger
Aunque la construcción del Observatorio Sur finalizó oficialmente en noviembre de 2008, se han venido tomando datos desde que los primeros detectores de superficie y el primer telescopio de fluorescencia fueron
instalados en el año 2001. A partir del año 2007 se han
publicado una serie de resultados relevantes en este campo que vamos a resumir a continuación.
Se ha obtenido el espectro de energía por encima de
1018 eV a partir de más de 35000 rayos cósmicos registrados. El error sistemático más importante proviene de
100cias@uned
73
Vida científica
Figura 12. Detector de fluorescencia del Observatorio Pierre Auger. Cada una de las estaciones (izquierda) consta de cuatro telescopios,
uno de los cuales se muestra en la figura (derecha).
sición ligera haciéndose más pesada a las más altas energías. Desgraciadamente la medida de la masa se apoya
de manera inevitable en las predicciones de los modelos
de interacción hadrónica que, como antes comentamos,
no son fiables a estas energías.
Muchos más detalles sobre los resultados de la
colaboración Auger y las publicaciones correspondientes
se pueden encontrar en la página web de la colaboración [4].
el último año, no obstante se mantiene de manera
inequívoca la evidencia de anisotropía.
Aunque el objetivo del Observatorio es la detección
de rayos cósmicos cargados, ambos detectores son también sensibles a rayos γ cósmicos de ultra-alta energía
que a su entrada en la atmósfera generan una cascada
electromagnética. El resultado de la búsqueda ha sido
negativo, pero ha proporcionado límites al flujo de rayos
γ de ultra-alta energía notablemente inferiores a los impuestos en experimentos previos. Estos nuevos límites
más restrictivos están empezando a descartar algunos
modelos top-down propuestos para explicar el origen de
los rayos cósmicos de ultra-alta energía.
Un parámetro muy importante que hay que medir es
la masa de estos rayos cósmicos, o más exactamente, la
distribución o espectro de masas. Éste es un ingrediente
fundamental junto al espectro de energía para poder interpretar las anisotropías. Cuanto mayor es la masa del
núcleo primario y/o menor es su energía más rápidamente se desarrolla la cascada de partículas en la atmósfera. La medida simultánea de la energía del rayo
cósmico y la profundidad en la atmósfera a la que la
cascada adquiere su máximo desarrollo permite determinar la masa del primario. Este último parámetro se puede medir con el detector de fluorescencia. Los resultados
encontrados hasta la fecha parecen indicar una compo-
100cias@uned
CONCLUSIONES
Los primeros intentos para entender la naturaleza
de los rayos cósmicos, descubiertos a comienzos del siglo
pasado, dieron lugar al nacimiento de la Física de Partículas. Más tarde, cuando los primeros aceleradores permitieron provocar de manera controlada colisiones entre
partículas, ambas disciplinas se separaron. En todos estos
años la Física de rayos cósmicos ha experimentado notables avances pero aun así son muchos los misterios que
quedan por desvelar, en particular, el origen de los rayos
cósmicos de energías extremas. Una de las principales dificultades proviene de nuestro limitado conocimiento de
las interacciones de los núcleos a tan alta energía.
El gran colisionador de hadrones LHC del CERN ha
comenzado a funcionar. Aunque la energía de los proto-
74
Vida científica
Figura 13. Detección simultánea de un rayo cósmico por ambos detectores. El desarrollo de la cascada en la atmósfera es observada (en este caso
particular) por dos telescopios de fluorescencia (visión estereoscópica), mientras que las partículas cargadas de la cascada son registradas por
varios detectores del array de superficie.
cósmicos, al menos una pequeña fracción de ellos. Esperemos que en un futuro próximo sepamos que objetos cósmicos los producen y que procesos físicos están
detrás.
nes es muy inferior a la de los rayos cósmicos, la energía
de la colisión proton-antiproton en el centro de masas
estará a solo un factor ≈30 con respecto a colisiones
protón-núcleo atmosférico. Con certeza los resultados
del LHC permitirán reducir muchas incertidumbres sistemáticas en la interpretación de los datos de rayos cósmicos. Hay que admitir que el inofensivo mosquito de 1
mJ posee capacidades únicas para entender los procesos
físicos de alta energía. A diferencia de lo que ocurre
con los rayos cósmicos, en el LHC se sabe qué partículas
colisionan y qué energía tienen. Además se pueden medir con precisión todos los parámetros de la colisión y
los productos resultantes. La interpretación de los datos
de rayos cósmicos es mucho más complicada puesto que
no sabemos con seguridad cuáles son los núcleos primarios, su energía se mide con poca precisión y, además,
solo observamos una pequeñísima fracción de los productos resultantes.
Sin embargo, por muchos años, las partículas más
energéticas de la naturaleza seguirán siendo los rayos
100cias@uned
BIBLIOGRAFÍA
1. Sekido, Y. and Elliot, H. (editors): Early history of
cosmic ray studies, Reidel, Dordrecht, 1985.
2. Nagano M. and Watson A. A., Rev. Mod. Phys. 72,
690 (2000).
3. Greisen, K., Phys. Rev. Lett., 16, 748 (1966); Zatsepin,
Z. T., and V. A. Kuz’minZh, Eksp. Teor. Fiz. Pis’ma
Red., 4, 144 (1966).
4. http://www.auger.org/
Fernando Arqueros Martínez
Dpto. de Física Atómica, Molecular y Nuclear
Universidad Complutense de Madrid
75
Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
COLABORACIONES EN QUÍMICA
puestos, y algunos sólo existen porque los hemos creado
en laboratorios1.
Tan pequeños como son (el nombre proviene del
griego ατομον, que significa «sin partes»), los átomos resultan ser estructuras, más o menos complejas, compuestas de tres tipos de partículas elementales: los protones y los neutrones, que se encuentran empaquetados
muy compactos en el núcleo del átomo, y los electrones,
que se mueven alrededor del núcleo en órbitas muy alejadas del mismo. Así resulta que la materia que conocemos tiene una estructura paradójicamente casi vacía.
Por un lado, el núcleo contiene prácticamente toda la
masa: los neutrones y los protones tienen una masa muy
similar entre sí, y son casi mil veces más masivos que los
electrones. Por otro lado, casi todo el volumen de un
átomo está vacío, pues los electrones orbitan a distancias
que son unas diez mil veces el tamaño del núcleo2.
Los protagonistas principales de esta historia son
los dos átomos más sencillos y ligeros: el hidrógeno (H)
está compuesto por un electrón (e–) orbitando alrededor
de un núcleo que sólo tiene un protón (p+); el helio (He)
tiene dos e- alrededor de su núcleo compuesto por dos p+
y dos neutrones (n). Así pues, la masa atómica del H es
la unidad (1p+) y su carga atómica es también la unidad
(1p+); mientras que el He tiene una masa de cuatro
(2p++2n) y una carga de dos (2p+). El tercer protagonista
de esta historia es el deuterio (D), un H pesado ya que en
su núcleo tiene un protón y un neutrón.
Hay sólo dos situaciones principales donde se forman los núcleos de todos los átomos (proceso que conocemos como nucleosíntesis): en los primeros minutos de
vida del universo (nucleosíntesis primordial), y durante la
vida y muerte de las estrellas (nucleosíntesis estelar y nucleosíntesis explosiva)3.
UNA BREVE HISTORIA DE LOS ÁTOMOS:
LA EVOLUCIÓN QUÍMICA DEL UNIVERSO
Desde niña nunca le había resultado fácil tragar las
pastillas. Afortunadamente éstas eran muy pequeñas.
María tomó una del frasco, se la puso en la lengua y se
ayudó con un poco de agua, cumpliendo el rito diario que,
desde hacía unos años, había optado por asumir. El litio
era una bendición apenas incómoda que la mantenía estabilizada, y le permitía llevar una vida normal desde
que le diagnosticaron un claro, aunque leve, trastorno
bipolar. Mientras se preparaba para salir de casa, repasando mentalmente las actividades que tenía por delante
en este día, pensaba en lo significativo de ese pequeño
gesto, ya asumido como automático en su vida diaria, que
le permitía desarrollar una investigación de primera línea
en astrofísica: el hidrógeno en el vaso de agua, y el litio
de la pequeña pastilla, tenían trece mil setecientos millones de años de antigüedad. Sus átomos se habían formado cuando el universo apenas tenía unos minutos de
existencia. Paradójicamente, no era posible datar los átomos de oxígeno de esas mismas moléculas de agua; todo
lo que podíamos decir sobre ellos es que su síntesis se
produjo en el interior de alguna estrella, hace más de cinco y menos de trece, miles de millones de años. María había decidido tomar esta reflexión como pie de entrada.
Esta tarde pondría a prueba sus habilidades comunicativas en la conferencia pública que daba sobre la historia de
los átomos en el universo.
INTRODUCCIÓN
Todo lo que somos, todo lo que nos rodea, nosotros
mismos y nuestro entorno, estamos construidos en última instancia con átomos de diversa índole. Los átomos
se pueden entender como las entidades mínimas de materia que mantienen sus propiedades químicas específicas
diferenciadas, que los distinguen a unos de otros. Conocemos 118 tipos diferentes de átomos, la mayoría de
ellos se encuentran en la naturaleza solos o en com-
100cias@uned
1
El 118, de nombre Ununoctio, fue descubierto en el año 2006, aunque el de número atómico 117, Ununseptio, aún no se ha descubierto.
2
Una manera de visualizarlo es suponer que el átomo de H tuviera el tamaño del estadio de fútbol Santiago Bernabeu, si el protón fuera del tamaño de un garbanzo en el centro del campo, entonces el electrón estaría orbitando por las gradas y el resto del estadio/átomo estaría vacío.
3
Existen otras dos circunstancias secundarias que no explicaremos
aquí: (i) cuando los rayos cósmicos interactúan con el medio interestelar y, por supuesto, (ii) la fabricación de los elementos artificiales en
los aceleradores de partículas.
76
Vida científica
NUCLEOSÍNTESIS PRIMORDIAL
unas pequeñas irregularidades iniciales en densidad crecen con el tiempo, debido a que la fuerza de la gravedad
hace que más materia se vaya acumulando a su alrededor. A medida que una nube de H y He se hace cada vez
más densa su mayor gravedad atrae a más materia. Según se hace más densa también se calienta más, llegando un momento en el que se alcanzan temperaturas de
varios millones de grados en su interior.
Ponemos la película en avance rápido y nos paramos
en el momento en que el universo tiene 500 millones de
años. Durante esos años de expansión global, muchos
grumos locales se han hecho tan densos y calientes (varios millones de grados) que en su interior los núcleos de
H comienzan a fusionarse en núcleos más pesados mediante reacciones termonucleares. En este momento tan
especial el universo se ilumina a la luz de las primeras
estrellas. Aún no las hemos visto, pero sabemos que las
primeras estrellas estaban formadas sólo por H y He, y
tenían masas de hasta 500 ó 1.000 veces la masa del Sol,
muy superiores a las masas máximas que pueden alcanzar las estrellas de las generaciones posteriores.
Es como si este momento marcara la pubertad del
universo, el rito de paso a la madurez. A partir de entonces, comienza la formación de todo el resto de átomos más pesados en el universo, aquellos que nos son
tan familiares: el carbono (C) de nuestras células, el nitrógeno (N) del aire, el oxígeno (O) que respiramos transportado por el hierro (Fe) del rojo torrente sanguíneo. Sí,
porque estos átomos se producen en la nucleosíntesis
estelar durante la vida y muerte de las estrellas.
Pero no adelantemos acontecimientos. Antes de ver
cómo ocurre esta transmutación atómica estelar, veamos
cuál ha sido la historia general de la formación de las estrellas en el universo. Cuando el director del Space Telescope Science Institute6 decidió dedicar casi doce días completos del Telescopio Espacial Hubble para tomar la
imagen más profunda del universo, tomó una decisión
histórica. Si tomamos un grano de arroz entre la punta de
nuestros dedos índice y pulgar con el brazo extendido
frente al cielo, la parte de cielo que oculta el grano de
arroz es el tamaño de la imagen conocida como el campo
ultraprofundo del Hubble (HUDF, sus siglas en inglés). En
esta imagen (Figura 1), que se tomó en una zona del cielo
donde no se conocía ningún objeto, aparecieron (tras seis
millones de segundos de exposición) más de diez mil ga-
En sus comienzos, el universo tiene una enorme
densidad de energía, formando un plasma de creaciónaniquilación de partículas-antipartículas a una temperatura y una densidad muy elevadas. Una pequeñísima
asimetría, de una diez mil millonésima extra de materia
sobre antimateria, da lugar a nuestro universo de materia
en rápida expansión. Cuando el universo tiene una edad
de apenas 3 minutos, se ha enfriado lo suficiente como
para que los neutrones y los protones sean estables4 para
poder aglutinarse en núcleos de deuterio. Dos núcleos de
D dan lugar a uno de He:
p + n → 21D ;
D + 21D → 42He
2
1
En apenas un dramático cuarto de hora, cuando el
universo tiene 20 minutos de vida, la rápida y continuada expansión hace que se enfríe lo suficiente como para
que la producción de D y de He se detenga súbitamente.
Este hito histórico marca la posterior evolución química
del universo: el 75% de la masa está en forma de H y el
25% en forma de He.5
Era uno de los recuerdos más vívidos de su infancia.
Una noche sin luna, de cielo despejado y límpido tras las
recientes lluvias de primavera. María salió al patio, respiró con ganas, su consciencia se inundó del profundo
aroma a tierra mojada. Alzó su mirada inocente hacia
una bóveda preñada de estrellas.
LA HISTORIA DE FORMACIÓN ESTELAR
DEL UNIVERSO
Con total ignorancia de lo que ocurre en su seno, el
universo continúa en perpetua expansión, y en este devenir se va enfriando y se hace menos denso en valor
medio. Y decimos en valor medio porque localmente,
acá y allá, la historia es bien diferente. Así es, aunque en
su conjunto el universo era y es relativamente uniforme,
4
Los protones son tan estables, con una vida media de 1036 años (el
universo apenas tiene 1,4×1010 años), que aún son los mismos de entonces. La pequeña diferencia entre la masa del p+ y la del n a la
temperatura del universo a los 3 minutos, T = 3 MeV, puede usarse en
la ecuación de Boltzman para deducir que se formaron en proporción
1n/7p+.
5
Quedan también residuos de 0,01% de D, y apenas trazas de 10-10 de
litio y berilio, pero nada más.
100cias@uned
6
STScI (Baltimore, USA) es el centro responsable de todo lo relacionado con el Hubble Space Telescope (HST).
77
Vida científica
verso en ese momento. En un corte estratigráfico o en
una fotografía del universo, cuanto más profundo más
antiguo; pero en el universo, cuando miramos una galaxia débil y lejana estamos viendo literalmente el pasado.
La Figura 2 muestra una visión simbólica del despliegue
hacia el pasado del HUDF. En el día de hoy (a la izquierda de la imagen) vemos al HST tomando esta profunda imagen. Las galaxias más débiles, enrojecidas y
distantes, están menos evolucionadas y estructuradas
(hacia el centro de la figura). Cuando el universo era
más joven, pequeño y denso, los grumos de materia crecían merced a su gravedad, y chocaban y se fusionaban
muy frecuentemente, formando proto-galaxias y galaxias cada vez más grandes y estructuradas. En estas colisiones y fusiones el gas se somete a grandes presiones y
las estrellas se forman de manera violenta, muchas, muy
rápidamente mucho gas se transforma en estrellas.
laxias. Galaxias como la nuestra, la Vía Láctea, mayores o
menores, cada una con miles de millones o cientos de
miles de millones de estrellas como el Sol. Esta imagen representa una instantánea de los últimos trece mil millones
de años (13 Ga) de evolución del universo.
Figura 1. Campo ultraprofundo del Telescopio Espacial Hubble
(HUDF). Crédito: NASA, ESA, S. Beckwith y el equipo del HUDF
(STScI), y B. Mobasher (STScI).
Figura 3. La historia de formación estelar del universo.
Crédito: adaptado de Rychard Bouwens (Universidad de Califormia,
Observatorio Lick).
De una galaxia no sólo medimos su distancia, también podemos medir cuántas estrellas se están formando
en ésa y otras galaxias a la misma distancia o edad del
universo. De esta manera nos es posible trazar la historia
de la formación estelar en el universo. Las medidas realizadas con mucho esfuerzo durante las últimas décadas
nos dicen que, desde que se formaron las primeras galaxias hace más de 13 Ga, el ritmo de formación estelar
creció durante los primeros 2 Ga, para luego ir disminuyendo sistemáticamente desde entonces. Esto se refleja
en el diagrama de la Figura 3, donde se representan
cuántas masas solares por año y por unidad de volumen
se han ido formando a lo largo del tiempo. Mientras
que el universo era lo suficientemente compacto como
para que las colisiones de galaxias fueran muy comunes,
Figura 2. El campo ultraprofundo del Telescopio Espacial Hubble nos
cuenta la historia del Universo. Crédito: NASA, ESA y A. Feild
(STScI).
La imagen del HUDF es como la fotografía de un
corte estratigráfico arqueológico, donde cada capa tiene
una edad diferente, y según donde encontremos un objeto podemos establecer su antigüedad» (Wikipedia). En
la imagen del HUDF podemos medir el desplazamiento al
rojo de cada galaxia, y así conocer qué edad tenía el uni-
100cias@uned
78
Vida científica
la cadena protón-protón; en las estrellas más masivas
domina el llamado ciclo CNO.
No vamos a detallar aquí el complicado sistema de
reacciones termonucleares. Simplificaremos diciendo
que, a partir de los tres millones de grados, cuatro núcleos de H se fusionan para formar uno de He, mediante toda una cadena de reacciones intermedias en
las que se libera energía en forma de radiación. Toda la
masa de estos cuatro núcleos de H se convierte en la
masa del He, excepto una pequeñísima cantidad, el
0,7% (26,73 MeV), que se convierte en energía. Ésta es
una cantidad verdaderamente muy pequeñita de energía, apenas una billonésima de caloría, pero en el Sol se
fusiona H en He a un ritmo de un billón de kg/s, lo que
equivale a la enorme cantidad de 1023 kcal. A este ritmo
de consumo de H, el Sol durará otros siete mil millones
de años.
Las estrellas más masivas alcanzan temperaturas
mucho más elevadas en sus núcleos y, a partir de los 15
millones de grados el ciclo CNO es dominante. En este
conjunto de reacciones cíclicas, núcleos de carbono, nitrógeno y oxígeno actúan como catalizadores para que
esos cuatro núcleos de H se fusionen finalmente en uno
de He, liberando energía en forma de radiación.
La radiación que se libera en las reacciones termonucleares es fundamental para mantener la estructura estelar en equilibrio. De hecho, el colapso de la nube de
gas que forma una estrella se detiene debido a que la
presión de la radiación que se genera en estas reacciones
impide que la estrella se siga colapsando. Así, mientras
que las reacciones termonucleares se vayan produciendo
a un ritmo adecuado para que la presión de radiación
contrarrestre la gravedad, la estrella permanecerá en
equilibrio hidrostático. Pero, ¿qué ocurre a medida que el
H se va transformando en He?
Cuando un 10% de la masa de H en el núcleo de una
estrella se ha transformado en He, la reacción se hace
cada vez más difícil. Esto implica que se produce menos
radiación, por lo que la presión de radiación disminuye y
el núcleo estelar continúa su colapso bajo la implacable
fuerza de la gravedad. Al comprimirse, el núcleo (que
ahora es casi todo de He) se calienta hasta tales temperaturas (100 millones de grados) que es posible que tres
núcleos de He se fusionen, a través del proceso triple
alfa7, para formar un núcleo de C. ¡Carbono, la base de la
vida! El C puede ir reaccionando sucesivamente con un
Figura 4. Arp 194 son un par de galaxias en interacción, donde se
potencia la formación estelar. En la imagen todo lo que se ve en
color azul claro, en las dos galaxias y en el puente de materia entre
ellas, son cientos de millones de estrellas recién formadas. Crédito:
NASA, ESA y el equipo del Hubble Heritage (STScI/AURA).
el ritmo de formación creció, pero a medida que el universo se sigue expandiendo estos encuentros son cada
vez menos frecuentes, disminuyendo así el ritmo de formación estelar.
FORMACIÓN Y EVOLUCIÓN DE LAS
ESTRELLAS. NUCLEOSÍNTESIS ESTELAR
Y EXPLOSIVA
Las estrellas se forman en nubes de gas que se contraen debido a su propia gravedad. El gas de la nube se
calienta a medida que se contrae bajo enormes presiones.
Si la temperatura supera los tres millones de grados,
venciendo la repulsión eléctrica mutua entre los protones
cargados positivamente, dos núcleos de hidrógeno se
fusionan produciendo uno de deuterio, que a su vez se
fusiona para dar helio. Arthur Eddington propuso la idea
de este mecanismo como fuente de energía de las estrellas en 1920, pero fue Hans Bethe en 1935 quien trabajó
las reacciones detalladas. Son dos conjuntos de reacciones principales: en las estrellas que tienen menos masa
que 1,5 veces la del Sol, el H se fusiona en He mediante
100cias@uned
7
79
El núcleo de He se conoce también con el nombre de partícula alfa.
Vida científica
Figura 6. Estructura final y explosión como supernova de una estrella masiva. Crédito: Wikimedia Commons.
En una estrella de masa tan baja como el Sol8 no se
alcanzan los 600 millones de grados necesarios para fusionar núcleos de C, pero en estrellas más masivas este
proceso continúa. En el núcleo de la estrella se fusionan
átomos cada vez más pesados hasta que se produce hierro (Fe). El resultado es que, al final de su vida, las estrellas masivas tienen una estructura en cáscaras similar
a la de las de cebolla, donde cada cáscara está formada
principalmente por núcleos de átomos sucesivamente
más pesados desde la atmósfera externa hacia el núcleo
interior.
núcleo de He para producir los que se conocen como elementos alfa: C, O, Ne, Mg, Si, S, Ar, Ca, Ti.
La fusión de He hace que las capas externas de la estrella se expandan, la temperatura disminuye, el He deja
de fusionarse, el núcleo de la estrella se contrae, por lo
que se calienta y el He se vuelve a fusionar... Esto produce variabilidad en la luminosidad de la estrella y, finalmente, una inestabilidad que hace que se expulsen las
capas externas de la estrella de una manera más o menos
espasmódica. El moribundo Sol se convierte en una bella
nebulosa planetaria.
Figura 5. Algunas imágenes de nebulosas planetarias, hermosos heraldos de una muerte anunciada.
8
Las estrellas tienen masas típicamente entre una décima y cien veces
la del Sol.
100cias@uned
80
Vida científica
EVOLUCIÓN DE LOS ELEMENTOS QUÍMICOS
Cuando una estrella muy masiva tiene su núcleo de
Fe, el mecanismo de fusión termonuclear ya no produce
energía (por el contrario, es endotérmico). Así, sin la
presión de radiación que lo contenga, el núcleo de la estrella sigue colapsándose. Se desarrollan una serie de
mecanismos catastróficos que hacen que el núcleo interior de la estrella se colapse en un material muy denso
(formado sólo por protones y neutrones apiñados de
manera muy compacta), dando lugar a un agujero negro
o a una estrella de neutrones. Simultáneamente, las capas externas de la estrella explotan de manera catastrófica en forma de supernova. Durante los pocos segundos
que dura esta catastrófica serie de procesos, se lleva a
cabo la síntesis de nuevos núcleos atómicos más pesados, incluidos los elementos radiactivos, mediante una
compleja serie de reacciones nucleares que se conocen
globalmente como nucleosíntesis explosiva.
Una estrella eyecta gran parte de su masa en las fases finales de su evolución. Las de masa más baja,
como el Sol, expulsan las capas externas en forma de
nebulosa planetaria, mientras que las estrellas de masa
mayor lo hacen de manera explosiva durante la fase de
supernova. Este material eyectado está enriquecido en
átomos más pesados que el H y el He9 que se han producido durante la nucleosíntesis estelar y explosiva.
Con el tiempo este material se mezcla con el medio
interestelar circundante y la dinámica galáctica hace
que el gas enriquecido se vaya mezclando con el resto
de la galaxia.
Cuando se forma la siguiente generación de estrellas,
muchas de ellas con sus sistemas planetarios, éstas ya
tienen una metalicidad mayor que la generación anterior,
y así el contenido en metales del universo va aumentando de acuerdo al ritmo de formación estelar. Él es una
estrella de segunda o tercera generación.
Pero no todas las estrellas evolucionan al mismo
ritmo. Las estrellas masivas evolucionan mucho más rápidamente que las de menor masa. Por ejemplo, el Sol
tardará unos doce mil millones de años en llegar a la
fase de nebulosa planetaria, dejando un residuo estelar
inerte como enana blanca, pero una estrella de cien masas solares vivirá apenas un millón de años, mientras que
una estrella de baja masa, un décimo de la del Sol, vivirá hasta 200 veces la edad actual del universo.
Así pues, como la producción de átomos pesados
depende de la masa de la estrella, y el tiempo con el
que las estrellas «contaminan» con metales pesados al
medio interestelar también depende de la masa de la
estrella (es decir, de su tiempo de evolución), el ritmo al
que se produce la evolución de los diferentes elementos
químicos será diferente, dependiendo de cómo se distribuya la masa de las estrellas que se forman. La función de distribución de las masas de las estrellas que se
forman de una misma nube parental se denomina función inicial de masas. Esta función juega, por tanto, un
papel fundamental en la evolución del universo y su
estudio es de gran importancia. La función inicial de
masas tiene una forma potencial con el inverso de la
masa, de manera que, en una nube parental dada, se
Figura 7. Restos de la explosión de una supernova que tuvo lugar
hace cinco mil años. Enriquecidos en átomos pesados, este material
formará parte de próximas generaciones de estrellas y planetas.
Crédito: NASA, ESA, el equipo del Hubble Heritage, y J. Hester
(Arizona State University).
100cias@uned
9
En Astrofísica se suelen llamar «metales» a los átomos más pesados
que el He y «metalicidad» a la abundancia de estos átomos, relativa a
la del H.
81
Vida científica
Figura 8. Variación con la edad de la abundancia del Fe relativa al H
(en escala logarítmica) para el sistema de cúmulos globulares en la galaxia M81.
y asombro y nos hemos preguntado cuál es nuestra relación con el lejano y misterioso cosmos. Pues bien, ahora
lo sabemos. Gracias a la investigación astrofísica, ahora
hemos dibujado un esquema global de cuál es la relación
del ser humano con el cosmos, y este conocimiento nos
proporciona una experiencia aún más fascinante y sobrecogedora de nuestra herencia evolutiva cósmica de
catorce mil millones de años.
forman muchas estrellas de baja masa pero muy pocas
estrellas masivas.
En resumen, la composición o producto entre el ritmo de formación estelar y la función inicial de masas
nos proporciona el ritmo de la evolución química de
una galaxia y del universo de galaxias.
A MODO DE REFLEXIÓN
La evolución nos ha dotado de unas importantes
capacidades para procesar la información de nuestro entorno, nuestra capacidad de pensar, de planear para el
futuro y ejecutar, de ser conscientes de nosotros mismos.
A lo largo de miles de años, las culturas humanas han
desarrollado diferentes paradigmas de interpretación del
entorno. La ciencia es, sin lugar a dudas, el más fiable y
potente de estos paradigmas de interpretación de la realidad. La Astronomía y la Astrofísica utilizan toda la
potencia del paradigma científico para estudiar la naturaleza, estructura y evolución del Universo. La relación
del ser humano con el cosmos es muy antigua, pues
siempre hemos mirado a la bóveda celeste con maravilla
100cias@uned
Se deslizó entre las suaves y reconfortantes sábanas
y apagó la luz. Una sonrisa de satisfacción se dibujó en
su rostro mientras recordaba el éxito de la conferencia,
¡cuántas preguntas había suscitado en el público!, ¡cuán
hermosas las felicitaciones recibidas! En el silencio de
su dormitorio, mientras el cansancio se iba adueñando
de su consciencia, María podía oír cómo la sangre circulaba por su cuerpo. Con cada respiración casi podía
imaginar el oxígeno reaccionando con el hierro de la
hemoglobina...
Enrique Pérez Jiménez
Instituto de Astrofísica de Andalucía (CSIC)
82
Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
NOVEDADES CIENTÍFICAS EN 2009
ejemplar, que se cruzaba con los pinzones residentes en
la isla. Durante la cuarta generación y, como consecuencia de una sequia intensa, observaron que la población de descendientes se redujo a dos: un macho y una
hembra. Desde entontes, ellos y sus descendientes, los
cuales tienen picos, cantos y genes distintos a los del resto de aves de la isla, sólo se han cruzado entre sí. En el
artículo se sugiere que la especiación sucedió en dos fases: inicialmente existió divergencia entre poblaciones
con aislamiento geográfico (alopátrica) y luego la divergencia se completó en un solo lugar debido a diferencias en el canto, que resulta ser un mecanismo de aislamiento reproductivo fundamental por su papel en la
formación de parejas. Ese aislamiento reproductivo es la
condición propia para que se inicie un proceso de especiación, o aparición de una nueva especie, ya que si se
volviese a producir el cruzamiento con otros miembros
de especies cercanas, no daría lugar a individuos fértiles
(Proc. Natl. Acad. Sci., 106(48), 20141-20148, 2009).
EN CIENCIAS AMBIENTALES
ESPECIALIZACIÓN ALOPÁTRICA
EN LOS PINZONES DE DARWIN
Charles Darwin ya describió en su diario de viaje a
bordo del Beagle la variedad de especies que existían en
el archipiélago de las Galápagos. El caso de los pajáros
pinzones, con los picos adaptados a distintas formas de
alimentación, se convirtió en la clave para la formulación de la teoría de la selección natural y, en el mejor
ejemplo para ilustrar como actúa. Coincidiendo con el
bicentenario del nacimiento de Darwin y los 150 años de
la publicación de On the Origin of Species, la obra que
marcó un hito en la biología, Peter y Rosemarie Grant,
de la Universidad de Princeton (New Jersey, EE.UU.),
han publicado un artículo sobre la aparición de una
nueva especie de pinzones en las Galápagos.
La especiación es un proceso por el cual se forman
dos especies a partir de una, debido a que se produce un
aislamiento reproductivo de dos linajes divergentes. En
1981, estos investigadores detectaron en la isla Daphne
Major, la presencia de un ejemplar de pinzón terrestre
(Geospiz fortis) más grande de lo habitual, al que denominaron 5110, y que provenía de una isla vecina. Realizaron un seguimiento de todos los descendientes del
SÍNTESIS DE PÉPTIDOS SIN DISOLVENTE
En las últimas décadas la química de péptidos ha alcanzado gran auge, por las propiedades farmacológicas y
la baja toxicidad de estos compuestos. La síntesis de
péptidos se lleva a cabo fundamentalmente mediante
dos procedimientos: síntesis en disolución en múltiples
etapas y síntesis en fase sólida. El principal problema es
Figura 1. a) Individuo del
linaje inmigrante de G. Fortis
(A) en la Isla de Daphne
Major y miembro de la
población residente de G.
Fortis (B). b) Reproducción de
la figura incluida en su obra
On the Origin of Species de
Charles Darwin.
100cias@uned
83
Vida científica
que se requiere utilizar grandes cantidades de disolventes
(2.000-5.000 kg para un péptido largo), siendo necesario
desarrollar nuevos métodos más eficientes y «benignos»
con el medio ambiente. La Química Sostenible o Química
Verde consiste en la utilización de una serie de principios
encaminados a reducir o eliminar el uso y generación de
sustancias peligrosas en el diseño, fabricación y aplicación de los productos químicos. El quinto principio establece que se debe evitar emplear sustancias auxiliares,
como disolventes, reactivos, etc. y en el caso de que se
utilicen deben ser inocuos.
El grupo de investigación del Instituto de Biomoléculas Max Mousseron (Montpellier) dirigido por F. Lamaty ha desarrollado el primer método sin disolventes
para realizar enlaces peptídicos. Este procedimiento consiste en utilizar un molino de bolas, similar a los que se
emplean en el procesado de los compuestos químicos de
las pinturas y productos pirotécnicos. El molino de bolas
consta de un cilindro hueco, que contiene múltiples bolas de acero. Cuando el recipiente está cargado con los
reactivos, se pone a girar para que se mezclen y reaccionen. Estos investigadores lo han utilizado para acoplar derivados N-carboxianhídridos de α-aminoácidos
N-uretanos protegidos con esteres, amidas y α-aminoácidos para obtener diferentes dipéptidos, incluido el aspartamo (edulcorante artificial) e incluso tripéptidos. La
reacción se lleva a cabo en estado sólido y no se necesitan disolventes para realizar la síntesis ni en la purificación de los productos finales, además los rendimientos
obtenidos son altos. Según los autores, este procedimiento con molinos de bolas abre una nueva posibilidad
para síntesis más ecológicas de otros compuestos
(Angew. Chem. Int. Ed. Engl., 48, 9318-9321, 2009).
(H2CO3)2
Figura 2. Síntesis sin disolventes del péptido aspartamo
(edulcorante artificial).
FIJACIÓN Y SECUESTRO DE CO2 MEDIANTE
FORMACIÓN DE H2CO3
La reducción de los gases de efecto invernadero que
producen el cambio climático, implica desarrollar nuevos
métodos sencillos y baratos que permitan capturar y «secuestrar» el dióxido de carbono (CO2). En las técnicas actuales, se captura el CO2 de los gases de combustión de
las centrales mediante reacciones con otros compuestos, o
bien, se licua y posteriormente se bombea hacia zonas
profundas de la tierra o al fondo del océano. Sin embargo, estos procedimientos requieren considerables cantidades de productos químicos y de energía. Además, cuando se utilizan compuestos básicos débiles se producen
(H2CO3)3
(H2CO3)4
Figura 3. Modelos de los diferentes oligómeros del ácido carbónico (H2CO3). Cálculos realizados mediante Gaussian03.
100cias@uned
84
Vida científica
para ambas especies, b) relaciones que suponen un perjuicio para los individuos de las especies implicadas y c)
interacciones en las que una especie obtiene un beneficio
mientras que la otra no se favorece ni perjudica. El mutualismo se caracteriza porque se favorecen ambas especies y un ejemplo sería la dispersión del polen de las
plantas mediante insectos, donde estos utilizan el polen
como alimento a la vez que ayudan a las plantas con
flores a reproducirse. Este tipo de relaciones de mutualismo no han tenido tanta repercusión en la formulación
de modelos teóricos como la depredación y la competencia, debido fundamentalmente a que se consideraba la
competencia como la principal fuerza de la evolución
biológica.
Un grupo multidisciplinar, formado por investigadores de la Universidad Autónoma de Madrid, de la
Estación Biológica de Doñana y de la Universidad Politécnica de Madrid, han publicado un trabajo coordinado por J. Bascompte, donde estudian las redes mutualistas entre plantas e insectos polinizadores o
dispersores de semillas. Los autores han demostrado
que cuando especies distintas de insectos compiten por
los mismos recursos, pero polinizan a la misma especie
de planta, en realidad cooperan entre sí. Esta reducción
de la competencia efectiva, aumenta la estabilidad estructural del ecosistema, que se hace más resistente a
las extinciones y permite que coexistan un mayor número de especies. Según este modelo, la reducción de la
competencia se produce cuando la red de las interac-
reacciones incompletas debido a la acidez débil del CO2
(g). Y si se utilizan bases fuertes, como el hidróxido de
sodio (NaOH), se obtienen productos más estables pero se
necesitan reactivos en cantidades elevadas y se genera un
exceso de otros compuestos químicos como el NaHCO3
que provocan problemas para su almacenamiento.
J.A. Tossel de la Universidad de Maryland (EE.UU.) ha
realizado cálculos teóricos, que le han permitido obtener
datos sobre las estructuras, estabilidades, ... de distintos
oligómeros de H2CO3 y analizar la capacidad del acido
carbónico (H2CO3) para atrapar dióxido de carbono. Los
resultados de su trabajo indican que es posible capturar
directamente el CO2 en fase gaseosa, utilizando sólo agua
como reactivo y almacenando el producto resultante
(H2CO3), como un sólido oligomérico a temperaturas moderadamente frías. Aunque el H2CO3 es un compuesto
muy inestable, sus oligómeros se consideran más estables
debido a los enlaces de hidrógeno intermoleculares (Environ. Sci. Technol., 43, 2575-2580, 2009). La viabilidad
de este procedimiento a gran escala requiere completar
los estudios sobre diferentes aspectos como la curva de
presión de vapor, compresibilidad del (H2CO3)n, ...
LAS RELACIONES DE MUTUALISMO
AUMENTAN LA BIODIVERSIDAD
En Ecología existen numerosas relaciones entre las
especies de un ecosistema, pero de forma general estas
interacciones se pueden clasificar en: a) beneficiosas
Figura 4. La estructura de las redes mutualistas determina el número de especies que coexisten. a) Totalmente conectadas. b) Anidada.
c) Compartimentada. Dos especies de plantas compiten por los mismos nutrientes (flecha roja), pero también tienen interacciones indirectas
mediante polinizadores comunes (flecha azul). La flecha azul puede cambiar de signo y de magnitud. Cuando el número de polinizadores
compartidos es muy alto, los efectos positivos son mayores que los negativos, y el modelo predice que un gran número de especies pueden coexistir.
100cias@uned
85
Vida científica
el calentamiento global, al modificar directa o indirectamente el flujo radiante.
ciones mutualistas tiene una arquitectura denominada
anidada. A partir de sus resultados, es posible suponer
que las interacciones mutualistas anidadas explicarían
que los dos grupos de organismos más diversos del
planeta sean los insectos y las plantas con flores, siendo importante para mantener la biodiversidad de los
ecosistemas la preservación de esta estructura. Este modelo también predice que se puede producir la extinción
masiva del resto de especies de un ecosistema, si el beneficio mutuo entre dos especies aumenta demasiado
(Nature, 458, 1018-1021, 2009).
EL ÓXIDO NITROSO (N2O) PRINCIPAL
DESTRUCTOR DE LA CAPA DE OZONO EN EL
SIGLO XXI
Aunque parece que la capa de ozono está experimentando una progresiva recuperación, la velocidad a la
que ocurre es lenta y se considera que no se alcanzarán
los niveles anteriores a los años ochenta hasta el 2050, y
que incluso en la Antártida habrá que esperar hasta
2060 o 2075. Esta relativa recuperación se debe a que la
producción y las emisiones de los clorofluorocarbonos
(CFCs) a la atmósfera fueron reguladas en el Protocolo de
Montreal de 1987. Pero en este tratado no se incluye al
óxido nitroso (N2O), compuesto que se emite por actividades antropogénicas como utilización de fertilizantes
agrícolas, estiércol del ganado, la combustión y otros
procesos industriales, y también fuentes naturales como
las bacterias del suelo y los océanos.
Según el estudio de A. R. Ravishankara y sus colaboradores del National Oceanic and Atmospheric Administration de Colorado (EE.UU.), las emisiones de N2O se
han convertido en el mayor factor de destrucción de la
EL FLUORURO DE SULFURILO PERSISTE
EN LA ATMÓSFERA
El fluoruro de sulfurilo (SO2F2) es un compuesto que
se emplea para la fumigación de estructuras en la construcción. Es eficaz para combatir los parásitos y hongos
de la madera y en la desinfección de edificios atacados
por coleópteros, termitas, etc. Además se está considerando como una alternativa al bromuro de metilo
(CH3Br), un agente utilizado en la agricultura para el
control de plagas, que en 1992 se reconoció como una
de las sustancias responsable de la destrucción de la
capa de ozono (Enmienda de Copenhague, Protocolo de
Montreal). Por lo que, se han dictado varias normativas
con el objeto de disminuir progresivamente su aplicación
hasta llegar a la total prohibición en 2015.
Sin embargo, los trabajos de M. P. Sulbaek Andersen junto con F.S. Rowland et al. han demostrado que
aunque la concentración de fluoruro de sulfurilo en la
atmósfera es mucho menor que la de dióxido de carbono, CO2, su capacidad de atrapar calor es 4000 veces
mayor por unidad de masa que el CO2, lo que podría
contribuir al cambio climático. El SO2F2 es un gas con
una presión de vapor de 16 atm a 20oC y su tiempo de
vida media en la atmósfera se calculaba entre 4,5 y
14 años. Pero, los últimos estudios experimentales y
cálculos teóricos han estimado que el tiempo de vida
media podría ser mucho mayor, del orden de 30 a 40
años. Por tanto, para evaluar la contribución del SO2F2
al forzamiento radiativo, es necesario conocer su destino en la atmósfera lo que ha llevado a este grupo de
investigadores a estudiar las reacciones en fase gaseosa
de esta sustancia con compuestos oxidantes tales como
radicales, OH, átomos de cloro y ozono. Con este trabajo se pretende conocer la relación entre la química en
la atmosfera del SO2F2, su tiempo de vida y el efecto en
100cias@uned
Figura 5. Emisiones históricas y previstas hasta el 2100 de
compuestos dañinos para la capa de ozono (ODSs, Ozone
Depletings Substances) y gases de efecto invernadero (GWP,
Global Warning Potencial).
86
Vida científica
Figura 6. Estructuras moleculares de complejos
mercurio-fitoquelatinas en plantas de arroz.
de pescados como el atún y el pez espada, y se va acumulando (bioacumulación) debido a las dificultades para
excretarlo.
A pesar de ello, hasta ahora no se había prestado
gran interés a la presencia de este metal en plantas,
como por ejemplo los cereales. En recientes investigaciones se ha demostrado que la cantidad de metilmercurio en los granos de arroz es más abundante de lo que
cabría esperar a partir de las concentraciones detectadas
en el suelo de compuestos derivados de mercurio. E.M.
Krupp et al., de la Universidad de Aberdeen (Escocia),
han determinado las concentraciones en raíces y tallos
de las plantas de arroz, combinando técnicas de electrospray y espectrometría de masas-plasma. En su estudio
han identificado complejos de Hg-fitoquelatinas en las
raíces y han comprobado que las fitoquelatinas (PGs),
péptidos que actúan como ligandos detoxicantes de metales, pueden secuestrar iones Hg2+ pero no metilmercurio.
En plantas expuestas a Hg2+ los niveles más altos se encuentran en las raíces, con una baja traslocación del
metal a tallos y granos, al contrario de lo que sucede con
el metilmercurio. Estos resultados permiten suponer que
los complejos metal-fitoquelatinas no solo sirven para la
detoxificación de metal, sino que juegan un papel muy
importante en el proceso de transporte del metal en la
planta, por lo que es necesario seguir investigando en
este área (Chem. Commun., 4257-4259, 2009).
capa de ozono y probablemente seguirán siéndolo durante el siglo XXI. Aunque el papel del óxido nitroso en
la destrucción de la capa de ozono se conoce desde hace
décadas, es la primera vez que se ha medido su impacto
usando los mismos métodos que con los CFCs, demostrando que en 2008 los niveles de emisión de N2O fueron
el doble que las del siguiente gas más importante en la
depleción de la capa de ozono, el CFC-11 (Science, 326,
123-125, 2009). Los autores concluyen en su artículo
que el óxido nitroso es también un gas de efecto invernadero y por tanto, la reducción de las emisiones de
este compuesto no sólo sería beneficioso para la recuperación de la capa de ozono si no que también ayudaría a
moderar el calentamiento global.
MERCURIO, UN CONTAMINANTE
«AMPLIAMENTE EXTENDIDO»
El mercurio es un metal con alta capacidad para
formar compuestos orgánicos e inorgánicos y, que se
transforma en otras sustancias altamente tóxicas, como
el metilmercurio (CH3Hg), considerado un potente neurotóxico. Desde hace años, existe una gran preocupación
por los riegos derivados del mercurio presente en el ambiente y su influencia en la salud humana. Como consecuencia de la contaminación atmosférica global, termina
depositándose en el mar y concentrándose en cantidades
relativamente altas en la pesca de alta mar. En las cadenas tróficas pasa de unos depredadores a otros llegando
hasta el ser humano, fundamentalmente por el consumo
100cias@uned
Consuelo Escolástico León
Dpto. de Química Orgánica y Bio-Orgánica
87
Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
NOVEDADES CIENTÍFICAS EN 2009
este modo se designaba a ciertos objetivos selectos y
muy deseables, que en caso de que se alcanzaran transformarían profundamente las estructuras de la Química
actual y su proyección social. Por otra parte, en nuestros
días es inevitable referirse a las aportaciones que se pueden encontrar en Internet. Entre otros, la Sociedad Francesa de Química mantiene una página web dedicada a la
identificación de los 10 problemas más importantes de
esta ciencia para el presente siglo «10 problems for Chemistry». Conste que en todos los casos se trata de aspectos cruciales, cuya solución no es previsible que se alcance por meros desarrollos de los procedimientos ya
establecidos en la actualidad.
En la presente reseña se informa de novedades recientes en el cumplimiento de algunos de estos objetivos
críticos dentro del campo de la nueva Química. Se ha intentado que la selección sea mínimamente representativa, pero sería ilusorio pretender que queden recogidas
todas las contribuciones relevantes. Para facilitar su localización, las referencias de los trabajos incluyen autores, título de la revista, volumen y página inicial; el año
de publicación es 2008 salvo que se indique otra cosa.
EN QUÍMICA
Algunos expertos en la historia de las ciencias sostienen que el desarrollo de los conocimientos científicos
no es precisamente lineal. Más bien, existe una alternancia de períodos románticos, en los que tienden a
acumularse los descubrimientos originales, y períodos
académicos, donde estos descubrimientos se confirman y
consolidan. En los ciclos más sosegados se despierta la
curiosidad por valorar cuál es el estado real de los conocimientos y se examina el posible agotamiento de los temas en estudio.
La ciencia contemporánea presenta casos que parecen confirmar estas tendencias. En un año tan significativo como 1900 pueden localizarse dos ejemplos bien
conocidos. El matemático David Hilbert presentó en un
Congreso Internacional en París su famosa lista de 23
problemas que aún aguardaban una solución, en tanto
que William Thomson (Lord Kelvin) señaló las «pequeñas
nubecillas» que oscurecían la Física de su tiempo en una
conferencia pronunciada ante la Royal Institution británica. En ambos casos se estaba en vísperas de profundas
renovaciones en ambas ciencias, quizá estimuladas por
estas inquietudes ante las cuestiones pendientes.
Más próxima a nosotros se encuentra la figura de
John Maddox, conocido editor de la revista Nature recientemente fallecido, quien en su libro «Lo que queda
por descubrir» (Debate, Madrid, 1999) elaboró un repertorio de los problemas aún no resueltos por la ciencia a
finales del siglo XX, dentro de los campos de la materia,
la vida y el pensamiento. De modo similar, la revista
Science publicó hace tiempo (Vol. 309, núm. 5731, julio
de 2005) un catálogo esencial de las 100 preguntas más
importantes en las diferentes áreas de la ciencia, cuyas
respuestas todavía ignoramos. Todas estas incógnitas
componen un sugestivo programa para la investigación
científica durante el presente siglo.
Dentro del campo especializado de la Química merece recordarse un número monográfico de la revista Accounts of Chemical Research (Vol. 28, núm. 3, marzo de
1995) que se dedicó a los «Griales» de esta ciencia. De
100cias@uned
MANIPULACIÓN DE LOS ÁTOMOS
Y MOLÉCULAS INDIVIDUALES
La Química, como ciencia de los sistemas atómico–
moleculares, se beneficia de la estadística de los grandes
números, ya que los sistemas sometidos a estudio experimental contienen un número enorme de partículas,
cuyo comportamiento promedio está garantizado nada
menos que por la constante de Avogadro. Este comportamiento colectivo es el que en último término se extrapola a la molécula individual, considerada como el origen de las propiedades de cada sustancia pura. Pero en la
actualidad se persigue el objetivo de estudiar el comportamiento de cada una de estas moléculas, bajo condiciones en que se encuentre lo más aislada posible y sin la
envolvente globalizadora del conjunto.
Para ello se requiere disponer de técnicas instrumentales sumamente refinadas, que ofrezcan un poder de
resolución a la altura (o quizá mejor profundidad) del
objetivo perseguido, que puede estimarse del orden de
88
Vida científica
del compuesto LaOFeAs, que al ser dopado con iones
fluoruro en sustitución del oxígeno, muestra superconductividad con una temperatura de transición de 26 K
(Kamihara y col., J. Am. Chem. Soc., 130, 3296; Figura 2).
Aunque resulte paradójico, uno de los sistemas materiales más extraordinarios es la estructura del agua líquida que estamos habituados a contemplar a nuestro alcance. Su estudio se ha prolongado durante décadas sin
llegar nunca a conclusiones definitivas, tanto así que se
ha denominado al agua como «espejo de la ciencia», por
su capacidad de reflejar a cada momento con toda fidelidad el estado de nuestros conocimientos experimentales
y teóricos. Esta vez se ha registrado un avance en las
predicciones teóricas que ha posibilitado la caracterización de los hexámeros de agua, uno de los muchos elementos de construcción que componen el complejo edificio del agua líquida (Truhlar y col., J. Phys. Chem. A,
112, 3976).
Otras de las propiedades asombrosas de la materia a
las que se dedica una atención creciente son las que se
derivan del auto-ensamblaje. Con este término se designa la formación espontánea de estructuras complejas
a partir de las interacciones mutuas de componentes
más simples. Este concepto abarca gran número de fenómenos, tanto en el campo inorgánico como en el orgánico, o incluso biológico. La teoría es complicada y
suele exigir la aplicación de modelos ingeniosos que
consigan un compromiso entre el rigor y el sentido práctico. Una idea clave es la cooperatividad con que las
entidades elementales, ya sean moléculas, partículas o
incluso organismos, interaccionan entre sí para formar
estructuras a mayor escala. Su influencia en el auto-ensamblaje se ha analizado recientemente con detalle
(Douglas y col., J. Chem. Phys., 128, 224901).
Finalmente, si reunimos algunos de los conceptos
que acabamos de indicar nos encontraremos en la tierra
prometida de los materiales orgánicos auto-organizados, cuyas aplicaciones como componentes activos en
dispositivos opto-electrónicos, tales como transistores,
diodos, células solares y otros artilugios de la actual
electrónica molecular, son del mayor interés. Un estudio
reciente ha puesto de manifiesto que el rendimiento de
estos prometedores materiales depende de los mecanismos de transporte de carga implicados y de la relación
de estos mecanismos con la composición química concreta de cada material (Grozema y Siebbeles, Int. Rev.
Phys. Chem., 27, 87; Figura 3).
fracciones de nanómetro, mucho más allá del límite de la
difracción óptica. Solamente así es posible medir directamente la fuerza necesaria para mover un átomo, tal
como se ha conseguido realizar aplicando la microscopía
de fuerza atómica (AFM) para determinar la fricción lateral ejercida sobre átomos adsorbidos sobre una superficie (Ternes y col., Science, 319, 1066; Figura 1).
Figura 1. Representación gráfica de las fuerzas que actúan sobre la
punta de un microscopio AFM al mover un átomo de cobalto sobre
una superficie cristalina de cobre (Ternes y col., 2008).
CONOCIMIENTO DE PROPIEDADES
EXTRAORDINARIAS DE LA MATERIA
Uno de los grandes objetivos, tanto científicos como
técnicos, que persiguen los investigadores de los materiales es lograr la superconductividad eléctrica a temperaturas lo más elevadas posible, aunque por ahora sigan
muy alejadas de la temperatura ambiente. Para ir superando el listón es necesario experimentar el comportamiento eléctrico de gran cantidad de sustancias, desde
los simples elementos hasta materiales cerámicos de
complejas estructuras. Se han estudiado las propiedades
Figura 2. Estructura
cristalina del compuesto
LaOFeAs, que muestra
superconductividad con
una temperatura crítica
de 26 K (Kamihara y
col., 2008).
100cias@uned
89
Vida científica
Figura 3. En las especies asociadas del trifenileno, la formación de enlaces de hidrógeno da lugar a una estructura extendida, en la que la
movilidad de cargas está mucho más facilitada que en el complejo π, que carece de dichos enlaces (Grozema y Siebbeles, 2008).
EXTENSIÓN DE LOS LÍMITES DE LA SÍNTESIS
QUÍMICA
El reconocimiento específico de las moléculas quirales, que como es bien sabido tienen idéntica composición
química pero sus formas espaciales difieren entre sí como
imágenes especulares, es crucial para muchos procesos
que se desarrollan en la naturaleza. Por tanto, es importante que al efectuar la síntesis química de productos
quirales se forme sólo una de las dos estructuras espaciales posibles. Este problema requiere una considerable
dosis de pericia experimental y se está consiguiendo resolver en diversos casos, de los que es un ejemplo representativo la producción de alcoholes terciarios quirales a
partir de la conversión de alcoholes secundarios, más
fácilmente obtenibles, con un alto grado de control estereoquímico (Stymiest y col., Nature, 456, 778).
Otro objetivo relacionado con el precedente es la
construcción de moléculas con la quiralidad helicoidal
deseada. Dentro de esta línea se han investigado las
aplicaciones de compuestos aromáticos fluorados, derivados del naftaleno, como elementos de control versátiles para producir alteraciones estructurales selectivas en
las etapas finales de la síntesis (Rasmusson y col., Angew. Chem. Int. Ed., 47, 7009; Figura 4).
100cias@uned
Figura 4. El núcleo de binol (un derivado del naftaleno) al ser
sustituido con fluor en diferentes posiciones posibilita la obtención de
moléculas helicoidales que presentan diferencias sustanciales en sus
empaquetamientos cristalinos (Rasmusson y col., 2008).
CONTROL DE LA CINÉTICA Y MECANISMOS DE
LAS REACCIONES QUÍMICAS
El conocimiento preciso de los pasos elementales de
las reacciones químicas a fin de manipular su mecanismo
y optimizar su evolución temporal es uno de los objetivos fundamentales de la ciencia química. Una de las
muchas facetas de este objetivo tan deseable es la com-
90
Vida científica
prensión de los principios de la reactividad en sistemas
homogéneos, heterogéneos e interfaciales. Como ejemplo
se puede citar la aceleración de ciertas reacciones orgánicas en medio acuoso, cuya relevancia dentro del campo de la «Química verde» es manifiesta (Li, Green Chem.,
10, 151). La aplicación de radicales libres a reacciones en
fase acuosa ha permitido la formación de enlaces C-H,
pieza fundamental en cualquier síntesis, con un alto
rendimiento (Perchyonok y col., ibid., 153).
Otro reto de los estudios cinéticos actuales es la
puesta a punto de técnicas espectroscópicas y de cálculo
para poder caracterizar los sistemas químicos en las
fronteras de la resolución temporal y espacial. Mediante una técnica de formación de imagen basada en el uso
de haces moleculares, se ha conseguido observar directamente las etapas del mecanismo de la sustitución nucleófila SN2, un proceso básico en la síntesis orgánica
que figura en todos los libros de texto, pero del que
nunca sabremos bastante ya que su dinámica molecular
es rica y compleja (Wester y col., Science, 319, 183;
Figura 5).
PERFECCIONAMIENTO DE LA CATÁLISIS
Por mucho que las reacciones químicas sean posibles
desde el punto de vista energético, para que puedan
aprovecharse en la práctica es necesario que se lleven a
cabo de modo eficaz en una escala de tiempo adecuada.
De ahí que la catálisis sea vital para la industria química
y que la obtención y optimización de catalizadores sea
un objetivo que atrae cuantiosos recursos. En la catálisis
heterogénea, el catalizador se encuentra en una fase diferente que los reactivos, y su papel es proporcionar una
superficie en la que se facilite la reacción. Los detalles de
los mecanismos son complejos y cualquier avance en
su conocimiento puede tener consecuencias beneficiosas
para la industria química. Para un proceso importante
como la hidrogenación catalítica del propeno, se ha conseguido seguir sus pasos elementales en microrreactores,
aplicando técnicas de formación de imágenes por resonancia magnética nuclear y de polarización del para–hidrógeno que permiten aumentar sustancialmente la
sensibilidad de detección respecto a métodos precedentes
(Bouchard y col., Science, 319, 442).
Otro logro interesante ha sido la conversión de un
catalizador homogéneo en uno heterogéneo, que se ha
demostrado en concreto por la implantación de un complejo organometálico de rodio dentro de una muestra
100cias@uned
Figura 5. Representación esquemática de la rotación del grupo metilo
en el mecanismo SN2 de la reacción entre Cl– y CH3I (el Cl– es
amarillo, el I es malva y el C es negro). Según Wester y col. (2008).
de plata metálica, formando un «composite» que aporta
diferentes productos con mejor rendimiento que el catalizador homogéneo original (Avnir y col., J. Am. Chem.
Soc., 130, 11880; Figura 6).
Figura 6. Evidencia microscópica que muestra la implantación de un
complejo organometálico de rodio dentro de plata metálica (Avnir y
col., 2008).
91
Vida científica
de cumplir es que los dispositivos utilizados alcancen
una larga duración. Las células fotovoltaicas basadas en
semiconductores inorgánicos, tales como el silicio, suelen
tener una vida media más prolongada que las células solares orgánicas y poliméricas, que se degradan tanto durante la iluminación como en la oscuridad. Por tanto, resulta necesario comprender mejor las causas de la
estabilidad y degradación de este tipo de células (Jorgensen y col., Sol. Energy Mater. Sol. Cells, 92, 686;
Figura 8), así como ir perfeccionando los materiales activos utilizados en su construcción (Heeger y col., J.
Am. Chem. Soc., 130, 3619).
Al utilizar otros complejos de ligandos orgánicos
con un metal, en este caso iridio, se ha obtenido una catálisis homogénea eficiente para la oxidación del agua, a
fin de descomponerla en hidrógeno y oxígeno, lo que
puede tener aplicación para conseguir unos buenos sistemas fotosintéticos artificiales (Bernhard y col., J. Am.
Chem. Soc., 130, 210; Figura 7).
Figura 7. Diagrama de orbitales moleculares frontera (HOMO es el
orbital más alto ocupado y LUMO el orbital más bajo sin ocupar) de
algunos complejos de iridio, que tienen aplicaciones para la catálisis
de la oxidación de la molécula de H2O (Bernhard y col., 2008).
Figura 8. Una célula solar encapsulada dentro de una ampolla
de vidrio sellada a alto vacío (Jorgensen y col., 2008).
En cuanto a otra vertiente muy importante de este
capítulo, la catálisis enzimática, merecen destacarse nuevos estudios que aportan detalles estructurales acerca
de la organización de los dominios catalíticos en enzimas
(Tanovic y col., Science, 321, 659; Frueh y col., Nature,
454, 903), con previsibles aplicaciones para la catálisis
biomimética «de diseño», tan esperada pero tan llena de
dificultades.
La fotosíntesis es uno de los procesos esenciales para
la vida. Es evidente que conseguir realizarla de modo artificial, logrando la conversión de la energía solar en
productos combustibles, sería uno de los grandes logros
de la Química, cuyas posibilidades merecen por ello una
profunda discusión. En concreto, los dendrímeros son
unas macromoléculas de estructura ramificada muy similar a la que tienen las unidades que captan la luz en el
proceso natural de la fotosíntesis, y por ello presentan
interesantes posibilidades para la realización de la fotosíntesis artificial (Balzani y col., ChemSusChem, 1, 26;
Figura 9).
Dentro de esta misma línea que persigue imitar los
procesos naturales (Barber y Rutherford, Phil. Trans. R.
Soc. B, 363, 1125), se ha sugerido la conveniencia de investigar especialmente las reacciones acopladas de transferencia de electrones que tienen lugar durante la fotosíntesis artificial (Hammarström y Styring, Phil. Trans. R.
Soc. B, 363, 1283).
EXPLOTACIÓN DE NUEVAS FUENTES
DE ENERGÍA
Se estima que el 85% de la energía que consumimos
procede de combustibles fósiles, un recurso limitado y de
distribución muy poco equilibrada en nuestro mundo. En
la adquisición de nuevas fuentes de energía más económicas, abundantes, eficientes y respetuosas con el medio
ambiente, el gran reto es la captación de la energía solar
mediante procedimientos suficientemente rentables. Por
ahora, el rendimiento obtenido es solamente de un 6%,
pero se viene realizando mucha investigación buscando
una mayor eficacia. Uno de los requisitos que se preten-
100cias@uned
92
Vida científica
turas anatómicas en las que se realizan. Con estas nuevas
estrategias se pueden desarrollar métodos no invasivos,
que facilitan la detección de fenómenos in vivo a resolución subcelular, por ejemplo algo tan esencial como la
producción de hidratos de carbono en animales vivos
(Laughlin y col., Science, 320, 664).
En cuanto a la gran asignatura pendiente del descifre
del código que rige el plegamiento de las proteínas, una
propiedad estructural que se considera la clave de su
actividad biológica, puede citarse una exploración de la
estructura e interacciones intermoleculares de un tipo
de conformación característico de las proteínas, las láminas «beta», mediante el uso de sistemas modelo más
pequeños y fáciles de manipular que las propias proteínas (Nowick, Acc. Chem. Res., 41, 1319; Figura 10).
Figura 9. Representación esquemática de los procesos de
transferencia de energía que tienen lugar en un dendrímero que
contiene tres tipos diferentes de cromóforos recolectores de luz. La
energía de excitación se canaliza a una molécula de eosina incluida
en el interior del dendrímero (Balzani y col., 2008).
La obtención de energía mediante movimientos a
nivel molecular, que activen los denominados motores
moleculares, es posible en principio mediante la utilización de medios ópticos, eléctricos y químicos. A escala
macroscópica los motores moleculares más eficientes
son los animados por medios electrónicos. En la nanoescala, existe la posibilidad teórica de conseguir una corriente eléctrica por efecto túnel, que induzca movimientos periódicos de vibración y de traslación en las
moléculas. Resulta de interés explorar si este efecto túnel
podría ser suficiente para lograr motores moleculares
sintéticos impulsados por movimientos de rotación concertados (Wang y col., Phys. Rev. Lett., 101, 186808).
Figura 10. En las láminas β artificiales, se combinan unidades
sintéticas con péptidos para obtener unas estructuras estabilizadas
por enlaces de hidrógeno, que sirven de modelo para estudiar las
auténticas conformaciones paralela y antiparalela de los sistemas
naturales (Nowick, 2008).
Uno de los problemas fundamentales en el estudio
de la evolución molecular es explicar la transferencia y
conservación de la información quiral entre moléculas y
sistemas supramoleculares. Se ha conseguido inducir y
controlar la memoria quiral en la formación de complejos
moleculares de porfirinas, compuestos que intervienen
como bloques de construcción de importantes estructuras
supramoleculares (Rosaria y col., Chirality, 20, 411).
Dentro de este mismo campo de la evolución molecular, es indudable que el gran objetivo por excelencia es
desvelar los presuntos orígenes químicos de la vida. Se
ha indicado que la complejidad molecular, expresada
como la heterogeneidad en la secuencia de las unidades
que forman una cadena, es un factor que favorece la
resistencia de los ribopolímeros ante la degradación
química y que por lo tanto hace posible su posterior
evolución como antecesores relativamente sencillos de
los ácidos ribonucleicos (Ciciriello y col., Biochemistry,
47, 2732).
REGULACIÓN DE LAS MOLÉCULAS DE LA VIDA
POR MEDIOS QUÍMICOS
La comprensión de los procesos químicos que regulan los sistemas biológicos tal como los conocemos es un
objetivo de largo alcance, que requiere coordinar los
avances de la investigación química básica y de aplicaciones creativas que integren esfuerzos multidisciplinares
en las fronteras entre la química, la biología y la medicina. Una metodología muy prometedora es la que se
basa en la formación de imágenes, tanto de procesos
biológicos normales o patológicos, como de las estruc-
100cias@uned
93
Vida científica
Figura 11. Imagen en falso color de la Cuenca Aitken, situada en el Polo
Sur de la Luna, en gran parte en la cara oculta de nuestro satélite. Las
diferencias de color revelan distintos materiales de la parte inferior de
la corteza o de la parte superior del manto, que aparecen expuestos en
la superficie lunar y de los cuales se pretende determinar su
composición química (Bandhari, 2008).
Figura 12. Detección de radicales hidroxilo OH en la
atmósfera del planeta Venus. (a) Curvas de intensidad de
las emisiones de luminiscencia nocturna de los radicales
OH a diferente longitud de onda, en función de la altitud.
(b) Distribución de la intensidad integrada de las
emisiones frente al tiempo local y la altitud, que revela
que la emisión de los radicales OH puede variar dentro de
una simple órbita del planeta (Piccioni y col., 2008).
CONOCIMIENTO DE LA COMPOSICIÓN QUÍMICA
DE LOS PLANETAS
(Wilson, Chem. Eng. News, 86, 13). En Venus, la nave
Venus Express, de la Agencia Espacial Europea (ESA), ha
detectado por medios espectroscópicos la existencia en la
atmósfera de radicales OH, unas sustancias químicas importantes y reactivas (Piccioni y col., Astron. Astrophys.,
483, L29; Figura 12).
En Mercurio, la misión MESSENGER de la NASA ha
comprobado que en contra de lo esperado, la mayor parte
del hierro no está en los silicatos, que presentan un contenido de hierro sorprendentemente bajo, sino más bien en
forma de óxido o de metal (McClintock y col., Science,
321, 62). Otra misión proyectada de la ESA que permitirá
confirmar estos hallazgos es la BepiColombo, cuya llegada
a Mercurio está prevista en 2020 (Rothery y col., Planet.
Space Sci., en prensa). De continuar por este camino, la
Química espacial será pronto un nuevo capítulo que tendremos que incorporar a nuestros conocimientos.
El gran objetivo de conocer la composición material
de los cuerpos celestes no es precisamente una ocurrencia de ahora, pues tiene una arraigada relación histórica
con la invención de la espectroscopía por Bunsen y
Kirchhoff a mediados del siglo XIX. La característica de
nuestros tiempos es que resulta posible una exploración
directa «sobre el terreno» utilizando medios automatizados o incluso humanos. Como es lógico, el estudio comienza por los planetas y satélites más próximos a la
Tierra, los cuales presentan la interesante ventaja de poseer una estructura rocosa que facilita la recogida de
muestras sólidas (Bandhari, Current Sci., 94, 189; Figura
11). Aunque no seamos plenamente conscientes de ello,
los descubrimientos de interés se están sucediendo con
cierta frecuencia.
Así, en el planeta Marte, el explorador Phoenix de la
NASA ha detectado la presencia de iones perclorato
100cias@uned
Fernando Peral Fernández
Dpto. de Ciencias y Técnicas Fisicoquímicas
94
Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
SEMBLANZAS DE LOS PREMIOS
NOBEL
transformación si las ecuaciones correspondientes no
cambian al implementar sobre ellas la mencionada transformación. Naturalmente, el concepto de transformación
que estamos considerando aquí es bastante amplio. Tenemos transformaciones espaciales, tales como una rotación
de un cierto ángulo alrededor de un eje, una reflexión
respecto de un plano, una translación definida por un
vector o la llamada inversión espacial (también llamada
transformación de paridad y simbolizada por la letra P):
EL PREMIO NOBEL DE FÍSICA 2008:
SIMETRÍAS ROTAS
INTRODUCCIÓN
La Academia Sueca de las Ciencias anunció el 7 de
octubre de 2008 que el Premio Nobel de Física de aquel
año recaía, por un lado, en el científico americano de
origen japonés Yoichiro Nambu (Tokio, 1921) y, por
otro, en los investigadores japoneses Makoto Kobayashi
(Nagoya, 1944) y Toshihide Maskawa (Nagoya, 1940).
Nambu, en la actualidad catedrático emérito en el Instituto Enrico Fermi de Chicago, fue galardonado por «el
descubrimiento del mecanismo de rotura espontánea de la
simetría en física subatómica». Kobayashi y Maskawa,
catedráticos eméritos en el Acelerador de Altas Energías
de Tsukuba (KEK) y en el Instituto de Física Teórica Yukawa de Kyoto, respectivamente, fueron premiados por
«el descubrimiento del origen de la simetría rota que
predice la existencia de al menos tres familias de quarks
en la naturaleza» [1]. Los trabajos reconocidos a Nambu
y a Kobayashi y Maskawa parecen entonces muy cercanos entre sí. Sin embargo, aparte de abordar problemas
relacionados con el importante concepto de simetría en
física teórica, estos dos descubrimientos científicos son
conceptualmente bastante diferentes. Mientras que Nambu mostró cómo simetrías aparentemente ausentes en
física de partículas existen realmente a un nivel más
profundo, Kobayashi y Maskawa analizaron las implicaciones que tiene el incumplimiento real de una ley de simetría a la hora de catalogar las partículas elementales
que constituyen los bloques fundamentales de la materia.
Pensemos en un sistema físico arbitrario cuyo comportamiento está regido por un conjunto de leyes expresadas en forma de ecuaciones matemáticas. Si el sistema
se encuentra en un estado cuyas propiedades no se ven
afectadas al realizar un cambio o transformación en el
mismo, diremos que el estado es simétrico bajo dicha
transformación. Análogamente, las leyes físicas que gobiernan el sistema son simétricas o invariantes bajo una
100cias@uned
r → r’ = –r
que cambia el sentido de todas las posiciones, medidas
desde el punto que se toma como origen de coordenadas
en el sistema. Igualmente podemos contemplar transformaciones que afectan al tiempo, como las translaciones temporales:
t → t’ = t + Δt
donde Δt define la transformación, o la llamada transformación de inversión temporal (T):
t → t’ = –t
que implica invertir el sentido del tiempo. Son también
muy importantes en física teórica aquellas transformaciones que cambian las propiedades fundamentales del
sistema, como es la conjugación de carga (C) en un sistema de partículas elementales, la cual consiste en sustituir todas las partículas por sus antipartículas aunque
conservando el espín y el momento lineal de cada una
de ellas. Finalmente, en teoría de campos se contemplan transformaciones matemáticas más abstractas pero
que una vez interpretadas suelen tener un significado físico claro. Por ejemplo, consideremos un campo vectorial
A(x) en una teoría de campos relativista (aquí x es un
cuadrivector del espacio-tiempo mientras que el campo
A(x) tiene varias componentes escalares) y una transformación genérica A(x) → A’(x) en la que se combinan diferentes componentes del campo vectorial, combinación
que depende del punto x del espacio-tiempo. De esta
manera la transformación afecta a la estructura interna
del campo en cada punto del espacio–tiempo y tenemos
una transformación interna local o transformación de
gauge. Como veremos más adelante, este tipo de trans-
95
Vida científica
formaciones juega un papel esencial en las modernas
teorías cuánticas de campos.
Se puede asignar de manera natural la estructura
matemática de grupo al conjunto de transformaciones
bajo las cuales unas leyes físicas son invariantes. Esto
nos permite hablar de un grupo de transformaciones de
simetría o, simplemente, grupo de simetría del sistema.
Esto puede parecer una extravagancia, pero la teoría de
grupos es una herramienta matemática poderosa que
permite extraer información física muy relevante a partir del análisis de las simetrías en las leyes que gobiernan
el sistema. En particular, imaginemos que las leyes físicas
de nuestro sistema son invariantes bajo un grupo de simetría continuo (es decir, que las transformaciones dependen de uno o varias parámetros que toman valores
dentro de un continuo), tales como los grupos de traslaciones o los de rotaciones (espaciales y también internas). Entonces se cumple el teorema de Noether, que
afirma que a cada grupo de simetría continuo le corresponde una cantidad conservada en la evolución, es decir,
una magnitud física cuyo valor es constante en el tiempo para cualquier estado físico del sistema. Así, la energía es la cantidad conservada asociada a la simetría bajo
translaciones temporales, el momento lineal está ligado a
las translaciones espaciales, y el momento angular se
conserva si hay invariancia rotacional espacial. Ya que
las leyes fundamentales de la física son invariantes bajo
estas tres transformaciones se tiene el carácter esencial
de la conservación de la energía, del momento lineal y
del momento angular. Por otro lado, en teoría de campos
la carga es la cantidad conservada asociada a una simetría interna continua de las ecuaciones del electromagnetismo. Esta simetría es un ejemplo de las denominadas
invariancias de gauge y se dice entonces que la teoría de
campos considerada es una teoría gauge. Vemos entonces
que las simetrías en la teoría se reflejan en la forma en
la que los sistemas evolucionan en el tiempo, ya que
aquellas definen cantidades conservadas en la dinámica
de los sistemas.
Ilustración de la rotura de simetría en el gas de electrones. A altas
densidades medias el gas es homogéneo y paramagnético. A bajas
densidades medias la densidad de partículas sigue siendo uniforme
pero los espines de los electrones se orientan en una dirección
(ferromagnetismo) rompiéndose así la simetría de rotación.
A densidades medias aún más bajas el gas de electrones
«cristaliza» y se rompe también la simetría de traslación.
que asoló la capital del Japón, los Nambu se vieron forzados a volver a Fukui, donde Kichiro se convirtió en
maestro de escuela. Allí Yoichiro realizó sus estudios
preuniversitarios sufriendo, como no podía ser de otra
forma, el fuerte ambiente militarista de la sociedad nipona de aquellos años. Está circunstancia fue compensada por la educación más liberal y abierta que le proporcionaba su propio padre, lo que contribuyó a
construir un carácter reservado y con una profunda capacidad de escrutinio. Tras su periodo
formativo en Fukui,
inicia sus estudios
universitarios en la
Universidad Imperial
de Tokio donde se
gradúa en 1942, en
plena Segunda Guerra Mundial.
Nada más graduarse es reclutado
Yoichiro Nambu.
YOICHIRO NAMBU Y LA ROTURA ESPONTÁNEA
DE LA SIMETRÍA EN TEORÍAS DE CAMPOS
Yoichiro Nambu nace el 18 de enero de 1921 en Tokio, siendo el primer hijo de Kichiro y Kimiko Nambu. Su
padre, Kichiro, había abandonado su ciudad natal, Fukui,
para estudiar en la universidad de Tokio sin el consentimiento de su familia. Tras el terrible terremoto de 1923
100cias@uned
96
Vida científica
máxima estabilidad. En mecánica cuántica diríamos que
hay un estado del nivel fundamental que no tiene las
mismas simetrías que el hamiltoniano de evolución, pudiendo probarse que para que esta situación sea posible
el nivel fundamental ha de ser degenerado. Un ejemplo
típico es el modelo del gas de electrones: para densidades
suficientemente bajas el estado fundamental es ferromagnético, estando todos los espines orientados en la
misma dirección a pesar de que el hamiltoniano es invariante bajo rotaciones. A densidades aun más bajas, el
gas de electrones se «coagula» de manera que la densidad
de carga electrónica adquiere una estructura cristalina
denominada cristal de Wigner. Obsérvese que en estos
dos casos el estado «usual» (homogéneo y paramagnético) es metaestable, por lo que si el sistema se encontrase
en este estado cualquier perturbación, por mínima que
fuese, haría que el estado decayese a una de las posibles
configuraciones más estables. En la transición de fase
paramagnético → ferromagnético la simetrías que se
rompen espontáneamente son de rotación; en la transición gas homogéneo → cristal, las simetrías rotas espontáneamente son de traslación espacial.
En teoría cuántica de campos se define el «vacío»
como el estado energético de menor energía. Ello implica que en el vacío cuántico no todas las magnitudes físicas medibles tienen porqué tomar el valor idénticamente nulo. Pensemos ahora en un sistema en el que el
nivel fundamental es degenerado o, en otros términos, en
el que hay diferentes «vacíos». Puede verse que estos
vacíos son equivalentes entre sí, en el sentido de que podemos obtener uno a partir de otro aplicando sobre el segundo algunas de las transformaciones de simetría rotas
pero que caracterizan a las leyes físicas de nuestro problema. Ahora bien, lo natural es medir las magnitudes
observables con respecto al vacío. El problema es que escogido uno de ellos las leyes físicas que determinan la
evolución de las magnitudes físicas referidas a este estado de vacío ya no van a exhibir todas las simetrías que
tenían las leyes físicas generales debido, precisamente, a
que el estado de referencia no es enteramente simétrico.
Así, el fenómeno de rotura espontánea de la simetría se
traduce en una pérdida aparente de las simetrías en las
ecuaciones constitutivas del sistema. En el ejemplo mencionado en el párrafo anterior, a densidades bajas hay
infinitos estados fundamentales y cada uno de ellos determina una dirección privilegiada de referencia (aquella
en la que están alineados los espines de los electrones)
que parece romper la simetría de rotación de las leyes del
por el Ejército Imperial, donde trabaja en el desarrollo
(fallido) de un sistema de radar lo que le evita ser enviado al frente. Durante ese periodo de servicio conoce a la
que sería su esposa, Chieko Hida y, finalizada la contienda, trabaja en las durísimas condiciones del Japón de
la posguerra como investigador en Tokio. Obtiene una
plaza de profesor asociado en la Universidad de Osaka en
1949 alcanzando de manera oficial el grado de doctor en
ciencias en 1952. Durante su periodo en Osaka, Nambu
publica un trabajo sobre las propiedades de ligadura de
dos partículas que claramente anticipa lo que hoy conocemos en física teórica como la ecuación de Bethe-Salpeter, esencial para comprender las propiedades excitónicas en materia condensada. En 1952 acepta una oferta
del Instituto de Estudios Avanzados en Princeton, Estados Unidos, y poco tiempo después se traslada a la Universidad de Chicago donde es nombrado catedrático en
1958. Es aquí donde inicia sus investigaciones sobre fenómenos de rotura de simetría, inicialmente en superconductores, que son las reconocidas por el Premio
Nobel.
Por lo que hemos visto en la introducción, las simetrías en un sistema físico tienen una importancia capital a
la hora de analizar sus propiedades básicas. Ahora bien,
es evidente que no hay una correspondencia biunívoca
entre las simetrías que puede exhibir el sistema y las simetrías de las leyes físicas que lo gobiernan. En otras palabras, debemos siempre distinguir entre las simetrías en
las ecuaciones, que tienen un carácter fundamental dentro de la teoría, y las simetrías en las soluciones a dichas
ecuaciones, que definen las propiedades de los posibles
estados físicos del sistema. Así puede suceder que en un
instante dado el sistema esté en un estado con una simetría accidental, pero que desaparezca posteriormente en la
evolución temporal. También puede ocurrir lo contrario:
que el estado no exhiba una simetría que sin embargo
aparece en las ecuaciones. Por ejemplo, las leyes físicas
en muchos sistemas no dependen explícitamente del
tiempo (invariancia bajo translaciones temporales) pero, a
no ser que el sistema esté en un estado estático, esta simetría no se mostrará en el propio sistema. De hecho, las
simetrías fundamentales bajo translaciones y rotaciones
espaciales y bajo translaciones temporales rara vez aparecen reflejadas en los estados físicos.
Un caso particular, es aquel en el que un estado de
mínima energía no exhibe todas las simetrías de las
ecuaciones del sistema. Se dice entonces que hay simetrías que se han roto espontáneamente en el estado de
100cias@uned
97
Vida científica
que se definen (en sentido cuántico) como una combinación lineal de un electrón y un hueco y que poseen la
particularidad de que su espectro de energías exhibe un
gap Δ (es decir, es necesaria una energía mínima no
nula para crear la excitación). El problema es que el hamiltoniano para estas cuasipartículas no conserva la carga eléctrica, lo que físicamente no es admisible. Esta
aparente contradicción atrajo la atención de Nambu que
dedicó sus esfuerzos a intentar desentrañarla.
Como el propio Nambu señala en su «lección Nobel»
[4], necesitó unos dos años para entender el problema,
dando con la respuesta en 1960 [5]. En esencia, lo que
hizo Nambu fue rescribir las ecuaciones BCS en un lenguaje de teoría de campos con invariancia gauge, garantizando así la conservación de la carga. La fase superfluida (que no exhibe dicha simetría) aparece de
manera natural como una solución a las ecuaciones.
Más aún, Nambu demostró que en el espectro de excitaciones aparece, además de las cuasipartículas de Bogoliubov, un modo bosónico colectivo que tras acoplarse
con la interacción eléctrica da lugar a un modo cargado
y masivo, un plasmón. De esta manera, Nambu fue el
primero en formular un fenómeno de rotura espontánea
de la simetría dentro de una teoría cuántica de campos y
analizar las consecuencias que tiene este hecho sobre
las propiedades de excitación del sistema. Así, al romperse la simetría aparecen de manera natural excitaciones
que necesitan una energía mínima (gap) para ser creadas
junto con otras de naturaleza bosónica que estarían ausentes en el caso de que el estado fundamental exhibiese
dicha simetría. Este último mecanismo fue inmediatamente después presentado de manera más general y sencilla por Jeffrey Goldstone [6], por lo que hoy conocemos
con el nombre genérico de bosón de Nambu-Goldstone
(bosón NG) a esta clase de excitaciones del vacío no
simétrico que, en cierta forma, son una «herencia» de la
simetría que se ha roto espontáneamente en el estado
fundamental.
La profunda visión de Nambu se manifiesta en el siguiente paso: extender esta idea a una teoría de campos
relativista para partículas elementales. Puesto que las
partículas pueden verse como excitaciones del vacío,
debería haber una fuerte correspondencia entre simetrías
rotas y las propiedades de las partículas que emergen
dentro de la teoría. En la época en la que nos encontramos (principios de la década de los 60 del siglo pasado),
la elucidación de la naturaleza de las fuerzas nucleares
fuertes y débiles es uno de los campos abiertos de inves-
electromagnetismo, simetría que naturalmente sigue
existiendo pero «escondida» por el hecho de que nuestro
estado de menor energía de referencia no es invariante
bajo rotaciones.
El ejemplo anterior es sencillo de visualizar porque
cuando el estado fundamental de un sistema electrónico
es ferromagnético la simetría que se rompe es espacial.
Ahora bien, en teorías cuánticas de campos gauge bien
puede ocurrir que el fenómeno de rotura espontánea de
la simetría afecte precisamente a las simetrías internas,
menos intuitivas, de los campos involucrados.
Pensemos en la teoría cuántica de campos gauge
más sencilla: la electrodinámica cuántica (QED), resultado de los trabajos pioneros de Richard Feynmann, Julian
Schwinger, Sin-Itiro Tomonaga y Freeman Dyson a finales de la década de los cuarenta del siglo pasado. En la
QED, como en cualquier otra teoría cuántica de campos
relativista, los objetos fundamentales son operadores en
el espacio de Hilbert de los estados que dependen de los
puntos del espacio-tiempo. En el caso de la QED la simetría gauge aparece al realizar transformaciones internas en el campo asociado al electrón/positrón, en particular cambios locales de fase que quedan descritos por
el grupo de simetría U(1) (rotaciones de ángulo ϕ). Al
quedar todos los elementos de este grupo determinados
por un único parámetro, la cantidad conservada asociada a la simetría es un escalar: la carga eléctrica. Lo interesante es que el campo EM, que en este contexto se denomina campo gauge, se introduce en las ecuaciones de
tal manera que se satisfaga dicha simetría: la descripción
del acoplamiento entre el campo electrónico y el campo
EM esta guiado por la invariancia gauge de la teoría. En
un lenguaje más inteligible, las ecuaciones de evolución
dinámica se construyen imponiendo el principio físico de
conservación de la carga. Por tanto, en toda teoría descriptiva de fenómenos electromagnéticos esta ley de conservación, plasmada en la conocida ecuación de continuidad, tiene que aparecer de manera natural.
Sin embargo, esto no ocurre en la célebre teoría de
Bardeen, Cooper y Schrieffer (BCS) para la superconductividad a bajas temperaturas [2]. En la teoría BCS
los electrones se agrupan en pares (de Cooper) en un
proceso mediado por los fonones de la red del metal. Estos pares de Cooper tienen carga –2 (en unidades de la
carga absoluta del electrón) formando un condensado
superfluido y las excitaciones cuánticas se deben construir a partir de este condensado. Un ejemplo de estas
excitaciones son las cuasipartículas de Bogoliubov [3],
100cias@uned
98
Vida científica
gor, la simetría quiral no se satisface exactamente (el término en el hamiltoniano que representa la energía en reposo no es invariante bajo transformaciones quirales). Al
imponer que la simetría rota es aproximada, el pión sí
tiene entonces masa aunque éste ha de considerarse formalmente como un pseudo-bosón NG. Nótese que esta
pequeña masa de 5 MeV/c2 es similar a la de los quarks
u y d, muestra de la bondad última del modelo. Aunque
hoy en día sabemos que los nucleones son estados ligados de tres quarks y que los piones están formados por
parejas de quarks u y d, el papel que juega la rotura espontánea de la simetría quiral en las interacciones fuertes es la que predice el modelo NJL. De hecho, este modelo se sigue usando hoy en día en la interpretación de
algunas reacciones mediadas por interacciones fuertes
para las cuales las ecuaciones derivadas de la QCD son
demasiado complicadas.
La importancia e implicaciones del fenómeno de rotura espontánea de la simetría presentado por Nambu y
Goldstone fueron inmediatamente reconocidas por la
comunidad de físicos teóricos. Poco tiempo después se
plasmaron en el mecanismo de Higgs que, para dar crédito a todos los grupos que contribuyeron de manera independiente a su formulación, debe llamarse mecanismo
de Englert-Brout-Higgs-Guralnik-Hagen-Kibble [8]. Éste
explica cómo los bosones asociados a las interacciones
gauge pueden adquirir una masa no nula tras un proceso de rotura espontánea de la simetría, lo que es posible
por la presencia de un campo adicional, el campo de
Higgs, que interactúa con los propios campos gauge. La
incorporación de este mecanismo a la teoría unificada de
la interacción electrodébil de Weinberg, Salam y Glashow proporciona la masa no nula de los bosones W± y Z
asociados a la fuerza débil, de corto alcance, y en el
contexto más amplio del modelo estándar también explica la masa no nula de los leptones y de los quarks.
Parte de este campo de Higgs debería manifestarse en
una partícula, el famoso bosón de Higgs, cuya detección
es el objetivo más importante del LHC.
Las contribuciones de Yoichiro Nambu a la física
teórica de partículas no terminan aquí. En 1965 sugirió
que las interacciones fuertes deberían estar construidas a
partir de una teoría gauge no abeliana basada en el grupo de simetría SU(3) [9], anticipando claramente la teoría
de Gell-Mann y Zweig de los quarks. Nambu pensó que
los quarks podrían ser observados directamente lo que le
llevó a asignarles una carga entera, error que fue corregido un año más tarde por el propio Gell-Mann. Más
tigación más activo. Nambu y sus colaboradores (principalmente Giovanni Jona-Lasinio) abordaron el estudio de
la rotura de simetría en la interacción fuerte usando un
sencillo modelo efectivo [7].
A diferencia del caso de un superconductor BCS, en
el que se rompe una simetría gauge en el estado fundamental formado por pares de Cooper, en el trabajo de
Nambu y Jona-Lasinio (NJL) se produce la rotura de la
simetría quiral en un condensado de hipotéticos fermiones que son los constituyentes fundamentales del modelo. Para una fermión de espín ½ sin masa, como por
ejemplo un fotón, es posible definir una quiralidad atendiendo a la orientación relativa entre el espín y el momento lineal de manera que la quiralidad es equivalente
a la helicidad. Para partículas masivas, cuyo momento lineal puede cambiar de orientación dependiendo del sistema de referencia, la definición de su quiralidad es más
complicada aunque posible. Así, el campo asociado a
un fermión de espín ½, masivo o no, siempre se puede
descomponer en una parte con quiralidad positiva (componente «diestra» en lenguaje figurado) y en otra con
quiralidad negativa (componente «zurda»). Entonces, una
ecuación de evolución exhibe simetría quiral si es invariante bajo rotaciones internas independientes de las
componentes diestra y zurda. Así ocurre con las ecuaciones de evolución del modelo NJL pero no con el estado de vacío que, como hemos dicho, tiene rota la simetría quiral. De esta manera, existirá un espectro de
excitaciones con una fuerte analogía a los vistos en el
caso del superconductor. En concreto, las cuasipartículas
de Bogoliubov son ahora los nucleones, el gap de las primeras es la masa no nula de los segundos, y el bosón NG
que emerge en el espectro es un pión: un estado ligado
formado un nucleón y un antinucleón. Obsérvese que
este trabajo es bastante anterior a la introducción de los
quarks y los gluones de la cromodinámica cuántica
(QCD), por lo el hipotético campo fermiónico del modelo
debe verse como una forma efectiva de describir los nucleones detectables experimentalmente y no como una
representación aproximada de los quarks.
Una limitación del modelo NJL original nace del hecho de que el campo fundamental sobre el que está
construido no tiene masa y, entonces, tampoco la tiene el
pión (el bosón NG correspondiente). El hecho experimental de que el pión es un hadrón ligero (masa del orden de 140 MeV/c2) sugirió a Nambu y Jona-Lasinio a
suponer una pequeña energía en reposo de unos 5 MeV
para sus hipotéticos fermiones. Esto implica que, en ri-
100cias@uned
99
Vida científica
adelante, alrededor de 1970, Nambu abordó el problema
del confinamiento de los quarks (el porqué estas partículas nunca se encuentran aisladas sino formando hadrones). Si pensamos en el caso sencillo de un mesón
(hadrón formado por un quark y un antiquark), los datos
experimentales sugieren que la fuerza de interacción
quark-antiquark es constante para distancias mayores
que 1 fm, por lo que la energía potencial asociada a
interacción fuerte es proporcional a la distancia entre las
partículas. Nambu explicó este hecho en términos de un
modelo de resonancia dual, en el que la interacción entre
los constituyentes del par podía explicarse mediante una
cuerda unidimensional que, posteriormente, la QCD mostró ser una cinta gluónica formada por un numero muy
grande, en la práctica infinito, de gluones. En este caso
Nambu no solo anticipó la respuesta correcta sino que
marcó las bases de las modernas teorías de cuerdas cuyo
objetivo es una formulación unificada de la interacción
gravitatoria y las tres fuerzas del modelo estándar (electromagnética, nuclear débil y fuerte).
El Nobel culmina así la brillante carrera de uno de los
físicos teóricos más influyentes y perspicaces de los últimos cincuenta años, trayectoria reconocida anteriormente con múltiples galardones: el Premio J. R. Oppenheimer,
la Medalla Nacional de la Ciencia de EE. UU., la Orden de
la Cultura de Japón, la Medalla Dirac del ICTP, el Premio
Sakurai y la Medalla del Instituto Benjamín Franklin. Quizá la mejor forma de definir cuál ha sido el impacto de la
obra de Nambu en la moderna física teórica sea reproducir
un comentario de Bruno Zumino: «Estaba convencido de
que si podía comprender lo que Nambu pensaba en ese
momento yo estaría adelantado diez años a mi tiempo, así
que procuré hablar con él todo lo que pude. El problema
es que cuando terminé de comprender lo que me decía, ya
habían pasado diez años» [10].
LA SIMETRÍA CP Y LAS TRES FAMILIAS
DE QUARKS
Makoto Kobayashi.
Makoto Kobayashi y
Toshihide Maskawa, nacidos
en Nagoya el 7 de abril de
1944 y el 7 de febrero de
1940, respectivamente, realizan su formación predoctoral en la universidad de esta
misma ciudad bajo la supervisión del Profesor Shoichi
100cias@uned
Sakata [11]. El grupo de
Sakata había realizado importantes contribuciones
referentes a la composición
de las partículas elementales en los años 50 y 60 del
siglo pasado, entre las que
destacó el llamado modelo
de Sakata [12]. Bajo esta
Toshihide Maskawa.
hipótesis, presentada en
1956, todos los hadrones detectados hasta la fecha estarían compuestos a partir de un triplete de bariones: el
protón, el neutrón y la partícula lambda (Λ). La idea
esencial era correcta (una representación fundamental
del grupo de simetría SU(3) asociado a la conservación
del isospín y de la hipercarga) aunque no las partículas
elegidas, que serían los quarks u, d y s de Gell-Mann.
De acuerdo con el modelo estándar, los hadrones
están formados por quarks que se presentan en seis sabores: u, d, s, c, b, t (up, down, strange, charm, bottom,
top). Cada quark (y su antiquark correspondiente) puede
estar en tres estados de color que también definen un triplete SU(3). Usando la terminología típica de la QCD, la
interacción fuerte está mediada por gluones que al interaccionar con un quark cambian el estado de color de éste
último. A su vez, los quarks están afectados por las fuerzas electrodébiles (la desintegración de un kaón en dos
piones es un ejemplo característico), las cuales son también responsables de la interacción entre leptones (electrón, muón, tauón y los tres neutrinos asociados) y entre
leptones y quarks [13]. En resumen, la «zoología» de
partículas elementales está compuesta de 18 quarks (seis
sabores multiplicados por tres colores) y sus antiquarks,
6 leptones y sus antileptones, partículas mediadoras de
las interacciones (el fotón, los bosones W± y Z y ocho
gluones) y el mencionado bosón de Higgs.
Para enmarcar el trabajo de Kobayashi y Maskawa
reconocido con el Premio Nobel, fijémosnos en tres de
las transformaciones mencionadas en la introducción:
conjugación de carga (C), paridad (P) e inversión temporal (T). Las interacciones fuerte y electromagnética son
simétricas respecto de cada una de estas tres transformaciones y, por tanto, bajo cualquier combinación de las
mismas. Sin embargo, la cosa es muy diferente para las
interacciones débiles. En primer lugar, estas interacciones
no conservan la paridad (Lee y Yang, 1956), lo que implica que la probabilidad de que se produzca un proceso
mediado por la interacción fuerte no tiene que ser la
100 Vida científica
misma que la de su imagen especular (la simetría P es
equivalente a una simetría de reflexión debido a la invariancia fundamental bajo rotaciones). Esta violación de
la paridad puede verse claramente en que es imposible
que se produzca la imagen especular del proceso de desintegración bajo interacción débil de un pión positivo en
un antimuón y un neutrino muónico:
π+ → μ+ + νμ
En efecto, el neutrino es una partícula levógira o
«zurda», que en el proceso especular sería sustituido por
un neutrino dextrógiro o «diestro» que no existe. Esta
misma reacción ilustra la violación de la simetría C en
procesos débiles, ya que la sustitución de partículas por
antipartículas llevaría a un proceso en el que hay un antineutrino muónico levógiro, partícula que tampoco existe puesto que los antineutrinos son dextrógiros. Ahora
bien, si aplicamos la transformación conjunta CP no hay
problema alguno ya que el neutrino levógiro se transforma en un antineutrino dextrógiro, lo cual es perfec-
Las simetrías P y CP. Puesto que las leyes físicas son invariantes bajo
rotaciones, las propiedades respecto de la simetría de paridad P son
equivalentes a las de una reflexión respecto de un plano. Bajo esta
transformación las partículas dextrógiras (izquierda) se transforman
en levógiras (derecha). Si, además, realizamos una tranformación de
conjugación de carga C, las partículas se transformarían en
antipartículas. La representación pictórica del espín s es,
naturalmente, figurada.
100cias@uned
tamente posible. Éste y otros análisis similares llevaron a
los físicos de partículas a pensar, alrededor de 1960, que
las interacciones débiles son invariantes bajo transformaciones CP. Puesto que se considera que la simetría
bajo la transformación conjunta CPT es una ley fundamental de la naturaleza, lo anterior implica que las interacciones débiles son también invariantes bajo inversión
temporal (reversibilidad microscópica).
Este esquema cambió radicalmente tras uno de los
experimentos más importantes de la historia de la física.
En 1964 James Cronin, Val Fitch y colaboradores detectaron un proceso de desintegración de un kaón neutro en
dos piones (positivo y negativo) que violaba la simetría
CP [14]. Dicho proceso tenía una probabilidad muy baja
de producirse, por lo que su conclusión fue que la simetría CP no era exactamente conservada por las interacciones débiles. Debido a la simetría CPT tenemos inmediatamente que esta desintegración débil de kaones
neutros no es invariante bajo inversión temporal lo que
define un proceso fundamental irreversible. A su vez, la
violación de la simetría CP implica una distinción esencial entre partículas y antipartículas; por ejemplo, un
kaón se puede transformar en su antikaón y viceversa
mediante un proceso débil, pero las probabilidades de
ambos sucesos no son idénticas. Esta violación de la simetría CP debería entonces ser un ingrediente esencial,
aunque no único, para comprender por qué en nuestro
universo la materia predomina sobre la antimateria.
Poco antes del descubrimiento de Cronin et al., el físico italiano Nicola Cabibbo formuló un concepto esencial para entender la formación de la materia hadrónica
por quarks: la mezcla de sabores [15]. Como hemos mencionado, los quarks pueden interaccionar mediante procesos débiles produciéndose un cambio en su sabor; por
ejemplo, el quark u se transformaría en el quark d en un
proceso mediado por un bosón W. Sin embargo, y ésta es
la esencia de la teoría de Cabibbo, lo anterior es una descripción aproximada pero no exacta. Basándose en el
análisis de los procesos de desintegración de partículas
extrañas (hadrones que contienen el quark s), Cabbibo
encontró que los campos hadrónicos que aparecen en la
interacción fuerte no son exactamente los mismos que
los que están involucrados en la débil. En el lenguaje del
modelo estándar, la hipótesis de Cabibbo se traduciría en
que los quarks que interactúan a través de la fuerza débil
no son los estados con sabor bien definido (u, d, s, etc.)
sino una superposición de los mismos. Así, en la interacción débil entre quarks, el estado asociado al quark u
101 Vida científica
no está acoplado vía bosón W al d como sugeríamos
hace un momento, sino al estado:
|d’典 = cos θc |d典 + sin θc |s典
donde θc es el ángulo de Cabibbo con un valor aproximado de 13º. Análogamente, la interacción débil no acopla el quark charm c al quark s, sino al estado:
|s’典 = – sin θc |d典 + cos θc |s典
(obsérvese que |d’典 y |s’典 son ortogonales). De esta manera los estados de sabor |u典, |d’典, |c典, |s’典 forman un
conjunto ortonormal estructurado en dos dobletes, (|u典,
|d’典) y (|c典, |s’典).
En 1972, Kobayashi y Maskawa (KM) trabajan como
investigadores en la Universidad de Kyoto (el primero
acaba de incorporarse como investigador postdoctoral y
el segundo ya era profesor asociado en el departamento
de física). En aquel año ya se tenía la certeza de la existencia de u y d (los protones y neutrones están formados
de ellos) y también de la de s como componentes de los
kaones. A su vez, Glashow y colaboradores ya habían
conjeturado la existencia del quark s, hipótesis que se
confirmó posteriormente con la detección de las primeras
partículas encantadas en 1974. Fuertemente influenciados por su formación dentro de la escuela de Sakata, dedicaron sus esfuerzos a estudiar las simetrías de la interacción débil. Pronto se dieron cuenta de que el modelo
de Cabibbo con cuatro quarks era incompatible con la
violación de la simetría CP en procesos débiles. Esta
conclusión fue presentada en su famoso artículo de 1973
[16], donde propusieron en la última página que la rotura real de la simetría CP podía acomodarse en la teoría
de las interacciones débiles pero sólo si a los cuatro
quarks u, d, c, s se añade una tercera familia formada
por otros dos. La forma natural de hacerlo es extender de
manera consecuente el modelo original de Cabibbo (que,
por cierto, no aparece entre las cuatro referencias bibliográficas (!!) del artículo). Introduciendo los quarks b
y t, la interacción débil conectaría los estados |u冔, |c冔, |t冔
con los estados |d’冔, |s’冔, |b’冔, respectivamente. La matriz
3 × 3 de los coeficientes de los estados |d’冔, |s’冔, |b’冔 en la
base |d典, |s典, |b典 es conocida como matriz CKM (de Cabibbo-Kobayashi-Maskawa) y, a diferencia de la matriz
original de Cabibbo, algunos de estos coeficientes son
complejos (que es donde matemáticamente se plasma la
violación de la simetría CP).
100cias@uned
El trabajo de Kobayashi y Maskawa pasó inicialmente desapercibido. Sin embargo, en 1977 se detecta
una nueva partícula, bautizada como ⌼, que se interpretó como un estado ligado formado por un quinto quark
(b), y su antiquark. Este hecho, junto con el descubrimiento previo del tauón en 1975 que completaba la evidencia experimental de las tres familias leptónicas, hizo
que el artículo de Kobayashi y Maskawa empezase a ser
reconocido. Así, su idea de tres familias de quarks se
consideró bien establecida incluso antes de la detección
del quark top en 1995. La verificación final del modelo
KM se produce en el presente siglo con la confirmación
experimental de la violación de la simetría CP en el decaimiento de partículas con belleza (las que contienen el
quark b).
Naturalmente Kobayashi y Maskawa son figuras importantes de la física de altas energías en los últimos 35
años, aunque no llegan al excepcional nivel de Yoichiro
Nambu. Maskawa ya había sido galardonado con el Premio Sakurai y llegó a dirigir el prestigioso Instituto Yukawa de Física Teórica. Por su parte, Kobayashi ha sido
director del Instituto de Estudios de Partículas y Núcleos
del KEK en Tsukuba. Ambos han recibido máximos galardones en su Japón natal.
CONCLUSIÓN
La concesión del Nobel nunca está exenta de cierta
polémica, aunque las discusiones alrededor de los premios científicos rara vez llegan al nivel de acritud que
suscitan cada vez con más frecuencia los premios de la
Paz y de Literatura. Sin embargo, la exclusión de Cabibbo y, en mucha menor medida, la de Jona-Lasinio y
Goldstone ha abierto un debate relativamente extendido
(y encendido, sobre todo en Italia), sobre el acierto del
Comité Nobel en la selección de premiados de 2008. Naturalmente, la mayoría de estas polémicas son un simple
reflejo del impacto mediático de los Nobel y difícilmente
van a afectar a su prestigio.
Sin caer en la ingenuidad de pensar que la selección
de premiados se hace atendiendo exclusivamente a sus
méritos, el reto principal de la Academia Sueca de las
Ciencias es reconocer los trabajos, más que a las personas, que han tenido una excepcional trascendencia en
campos cada vez más diferentes y especializados. Esto
fuerza a unir bajo un mismo epígrafe genérico (la rotura
de simetrías en este caso) investigaciones que muy bien
podrían haber sido reconocidas en años diferentes. El
102 Vida científica
problema es que entonces descubrimientos en otras ramas de la física se verían relegados. Con todo y a pesar
de Cabibbo (que es justo decir que reaccionó con elegancia al ver su exclusión en la lista de premiados) nadie
discute los merecimientos ni de los descubrimientos ni de
los galardonados, especialmente los de Nambu: una leyenda viva de la física de partículas.
9.
10.
REFERENCIAS
1.
2.
3.
4.
5.
6.
7.
8.
http://nobelprize.org/nobel_prizes/physics/laureates/2008/
J. Bardeen, L.N. Cooper and J.R. Schrieffer, Theory of
superconductivity, Phys. Rev., 117, 648 (1958).
N.N. Bogoliubov, On a new method in the theory of
superconductivity, J. of Exp. and Theor. Phys., 34, 58
(1958).
Y. Nambu, Nobel Lecture: Spontaneous symmetry
breaking in particle physics: A case of cross fertilization, Rev. Mod. Phys., 81, 1015 (2009).
Y. Nambu, Quasi-particles and gauge invariance in
the Theory of Superconductivity, Phys. Rev., 117,
648 (1960).
J. Goldstone, Field Theories with superconductor solutions, Nuovo Cimento, 19, 154 (1961).
Y. Nambu and G. Jona-Lasinio, A dynamical model
of elementary particles based on an analogy with
superconductivity, Phys. Rev., 122, 345 (1961); Phys.
Rev. 124, 246 (1961). Y. Nambu and D. Lurié, Chirality conservation and soft pion production, Phys.
Rev., 125, 1429 (1962).
F. Englert and R. Brout, Broken symmetry and the
mass of gauge vector mesons, Phys. Rev. Lett., 13,
321 (1964); P.W. Higgs, Broken symmetries and the
masses of gauge bosons, Phys. Rev. Lett., 13, 508
100cias@uned
11.
12.
13.
14.
15.
16.
(1964); G.S. Guralnik, C.R. Hagen, and T.W.B. Kibble,
Global conservation laws and massless particles,
Phys. Rev. Lett., 13, 585 (1964).
M.Y. Yan and Y. Nambu, Three-triple model with
double SU(3) symmetry, Phys. Rev., 139, B1006
(1965).
Extraído de un artículo de Madhusree Mukerjee publicado en febrero de 1995 en Scientific American, y
disponible en la URL http://www.scientificamerican.com/article.cfm?id=profile-yoichiro-nambu
Véanse sus «lecciones Nobel»: M. Kobayashi, Nobel
Lecture: CP violation and flavor mixing, Rev. Mod.
Phys., 81, 1019 (2009); T. Maskawa, Nobel Lecture:
What does CP violation tell us?, Rev. Mod. Phys.
81, 1027 (2009).
S. Sakata, On a composite model for the new particles, Prog. Theor. Phys., 16, 686 (1956).
Una introducción rigurosa a nivel divulgativo aunque ligeramente anticuada sobre la teoría de partículas elementales y sus interacciones es: R. Fernández Álvarez-Estrada y M. Ramón Medrano,
Partículas Elementales (EUDEMA-Universidad, Madrid, 1988).
J. H. Christenson, J.W. Cronin, V.L. Fitch, and R.
Turlay, Evidence for the 2 p decay of the K meson,
Phys. Rev. Lett., 13, 138 (1964).
N. Cabibbo, Unitary symmetry and leptonic decays,
Phys. Rev. Lett., 10, 531 (1963).
M. Kobayashi and T. Maskawa, CP-violation in the
renormalizable theory of weak interaction, Prog.
Theor. Phys., 49, 652 (1973).
Pablo García González
Departamento de Física Fundamental
103 Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
SEMBLANZAS DE LOS PREMIOS
NOBEL
EL PREMIO NOBEL DE QUÍMICA
POR EL DESCUBRIMIENTO
Y DESARROLLO DE LA PROTEÍNA
VERDE FLUORESCENTE (GFP)
El Premio Nobel de Química 2008 fue compartido
por tres científicos:
Osamu Shimomura: Nacido el 27 de agosto de 1928
en Kyoto (Japón), cursó estudios de farmacia en Nagasaki y a partir de 1951 fue asistente en ese departamento por un periodo de cuatro años. En 1955 orientó su
trabajo hacia la química orgánica. Trabajó en la Universidad de Princeton (New Jersey) de 1965 a 1982, antes de
convertirse en profesor emérito del Laboratorio de Biología Marina de la Universidad de Massachusetts, y luego de la Universidad de Medicina de Boston.
Martin Chalfie: Nacido el 15 de enero de 1947 en
Florida (EE.UU.). Se doctoró en neurobiología en la Universidad de Harvard y es profesor de biología en la Universidad de Columbia (Nueva York) desde 1982.
Roger Y. Tsien: Nacido el 1 febrero de 1952 en Nueva York (EE.UU.). Estudió en la Universidad de Harvard.
Tras su titulación, se unió al Laboratorio Fisiológico de la
Universidad de Cambridge (Inglaterra) en 1977, y trabajó como investigador en la Escuela Gonville y Caius
(Cambridge) hasta 1981. Desde 1989 esta trabajando en
la Universidad de California como profesor de química y
bioquímica.
Según la Academia Real Sueca, el Premio Nobel de
Química de este año recompensa el descubrimiento inicial de la GFP y una serie de desarrollos importantes
que han llevado a su uso como herramienta de marcado.
Usando tecnología de ADN, los investigadores ahora
pueden unir la GFP a otras proteínas interesantes, que de
otra manera serian invisibles. Este marcador brillante
permite observar los movimientos, las posiciones y las
interacciones de las proteínas marcadas.
LA PROTEÍNA VERDE FLUORESCENTE (GFP)
REVOLUCIONÓ LA BIOCIENCIA
En los años sesenta, cuando el científico japonés
Osamu Shimomura comenzó a estudiar la medusa bioluminiscente Aequorea victoria no se imaginaba que le
llevaría a una auténtica revolución científica. Treinta
años más tarde, Martin Chalfie usó la proteína verde
fluorescente de la medusa para ayudarse en el estudio las
De izquierda a derecha: Osamu Shimomura, Martin Chalfie y Roger Y. Tsien.
100cias@uned
104 Vida científica
células. Hoy se pueden estudiar procesos biológicos antes
invisibles con la ayuda de las proteínas de Roger Y.
Tsien, las cuales brillan con todos los colores del arco
iris.
La proteína verde fluorescente, GFP, ha sido en la
década pasada como una estrella guía para bioquímicos,
biólogos, médicos y otros investigadores. El intenso color
verde de esta proteína aparece cuando es iluminada con
luz azul y ultravioleta. Permitien visualizar tumores cancerosos, mostrar el desarrollo de la enfermedad de Alzheimer en el cerebro o el crecimiento de bacterias patógenas.
Un uso todavía más interesante de la GFP radica en
la posibilidad de seguir procesos en el interior de las
células. Cuanto más sepan los investigadores acerca de
las células, cuáles son sus funciones o la forma cómo se
desarrollan, mayores serán las posibilidades de que se
puedan desarrollar medicamentos eficaces con un mínimo de efectos secundarios.
La observación de las moléculas que forman una
célula: proteínas, ácidos grasos, hidratos de carbono,
está más allá de la potencia de un microscopio ordinario.
Y aún es más difícil seguir los procesos químicos que tienen lugar en su interior. Cuando los investigadores comprendan cómo las células comienzan la construcción de
nuevos vasos sanguíneos, por ejemplo, se podría llegar a
detener tumores cancerosos bloqueando su nutrición y
oxigenación, evitando su crecimiento.
Los procesos químicos de las células suelen ser regulados por proteínas. Hay miles de proteínas diferentes,
con distintas funciones. Conectando GFP a una de esas
proteínas los investigadores pueden obtener una información muy útil. Se puede ver qué proteínas están en la
célula, seguir sus movimientos y observar sus interacciones con otras proteínas. Gracias a la luz verde de la
GFP es posible seguir el rastro de una proteína con el
microscopio.
SHIMOMURA DESPERTÓ EL INTERÉS POR LA
LUZ DE LAS MEDUSAS
En 1945 la bomba atómica que cayó sobre Nagasaki
dejó a Osamu Shimomura temporalmente ciego. Esa pérdida de visión durante su adolescencia quizás fue lo que
despertó su interés por estudiar la luz que emitían las especies marinas.
En 1955 obtuvo una plaza de asistente del profesor
Yashimasa Hirata en la Universidad de Nagoya. Hirata
100cias@uned
le puso a trabajar en un proyecto aparentemente imposible, descubrir por qué los restos de un triturado de
molusco, Cypridina, brillaban cuando se humedecen
con agua.
En 1956, contra todo pronóstico, Shimomura tenía el
material en sus manos. Se trataba de una proteína
37.000 veces más brillante que el triturado de moluscos.
Después de la publicación de sus resultados, Shimomura
fue contratado por la prestigiosa Universidad de Princeton en Nueva Jersey, EE.UU., por Frank Johnson.
Esto despertó el interés de Shimomura por los materiales luminiscentes y se centro en la medusa «Aequorea
victoria», que vive en los mares de la costa oeste de
Norteamérica y cuyo borde exterior brilla cuando la medusa se mueve. Durante el verano de 1961, Shimomura y
Jonson pescaron miles de medusas. Cortaron los bordes
de las medusas y los presionaron contra un filtro para
obtener lo que ellos llamaron una «squeezate». Un día
Shimomura echó restos del squeezate en el fregadero y
comenzaron a brillar. Se dio cuenta de que en el fregadero había agua de mar y de que los iones calcio que
contenía eran los responsables de la reacción química.
Curiosamente la luz no era verde como la del borde de
las medusas, era azul. Les llevó unos meses purificar
unos pocos miligramos del material luminiscente azul.
Llamaron a la proteína «aequorin».
Figura 1. La proteína verde fluorescente (GFP) está formada
por 238 aminoácidos unidos.
En el trabajo publicado en 1962, en el que Shimomura y Johnson describían el proceso gracias al cual se
obtuvo «aequorin», también mencionaban que la proteína que habían aislado era de color verdoso a la luz del
sol, amarillento a la luz de una bombilla y verde fluorescente bajo luz ultravioleta. Era la primera vez que
alguien describía la GFP (ver Figura 1).
105 Vida científica
En los años 70 Shimomura estudió con más profundidad la fluorescencia de la GFP. Demostró que la GFP
contenía un cromóforo especial. Cuando la luz ultravioleta o azul incide sobre el cromóforo, éste absorbe energía de la luz y se excita. Después, el cromóforo libera la
energía emitiendo una luz verde. El grupo cromóforo
de la medusa simplemente transforma la luz azul del
aequorin en luz verde. Por esto la medusa y el aequorin
brillan con distinto color.
Lo sorprendente de la GFP es que la proteína no
necesita ningún aditivo para brillar. Es suficiente radiar
la GFP con luz UV o luz azul. La luz penetra en el interior de las células y se encuentra con la GFP, la cual emite luz verde. Si los investigadores necesitaran un aditivo
químico sería necesario inyectarlo en la célula, un proceso que podría alterarla y que es complicado de llevar a
cabo a escala microscópica.
CHALFIE TIENE UNA BRILLANTE IDEA
El segundo laureado, Martin Chalfie, oyó hablar de
la proteína verde fluorescente por primera vez en 1988
en un seminario dedicado a los organismos bioluminiscentes en la Universidad de Columbia, en Nueva
York.
Diariamente Chalfie trabaja con los pequeños gusanos «Caenorhabditis elegans», unos de los organismos
más estudiados en el mundo. A pesar de que sólo consta de 959 células, tiene cerebro, envejece y se aparea.
Además, una tercera parte de sus genes están relacionados con los genes humanos. Por último, Caernorhabditis elegans es transparente, lo cual hace muy sencillo para los investigadores estudiar sus órganos con
un microscopio ordinario.
Durante el seminario de 1988 Chalfie se dio cuenta
de que la proteína verde fluorescente podría ser una herramienta fantástica para estudiar al elegans. La proteína
podría actuar como marcador verde fluorescente para
visualizar algunas de las actividades de las células del
gusano.
Para poder apreciar la idea de Chalfie hay que conocer algunos conceptos básicos de la biología celular.
Hay miles de proteínas en nuestro cuerpo y a pesar de
que realizan diferentes funciones, todas ellas están
construidas de la misma forma. Constan de veinte tipos
de aminoácidos que se unen para formar largas cadenas. Las proteínas se diferencian por la longitud de la
cadena, la secuencia de sus aminoácidos y la forma en
100cias@uned
la que la cadena se enrolla en el espacio. En general
cada gen codifica una proteína. Cuando una célula necesita una proteína, el gen se activa y la proteína es
sintetizada.
Por ejemplo, cuando te has comido una bolsa grande
de dulces y el nivel de azúcar en sangre es demasiado
alto, se activa el gen productor de la insulina en las células beta del páncreas. Todas las células del cuerpo tienen
el gen de la insulina en el interior de su núcleo, pero sólo
las células beta del páncreas reaccionan a un aumento del
nivel de azúcar produciendo insulina. El «interruptor» del
gen, el promotor, situado cerca del gen en el ADN, se conecta. Cuando el promotor se activa el gen de la insulina
comienza a ser copiado. La copia es necesaria si la célula
necesita acceder y leer el código genético.
La copia del gen de la insulina es transferida desde el
núcleo de la célula a la «factoría» de la célula, el citoplasma. Entonces la copia del gen es usada como un patrón para enlazar los aminoácidos formando la proteína
de la insulina. La insulina se libera en el torrente sanguíneo donde se adhiere a los músculos y a las células de
grasa, que absorben y almacenan el azúcar de la sangre.
La idea de Chalfie consistió en conectar el gen de
la GFP con varios promotores de los genes o con genes
de otras proteínas, así podría ver la activación de los
genes promotores en las células y saber dónde son
producidas las diferentes proteínas. La luz verde actuaría como un faro.
Con la objetivo de poner a prueba sus ideas, Chalfie
necesitaba localizar el gen de la GFP en el genoma de la
Aequorea victoria. Tras investigar un poco, descubrió
que un investigador llamado Douglas Prasher del Woods
Hole Oceanographic Institution, en Massachussets, había
comenzado a buscar el gen de la GFP. Chalfie le pidió
que se pusiera en contacto con él si lograba aislar el gen
correcto.
Un par de años más tarde Prasher envió el gen de la
GFP a Chalfie. Chalfie entonces instruyó a una graduada,
Ghia Euskirchen, en la manera que había que proceder
para intentar que la bacteria intestinal Escherichia coli
produjera GFP.
Un mes más tarde Euskirchen tuvo éxito, había visto
con el microscopio que la bacteria brillaba con luz verde
cuando era irradiada con luz UV. Este descubrimiento
está en la base del revolucionario uso que hoy se da a la
GFP. Pero el descubrimiento en sí fue inesperado.
En el siguiente paso, Chalfie colocó el gen detrás
de un promotor que está activo en seis receptores neu-
106 Vida científica
ronales del tacto en Caenorhabditis elegans. El resultado
fue publicado por Chalfie y colaboradores en la revista
Science en febrero de 1994 (ver Figura 2). En la portada
se puede ver una imagen de Caenorhabditis elegans, en
la cual el receptor neuronal emitía una brillante luz verde (ver Figura 3).
Figuras 2 y 3. Gusano
«Caenorhabditis elegans» con
la proteína GFP incorporada
en su organismo.
Con la ayuda de la tecnología del ADN, Tsien dio un
paso más y cambió diversos aminoácidos en diferentes
partes de la GFP. Esto condujo a que la proteína absorbiera y emitiera luz en otras regiones del espectro. Experimentando con la composición de los aminoácidos,
Tsien logró desarrollar nuevas variantes de la GFP que
brillan con más fuerza y en diferentes colores como el
cian, azul y amarillo. Así los investigadores pueden hoy
marcar diferentes proteínas con diferentes colores para
ver sus interacciones.
Un color, sin embargo, que Tsien no pudo lograr
producir con la GFP fue el rojo. La luz roja penetra en
los tejidos más fácilmente y es especialmente útil cuando
los investigadores quieren estudiar células y órganos en
el interior del cuerpo.
Unos científicos rusos encontraron la proteína roja
en unos corales. Pero era, desafortunadamente, más
grande y pesada que la GFP. Estaba formada por cuatro
cadenas de aminoácidos en vez de una y fue menos usada como marcador en los procesos biológicos. El equipo
de investigadores de Tsien solucionó el problema, rediseñaron la proteína roja para que la proteína fuera más
estable y fluorescente con una sola cadena de aminoácidos, con lo que puede ser fácilmente conectada a otras
proteínas.
EL «BRAINBOW» O «ARCO IRIS
DEL CEREBRO»
TSIEN CREA UNA PALETA CON TODOS LOS
COLORES DEL ARCO IRIS
Aquí es donde el tercer galardonado con el Premio
Nobel, Roger Tsien, hace su entrada. Su mayor contribución a la revolución de la GFP fue que amplió la paleta
con varios colores nuevos que brillaban durante más
tiempo y más intensamente.
Para empezar, Tsien indicó cómo se forma químicamente el cromóforo GFP en la larga proteína GFP formada por 238 aminoácidos. Otros investigadores habían
mostrado que tres aminoácidos en la posiciones 65-67
reaccionaban químicamente entre sí para formar el cromóforo. Tsien mostró que esta reacción química necesitaba oxígeno y explicó cómo podía llevarse a cabo sin la
ayuda de otras proteínas.
100cias@uned
Varias de estas proteínas han sido utilizadas por los
investigadores en un espectacular experimento. Modificaron ratones genéticamente para producir distintas cantidades de los colores amarillo, ciano y rojo dentro de las
Figura 4. Ratón con la proteína GFP.
107 Vida científica
células nerviosas de su cerebro. El resultado fue que el
cerebro del ratón brillaba con los colores del arco iris.
Los investigadores pudieron entonces seguir los nervios
de las células individuales del cerebro y llamaron a este
experimento el «brainbow».
APLICACIONES EN BIOTECNOLOGÍA
Y BIOMEDICINA
En cuanto a las aplicaciones biomédicas cabe destacar el marcaje con proteínas fluorescentes permite visualizar de forma no invasiva la evolución de tumores en
animales de experimentación, simplemente observando
la fluorescencia que emiten las células cancerosas al iluminar los animales vivos con luz del color adecuado
(ver figura 4).
La observación del crecimiento de bacterias patógenas, el desarrollo de circuitos neuronales o de la enfermedad de Alzheimer, la lucha contra la malaria son
ejemplos de los muchos estudios que han visto luz verde gracias a la GFP.
Además de sus aplicaciones en medicina, también
tiene otras aplicaciones en biotecnología. La proteína
verde fluorescente también se puede usar para la detección de arsénico en los pozos de agua. Éste es un
enorme problema en algunas partes del sudeste de Asia,
donde el arsénico existente en la naturaleza está con-
100cias@uned
taminando el agua de miles de personas. Los investigadores han modificado genéticamente bacterias resistentes al arsénico para que se iluminen con color verde
en presencia de este elemento. También han modificado
otros organismos para que emitan fluorescencia verde
en presencia del explosivo trinitrotolueno (TNT) o metales pesados como el cadmio o zinc. Hoy en día hay
GFP incluso en los juguetes que se iluminan en la oscuridad.
LINKS
— http://nobelprize.org/nobel_prizes/chemistry/laureates/2008/info.html
— http://www.rsc.org/chemistryworld/Issues/2008/November/AGlowingGreenNobel.asp
— http://garritz.com/andoni_garritz_ruiz/documentos/72-Garritz-Shimomura-Chalfie_y_Ts-EQ-2009.pdf
— www.nature.com/nature/journal/v454/n7201/suppinfo/nature06998.html
— www.conncoll.edu/ccacad/zimmer/GFP-ww/GFP1.htm
Jesús López Sanz, Elena Pérez Mayoral,
Antonio José López Peinado y
Rosa María Martín Aranda
Dpto. de Química Inorgánica y Química Técnica
108 Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
EFEMÉRIDES
GALILEO: EL TELESCOPIO Y LAS
PRIMERAS DISPUTAS ASTRONÓMICAS
El 25 de agosto de 1609, el Dux, los consejeros y los
senadores de la República de Venecia se congregaban en
el Gran Salón del Palacio Ducal. Galileo Galilei, lector
de matemáticas del Studio de Padua, iba a presentar y
ofrecer al Consejo su última invención, un instrumento
que permitía «divisar barcos y velas del enemigo a una
distancia mucho mayor de la habitual, de tal forma que
podemos descubrirle nosotros dos horas antes de que él
nos vea…y juzgar sus fuerzas para prepararnos al combate o a la fuga». Según la descripción de Antonio Priuli, consejero de la República y Reformador del Studio de
Padua, el aparato «era de plomo, forrado por fuera con
terciopelo carmesí, de una longitud aproximada de tres
cuartas y media, y de la anchura de un escudo, con dos
lentes, una cóncava y la otra no, por parte». La demostración fue un éxito. Muchos de los asistentes salieron a
la plaza y subieron al Campanario de San Marcos para
ver los barcos que se acercaban al puerto. Terminada la
exhibición, el propio Priuli anunciaba a Galileo que el
Consejo de Reformadores
le confirmaba en el cargo
con carácter vitalicio y le
duplicaba el salario, que
pasaba de 500 a 1000 florines, «el triple de lo que
había recibido cualquier
predecesor mío en el cargo», como orgullosamente
diría Galileo años más
tarde.
Pero ¿realmente era
un nuevo invento? En su
Galileo, Bertolt Brecht
presenta a Priuli días después, temeroso de convertirse en el hazmerreír de
la ciudad por haber pagaTelescopio de Galileo, 1609.
do 500 florines por un in-
100cias@uned
vento que, acaba de
saber, «se vende en
todas las esquinas de
Italia por dos escudos». Quizá Brecht
exageraba, pero es
cierto que instrumentos similares se vendían por entonces en
Milán, París, Londres
o Frankfurt. El propio
Galileo reconocía que a mediados de 1608 había sabido
de la existencia del instrumento en Holanda, que algunos
días después le había confirmado desde Francia un antiguo alumno, Jacobo Baldovere, y ello era lo que le había
movido a construir su aparato. Años después, en El Ensayador se defendía con un curioso argumento frente a
quienes le recriminaban por haberse presentado como inventos del aparato:
«Tal vez alguien me podrá decir que no es pequeña
ayuda, para el descubrimiento y resolución de algún
problema, el haber conocido de alguna manera, y de
antemano, la verdad de la conclusión, y el estar convencido de no buscar un imposible, y que por ello el
conocimiento y la certeza de que el anteojo había sido
ya hecho me habría servido de tal ayuda, que tal vez
sin ella no lo hubiera descubierto… No lo creo; más
diré: el encontrar la solución a un problema señalado
es labor de mayor ingenio que el encontrarla a uno no
pensado ni nombrado, pues en éste puede intervenir en
gran parte la casualidad, mientras que en aquél es
todo obra del razonamiento. Hoy sabemos que el holandés, primer inventor del telescopio, era un simple
maestro de lentes ordinarias, y que casualmente, manejando lentes de diversas clases, acertó a mirar al
mismo tiempo por dos, una convexa y otra cóncava, y
que de este modo observó el efecto que se derivaba y
descubrió el instrumento; pero yo, estimulado por la
noticia dada, descubrí lo mismo por medio del razonamiento…».
Realmente el razonamiento de Galileo no va mucho
más allá de deducir que se necesitaba una lente cóncava
y una convexa. Pero esto ya lo sabía Giovanni Battista
109 Vida científica
de la Porta veinte años antes. En el Capítulo 10 de su
Magia Naturalis (edición de 1589), afirmaba:
«Quien ve mal utiliza lentes según la condición de su
vista. Quien supiese disponer correctamente estas cosas
obtendría un secreto nada despreciable. Las lentes cóncavas permiten discernir con claridad lo que se halla
alejado y las convexas, lo cercano, de modo que puedes
aprovecharte de ello en beneficio de la vista. Con la
cóncava ves las cosas lejanas pequeñas y claras, mientras
que con la convexa ves las cosas cercanas mayores aunque borrosas. Si supieras combinar ambas correctamente, verías mayores y claras tanto las cosas lejanas como
las próximas». Pero aunque en su Capítulo 11 reza: «De
las lentes, con las que cualquiera puede ver a una distancia mayor que todo lo imaginable», Porta no presenta
ningún diseño convincente.
Tampoco Kepler, quien había desarrollado una incipiente teoría óptica de las lentes en sus Añadidos a Vitelo de 1604, hizo ningún intento por ponerla en práctica. De modo que Galileo tenía razón probablemente al
decir que el «simple maestro de lentes» holandés había
llegado a su invención por simple ensayo y error.
Efectivamente, la historia oficial dice que el 25 de
septiembre de 1608, Hans Lipperhey, un fabricante de
lentes de Middleburg, presentó en La Haya a Mauricio
de Nassau un anteojo que permitía ver objetos lejanos.
Debido a sus posibles aplicaciones en la guerra naval se
le pidió que guardase el secreto de su construcción y
solicitase una patente. Esto es lo que hizo el 2 de octubre y cuatro días después se le encargó la construcción
de tres aparatos. Lo curioso es que algunos días más
tarde, el 14 de octubre, otro fabricante de lentes, Jacob
Metius de Alkmaar, presenta ante los Consejeros de
Zeeland un instrumento similar y el 17 de octubre se le
sugiere que solicite una nueva patente. Por si fuera
poco, un tercer holandés, Zacharias Janssen, también
de Middleburg, proclama casi al mismo tiempo que
también tiene un telescopio, y su hijo afirmará años
más tarde que su padre había copiado el diseño de un
aparato que había comprado en Italia en 1590, lo que,
de ser cierto, adelantaría casi veinte años la invención
del telescopio.
En 1999, Colin Roman, entonces Presidente de la
Asociación Astronómica Británica, reclamaba el título de
inventor del telescopio para Leonard Digges, quien lo
describe en su libro Pantometría de 1553. (Curiosamente,
Digges estuvo exilado en Holanda durante el reinado de
María Tudor.) Una descripción más detallada se encuen-
100cias@uned
tra en un informe presentado por William Bourne por
encargo de Lord Burghley, consejero de Isabel I de Inglaterra, que quería conocer las aplicaciones del instrumento en una posible batalla naval contra España. El telescopio descrito es en realidad un telescopio reflector
compuesto de un espejo cóncavo y una lente biconvexa
y, según Bourne, sería decisivo en una batalla naval.
Sin embargo, otro historiador, Ewen A. Whitaker, ha
arrojado dudas sobre la construcción real del instrumento. En efecto, para tener un aumento apreciable el espejo debería tener una distancia focal y un diámetro grandes, lo que haría necesario montarlo en un largo tubo y
apoyarlo en una base que permitiera orientarlo con relativa facilidad. Además, el observador debería dar la espalda a lo que quisiera observar, sin interponerse él mismo entre ello y el espejo. Y lo peor era que la imagen
aparecería completamente invertida, tanto de arriba a
abajo como de izquierda a derecha.
Pero esta historia también tiene una rama española.
En un libro de 1618 dedicado a la construcción del telescopio, Girolamo Sirtori afirmaba que había conocido
en Gerona al verdadero inventor del instrumento: un
anciano pulidor de lentes al que llama Roget de Burgundy. Intrigado por esta cita, un coleccionista de instrumentos ópticos e historiador aficionado, José María
Simón de Guilleuma, decide a mediados del siglo pasado
investigar en los archivos la historia de la familia Roget.
Descubre que el Roget de Sirtori es Juan Roget, cuyos
padres eran originarios de Angulema y que debió morir
entre 1617 y 1624. Simón de Guilleuma investiga en los
registros notariales de la época en busca de documentos
en los que se mencione la herencia o venta de «ulleres».
Encuentra algunos, en particular uno en el que se registra que un mercader llamado Jaime Galvany había comprado en una subasta de fecha 5 de septiembre de 1608
«una ullera de larga vista por cinco sueldos». (También
en un legado de 10 de abril de 1593, y que se repite en
1596, se cita «una ullera larga guarnida de lauto».)
Basado en esto, otro historiador amateur, Nick Pelling, conjetura una historia rocambolesca. Galvany habría acudido a la feria de Frankfurt y mostrado el instrumento a Zacharias Janssen, quien habría intentado
reproducirlo y, con ello, también habría puesto sobre la
pista a Lipperhey. Pero el propio Pelling arroja más tarde
dudas sobre esta historia. En una rápida visita a los Archivos Notariales de Barcelona encuentra discrepancias
de 25 años en las fechas en que estuvieron en activo los
notarios cuyos documentos cita Simón de Guilleuma.
110 Vida científica
Pero si Galileo no fue el inventor del telescopio, sí
fue el constructor más aventajado. Galileo tenía gran
habilidad manual. Ya desde sus tiempos de profesor en
Pisa había instalado un taller en su casa, y en Padua
construyó varios ejemplares de su compás geométricomilitar, que le dieron gran fama y reconocimiento. Así,
en cuanto tuvo conocimiento de la existencia del telescopio holandés se puso manos a la obra y, aunque es difícil creer que tan solo un día después ya había construido uno propio, lo cierto es que en poco tiempo fue
construyendo telescopios cada vez mejores. En agosto
disponía de uno de 8 aumentos, con el que hizo su demostración en Venecia, y en noviembre ya tenía uno de
un poder doble.
Es en esta época en la que «desestimando las cosas
terrenales, me entregué a la contemplación de las celestes». Parece realmente extraño que nadie lo hubiera hecho antes. (En particular resulta extraño que si Zacharias
Janssen tenía un anteojo en 1604 no lo hubiera apuntado a la «estrella nueva» que apareció ese año en el cielo
y que despertó el interés y la curiosidad de todos, ya fueran astrónomos o no.) Cuando Galileo lo apunta al cielo
una noche de noviembre de 1609, queda asombrado.
Las aproximadamente 1000 estrellas registradas por
100cias@uned
Tycho Brahe se multiplican por diez; lo que a simple
vista parecían nebulosas ahora se presentan como conjuntos de estrellas. La superficie lunar aparece rugosa: la
línea que separa la parte iluminada de la oscura en los
cuartos es una línea irregular. Además, en la parte oscura se ven puntos brillantes mientras que en la iluminada
aparecen puntos oscuros. Galileo interpreta estos puntos
brillantes como el reflejo de cimas montañosas iluminadas por el Sol y los puntos oscuros como sombras que
arrojan las montañas en la zona iluminada. Midiendo la
distancia máxima de los puntos brillantes al límite de la
zona oscura estima la altura que deben tener las montañas lunares, que son mayores que las montañas más altas conocidas en la Tierra. (Para Galileo la montaña más
alta de la Tierra era el Mont Blanc.)
Entre las muchas «estrellas» nuevas que permite ver
el telescopio, Galileo observa el 7 de enero de 2010 tres
estrellas alineadas con Júpiter. Al día siguiente, «por
azar», vuelve a apuntar a Júpiter y observa que las tres
estrellas se han movido, aunque siguen estando alineadas. Ello despierta su curiosidad y desde ese día hasta el
2 de marzo dedicará todas las noches a observarlas, salvo media docena de noches en que el cielo aparece nublado. Los días 10 y 11 de enero solo ve dos estrellas, y
111 Vida científica
supone que la tercera está detrás de Júpiter. Pero el día
13 aparece una cuarta estrella. Ya a mediados de enero
se ha convencido de que estas estrellas son en realidad
satélites de Júpiter. Los astros más cercanos son más
veloces, pues las estrellas más próximas a Júpiter se ven
más a menudo al oriente después de haber aparecido el
día anterior a occidente.
Todo esto son pruebas en contra
de la cosmología aceptada. Desde este
momento, Galileo deja de lado sus investigaciones sobre el movimiento,
que le habían ocupado la mayor parte
de su tiempo en Padua, y fija su atención en la astronomía. Pero sus obligaciones docentes, tanto públicas
como privadas, en Padua no le dejan
tiempo para sus investigaciones. Galileo es consciente de que «la República
no puede eximirme de mis obligaciones y seguir pagándome…. Eso solo lo
puedo esperar de un príncipe absoluto». Así que decide ofrecerse al Gran
Duque Cosme II de Medicis, quien diez
años antes había sido alumno suyo.
Galileo llevaba algunos años pensando
en ello. Ahora, los nuevos descubrimientos le brindan
una oportunidad de oro. Galileo bautiza a los satélites de
Júpiter como «astros medíceos» y publica sus descubrimientos en un libro dedicado al Gran Duque Cosme. (Parece que en principio pensó en llamar a los satélites «astros cósmicos», lo que hubiera sido un bonito juego de
palabras, pero alguien le hizo ver que era mejor homenajear a los Medicis en general y no particularizar demasiado). El libro Sidereus Nuncius (El Mensaje Sideral o El
Mensajero Sideral, que ambos significados tiene la palabra) se publica el 12 de marzo de 1610. (Si tenemos en
cuenta que la última observación registrada es de 2 de
marzo, la rapidez de la publicación sería la envidia de
muchas revistas actuales. Es cierto que entonces no tenía
que pasar la revisión por pares, pero si necesitaba el imprimatur eclesiástico.) El prólogo es un magnífico ejemplo
de literatura adulatoria: «Pues apenas han comenzado a
aparecer en la Tierra tus magnificiencias, aparecieron en
el cielo unas estrellas brillantes que cual lenguas expresarán y celebrarán en todo tiempo tus nobilísimas virtudes». Pero con ello Galileo cumple un doble objetivo. En
primer lugar reclama la prioridad del descubrimiento:
«¿Por qué, si fui el primero en observarlas, me habría de
100cias@uned
disputar alguien el derecho a imponerles incluso un nombre, llamándolas astros medíceos, confiando en que gracias a esta denominación reciban esas estrellas tanta dignidad cuanta confirieron las otras a los demás héroes?».
Esta reclamación de prioridad es importante, pues no sería extraño que para entonces la idea de apuntar al cielo
ya se le hubiera ocurrido a otros. De hecho, parece que
Thomas Harriot en Inglaterra ya había
observado la Luna con un telescopio y
la había dibujado el 26 de julio de
1609, aunque sin sacar las conclusiones de Galileo. Y años más tarde, Simon Mayr pretenderá haber observado los satélites de Júpiter ya en
noviembre de 1609, aunque Galileo lo
refutará diciendo que en esa fecha no
podrían tener la apariencia que cita
Mayr. (Finalmente, sin embargo, los
astros medíceos terminarían llevando
los nombres de Simon Mayr sugirió
a Kepler: Io, Calixto, Europa y Ganímedes.)
En segundo lugar, Galileo hace ya
en el prólogo la primera declaración
pública de heliocentrismo: «las cuatro
estrellas reservadas a tu ínclito nombre…realizan sus cursos y órbitas en torno a la estrella Júpiter,…, a la vez que
todas juntas realizan en doce años, con unánime acuerdo,
grandes revoluciones en torno al centro del mundo, esto
es, en torno al mismo Sol». Vinculando sus ideas al esplendor de los Medicis se asegura una gran resonancia
para ellas. Pues, como dirá Kepler más tarde: «¿Es una
fruslería tomar el pelo a la familia de los Grandes Duques
de Toscaza, otorgando el nombre de los Medici a sus ficciones que ofrecería como genuinos planetas?»
Y, por supuesto, el 25 de junio de 1610, Galileo es
nombrado «Primer Matemático del Studio de Pisa y Filósofo de Su Alteza Serenísima el Gran Duque sin obligación de dar clase ni de residir en el Studio ni en la ciudad de Pisa, y con el estipendio de mil escudos al año,
en moneda florentina.»
Las reacciones al libro son diversas. Algunos, como
Cesare Cremonini, colega de Galileo en Padua y firme
defensor del sistema ptolemaico, se niegan a mirar siquiera por el telescopio, alegando que le da dolor de
cabeza. (Curiosamente, Cremonini había sido investigado
un año antes por la Inquisición por defender el aristotelismo averroista, lo que muestra la amplitud de miras de
112 Vida científica
la santa institución.) Pero quienes así reaccionan son
los mínimos. Era difícil esperar que la gente se resistiese
a observar tales maravillas. El problema está en cómo interpretarlas.
Galileo sabe que debe ganarse la anuencia de Kepler y
Clavius, los astrónomos más respetados de la época. Por
ello, envía un ejemplar al embajador toscano ante el Sacro
Imperio con el ruego de que se lo haga llegar a Kepler y le
pida un comentario sobre el libro. Ya en 1597 Galileo
había mantenido una breve correspondencia con Kepler,
iniciada cuando éste le envió un ejemplar de su Mysterium
Cosmographicum. A los pocos días Galileo le contestaba
que aunque de momento tan solo había leído unas pocas
páginas, él también era partidario del sistema copernicano
y tenía algunas pruebas a su favor. Pero cuando Kepler le
pide que le detalle esas pruebas, Galileo da la callada por
respuesta. No se sabe a qué pruebas podía estar refiriéndose Galileo, pero el hecho es que durante sus enseñanzas
en Padua nunca llegará a manifestarse explícitamente
contrario al sistema ptolemaico. Tampoco sabemos siquiera si Galileo llegó a leer por completo el libro de Kepler: una cosa es ser favorable al copernicanismo y otra
introducirse en páginas y páginas de elucubraciones cuasi-místicas sobre el tamaño de los orbes de los planetas y
su relación con los sólidos platónicos.
Ahora Kepler, que ya había leído el ejemplar de Sidereus Nuncius destinado al Emperador Rodolfo II antes
de recibir el ejemplar a él destinado, responde inmediatamente en privado; pero ante la insistencia del Emperador y otros notables que le pedían su opinión, hace pública la carta el 3 de mayo en un opúsculo con el título
de Conversación con el Mensajero Sideral. En éste respalda las afirmaciones de Galileo a partir de lo que él ha
podido ver con sus propios ojos. No obstante, no pierde
la ocasión de señalar la posibilidad de que el inventor
flamenco del telescopio se hubiera inspirado en su libro
o en el de Porta. También dice cómo habría construido él
su propio telescopio, y que si no lo hizo antes era porque
entonces pensaba que el aire era denso y azulado y ocultaría las partes diminutas de los cuerpos. Pero ahora
tampoco parece dispuesto a hacerlo y espera ansioso recibir uno construido por el propio Galileo. Con este instrumento, dice, buscaría dos satélites en Marte y seis u
ocho de Saturno, que sin duda deberían existir para
guardar la proporción. De nuevo, Kepler se embarca en
extrañas especulaciones: sin duda los satélites de Júpiter
serán muy provechosos para los probables habitantes
de ese planeta.
100cias@uned
Kepler también había observado las irregularidades
de la Luna. No lo había hecho a través de un telescopio
sino proyectando la imagen de la Luna en una pantalla
colocada tras una hoja en la que había hecho un agujero
y montado una lente. Se formaba así una pequeña imagen invertida de la Luna, del tamaño de una moneda.
Kepler acepta la existencia de las montañas lunares e incluso sugiere otras construcciones que muy bien podrían
servir a los selenitas para protegerse del Sol durante los
largos días lunares.
Francesco Magnini, en Bolonia, y Clavius, en Roma,
plantean inicialmente algunas reservas respecto a las
observaciones de Galileo. No obstante, tras una visita de
éste a Bolonia, Magnini acaba por reconocer la veracidad
de las observaciones. También las reconocerá Clavius
en una carta privada a Galileo en diciembre de 1610.
Tras la publicación del Sidereus Nuncius, Galileo
continúa sus observaciones astronómicas. En mayo, todavía en Padua, observa las manchas solares, aunque
no les dedica entonces mucha atención. En julio de
1610 Galileo informa a Sus Altezas Serenísimas de un
nuevo descubrimiento. No dice entonces cuál es, aunque
para poder reivindicar posteriormente su prioridad lo
hace público en forma de anagrama: Smaismrmilmepoetaleumibunenugttauiras. Kepler, en un intento de descifrarlo, lo interpreta como Salve umbistineum geminatum
Martia proles (Salve, joyas gemelas, marciana prole).
Pero la solución correcta, que da Galileo en noviembre,
es Altissimum planetam tergeminum observavi (Observé
que el planeta más alto era triple). Es decir, Saturno no
aparece en el telescopio como un astro único, sino que
parece tener dos cuerpos más pequeños casi tocándolo.
(Años después observará, sin encontrar una explicación
plausible, que estos cuerpos desaparecen a veces y otras
veces se presentan como elipsoides que contienen en su
interior unos triángulos oscuros.) Son las primeras evidencias de lo que con mejores telescopios se revelarían
como los anillos de Saturno.
En diciembre anuncia un nuevo descubrimiento,
también en forma de anagrama: Haec inmatura a me
iam frustra leguntur o y (En vano estoy examinando
cosas inmaduras). Una vez más, Kepler trata infructuosamente de descifrarlo. La solución llega en enero de
1611: Cynthiae figuras aemulatur mater amorum (La madre de los amores emula las fases de Cintia). Es decir, Venus imita las fases de la Luna. Estas fases solo pueden
interpretarse suponiendo que Venus gira alrededor del
Sol, una prueba más a favor de la teoría de Copérnico.
113 Vida científica
Con este bagaje, Galileo hace una visita a Roma en
abril de 1611. El recibimiento es triunfal y se suceden los
honores. Le recibe el papa Paulo V. Es nombrado miembro de la Academia de los Linces, fundada por el Principe Federico Cesi. (Es precisamente en una reunión de
académicos el 14 de abril donde el filólogo Demisani
da el nombre de telescopio al instrumento.) Y por si fuera poco, con Galileo como invitado de honor, los jesuitas
confirman públicamente sus observaciones en una solemne reunión en el Colegio Romano. No es extraño
que un cardenal escribiera al Gran Duque a propósito de
Galileo: «estoy convencido de que si estuviéramos en
aquella República Romana de la antigüedad le habría
sido erigida una estatua en el Campidoglio para rendir
honor a la excelencia de su valía».
Poco cabía esperar entonces que Galileo iba a tener
enfrentamientos continuos con los jesuitas. En efecto, los
jesuitas aceptaban las observaciones pero no su interpretación, que ponía en cuestión algunos dogmas de la
cosmología aristotélica. Stillman Drake ha llamado la
atención, con acierto, sobre el hecho de que las primeras
críticas a las interpretaciones de Galileo no entran directamente en la cuestión del heliocentrismo sino que tratan
de defender la perfección de los cuerpos celestes. Las
irregularidades de la superficie lunar negaban la perfecta esfericidad atribuida a los cuerpos celestes. Por
eso, Clavius hizo suya una sugerencia de Ludovico delle
Colombe que afirmaba que la Luna estaba recubierta de
una sustancia cristalina con una superficie perfectamente esférica. «Ciertamente es una hermosa fantasía», respondía Galileo, «pero tiene el problema de que no ha
sido demostrada ni es demostrable». Por la misma razón
se podría decir que «dicha superficie cristalina posee inmensas montañas que nosotros no podemos ver por ser
de una sustancia diáfana».
Más seria es la polémica en torno a las manchas
solares. Aunque Galileo no había escrito nada cuando las
observó inicialmente, habla de ellas durante su estancia
en Roma. Esto llega a oídos del jesuita alemán Christoph
Scheiner, profesor de matemáticas en la Universidad de
Ingolstadt, quien se dedica a observarlas durante varios
meses y a finales de 1611 escribe tres cartas sobre el
tema a Markus Welser, duunviro de Aubsburgo, quien las
publica en enero de 1612 aunque oculta al autor verdadero bajo el pseudónimo de Apeles. Welser, que también
es académico linceo, envía a un ejemplar a Galileo pidiéndole una opinión. Galileo responde con otras tres
cartas en mayo, agosto y diciembre de 1612, que poste-
100cias@uned
riormente serán editadas en un solo volumen en marzo
de 1613 por la Academia de los Linces. La respuesta es
bastante crítica. Scheiner afirma que las aparentes manchas no pertenecen realmente al Sol, que debe ser perfectamente esférico como cualquier cuerpo celeste por
encima del orbe de la Luna; las manchas son en realidad
grupos de astros que rodean al Sol a cierta distancia de
su superficie. Galileo, sin embargo, afirma que las manchas están realmente en la superficie solar y su movimiento muestra además que el Sol es esférico y gira alrededor de su eje, «dando enteramente la vuelta en un
mes lunar aproximadamente». Por otra parte, «para quienes quisieran que la sustancia del Sol fuera inalterable,
viéndose obligados… a situar estas manchas en la parte
celeste, creo que ponerlas contiguas al Sol pocas más
molestias les dará que ponerlas en otra parte». La polémica se prolongará durante varios años con gran acritud
por ambas partes. También da lugar a que en muchos
círculos romanos y florentinos se empiece a hablar de las
ideas de Copérnico y que Galileo escriba su Carta a Cristina de Lorena, Gran Duquesa de Toscana. Finalmente, el
Santo Oficio pone fin a estas discusiones incipientes en
febrero de 1616, al declarar «formalmente herética» la
idea de que el Sol está inmóvil en el centro del universo,
y «errónea en la fe» la idea de que la Tierra no está en el
centro del mundo y se mueve.
114 Vida científica
No obstante, ni siquiera los jesuitas podían negar
que la existencia de satélites en torno a otros planetas o
las fases de Venus, que solo se explican si Venus gira en
torno al Sol y no en torno a la Tierra, hacen saltar por
los aires el sistema de Ptolomeo. Por ello, como un último recurso para salvar el geocentrismo, adoptan el sistema que había propuesto Tycho Brahe, según el cual
los planetas giran alrededor del Sol que, a su vez, gira
alrededor de la Tierra, situada en el centro del Universo.
En este sentido la obra de Scheiner se inscribía claramente en el esquema tychonico.
Al menos, en su disputa con Scheiner, Galileo llevaba la razón. Sin embargo, en su deseo de atacar el sistema tychonico, Galileo entra en una nueva polémica en
la que no tiene reparos en ponerse de lado de la meteorología aristotélica. En el verano de 1618 aparecen tres
cometas en el cielo. Orazio Grassi, director del Colegio
Romano, publica en 1619 un corto trabajo en el que
presenta a los cometas como auténticos cuerpos celestes
situados más allá del orbe lunar. Galileo, que no ha podido observar los cometas por encontrarse enfermo, anima a su discípulo Mario Guiducci a publicar una respuesta en contra de Grassi, donde sostiene que los
cometas no son realmente cuerpos celestes sino reflejos
de emanaciones gaseosas que surgen de la Tierra. Grassi
contraataca en junio de 1619 aunque con el pseudónimo
de Lotario Sarsi, y no duda en atacar al propio Galileo
como inspirador de las ideas de Guiducci. Es entonces
cuando Galileo entra en acción con toda su artillería.
Que tras Lotario Sarsi se oculta Orazio Grassi es un secreto a voces, pero Galileo finge ignorarlo para que su
ataque resulte más demoledor. Continuamente expresa su
extrañeza por el hecho de que un discípulo de una persona tan brillante como Grassi pueda decir tales disparates. Durante 400
páginas Galileo disecciona la obra de
Sarsi (Grassi) en sus
más mínimos detalles. En definitiva,
más que una obra
científicamente valiosa, es una obra
maestra de la literatura polémica. El
libro contiene también agudas observaciones metodoló-
100cias@uned
gicas y, en particular, la celebre frase de Galileo de que
«el libro de la Naturaleza está escrito en lenguaje matemático, y sus caracteres son triángulos, círculos y otras
figuras geométricas». Asimismo contiene su teoría de las
cualidades primarias y secundarias.
El Ensayador, que así se llama el libro haciendo referencia al nombre de una balanza de precisión, tuvo
una gran difusión. Incluso el Papa Urbano VIII, entonces
amigo de Galileo y poco amigo de los jesuitas, disfrutaba
con su lectura. Pero la polémica no era simplemente una
polémica entre Galileo y Grassi. El libro estaba publicado
por la Academia de los Linces. Era un elemento más en
una lucha más general entre la Academia y los jesuitas,
en particular el Colegio Romano, que defendían sistemas
enfrentados respecto al papel de la religión y la teología
en la formación integral que debían recibir las personas.
Entre el sistema ptolemaico y el copernicano hay
una diferencia esencial: en el primero, el Sol y los planetas giran en torno a la Tierra, que se encuentra inmóvil en el centro del universo; en el segundo, la Tierra y
los demás planetas giran alrededor del Sol. La diferencia
entre el sistema copernicano y el tychonico es más sutil:
simplemente es un cambio de sistema de referencia. La
115 Vida científica
única forma de verificar mediante observaciones astronómicas el movimiento orbital de la Tierra sería medir la
paralaje de alguna estrella «fija», lo que era impensable
en la época de Galileo. Sin embargo, Galileo había afirmado en su breve correspondencia con Kepler en 1597
que tenía pruebas del movimiento de la Tierra. Quizá
era una fanfarronada, pero si no lo era, ¿qué prueba
podía ser si hasta entonces solo se había ocupado en «física», es decir, en el estudio de los fenómenos en la
Tierra? Stillman Drake conjetura con buenas razones
que la prueba de Galileo se basaba en las mareas. Galileo
pensaba, equivocadamente desde luego, que las mareas
eran una consecuencia de la combinación de los movimientos de traslación y rotación de la Tierra: el flujo y
reflujo del agua era similar a los vaivenes del agua en
una palangana que se mueve con velocidad variable.
Por ello, tanto el sistema tychonico como el ptolemaico,
con una Tierra en reposo, eran incompatibles con la
existencia de mareas. Aunque Galileo no había publicado su teoría, la había comentado con muchas personas y
era de sobra conocida. La primera intención de Galileo
cuando se puso a escribir lo que sería su Diálogo sobre
los dos Sistemas Máximos era llamarlo Tratado de las
Mareas, a lo que la censura eclesiástica se opuso decididamente antes de conocer siquiera el contenido detallado del libro. Galileo acató la prohibición y cambió el título, pero las mareas siguieron ocupando un lugar
fundamental en su libro: constituyen el tema de la cuarta y última jornada. Por ello, era difícil de aceptar la supuesta imparcialidad del libro.
A la larga, el enfrentamiento con los jesuitas fue
fatal para Galileo. En 1982 Pietro Redondi encontró un
documento inédito que contenía una denuncia anónima
contra Galileo. El motivo de la denuncia era precisamente las ideas sobre las cualidades primarias y secundarias expresadas en El Ensayador, que supuestamente
serían contrarias al dogma de la transustanciación aprobado cincuenta años antes en el Concilio de Trento. Redondi atribuía la denuncia al propio Grassi, y sobre este
documento elaboró una controvertida hipótesis según
la cual el proceso final al que se vio sometido Galileo por
defender la teoría copernicana fue en realidad un mal
menor que trataba de desviar la atención frente a una
acusación más grave desde el punto de vista teológico.
Hoy día nadie acepta esta hipótesis, y mucho menos que
Grassi fuera el autor real de la denuncia, pero lo cierto es
que la denuncia anónima existió. Años más tarde, en
100cias@uned
1999, el sacerdote español Mariano Artigas, ya con el
beneficio de una mayor permisividad en la consulta de
los archivos vaticanos, encontró un nuevo documento
que contenía una denuncia similar. Existen buenas razones para pensar que este documento fue redactado
poco antes del proceso de 1632 y que su autor era Melchior Inchofer, un jesuita (¡como no!) al que el Santo
Oficio había pedido un informe sobre las ideas de Galileo. Así que la animadversión de los jesuitas se mantenía intacta.
El propio Galileo estaba convencido de que los jesuitas tenían mucho que ver en sus cuitas. En una carta
a Elio Dodati en julio de 1634, un año después de su
condena, decía: «De éste y otros accidentes cuyo relato
sería demasiado largo se desprende que la rabia de mis
muy poderosos perseguidores va aumentando continuamente. Finalmente han querido manifestarse por sí mismos, dado que, hallándose un buen amigo mío hace
unos meses en Roma, hablando con el padre Christoforo
Grembergo, jesuita, matemático de este Colegio, dijo el
jesuita a mi amigo estas palabras: «Si Galileo hubiera sabido conservar el afecto de los padres de este Colegio, viviría gloriosamente en el mundo y no hubiera habido
nada de sus desgracias, y hubiera podido escribir a su arbitrio de cualquier materia, incluso de los movimientos
de la Tierra, etc.»; así que V. S. ve que no es tal o cual
opinión lo que me ha hecho y me hace la guerra, sino
estar en desgracia entre los jesuitas». La misma opinión compartían Descartes, Mersenne y muchos otros.
(En descargo de los jesuitas, digamos que el P. Zaragoza
S. J. publicó en España en 1675 el primer tratado de astronomía en el que no se hacía ascos a la cosmología copernicana).
Tras su condena, en su reclusión en Arcetri, Galileo
volvió a sus investigaciones sobre el movimiento, casi
abandonadas desde sus tiempos en Padua, que le llevarían a su obra maestra Conversaciones y Demostraciones
Matemáticas sobre Dos Nuevas Ciencias, que se publica
en Holanda en 1638. No obstante, no abandonó sus observaciones astronómicas, y todavía en 1637 seguía dirigiendo su telescopio a la Luna. La Luna, que había
sido el primer objeto de sus observaciones astronómicas,
iba a ser también lo último que vería. Poco después
quedó definitivamente ciego.
J. Javier García Sanz
Dpto. de Física Fundamental
116 Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
EFEMÉRIDES
1809, CHARLES ROBERT DARWIN
Es muy probable que nadie haya influido tanto en el
modo de entender la historia de la vida en el planeta Tierra como CHARLES ROBERT DARWIN (Fig. 1). El año
2009 ha conmemorado el bicentenario de su nacimiento
y los 150 años de la publicación de El origen de las Especies (1859), su obra más emblemática. Darwin, como
ningún otro científico hasta el momento, ha removido
los cimientos más profundos del pensamiento imperante
durante milenios.
El gran impacto
que provocaron sus
aportaciones en disciplinas como la zoología, la paleontología, la botánica, la
antropología e incluso en aquellas con
un menor grado de
parentesco con la
historia natural como
son la filosofía, la
psicología, la literaFigura 1. Fotografía de Charles R.
tura, continúan en la
Darwin (1874) a la edad de 65 años.
actualidad en boga.
De hecho sus obras
han llegado a un amplio y variado número de lectores.
Charles Robert Darwin nació el 12 de febrero de
1809, en la pequeña ciudad de Shrewsbury, en Inglaterra
(Fig. 2). Quinto hijo de un exitoso físico y financiero, Robert Waring Darwin, y nieto de un famoso poeta y a la
postre influyente en su obra, Erasmus Darwin, perdió a
su madre, Susannah Wedgwood, a la temprana edad de
ocho años.
Tras finalizar sus estudios en Shrewsbury, en 1825
abandonó su pequeña ciudad natal, y se traslado a Edimburgo. Allí cursó estudios en la Facultad de Medicina,
pero rápidamente esta disciplina dejó de interesarle. Darwin no fue un estudiante modelo, pero sí que se convirtió en un apasionado de la historia natural. De hecho,
100cias@uned
Figura 2. Charles Darwin nació en esta casa, The Mount, en
Shrewsbury, Shropshire, Inglaterra, el 12 de febrero de 1809.
bajo la tutela de Robert Grant, profesor de Anatomía y
Zoología de la Universidad de Londres, comenzó a estudiar invertebrados marinos durante su estancia en Edimburgo. Debido al escaso interés que la medicina le suscitaba a Darwin, su padre le propuso ordenarse clérigo
como una alternativa respetable. La aceptación no fue
inmediata, pero tras un período de meditación, reflexión y lecturas sobre cuestiones teológicas, Darwin aceptó la propuesta paterna. Como Darwin comentaría, «la
ventaja de ser un clérigo local es poder disfrutar de tiempo libre para poder avanzar en los conocimientos acerca
de la historia natural».
Cabe destacar que los invertebrados marinos fueron el
núcleo central del interés de Darwin por la historia natural
desde sus días como estudiante en Edimburgo, tal y como
atestiguan la enorme cantidad de notas, comentarios y datos obtenidos durante su travesía a bordo del H.M.S. Beagle en referencia a estos organismos. Esto se hace evidente puesto que, al contrario de lo que hizo con los
ejemplares recolectados de otros grupos tanto animales
como vegetales en su viaje por América del Sur, las Islas
Galápagos y varias islas del Pacífico, los invertebrados
marinos que recolectó fueron clasificados y estudiados
por el propio Darwin. Como resultado de sus estudios,
entre 1851 y 1853 publicó los cuatro tomos, con más de
mil páginas, de su tratado sobre los percebes o cirrípedos,
titulado A monograph of the Cirripedia (Fig. 3).
Las aportaciones de numerosos científicos tales como
el astrónomo Sir John Herschel, Alexander von Hum-
117 Vida científica
boldt y, de manera
destacada, el geólogo Charles Lyell,
marcaron el devenir
de e influyeron profundamente en las
obras de Darwin.
Una de las obras que
más influyó en Darwin fue el libro de
Lyell, Principles of
Geology (1830-1833,
Principios de Geología), algunas de cuyas aportaciones
Figura 3. Ejemplar del libro
pudo presenciar du«A monograph of the Cirripedia»,
rante su viaje a borpublicado entre 1851 y 1853.
do del H.M.S Beagle
(Fig. 4). En sus cinco
años (1831-1836) a bordo del Beagle, además de realizar
numerosas e importantes investigaciones y posteriores
aportaciones en el campo de la geología, Darwin recolectó gran número de organismos tanto actuales como
fósiles.
Cómo comentaría posteriormente el propio Darwin
en la introducción a El origen de las especies:
«Estando a bordo del Beagle, buque de guerra
inglés, en calidad de naturalista me impresionaron
mucho ciertos hechos en la distribución de los seres
orgánicos que habitan América del Sur, y en las relaciones geológicas de los actuales habitantes de
aquel continente con lo ya pasados. Estos hechos,
como se verá en los últimos capítulos de este volumen, parecían arrojar alguna luz sobre el origen de
las especies, misterio de los misterios, como ha sido
llamando por uno de nuestros más grandes filósofos».
Pasados varios años de su determinante viaje a bordo
del Beagle, Darwin empezó a recabar los resultados de las
investigaciones que, sobre los organismos recolectados
durante su viaje, diversos especialistas como Richard
Owen, John Gould, Thomas Bell entre otros, realizaron a
petición del propio Darwin. Los datos que aportaban empezaron a provocar en Darwin una serie de interrogantes
acerca de cómo las distintas especies podían surgir por
causas naturales observables. Ya en esos momentos, Darwin empezaba a aceptar que las especies cambian, o lo
que es lo mismo, que la vida evoluciona. Estas reflexiones
e ideas evolucionistas no eran novedosas para Darwin,
puesto que su abuelo Erasmus Darwin, en su obra Zoonomía (1794-1796), y el zoólogo francés Jean-Baptiste
Lamarck, ya las habían apuntado con anterioridad.
Figura 4. El 27 de diciembre de 1831, Darwin se embarca en el H.M.S Beagle desde Plymouth para dar una vuelta al mundo
que duraría cinco años.
100cias@uned
118 Vida científica
A partir del 14 de mayo de 1856 empezó a escribir la
gran obra de su vida sobre el problema del origen de las
especies, dedicándose casi por completo a este esfuerzo.
Su amigo Lyell le recomendó en varias ocasiones que
diera a conocer sus teorías, pero Darwin, entregado a
otros trabajos, no veía llegado el momento para terminar
de redactar la extensa obra que había proyectado. El libro se desarrollaba lentamente, por el afán de Darwin de
reunir la mayor cantidad de datos. En 1855 apareció en
los Annals and Magazine of Natural History un artículo
abiertamente evolucionista titulado «Sobre la ley que ha
regulado la aparición de nuevas especies». Su autor era
Alfred Russell Wallace, que lo enviaba desde Borneo.
Darwin leyó el artículo por sugerencia de Lyell y se
asombró al comprobar la similitud de las ideas de Wallace con las suyas (Alfred R. Wallace era más joven que
Darwin). Los tres años siguientes a la publicación del artículo de Wallace preocuparon a los amigos de Darwin,
que constantemente le impulsaban a terminar su libro.
Desde 1856 Darwin intercambió correspondencia con
Wallace, comentando algunos aspectos de sus ideas, sin
embargo se trataba de comentarios generales, sin referirse con detalle al mecanismo evolutivo.
Entonces se produjo una coincidencia extraordinaria.
Tan sólo había redactado los primeros nueve o diez capítulos de lo que sería su «gran libro de las especies»,
cuando Charles Darwin sufre la mayor sorpresa de su
vida. El 18 de junio de 1858 recibe por correo un breve
manuscrito que contenía todos los elementos esenciales
de la teoría darviniana y en el que se exponía exactamente, hasta con términos idénticos, la teoría de la selección natural. El autor del manuscrito era el naturalista Alfred Russell Wallace, que se encontraba en el
Archipiélago Malayo. Le pedía a Darwin que lo leyera y
enviara a alguna revista científica si lo consideraba
aceptable. Estando enfermo de malaria en una pequeña
isla del archipiélago de las Molucas, en Indonesia, se le
ocurrió súbitamente la teoría de la selección natural. El
problema del origen de las especies le preocupaba desde
hacía varios años y como había tenido correspondencia
con Darwin sobre la materia, fue lógico que enviara el
artículo al propio Darwin.
Ese mismo día, Darwin trasmite su preocupación a
su amigo Lyell de esta manera:
«Mi querido Lyell:
Hace ahora aproximadamente un año que Vd.
me recomendó leer un ensayo de Wallace en los An-
100cias@uned
nals que le había interesado. Cuando escribí a Wallace le conté esto porque sabía que se alegraría de
saberlo. Hoy me ha mandado lo que le adjunto, con
el ruego de pasárselo a Vd. Me parece completamente digno de ser leído. Lo que dijo Vd. se ha confirmado plenamente –es decir, que se me ha adelantado. Vd. dijo esto cuando le expuse brevemente mis
opiniones sobre la «selección natural» como consecuencia de la lucha por la vida. Jamás he visto una
coincidencia más asombrosa; si Wallace hubiera tenido mi borrador, que fue escrito en 1842, ¡no podría haber hecho mejor una edición abreviada! Hasta sus conceptos son ahora los títulos de mis
capítulos. Por favor, reenvíeme el manuscrito; Wallace no me ha pedido que lo publique pero naturalmente le escribiré enseguida y le voy a ofrecer mandarlo a alguna revista. Así toda mi originalidad se
ha reducido a nada, aunque por eso mi libro, si es
que algún día tengo valor, no será peor, ya que todo
el trabajo consiste en el empleo práctico de la teoría.
Espero que Vd. aplauda el borrador de Wallace
para que le pueda comunicar su opinión».
Esta fue la razón por la que Charles Darwin abandonó la idea de terminar su monumental obra de las especies, y en su lugar se retiró durante un año a la isla de
Wight para escribir lo que él consideraba un «resumen».
Por su parte, Alfred Wallace cedió a Darwin la mayor
parte del crédito por sus ideas, argumentando que las
contribuciones de ambos se comparan con una semana
de trabajo suya y con veinte años de trabajo de Darwin.
Por otra parte, se confesó incapaz de haber podido realizar la enorme labor efectuada por Darwin: «Carezco del
amor al trabajo, al experimento y al detalle que caracterizaba a Darwin y sin el que nada de lo que yo hubiera
podido escribir habría convencido nunca al mundo».
Prueba de ello es que Wallace siempre se refirió a la teoría como «de Darwin» y tituló «Darvinismo» a uno de sus
libros y a un ciclo de conferencias que realizó en Estados
Unidos.
Lo que realmente ha hecho destacar a Darwin sobre
otros naturalistas, es el definir el mecanismo por el
cual tiene lugar la evolución de los seres vivos. Estas
aportaciones fueron plasmadas precisamente en su «resumen», que se convertiría en uno de los libros más importantes jamás escrito: El origen de las especies, puesto a la venta el 24 de Noviembre de 1859 y agotándose
la primera edición (1.250 ejemplares) ese mismo día
119 Vida científica
“Pero, por lo que se refiere al mundo material,
podemos, por lo menos, llegar a esto: podemos conocer que los hechos se producen, no por intervenciones aisladas del poder divino ejercidas en cada
caso particular, sino mediante la institución de leyes
generales.» (Whewell, Bridgewater Treatisse.)
Figura 5. Página del manuscrito «El origen de las especies»
por medio de la selección natural, publicado en 1859
por Charles Robert Darwin.
(Fig. 5). En este manuscrito Darwin proclamaba por
primera vez, mediante mecanismos puramente naturales
una teoría acerca de cómo podía producirse la evolución de los organismos vivos. Estos mecanismos o «leyes» naturales, se expresaron ya en un epígrafe de El
origen de las especies:
100cias@uned
El 19 de abril de 1882 fallece Darwin a la edad de 73
años. Probablemente, la aportación más importante que
sus escritos han logrado trasmitir a la comunidad científica internacional, en una primera instancia y, posteriormente, a la totalidad de la sociedad, es la afirmación
de la evolución como una realidad. Su obra El origen de
las especies alcanzó tal éxito que a él se debe el establecimiento definitivo de la teoría de la evolución. La obra
de Charles Darwin supera ampliamente, tanto en extensión como en calidad, a todas las publicaciones anteriores sobre evolución y por ello es considerado como el
fundador de la moderna teoría de la evolución. De hecho, hoy en día no es descabellada la sinonimia que se
produce entre el nombre de Darwin y el término evolución (DARWIN = EVOLUCIÓN).
Fernando Escaso Santos
Grupo de Biología
Dpto. de Física Matemática y de Fluidos
120 Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
EFEMÉRIDES
1989, HACE VEINTE AÑOS QUE SE
IMPLANTÓ EL PRIMER VENTRÍCULO
ARTIFICIAL TOTALMENTE ESPAÑOL
POR UN EQUIPO MULTIDISCIPLINAR
EN EL HOSPITAL DE LA PRINCESA
DE MADRID
En recuerdo a nuestro amigo, el Dr. Diego Caleya,
fallecido pocos años después
El día 1 de julio de 1989 se implantó el primer ventrículo artificial neumático desarrollado y construido totalmente en España por la Unidad de Medicina y Cirugía
Experimental del Hospital Gregorio Marañón de Madrid,
el servicio de Cirugía Cardiaca del Hospital de la Princesa de Madrid y el departamento de Física Fundamental
de la Universidad Nacional de Educación a Distancia.
Tras dieciocho días de esfuerzo ininterrumpido por parte
de cirujanos, intensivistas y técnicos implicados en dicho
implante, en la madrugada del 19 de julio se llevó a
cabo el transplante cardiaco al paciente CRA en el Hospital General Gregorio Marañón de Madrid, tras un traslado de un hospital a otro debido a la falta de programa
de transplantes de corazón del Hospital de la Princesa. El
paciente fue dado de alta dos meses más tarde con el
protocolo de seguimiento habitual para los pacientes
con trasplante cardiaco. El día 1 de julio de 1989 se
abrió una puerta a la esperanza para muchos enfermos
cardiacos que se encontraban en espera de un donante
de corazón.
Hagamos un poco de historia sobre los dispositivos
de asistencia mecánica circulatoria en el mundo y su
evolución hasta julio de 1989.
El corazón es un órgano vital, sin embargo, su funcionamiento, posiblemente, es el más simple de todos los
órganos internos. El primer intento de sustitución de
1
Le Gallois J. Experiences sur le principe de la vie. 1812 (Paris).
100cias@uned
Modelo definitivo de ventrículo artificial que se utilizó durante el
ensayo clínico del sistema BCM.
debe a Le Gallois1. En 1812 planteó la sustitución del corazón por un sistema de bombeo que, de forma continua,
proporcionase sangre arterial o un medio líquido alternativo adecuado para mantener viable de forma indefinida una parte aislada del organismo. Más tarde, en
1880 Henry Martin llevó a cabo las primeras perfusiones
de corazón-pulmón, y cuarenta años más, en 1920, surge el concepto de máquina corazón-pulmón. El paso del
concepto de máquina pulmón-corazón a la idea de un
sistema que reemplace totalmente el corazón es pequeño,
aunque su realización necesitó de casi cincuenta años de
espera.
La esperanza de vida comienza a aumentar a primeros de siglo así como la mortalidad por enfermedades
121 Vida científica
cardiacas, lo que originó la idea de diseñar algún dispositivo mecánico que pudiera sustituir la función de bomba del corazón, bien parcial o totalmente (ventrículo o
corazón artificial), para mantener el funcionalismo de todos los órganos del ser humano. Así, Vladimir Demikhov
fue el primero que construyó un corazón mecánico artificial, en 1937. Extrajo el corazón de un perro y lo reemplazó por un dispositivo mecánico2. Ya en 1955 Bayliss diseñó un corazón artificial total introduciendo los
conceptos de bomba tipo saco y de la utilización de aire
comprimido como fuente de energía para mover esa
bomba. Un par de años más tarde, J. Kolff (inventor del
riñón artificial) y Akutsu diseñaron un corazón artificial
de PVC que también funcionaba con aire comprimido,
permitiéndoles mantener con vida a un perro durante
noventa minutos3.
Habrían de pasar todavía seis años hasta que Domingo Liotta implantara el primer corazón artificial parcial en humano4. El paciente falleció a los cuatro días
tras múltiples accidentes cerebrovasculares. En agosto
de 1966, el Dr. DeBakey implanta un ventrículo artificial
fabricado en plástico y Dacron, como asistencia mecánica circulatoria, en una paciente de treinta y siete años
que no podía ser desconectada de un sistema de circulación extracorpórea durante una doble sustitución valvular (aórtica y mitral)5. Era un sistema paracorpóreo de fácil sustitución. El dispositivo fue retirado diez días
después del implante con éxito. Se había utilizado un
dispositivo de asistencia mecánica circulatoria como
puente a la recuperación de un corazón que no salía de
bomba (de circulación extracorpórea).
En 1967 se realiza el primer transplante cardiaco en
humano. El Dr. Barnard pone de manifiesto con esta intervención que existe la posibilidad de sustituir un corazón dañado de un paciente por un corazón sano de un
fallecido mediante una manipulación cuidadosa del corazón donante tras el fallecimiento del mismo6. Acaba de
2
Shumacker HB Jr. A surgeon to remember: notes about Vladimir
Demikhov. Ann. Thorac. Surg., 58, 1196-8 (1994).
3
Akutsu TKW. Permanent substitutes for valves and heart. Trans. Am.
Soc. Artif. Intern. Organs, 4, 230-4 (1958).
4
Liotta D, Hall CW, Henly WS, Cooley DA, Crawford ES, Debakey
ME. Prolonged assisted circulation during and after cardiac or aortic
surgery. Prolonged partial left ventricular bypass by means of intracorporeal circulation. Am. J. Cardiol., 12, 399-405 (1963).
5
DeBakey ME. Left ventricular bypass pump for cardiac assistance.
Clinical experience. Am. J. Cardiol., 27(1), 3-11 (1971).
6
Barnard CN. The operation. A human cardiac transplant: an interim
report of a successful operation performed at Groote Schuur Hospital,
Cape Town. S. Afr. Med. J., 41(48), 1271-4 (1967).
100cias@uned
nacer un matrimonio de conveniencia muy fructífero. Se
comienza a tener la tecnología para llevar a cabo transplantes de corazón y se dispone dispositivos denominados ventrículos artificiales que permiten mantener con
vida a un paciente con insuficiencia cardiaca hasta que
pueda ser transplantado, en unos casos, recuperado en
otros.
Como último hito en este campo, en 1969 el Dr.
Cooley lleva a cabo una intervención donde implanta un
corazón artificial total en un humano tras ensayos del
corazón en siete terneros7. Fue utilizado como puente
para el transplante que se realizó tres días más tarde,
muriendo el paciente de sepsis a las 32 horas del transplante.
Habiendo sido capaces de mantener con vida a un
paciente durante varios días para llevarle al transplante
con el uso de un corazón/ventrículo artificial, ¿por qué
no durante meses? Haría falta un salto cualitativo durante la siguiente década para que eso fuese posible.
Hacía falta que electrónica e informática, unidas, crearan
los primeros ordenadores «personales» para que los
desarrollos fuesen capaces de resolver los múltiples problemas de estos dispositivos. Debíamos llegar a la pubertad de la era digital, y con ella llegaríamos a los
modelos más conocidos de corazón/ventrículo artificial
como fue el Jarvik-7.8
Hablemos de España. ¿Qué se hacía por aquellos
tiempos en España? Se utilizaba, difícilmente, el Jarvik7 como puente al transplante, sólo muy ocasionalmente
y en un número reducidísimo de Hospitales. Los resultados eran pobres en cuanto a la supervivencia de los pacientes implantados. Tecnológicamente, España no producía ni desarrollaba ningún dispositivo. Los que había
en el mercado eran escasos y muy caros y no estaban a
disposición de los cirujanos cardiacos del momento, salvo muy escasas excepciones. Además, el manejo de pacientes y dispositivos era muy complejo, y los cirujanos e
intensivistas de entonces debían pasar largas temporadas
en hospitales de referencia de Estados Unidos para ad-
7
Cooley DA, Liotta D, Hallman GL, Bloodwell RD, Leachman RD,
Milam JD. Orthotopic cardiac prosthesis for two-staged cardiac
replacement. Am. J. Cardiol., 24(5), 723-30 (1969), y Cooley DA. The
first implantation of an artificial heart: reflections and observations.
Transplant. Proc., 5(2), 1135-7 (1973).
8
Copeland JG, Levinson MM, Smith R, et al. The total artificial heart
as a bridge to transplantation. A report of two cases. JAMA, 256(21),
2991–5 (1986); y DeVries WC, Anderson JL, Joyce LD, et al. Clinical
use of the total artificial heart. N. Engl. J. Med., 310(5), 273-8 (1984).
122 Vida científica
quirir las técnicas y destrezas para su uso. Por otra parte,
los pacientes eran de muy difícil manejo ya que tenían
muy alterado el sistema de coagulación, lo que hacía
que padeciesen bien hemorragias bien procesos derivados
de la formación de coágulos que conllevaban la mayoría
de las veces a problemas cerebrovasculares, cuando no
entraban en shock séptico y fallecían por fallo multiorgánico.
En 1985, tras un viaje a Canadá, el Dr. Duarte, entonces jefe de servicio de cirugía cardiaca del Hospital
Gregorio Marañón, plantea, a la unidad de medicina y
cirugía experimental del mismo hospital, la posibilidad
de desarrollar una consola de mando para controlar un
ventrículo artificial neumático que ha traído de Canadá
en su maleta. Es un ventrículo sacular con dos cánulas
de conexión para ser insertadas, normalmente, en la
aorta y en la aurícula derecha del paciente al que se le
va a someter al implante. Puesto en contacto con el Dr.
del Cañizo, le comenta que es posible hacer dos cosas.
Una es construir una consola de mando para el ventrículo y otra tratar, además, de hacer una copia del ventrículo para hacer ensayos con animales. El Dr. Duarte
cuenta con la colaboración del Dr. Caleya y del Dr. Valdivielso (de su mismo hospital) y el Dr. del Cañizo, con la
de la Dra. Desco que colaborará con el proyecto hasta su
100cias@uned
finalización. El jefe de la unidad de medicina y cirugía
experimental pide ayuda para el diseño hidrodinámico
del ventrículo a dos profesores de la UNED, los profesores Antoranz y Rubio, entonces los dos del departamento de Física Fundamental. A este proyecto se fueron incorporando otros investigadores como la Dra. Cano,
veterinaria, o Francisco Rodríguez, biólogo informático
de amplio espectro.
Se desarrollaron varios tipos de consolas y de ventrículos en colaboración con una incipiente empresa madrileña dedicada a la venta de válvulas cardiacas (entre
otros productos) llamada BIOMED, S.A., quien recibe
una subvención del CDTI para que se pueda introducir el
producto desarrollado en los canales normales de distribución de la sanidad española. Se realizaron ochenta
implantes agudos/crónicos en ovejas hasta adquirir destreza, conocimiento y experiencia suficiente en el manejo de consolas, ventrículos y «pacientes» como para solicitar el comienzo a la fase de ensayo clínico.
El día 30 de junio de 1989, el Dr. Duarte, entonces
jefe de servicio de cirugía cardiaca en el Hospital de la
Princesa, comunica al equipo del ventrículo BCM (así
se llama el dispositivo de forma abreviada Biomed Comunidad de Madrid) que existe un paciente con una
cardiomiopatía dilatada que necesita un transplante car-
123 Vida científica
diaco y que no puede esperar por más tiempo la llegada
del corazón de un donante sin una asistencia cardiaca a
su ventrículo izquierdo. Se discutieron las posibilidades
que tenía el paciente, la idoneidad del mismo y se decidió poner en marcha el dispositivo para llevar a cabo el
implante. Se llevaron a esterilización dos ventrículos y
varios juegos de cánulas. A las 08:00 de la mañana, el
paciente llegó a quirófano, comenzando a las 09:00 la
intervención que duraría hasta las 13:00 del mismo día.
Momento en el que se procedió al traslado en otra planta (con los consiguientes problemas) del paciente para ser
atendido en la UVI del hospital.
La mañana del día dieciocho de julio se recibe una
llamada en el hospital de la Princesa indicando al equipo
médico la posible existencia de un donante en Madrid
para el paciente. Tras los correspondientes trámites, se
decide trasladar al paciente del hospital de la Princesa al
Gregorio Marañón para el transplante ya que La Princesa carece de permiso para realizar transplantes de corazón. El transplante se realiza con éxito por el equipo del
Dr. Arcas, finalizando el mismo a las 05:00 del día 19 de
julio, tras dieciocho días de angustia y sobresaltos, culmina un trabajo comenzado cuatro años atrás por los
Drs. Duarte y del Cañizo. El ensayo clínico multicéntrico
continuó con un éxito del 80%, muy superior a los obtenidos por otros ventrículos artificiales9.
España es un país afortunado, el número real de
donantes por cada millón de habitantes es el mayor
de todo el mundo, por lo que la necesidad de recurrir a
dispositivos como corazones artificiales o ventrículos
9
J.F. del Cañizo, M.M. Desco, M.A. Rubio, J.C. Antoranz, M. Cano, D.F.
Caleya, M.A. Valdivielso, P.García-Barreno y J. Duarte, Preliminary
results with the B.C.M. ventricular assist device (VAD) in human,
The International Journal of Artificial Organs, 13, 566 (1990) y J.C.
Antoranz, M.A. Rubio, J. Duarte, D. Fernández-Caleya, M.M. Desco, M.
Cano, P.G. Barreno, J.M. Álvarez-Valdivielso y J.F. del Cañizo, Improvement of the hydrodynamic response of a ventricular assist device
(VAD): a false auricle solution. Artificial Organs, 16, 301-305 (1992) y
J.F. del Cañizo, M.M. Desco, J.M. Álvarez-Valdivielso, D. FernándezCaleya, J.C. Antoranz, M.A. Rubio, and J. Duarte, Clinical experience
with the BCM assist device, The International Journal of Artificial Organs, 15, 530 (1992).
100cias@uned
artificiales en menor que en los países de nuestro entorno. Además, el uso de estos dispositivos conllevan
una gran cantidad de problemas como las hemorragias, los tromboembolismos, las infecciones que hace
que muchas veces no se pueda transplantar al paciente
debido a las posibles complicaciones que pueden surgir
dado el estado del mismo. Otro inconveniente es el
precio, todavía muy elevado y más ahora en tiempos de
crisis.
En 2008 apareció un artículo titulado «Dispositivos
de asistencia mecánica circulatoria: Es hora de focalizar
nuestra atención en las complicaciones en lugar de construir nuevas bombas»10. Desde 1995 hasta la actualidad,
se han reducido los casos de hemorragia, de fallo renal
en pacientes sometidos a asistencia, sin embargo, han
aumentado las infecciones, los fallos respiratorios, enormemente los problemas neurológicos y ligeramente los
fallos mecánicos/informáticos de los dispositivos. Ya en
1994, se comentaba que las complicaciones eran, sobre
todo, debidas a problemas con el paciente y no con los
dispositivos11. Han pasado 20 años desde ese primer implante español pero sigue vigente la pauta que conducía
al equipo BCM: hay que implantar el ventrículo en el
momento y en el paciente adecuado, respetando los límites de la naturaleza humana12.
J. Carlos Antoranz y M. Mar Desco
Dpto. de Física Matemática y de Fluidos
y Miembros del Biomed Comunidad de Madrid
(BCM) Team.
10
Guest editorial, Mechanical Circulatory Support Devices: Is It Time
to Focus on the Complications, Instead of Building Another New
Pump?, Artifical Organs, 32, 1-4 (2008).
11
1994 Report, Combined Registry for the Clinical Use of Mechanical
Ventricular Assist Pumps and the Total Artificial Heart.
12
E. Flecher, T. Joudinaud, T. et J.-M. Grinda, Histoire de l’assistance
circulatoire mécanique et du coeur artificiel. Mechanical cardiac assistance and artificial heart: historical perspectives, Annales de Chirurgie, 131, 473-8 (2006).
124 Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
EFEMÉRIDES
2009, ADIOS AL AÑO INTERNACIONAL
DE LA ASTRONOMÍA
En 2009 celebramos el Año Internacional de la Astronomía (AIA-IYA2009). Conmemoramos el 400 aniversario de un evento que revolucionó la ciencia: la primera observación del cosmos a través de un telescopio
por el gran astrónomo italiano Galileo Galilei. Fue un
hecho que supuso un antes y un después en nuestra
compresión del Universo y marcó el comienzo de la historia de la astronomía basada en el telescopio. 148 países
se han unido a esta celebración. En España, el resultado
ha sido más de 3000 actividades enmarcadas en el AIAIYA2009 impulsadas por más de 1000 entidades diferentes.
Decimos adiós a un año en el que miles de personas,
hombres y mujeres de 148 países, hemos trabajado con
un objetivo común: invitar a gente de todas las edades,
origen y creencias a viajar por el Cosmos en una aventura fantástica e inolvidable.
LA HOJA DE RUTA DEL AIA-IYA2009
La declaración del 2009 como Año Internacional de
la Astronomía fue una iniciativa que partió de Italia,
país natal de Galileo. En su Asamblea General de 2003,
celebrada en Sydney (Australia), la Unión Astronómica
Internacional (UAI) aprobó por unanimidad el promover
esta iniciativa a todos los niveles. En 2005 se conseguía el respaldo de UNESCO, que recomendó a la Asamblea General de las Naciones Unidas el hacer efectiva dicha declaración. El 20 de diciembre de 2007 dicha
Asamblea proclamaba 2009 Año Internacional de la Astronomía.
Mientras tanto, la UAI y los países implicados en
esta iniciativa no esperábamos sentados. En el caso de
España, la UAI contactó con la Comisión Nacional de
Astronomía (CNA) a finales de 2006, presentando la iniciativa y encargándole la misión de impulsar el AIAIYA2009 en nuestro país. A principios de 2007 la CNA
formó un comité de coordinación en el que están repre-
100cias@uned
sentados la CNA, el MICINN, el CSIC, la SEA y la FECYT
y nombró una persona responsable de la coordinación
global, perteneciente también a dicho comité.
En 2007 se formó además un equipo de trabajo
que llegaría a estar integrado por 17 personas de museos, planetarios, centros de investigación, centros escolares, universidades y agrupaciones amateur de toda
España, responsables de coordinar con el apoyo del
comité las actividades impulsadas por diferentes agentes (centros de investigación, agrupaciones amateur,
etc) y la mayoría de los grandes proyectos de ámbito
nacional o internacional en los que ha participado
nuestro país. Son personas que en su mayoría (salvo
dos específicamente contratadas para el AIA-IYA2009),
al igual que los miembros del comité de coordinación,
asumieron estas responsabilidades sin cobrar extra por
ello.
En 2007 nacía también la Red Española para el AIAIYA2009 en la que están representadas 141 entidades y
que cuenta además con el respaldo de 48 agrupaciones
colaboradoras. Una gran red de divulgación de la Astronomía que ha hecho fluir a todos los niveles, hacia todos
los rincones, la información relevante sobre el Año Internacional de la Astronomía.
En España, por tanto, el AIA-IYA2009 ha sido fruto
de la colaboración de todas las instituciones relacionadas
con la Astronomía, incluyendo el MICINN, el CSIC, la
SEA (Sociedad Española de Astronomía) y la FECYT, y
con la coordinación general de la Comisión Nacional de
Astronomía.
Terminábamos el 2008 con una buena noticia: el 16
de diciembre, todos los grupos políticos representados en
el Congreso de los Diputados aprobaron por unanimidad
una Proposición No de Ley sobre el Año Internacional de
la Astronomía 2009 en España en la que se animaba
organizaciones científicas, centros escolares y medios
de comunicación a celebrar esta conmemoración mundial. Además, se instaba al gobierno a apoyar a las organizaciones implicadas en el AIA-IYA2009, así como a
reforzar su apoyo al desarrollo de la Astronomía en
nuestro país (investigación, desarrollo tecnológico, divulgación, enseñanza).
Y llegó el 2009: la gran fiesta astronómica mundial.
125 Vida científica
Figura 1. SAR el Príncipe Felipe, presidente del comité de honor del
AIA-IYA2009, inauguró el Año Internacional de la Astronomía en
un acto celebrado el 27 de enero de 2009 en la sede central del CSIC
en Madrid. En la imagen, el presidente de la CNA y presidente del
CSIC, D. Rafael Rodrigo Montero, muestra a SAR y a D.ª Catherine
Cesarky, entonces presidenta de la UAI, la exposición «El Universo
para que lo Descubras», uno de los principales proyectos que ha
impulsado España con motivo del AIA-IYA2009.
— Facilitar la creación de nuevas redes y reforzar las
existentes, conectando a astrónomos profesionales, aficionados, educadores y profesionales de la
comunicación mediante la organización de actividades locales, regionales, nacionales e internacionales.
— Promover la igualdad de género en los ámbitos
científicos y estimular un mayor compromiso con
las minorías pobremente representadas en las carreras científicas y tecnológicas.
— Facilitar la conservación y protección de la herencia natural y cultural que representan el cielo
oscuro y los lugares astronómicos históricos, concienciando sobre la importancia de su preservación para el entorno natural y la herencia del ser
humano.
Todas las actividades organizadas en el marco del
AIA-IYA2009 han contribuido en su conjunto a lograr
estos objetivos.
LOS OBJETIVOS
LOS PROYECTOS
Los principales objetivos que ha perseguido el AIAIYA2009 son los siguientes:
— Aumentar el conocimiento científico de la sociedad mediante la comunicación de resultados de la
investigación astronómica y campos afines, la
transmisión de información sobre el método de
investigación y sobre el pensamiento crítico que
ha llevado a tales resultados.
— Promover el acceso generalizado al conocimiento
universal de las ciencias básicas compartiendo la
emoción que producen el conocimiento científico, el descubrimiento astronómico y la observación del cielo.
— Impulsar comunidades astronómicas en países en
vías de desarrollo mediante la iniciación y el estímulo de colaboraciones internacionales.
— Respaldar y mejorar la educación científica en
las escuelas e institutos, así como en centros de
investigación, planetarios y museos.
— Proporcionar una imagen contemporánea de la
ciencia y de los científicos para reforzar los vínculos entre la enseñanza básica y las carreras
científicas. Se estimulará de este modo un incremento de las matriculaciones de estudiantes en
áreas científicas y tecnológicas, así como la valoración del aprendizaje continuo durante toda la
vida.
100cias@uned
Además de cientos de iniciativas de carácter local,
regional y autonómico, en España nos hemos implicado
en 21 grandes proyectos de ámbito nacional (es decir,
han tenido aplicación en al menos varias Comunidades
Autónomas) o internacional. Aquí se describen brevemente algunos de ellos:
— 100 horas de Astronomía. Un maratón astronómico mundial de 4 días (2-5 abril) dedicados a la
divulgación de la Astronomía en el que participaron más de 130 países. En España fue todo un
éxito: más de 300 actividades organizadas durante esos 4 días. Como actividad estrella, cabe
destacar la iniciativa «La Vuelta al Mundo en 80
Telescopios», un webcast de 24 horas organizado
mediante conexiones con unos 80 telescopios repartidos por los principales observatorios astronómicos y centros espaciales del mundo. Desde
España se realizaron 11 conexiones con telescopios y satélites del Roque de los Muchachos, Calar
Alto, ESAC, etc.
— Descubre el Cielo Oscuro, que ha tenido como
objetivos proteger el cielo oscuro y luchar contra
la contaminación lumínica. Destacan el proyecto
IACO (Iniciativa de Acción contra la Contaminación Lumínica) y el I Curso de Fotometría Aplicada a la Medición de Contaminación Lumínica,
126 Vida científica
que se celebró del 16 al 18 de octubre en el Observatorio Astronómico de Calar Alto y en el que
participaron astrónomos amateur de toda España.
— Astronomía made in Spain (Fig. 2). Un libro que
recorre los trabajos de investigación más punteros
de la Astronomía española de los últimos 30
años, en formato de entrevistas breves realizadas
a sus protagonistas. Algunos de estos investigadores participaron además en charlas y mesas
redondas relacionadas organizadas en diferentes
localidades. El programa de actividades continuará en 2010.
Figura 2. La Astronomía mas puntera producida en España
en los últimos 30 años, explicada por sus protagonistas
en el libro «Astronomía made in Spain».
— Ella es una Astrónoma, cuyo objetivo es promover la igualdad de género en la Astronomía en
particular y la Ciencia en general. Se ha producido una serie de 8 programas de TV titulada «Mujeres en las Estrellas» dedicados a la contribución
de la mujer al desarrollo de la Astronomía en España (que ha sido posible gracias a una magnífica
colaboración con la UNED), así como la exposición «Con A de Astrónomas» que hace un recorrido por el papel de la mujer en esta rama de la
ciencia en diferentes épocas y lugares. La exposición continuará mostrándose en diferentes localizaciones durante 2010 y 2011. Como curiosidad,
el material expuesto incluye maquetas de instrumentos científicos y otros objetos utilizados en
«Ágora», la película más reciente de Alejandro
Amenábar.
— El Universo para que lo Descubras, una exposición de imágenes astronómicas de gran belleza,
con breves explicaciones científicas y textos de la
100cias@uned
literatura universal. Se ha mostrado en más de
100 localidades de 5 países diferentes (España,
México, Argentina, República Eslovaca, República
Checa) y se estima que varios millones de personas han podido verla.
— La medida del Radio de la Tierra (Fig. 3). El 26 de
marzo de 2009, profesores y alumnos de más de
600 centros escolares repartidos por todo el territorio nacional repitieron la experiencia que el sabio
griego Eratóstenes realizó hace más de 2000 años.
Todas las medidas combinadas dieron un único valor del radio de la Tierra con un error de un 5%.
Figura 3. Alumnos de un centro escolar participando el 26 de marzo
en «La Medida del Radio de la Tierra». ¡Incluso llevaron camisetas
con el logo del Año Internacional de la Astronomía¡
— Astro para Todos. Un proyecto que ha tenido
como objetivo la irrupción de la Astronomía en la
vida cotidiana, mediante bellas imágenes de contenido astronómico presentadas en objetos como
billetes de sorteos, bonos de transporte, sellos,
fondos para móvil, salvapantallas, etc. Como su
título indica, Astro para todos.
— Evolución y Jors, Jars, Jurs y los Galigalitos
(Fig. 4), dos grandes producciones de planetario
impulsadas por los principales museos de ciencia
y planetarios de España, que han recorrido la mayoría de las cúpulas de nuestro país y seguirán en
cartelera durante el 2010.
— Actividades astronómicas dirigidas a personas
discapacitadas (Fig. 5), entre las que destacan la
edición de un libro en braille didáctico de Astronomía y la producción del programa de planetario
«El Cielo en tus Manos» para personas con discapacidad visual, que se estrenó en l’Hemisfèric de
la Ciudad de las Artes y las Ciencias de Valencia
el 29 de octubre de 2009.
127 Vida científica
Figura 4. Los museos de ciencia y planetarios han lanzado dos grandes
producciones de planetario con motivo del Año Internacional de la
Astronomía: «Evolución», que rinde homenaje a Darwin y Galileo, y
«Jors, Jars, Jurs y los Galigalitos», destinado a un público infantil.
— Fiestas de Estrellas (Fig. 6). Cientos de astrónomos aficionados han salido a tomar calles y plazas con sus telescopios para mostrar al público las
maravillas del cielo estrellado que fascinaron a
Galileo Galilei hace 400 años. Se celebraron 5
fiestas en total, tres nacionales y dos internacionales, impulsadas por 77 agrupaciones astronómicas de toda España.
— U4: Una Universidad, Un Universo. Un proyecto
que ha tenido como objetivo acercar la investigación astronómica a los estudiantes de la universidad española en un extenso programa de conferencias impartidas por astrónomos profesionales.
Se ha formado un gran equipo coordinado de
Figura 5. El 29 de octubre se estrenaba en l’Hemisfèric de la
Ciudad de las Artes y las Ciencias de Valencia el programa de
planetario «El cielo en tus manos». Personas invidentes
y parcialmente invidentes pudieron tocar con sus manos
el cielo estrellado.
más de 170 conferenciantes de toda España que
han impartido más de 240 conferencias en 49
universidades, para un público de al menos
13.000 personas.
— Música y Astronomía (Fig. 7). Una forma divertida de pasear por el Universo, que combina música y astronomía tomando como base partituras
muy diversas. Como resultado, la Pequeña Serenata Nocturna de Mozart se ha convertido en la
«Pequeña Serenata Astronómica», un montaje audiovisual de gran belleza en el que Sancho y Don
Quijote recorren el Universo siguiendo los acordes
de la música de Mozart sincronizada con bellas
imágenes del Universo.
Figura 6. Los astrónomos amateur han mostrado el cielo estrellado a cerca de 50 000 personas ocupando calles y plazas con sus telescopios
en numerosas localidades españolas en cinco «Fiestas de Estrellas».
100cias@uned
128 Vida científica
Figura 7. Fotograma de la «Pequeña Serenata Astronómica». Sancho y Don Quijote viven arriesgadas aventuras en un viaje
cósmico, siguiendo los acordes de la música de Mozart.
LOS RESULTADOS
El AIA-IYA2009 ha sido un éxito en España. Desde
el primer momento consideramos que era una oportunidad única para llevar la astronomía a la sociedad, una
oportunidad que nunca se repetiría. Sabíamos además,
que era nuestra responsabilidad organizar un Año Internacional de la Astronomía con un nivel de excelencia
acorde con la magnífica evolución que esta rama de la
ciencia ha experimentado en nuestro país en las últimas
décadas.
Las cifras hablan por sí solas. Con motivo de la celebración del Año Internacional de la Astronomía, a lo
largo del 2009 se han organizado en nuestro país más
de 3000 actividades de divulgación de la Astronomía y
casi todos los meses ha habido al menos entre 200 y 300
actividades en marcha, superando las 300 en marzo,
abril, mayo, octubre y diciembre. Sin olvidar los 21 grandes proyectos de ámbito nacional e internacional mencionados anteriormente.
Más de 1300 entidades diferentes han organizado
al menos una actividad enmarcada en el AIA-IYA2009 a
lo largo del 2009. La naturaleza de estas entidades ha
sido muy variada: agrupaciones de astrónomos amateur,
museos de ciencia, planetarios, centros de investigación,
universidades, observatorios astronómicos, centros escolares, asociaciones culturales, bibliotecas, ayuntamientos, centros juveniles, etc.
El AIA-IYA2009 ha llegado no sólo donde esperábamos que lo hiciera (es decir, aquellos organismos relacionados con la divulgación y/o la investigación astro-
100cias@uned
nómicas), sino también a lugares y celebraciones sin
ninguna relación con la Astronomía, muchos de ellos
emblemáticos de la cultura y la historia de nuestro país.
Así, han organizado y/o acogido actividades enmarcadas
en el AIA-IYA2009 el edificio del Senado, el Museo Guggenheim de Bilbao, el Museo Arqueológico Nacional, los
Alcázares de Sevilla, Segovia y Toledo, el Congreso de
los Diputados, el Palacio de Carlos V de Granada, yacimientos arqueológicos de Gran Canaria, la Residencia de
Estudiantes del CSIC, y muchos más.
Celebraciones como el Festival Internacional de Música Presjovem (Córdoba), las «Noches en los Jardines del
Alcázar» (Sevilla), la «Noche en Blanco» (Madrid), la Feria del Libro 2009 (Madrid), el Festival Internacional de
Música de La Mancha, etc., también se han hecho eco de
esta celebración, al incluir en sus programas actividades
relacionadas con la Astronomía.
El AIA-IYA2009 ha dejado multitud de recursos para la
divulgación, difusión y educación de la Astronomía, muchos de los cuales quedan recopilados y accesibles de manera gratuita en el portal web www.astronomia2009.es:
documentales, entrevistas, artículos, material escolar,
progamas de TV, podcasts de radio, juegos, posters, descargas para salvapantallas, móviles, etc que quedan
como legado.
El AIA-IYA2009 ha sido la mayor iniciativa de divulgación científica que ha existido en nuestro país. Hemos contado con varios factores que en una época de
crisis nos han fortalecido en comparación con otras celebraciones de naturaleza similar:
— La Astronomía apasiona.
129 Vida científica
— Dos años de preparación, 2007 y 2008, en los
que se definió y se puso en marcha una estrategia
de coordinación global clara y realista, impulsada
por el comité de coordinación, respaldada con la
actividad del equipo de trabajo y apoyada por
las instituciones. En general, el enorme esfuerzo
realizado durante esos dos años por numerosas
entidades de toda España se dedicó a conseguir
recursos, estimular la participación, realizar actividades preparatorias de numerosos proyectos,
establecer colaboraciones, poner en marcha el
portal web del AIA-IYA2009, etc. Así logramos
llegar a enero de 2009 muy organizados, listos
para el pistoletazo de salida.
— Interés de los medios de comunicación. Raro es el
día que no escuchamos o leemos una noticia relacionada con la Astronomía. Durante el 2009,
varios medios de comunicación ha hecho una cobertura especial del AIA-IYA2009.
— Los astrónomos amateur. Ninguna otra rama del
conocimiento cuenta con un capital humano no
profesional tan numeroso, dedicado y capaz de
llegar al público general.
— Un equipo internacional muy activo y bien organizado que ha estimulado la participación de manera continua y eficiente en los países implicados
en el AIA-IYA2009.
LA CONTINUIDAD
El éxito que el AIA-IYA2009 ha tenido en España no
hubiera sido posible sin la implicación de las instituciones y la participación de miles personas que han
trabajado en la mayoría de los casos de manera desinteresada. Gracias a ello hemos conseguido llevar a la sociedad una rama de la ciencia que ha inspirado al ser
humano en culturas de todas las épocas y lugares, desde
sus orígenes hace miles de años hasta el día de hoy, en
que la revolución tecnológica nos permite vivir una época dorada para la Astronomía.
La movilización sin precedentes que ha generado el
AIA-IYA2009 demuestra que la astronomía traspasa
fronteras físicas e ideológicas para unir, inspirar y
movilizar a la gente, al margen de ideologías políticas y
creencias religiosas.
Por todo ello, el Año Internacional de la Astronomía
tiene que continuar. No debemos parar ahora y permitir
100cias@uned
que poco a poco se diluya y desaparezca todo lo logrado.
Es necesario seguir una estrategia clara y eficiente respaldada por las instituciones que dé continuidad a esta
gran iniciativa de divulgación científica. Dicha estrategia
cuenta ya con el respaldo activo de muchos colaboradores del AIA-IYA2009, la fuerza de las redes de colaboración que han surgido y el impulso de los miles de iniciativas generadas.
¿Lo lograremos? ¿O nos felicitaremos todos por el
éxito conseguido, para después olvidarnos y volver al lugar donde estábamos antes del Año Internacional de la
Astronomía?
Montserrat Villar Martín
Instituto de Astrofísica de Andalucía (CSIC)
130 Vida científica
100cias@uned
N.º 2
Vida científica
(nueva época)
| 2009
ISSN: 1989-7189
LAS MUJERES Y LA CIENCIA
MUJERES Y ASTRONOMÍA
El trabajo que aquí presento, pretende ser mi homenaje particular a todas aquellas astrónomas olvidadas demasiado frecuentemente por los historiadores de la ciencia. Se enmarca dentro de las actividades realizadas, con
motivo de la celebración en 2009 del Año Internacional
de la Astronomía, en el proyecto pilar «Ella es una Astrónoma». Los detalles sobre las diferentes actividades
llevadas a cabo se pueden encontrar en la página WEB
http://astronomia2009.es/Proyectos_pilares/Ella_es_una_
Astronoma.html.
El objetivo principal de este trabajo ha sido ilustrar
en qué medida las mujeres astrónomas a lo largo de la
historia han participado en los grandes descubrimientos
que nos han llevado a nuestro conocimiento actual del
Universo. Espero poder convencer a los lectores de que
no fueron tan pocas aunque sí que han estado bastante
invisibilizadas por los cronistas de todas las épocas. No
obstante la historia de la Astronomía nos ha enseñado
que la presencia de las mujeres en esta ciencia cuenta
con 4000 años de antigüedad. Tanto los hombres como
las mujeres han mirado al cielo estrellado en noches
despejadas tratando de encontrar respuestas a los misterios del universo y de sus propias vidas.
En Babilonia encontramos a EN’HEDUANA (2353
a.C.) que como suma sacerdotisa tenía conocimientos de
Astronomía y creó uno de los primeros calendarios de
los que se tienen noticias y que aún se utiliza en algunas
comunidades religiosas. En la antigua Grecia nos encontramos con la figura de AGLAONIKE (s. II) que poseía conocimientos para predecir eclipses. En Egipto aparece la figura extraordinaria de HYPATIA (s. IV). Ella es
sin duda alguna una de las mujeres científicas más conocidas y respetadas de la antigüedad, despertando el interés no sólo de científicos sino también del público en
general por su atrayente personalidad. El director de
cine Amenábar ha utilizado su historia para describir la
destrucción de la biblioteca de Alejandría en su película
Ágora. De Hypatia se sabe que fue una gran intelectual,
filósofa, matemática y también astrónoma. A ella se le
100cias@uned
atribuyen 3 tratados de geometría y álgebra, diferentes
cartografiados estelares y un planisferio, además de ser
conocida como profesora de astrolabios. Algunos historiadores le atribuyen incluso el descubrimiento del astrolabio.
Figura 1. Hypatia de Alejandria y el astrolabio.
Hasta finales del siglo XIX a las mujeres no les fue
posible realizar trabajo científico de forma autónoma
sino que sus ideas y opiniones tuvieron que ser expresadas a través de sus mentores, padres, hermanos, maridos
o amantes. A partir de ahora relacionaré el parentesco
que cada mujer tenía con su mentor.
En la Edad Media no se tienen noticias de si hubo
mujeres astrónomas. Sólo encontramos referencias históricas acerca de una española, FÁTIMA DE MADRID
(s. X) de la época del califato de Córdoba. Fátima era la
hija del astrónomo, matemático y filósofo andalusí del
siglo X Abul Qasim Maslama ibn Ahmad al-Mayrity,
con quién aprendió y colaboró. Entre su obra hay que
destacar Las Correcciones de Fátima, donde presentaba
una revisión actualizada de los conocimientos astronómicos existentes en su época.
En el siglo XVI se tienen noticias de que SOFIA
BRAHE (1556-1643) ayudó a su hermano Tycho Brahe
desde muy niña en los cálculos de eclipses y observaciones pretelescópicas de planetas. MARIA CUNITZ
(1604-1664), esposa de un eminente astrónomo, popularizó las leyes de Kepler en su manuscrito Urania
Propicia. En particular, dedicó mucho tiempo para dar
a conocer la 2.ª ley de Kepler de los movimientos planetarios.
131 Vida científica
Figura 2. De izquierda a derecha: Galileo Galilei, su primer dibujo de la Luna y Mapa Lunar.
En 1609, Galileo revolucionó la Astronomía con la
invención del telescopio que sin entrar en la disputa
acerca de si fue invención suya o no, lo que sí es cierto
que a él le debemos el mérito de su aplicación para Astronomía. Coetánea de Galileo es MARIA EIMMART
(1676-1707), hija del famoso astrónomo Geoff Eimmart,
que con sus 250 dibujos de la Luna ayudó a realizar un
mapa lunar bastante preciso.
En el siglo XVII en Alemania encontramos una
mujer que aunque está olvidada generalmente por los
cronistas de la Astronomía, fue una avanzada para su
época, MARIA WINCKELMANN KIRCH (1670-1720).
Entre sus logros hay que destacar los trabajos publicados sobre conjunción de planetas y el hecho de que sea
la primera mujer en descubrir un cometa. Sus investigaciones le valieron el reconocimiento de la Academia
de Berlín que le concedió una medalla de oro. En lo
que se refiere al crédito de sus trabajos por sus colegas
fue escaso siendo numerosas las veces que su esposo,
el Prof. Kirch, tuvo que desmentir que algunos trabajos
se los atribuyeran a él. Pero las medallas y el reconocimiento de la Academia no le sirvieron para obtener
trabajo en ella al fallecimiento de su marido. Solicitó
ocupar su puesto, pero no fue aceptada por el hecho de
ser mujer a pesar de contar con el apoyo decidido del
director de la misma. Después de una larga batalla
contra la Academia, dirigió el observatorio privado del
barón von Krosigk. Allí entrenó a sus hijos en las artes
de la Astronomía y continuaron con los trabajos iniciados con su marido sobre la elaboración de calendarios. Años después volvió a la Academia como ayudante de su hijo, pero tuvo que abandonarla para no
perjudicarlo ante las insistentes llamadas de atención
del director por su excesivo protagonismo. Sus hijas
continuaron trabajando en la Academia como ayudantes de su hermano.
Figura 3. De izquierda a derecha: Retrato de Caroline Herschel, Telescopio de 20 pulgadas
construido por William y Caroline Herschel, y Nebulosa descubierta por Caroline.
100cias@uned
132 Vida científica
En Inglaterra encontramos a CAROLINE HERSCHEL
(1750-1848), hermana del famoso astrónomo William
Herschel. A ella se le atribuye el descubrimiento de 14
nebulosas, además de ser la primera en darse cuenta, y
así se lo comentó a su hermano, de la gran abundancia
de nebulosas en el cielo (Hoskin, 2008, New Dictionary
of Scientific Biography, 3, 286). Descubrió un buen número de cometas. Hoskin dice en su favor que, a pesar de
que siempre consultaba a su hermano, ella era bastante
más capaz que William Herschel para distinguir entre fenómenos transitorios y nebulosas. A la muerte de su
hermano se retiró a Hannover y ahí escribió el catálogo
de 2500 nebulosas de W. Herschel. En su vida tuvo bastante prestigio y fue respetada por los astrónomos de la
época aunque ella no creyó nunca ser merecedora de
tales honores. Fue la primera mujer pagada con un sueldo de 50 libras como asistente de astrónomo y la Royal
Society le concedió una medalla de oro por sus méritos.
De esta misma época en Inglaterra encontramos la
extraordinaria figura de MARY SOMMERVILLE (17821872). Fue una gran intelectual que se tuvo que casar
con su primo, bastante mayor que ella, para ver realizado su sueño de poder introducirse en los ambientes científicos intelectuales de su época. En su trayectoria científica fue bastante autodidacta, dotada de una gran
curiosidad científica, como lo demuestran los diferentes
libros que publicó a lo largo de su vida (The Magnetic
Properties of the Violet Rays of the Solar Spectrum en
1826; The Mechanism of the Heavens en 1827; The
Connection of the Physical Sciences en 1834; Physical
Geography en 1848 y Molecular and Microscopic Science en 1869). Toda su producción se apreció durante su
vida pero no le garantizó el puesto que por derecho le
correspondía en la sociedad científica de la época. De su
biografía se desprende que sólo contó con el respeto incondicional de John Herschel.
Figura 4. Mary Fairfax Sommerville y una de sus obras.
100cias@uned
En el siglo XIX la profesionalización de la ciencia en
Europa dio lugar a la casi total desaparición de la mujer
del panorama científico. Sin embargo, en Estados Unidos
resurgieron con un empuje extraordinario debido a la influencia ejercida por los movimientos sufragistas feministas.
Entre todas ellas quiero destacar a MARIA MITCHEL
(1818-1889), hija de astrónomo y bien entrenada en observaciones astronómicas. Entre su extenso curriculum
hay que resaltar el descubrimiento de un cometa, que le
valió una medalla del rey de Dinamarca, el estudio de las
manchas solares, de asteroides y movimientos de planetas. Hay que destacar en su trayectoria el papel jugado
como activista en los movimientos sufragistas y como
impulsora y maestra de astrónomas. Esta habilidad para
potenciar a las mujeres le valió la dirección del Vassar
College.
Aún existe la fundación Maria Mitchel que tiene
como objetivo el impulsar la carrera científica de las
mujeres en el campo de las ciencias naturales y la astronomía. Recibió bastantes honores, pero a pesar de ello
siempre pensó que la mujer no llegaría nunca a tener el
intelecto del varón pero, a cambio, tenía la paciencia necesaria para realizar observaciones y medir cuidadosamente placas fotográficas. Sus palabras «El ojo que dirige la aguja en los delicados menesteres del bordado,
sirve igualmente para bisectar una estrella….» dan una
idea bastante precisa de cómo concebía el trabajo de las
astrónomas de la época.
De esta época hay que destacar el conocido HARÉN
DE PICKERING. El profesor Pickering tuvo la habilidad de
darse cuenta de que las mujeres podían hacer el mismo
trabajo científico que los varones pero eran más pacientes
y laboriosas. De ahí el éxito del grupo de Harvard.
Isaksson (1989, http://www.astro.helsinki.fi/history/heaven/heaven.html) atribuye a Pickering el mérito de
permitir a este grupo de mujeres el realizar trabajo independiente, además de aquel para el que se las contrató,
como medidoras de placas.
Entre las trabajadoras del profesor Pickering se pueden distinguir dos grupos, las que sólo se limitaron a hacer su trabajo como medidoras de las placas fotográficas
y aquellas otras que se entusiasmaron con la astronomía
y realizaron un magnifico trabajo de investigación. Sin
ser exhaustiva, voy a comentar el trabajo realizado por
algunas de ellas.
WILLIAMINNA FLEMING (1857-1911) fue la primera
mujer contratada en Harvard. Cambió su estatus laboral
133 Vida científica
Figura 5. Maria Mitchel y su casa y su observatorio (arriba), y en el Vassar Collage con sus estudiantes (abajo).
se compilaron en los 9 volúmenes del catálogo Henry
Drapper. Su trabajo fue apreciado en su momento y recibió muchos honores. Hay que destacar que se estableció en su honor un premio con su nombre.
Figura 6. El «harén» de Pickering.
de ser la empleada de hogar de Pickering a su asistente
en el trabajo de medir las placas del catálogo Henri
Drapper. Su labor fue tan exquisita que se convirtió en la
conservadora del archivo de placas fotográficas de
Harvard. Descubrió 10 novas, 52 nebulosas y cientos de
estrellas variables.
ANNIE CANNON (1863-1941) es muy reconocida
por ser la creadora del sistema de clasificación estelar
basado en la temperatura de las estrellas. En la figura se
muestran espectros de estas estrellas secuenciados por su
temperatura. Las de tipo O son las más calientes y las de
tipo M las más frías. Este sistema es el que se utiliza aún
hoy en día. Para ello, midió unos 200.000 espectros que
100cias@uned
Figura 7. Clasificación estelar ideada por Annie Cannon.
ANTONIA MAURY (1866-1952) fue la más rebelde
de todas ellas. Era sobrina de Henry Drapper pero jamás
hizo uso de dicho privilegio. Ella inventó un sistema de
clasificación adicional con subíndices que reflejaban las
diferentes clases de luminosidad para cada tipo estelar.
Este hecho llevó 30 años después a construir el famoso
diagrama de evolución estelar, el diagrama de Hertzsprung-Russell. Pero desafortunadamente en 1896 tuvo
que abandonar Harvard por diferencias con Pickering y
134 Vida científica
Figura 8. Mujeres astrónomas contratadas como
«maquinas calculadoras» en Harvard. De izquierda
a derecha: W. Flemmin, A. Cannon (arriba),
A. Maury y H. Leavitt (abajo).
no se reincorporó hasta que no fue director el Prof. Shapley. Esta experiencia fue la primera constatación de
que Pickering, si bien apoyaba a sus mujeres, quería
mujeres sumisas, que no le hicieran sombra.
HENRIETTA LEAVITT (1868-1921), aún siendo bastante sumisa, por su clarividencia investigadora mostró
la peor parte de Pickering. Ella es la astrónoma de la
época más citada por los diferentes cronistas, le debemos
la famosa relación periodo-luminosidad para las estrellas
Cefeidas, lo que ha permitido obtener las escalas de distancias a las galaxias. Su trabajo estuvo centrado en las
placas obtenidas para las nubes pequeña y grande de
Magallanes. Mostró que existía una relación universal
entre el periodo característico de la variación de la estrella y su luminosidad. Sin embargo, y a pesar de la relevancia de su descubrimiento, no le gustó a Pickering la
notoriedad alcanzada y la cambió de proyecto para que
se dedicara a estudios de fotometría estelar. De nuevo
ella volvió a resaltar científicamente con el trabajo realizado, ya que construyó una secuencia estelar de estrellas de referencia, que sirvió posteriormente para calibrar
la Carta del Cielo.
La Carta del Cielo fue un proyecto promovido desde
el observatorio de París que consistió en producir un
cartografiado de todas las estrellas del cielo hasta magnitud 11. Veintiún observatorios de todo el mundo participaron en este proyecto que comenzó a principios del
siglo XX y que concluyó hacia los años 60. En lo que
100cias@uned
nos acontece aquí, quiero resaltar que, tomando el ejemplo del profesor Pickering, emplearon un buen numero
de mujeres cuyo trabajo ha quedado en el anonimato, a
las que sólo se las menciona de forma anónima en los
agradecimientos de la publicación del catálogo. Como
hecho curioso, en lo que respecta a España, hay que señalar que en el Observatorio de la Armada de San Fernando (Cádiz) también se emplearon mujeres a las que
nunca se las consideró astrónomas, sino simples medidoras de placas, a pesar de que invirtieron 30 años de su
vida en este trabajo.
De la segunda época del Observatorio de Harvard,
siendo director Shapley, hay que destacar a CECILIA PAYNE-GAPOSCHKIN (1900-1980). Ella fue la primera mujer
que realizó observaciones en el Observatorio de Monte
Palomar, gracias a su prestigio, como invitada del director. Su trabajo de investigación fue de una brillantez extraordinaria hasta el punto de que el Prof. Russell dijera
de ella que su tesis era la mejor que había leído nunca. Su
gran logro fue darse cuenta de que las variaciones en luminosidad de las estrellas estaban asociadas a variaciones
en sus líneas espectrales. Este hecho la llevó a concluir
que estas variaciones se debían a diferencias en las propiedades físicas y no a un efecto de abundancias químicas. Este trabajo resultó de una relevancia extraordinaria
pues ponía de manifiesto la homogeneidad química del
Universo. Su otro gran descubrimiento consistió en encontrar una abundancia de hidrógeno y de helio dema-
135 Vida científica
Figura 9. Cecilia Payne-Gaposchkin.
siado grande en relación a lo que se observa en la tierra,
que ella lo denominó como la anomalía del hidrógeno.
Algunos colegas de la época dudaron de estas abundancias y cuestionaron la fiabilidad de sus determinaciones.
Hoy se sabe que el hidrógeno y el helio son los elementos
más abundantes del Universo.
Con esta trayectoria llegamos a mitad del siglo XX.
La mayor parte de las bases de la física estelar estaban
bien asentadas y en mi opinión las astrónomas realizaron aportaciones fundamentales, no siempre reconocidas:
la clasificación de la estrellas, la caracterización de los
diferentes tipos de estrellas variables, la caracterización
química de las estrellas y las diferentes clases de luminosidad, lo que constituyó la base del diagrama Hertzsprung-Russell, encontrado 30 años más tarde.
El descubrimiento de los «faros» del Universo, los
púlsares también se debe a una mujer, JOCELYN BELL
(1943-). Ella es el coraje hecho mujer, sobreponiéndose a
una tremenda injusticia como fue la no consideración de
su nombre para el Premio Nobel de Física por el descubrimiento que ella realizó. Siendo estudiante de doctorado en Cambridge, haciendo observaciones de cuásares
con el radiotelescopio del Laboratorio Cavendish se dio
cuenta de que se recibía una señal muy repetitiva con
frecuencia de 1,33 segundos y que la llamó «hombrecillos verdes» de forma jocosa. En principio su director de
tesis, el profesor Hewish, no le prestó demasiada atención, hasta que se observó la misma región del cielo
una y otra vez repitiéndose el fenómeno. Ellos entonces
postularon que se trataba de un nuevo tipo de objetos
100cias@uned
(a)
Figura 10a. Jocelyn Bell.
Figura 10b. Registro del púlsar obtenido con el radiotelescopio.
136 Vida científica
hasta entonces desconocidos, los púlsares. El púlsar que
ellos observaron se sabe hoy que se trataba de una estrella de neutrones en rotación rápida. El Premio Nobel
de Física se le concedió a su director de tesis por este
descubrimiento. Cuando acabó su tesis, por razones de
matrimonio se fue primero a Southampton y después al
Observatorio Real de Edimburgo, donde cambió de campo de trabajo, primero a Astronomía de rayos gamma y,
posteriormente; a radiación X de galaxias. Recientemente se le ha reconocido su mérito y ha recibido múltiples
honores. En el año 2007 le concedieron un doctorado
honoris causa por la Universidad de Durham.
Ahora quiero dedicar mi atención a algunos hechos
relevantes en el campo de la Astronomía Extragaláctica.
Tuvo sus inicios en 1924 cuando el astrónomo Edwin
Hubble encontró que las nebulosas identificadas años
atrás eran de naturaleza extragaláctica. Cabe preguntarse acerca del papel que jugaron las astrónomas en el
conocimiento del Universo Extragaláctico en unas circunstancias sin duda alguna mucho más favorables para
su desarrollo profesional. Para ilustrarlo, he elegido a
unas pocas astrónomas que considero han contribuido
significativamente a nuestro conocimiento.
MARGARET BURBIDGE (1919-) aparece como una
mujer extraordinaria, además de una excelente científica.
Quiero resaltar un hecho importante en su vida y es que
gran parte del trabajo que hizo previo a 1967 tuvo que
hacerlo utilizando el nombre de su marido, Geoffrey
Burbidge, pues no estaba previsto que las mujeres obtuvieran tiempo de telescopio en el Observatorio de Monte
Palomar, conocido también como Monasterio. Así que
cuando fue rechazada su petición por la Carnegie Insti-
tution of Washington, no se amilanó sino que realizó las
observaciones como ayudante de su esposo, Geoffrey
Burbidge, que era un astrónomo teórico.
Las contribuciones científicas de Margaret se pueden
agrupar en tres épocas:
— En la primera época, conjuntamente con su esposo, con el físico atómico William Fowler y con el
astrónomo Fred Hoyle, sentaron las bases de la
nucleosíntesis estelar reproduciendo el comportamiento observado en el universo de un decaimiento exponencial de la abundancia de los diferentes elementos químicos en función de su peso
atómico, como puede verse en la parte derecha de
la Figura 11. Su contribución, en particular en
este trabajo, le valió a William Fowler la concesión del Premio Nobel de Física en 1983.
— En una segunda época, cabe destacar sus aportaciones al campo de las galaxias. La pareja Burbidge, conjuntamente con el astrónomo Prendergast, publicaron la primera curva de rotación de
una galaxia y calcularon la masa de las galaxias
utilizando su curva de velocidad. Junto con la
astrónoma Vera Rubin estudiaron las velocidades peculiares de algunas galaxias como M82 y
concluyeron la existencia de fenómenos explosivos en los núcleos. Por ultimo, ellos secuenciaron
la abundancia de gas ionizado en galaxias desde
elípticas a espirales.
Figura 12. Curva de
Rotación de NGC
7146 (arriba).
Composición
multifrecuencia de
M82 donde se
aprecian los
fenómenos explosivos
nucleares (abajo).
Figura 11. Margaret Burbidge.
Gráfica de las abundancias atómicas en función de su peso atómico.
100cias@uned
137 Vida científica
— En una tercera época, que dura hasta la actualidad, derivaron su campo de investigación hacia
los objetos más activos y energéticos del Universo, los cuásares (QSOs, por sus siglas en inglés).
En este campo han trabajado en redshifts peculiares. Fueron pioneros en considerar que los
QSOs tienen una galaxia albergadora, y por ultimo en sistemas de absorción de QSOs que nos
permiten evaluar la cantidad de materia oscura en
el Universo.
VERA RUBIN (1928-) es otra mujer de gran coraje e
imaginación científica, la primera mujer que utilizó el telescopio de Monte Palomar de forma legal en 1964. En
su tesis de master y posteriormente en su tesis doctoral
sobre la densidad de galaxias en el Universo llegó a la
conclusión de que las galaxias se agrupaban de forma
grumosa, hecho éste que hoy nadie discute. Cuando ella
en 1953 lo propuso nadie confió en sus resultados y
nunca consiguió que se publicase. El Washington Post
dijo de ella «joven madre encuentra el centro de la creación o algo parecido….» . No obstante ella siguió adelante y cuando coincidió con la pareja Burbidge en la Universidad de California recibió un nuevo impulso y, según
ella misma describe, fue la primera vez que sentía que
era escuchaba. Con ellos comenzó, y después continuó
con el astrónomo Kent Ford, el estudio sistemático de
curvas de rotación de las galaxias, que culminó con el
estudio de curvas de rotación de galaxias de diferentes
tipos morfológicos.
En contra de las expectativas, todas las curvas de rotación eran bastante parecidas y mostraban un aplanamiento en la velocidad de rotación hasta distancias muy
lejos del centro, postulándose como única explicación
plausible que hay más materia que la estrictamente luminosa. Su trabajo fue el pionero que sentó las bases so-
bre la existencia de la materia oscura en el universo. Ella
continúa trabajando en este tema, ahora con galaxias de
bajo brillo superficial.
No quiero dejar pasar esta oportunidad sin mencionar
a MARGARET GELLER (1947-), a la que se le acaba de
conceder un doctorado honoris causa en España en la
Universidad Rovira Virgili (Tarragona) por sus estudios sobre la distribución a gran escala de las galaxias en el universo. Conjuntamente con los astrónomos Valerie de Lapparent y John Huchra hicieron la primera descripción de
cómo se agrupan las galaxias, descubriendo una superestructura que se conoce con el nombre de la gran muralla.
Figura 14. Distribución a gran escala de las galaxias.
Ya estamos en el siglo XXI. Afortunadamente para
las astrónomas, nos encontramos en un sistema profesionalizado donde nuestra existencia es posible sin el
concurso de familiares cercanos. Según los datos disponibles de la Unión Astronómica Internacional, representamos aún un escaso 13,7% de la población astronómica
mundial. Aún así parece abrirse ante nuestros ojos un
futuro esperanzador:
En primer lugar mencionaré las buenas noticias.
Hay un buen número de astrónomas profesionales en
aquellos campos más relevantes en la astronomía extra-
Figura 13. Vera Rubin (izquierda), y curva de rotación de M31 superpuesta sobre la imagen óptica de la galaxia.
100cias@uned
138 Vida científica
galáctica actual. En mi campo de actividad, la existencia
de Agujeros Negros Supermasivos en el Universo, hay
que destacar por sus contribuciones las figuras de Megan
Urry y Laura Ferrarese.
MEGAN URRY, directora del Departamento de Astrofísica de la Universidad de Yale en Estados Unidos, su
trabajo está centrado en el estudio de los fenómenos de
acreción que tienen lugar cuando existe un Agujero Negro Supermasivo en el núcleo de las galaxias. Es muy
conocido por el público no experto el esquema presentado por ella y el astrónomo Padovani de la estructura
interna de un núcleo activo. Con este esquema tan simple se comprende de forma muy sencilla el modelo de
Unificación de los AGNs: los diferentes tipos de galaxias
activas observadas desde las galaxias tipo Seyfert hasta
los Blazar son el resultado de diferencias geométricas según el ángulo de visión con que son observados.
Más recientemente, en su brillante trabajo sobre el
QSO 3C273 muestra cómo la combinación de diferentes
frecuencias es fundamental para estudiar la física de estos sistemas mostrando su estructura más interna.
El segundo descubrimiento fascinante de este siglo
es la constatación de que existe una relación lineal entre
la masa de las galaxias en estrellas y la masa de los
Agujeros Negros en sus núcleos. Gran parte de este descubrimiento se debe a la astrónoma LAURA FERRARESE.
Figura 17. Laura Ferrarese (izquierda) y la gráfica de la relación
entre la masa del bulbo de las galaxias y la del agujero negro
albergado en su núcleo (derecha).
En Europa encontramos mujeres tan relevantes como
FRANÇOISE COMBES, la primera astrónoma miembro
de la Academia de Ciencias Francesa. Ella nos ha enseñado con sus modelos de dinámica de galaxias cómo
Figura 15. Megan Urry y el Esquema de Unificación de AGNs.
Si el ángulo de visión atraviesa el toro de polvo, la
clasificaríamos como una galaxia tipo Seyfert 2. Por el
contrario, si el ángulo de visión es tal que es perpendicular al toro y penetramos directamente en el núcleo
veremos un Blazar.
Figura 18. Francoise Combes (izquierda) y modelización del gas
y las estrellas en una galaxia espiral (derecha).
Figura 16. Composición Multifrecuencia de las Observaciones del QSO 3C273.
100cias@uned
139 Vida científica
Figura 19. Simulación Dinámica de la evolución de una colisión
entre galaxias.
evolucionan generando a veces, mediante colisiones entre ellas, estructuras cinemáticas tan complejas como
barras o anillos.
Ahora las malas noticias: Los estudios más recientes
en el campo de investigación de evolución de galaxias y
cosmología vuelven a reproducir los viejos esquemas de
épocas pasadas. La realización de grandes cartografiados
y la falta de liderazgo de mujeres da lugar a que se establezcan relaciones de poder. En la actualidad se están
realizando mas de una decena de cartografiados que
requieren de grandes equipos y mucha organización de
recursos humanos. La mayor parte de ellos son liderados
por hombres, y en esto España no es una excepción. Si
tomamos como ejemplo el cartografiado COSMOS
(http://cosmos.astro.caltech.edu), encontramos que el número de participantes es de 87 investigadores de los
cuales sólo 11 son mujeres.
A modo de conclusiones de mi exposición quiero
destacar la importancia de mentores y, sobre todo, el
reto que tenemos ante nuestros ojos de ingeniar un nuevo Sistema de Ciencia y Tecnología en el que las reglas
del juego sean más favorables para que las mujeres
puedan desarrollar su carrera investigadora como astrónomas.
Para terminar acabaré ofreciéndole mi más sincero
homenaje a Jocelyn Bell con una frase publicada por ella
en la revista Science:
“Las mujeres y las minorías no deberían realizar
toda la adaptación. Ya es hora de que la sociedad se
mueva hacia las mujeres, no las mujeres hacia la sociedad.» (J. Bell, 2004, Science, 304, p. 489).
Josefa Masegosa Gallego
Instituto de Astrofísica de Andalucía, CSIC
Figura 20. Imagen del HST para el Cartografiado COSMOS (izquierda). En la imagen de la derecha pueden observarse algunas de las galaxias
en colisión detectadas.
100cias@uned
140 Vida científica
100cias@uned
N.º 2
Enseñanza
| 2009
ISSN: 1989-7189
Se inicia esta sección con dos trabajos relacionados
con la enseñanza y divulgación de la Ciencia. El primero
presenta los resultados del concurso Ciencia en Acción,
que ha cumplido ya 10 años. Su objetivo primordial es
acercar la ciencia y la tecnología al gran público, presentándolas atractivas y mostrando su importancia para
el progreso de la sociedad y el bienestar de los ciudadanos. Su Directora, Rosa M.ª Ros Ferré, plantea que es
fundamental incidir en la formación científica de los
ciudadanos desde los primeros niveles educativos y que
para conseguir esto se requiere del esfuerzo de los profesores de todos los niveles, desde enseñanza primaria
hasta universidad, así como de los profesionales de los
medios de comunicación. El concurso pretende premiar a
aquellos que se las ingenian para contribuir con su trabajo diario a la formación de todos los ciudadanos. Pueden participar enseñantes y divulgadores de la Ciencia de
todos los países iberoamericanos, incluidos obviamente
España y Portugal.
El segundo trabajo es la presentación de la Historia
de la Astronomía a los participantes en el Curso de Verano que el Grupo de Astronomía de la Facultad de Ciencias organiza cada año sobre iniciación a esta ciencia
que es, sin lugar a dudas, una de las más antiguas. Su
autor, el profesor Enrique Teso, miembro del Grupo,
muestra de forma amena y exhaustiva cómo desde los
orígenes de la Humanidad los hombres se han preocupado por los astros que veían, sus movimientos, periodicidad, etc., hasta el momento actual en el que los estados
invierten grandes cantidades de dinero para conocer más
sobre el Universo.
A continuación, en el apartado Taller y Laboratorio
podemos encontrar como experimento histórico una descripción del descubrimiento del neutrón por Chadwick,
cerrando así el conjunto de partículas que constituyen
los átomos (electrones, protones y neutrones)1. Por este
1
(nueva época)
Ver 100cias@uned, nº 2, 104-109 (1999), y nº 6, 107-111 (2003).
100cias@uned
descubrimiento le concedieron el Premio Nobel de Física
en 1935. Como experimento casero, y en homenaje a
Galileo y al Año Internacional de la Astronomía, el grupo de profesores de Óptica ha diseñado un espectroscopio muy elemental con el que se pueden observar, además de espectros atómicos, las líneas negras de
Fraunhofer en el espectro solar. Este sencillo espectroscopio es utilizado por los miembros del Grupo de Astronomía durante las observaciones solares. Por último, el
profesor Delgado, en el apartado dedicado a las Matemáticas, cuestiona la utilidad de los laboratorios virtuales si el profesor, presente o no, no acompaña al estudiante en su proceso de aprendizaje. Para explicar su
filosofía utiliza como ejemplo la representación gráfica
de funciones.
En el apartado dedicado a las Nuevas Tecnologías en
la Enseñanza, Luis de la Torre y Juan Pedro Sánchez
presentan el portal FisL@bs, que siguiendo el modelo de
AutomatL@bs2, como una red de laboratorios virtuales y
remotos que permitirá a los alumnos del nuevo Grado en
Física compartir a través de la red los recursos experimentales de nuestros laboratorios, tanto de la Facultad
de Ciencias como de la Escuela Técnica Superior de Ingeniería Informática de la UNED, a partir del próximo
curso 2010/11.
Por último, en el apartado dedicado a Recensiones
incluimos tres libros de temática muy diferente: principios básicos de Física, como es la Mecánica Cuántica,
una revisión de la Toxicología, desde sus cimientos hasta una panorámica de su situación actual, terminando
con un precioso y curioso libro dedicado a las primeras
mujeres científicas españolas que se incorporaron a la
actividad profesional en las primeras décadas del siglo
pasado. Esperamos que todos sean de interés para nuestros lectores.
2
Ver 100cias@uned, nº 1 (nueva época, formato digital), 227-237
(2008): http://e-spacio.uned.es/fez/eserv.php?pid=bibliuned:revista
100cias-2008-1ne-2022&dsID=PDF
141 Enseñanza
100cias@uned
N.º 2
Enseñanza
(nueva época)
| 2009
ISSN: 1989-7189
ENSEÑANZA Y DIVULGACIÓN
DE LAS CIENCIAS
GRANADA, LA ÚLTIMA CITA.
Y SEGUIMOS CON CIENCIA EN ACCIÓN
La Universidad Nacional de Educación a Distancia
(UNED), El Consejo Superior de Investigaciones Científicas (CSIC), Ciencia Viva (CV), la Real Sociedad Española
de Física (RSEF) y la Sociedad Geológica de España
(SGE) organizan anualmente el programa «Ciencia en
Acción». El objetivo principal de «Ciencia en Acción»
consiste en acercar la ciencia y la tecnología, en sus diferentes aspectos, al gran público, así como encontrar
ideas innovadoras que hagan la ciencia más atractiva
para la ciudadanía y mostrar la importancia de la ciencia
para el progreso de la sociedad y el bienestar de los ciudadanos.
Este programa nació como «Física en Acción» en el
año 2000 gracias a la RSEF. La edición 2005 supuso
una remodelación del proyecto con la ampliación del
programa a todas las áreas del conocimiento científico.
Empezó así la nueva singladura de «Ciencia en Acción».
2007 significó la ampliación de todas las modalidades
del programa a los países de habla hispana y portuguesa.
Este año 2009, hay que destacar la incorporación a la organización de la Sociedad Geológica de España y la organización portuguesa «Ciencia Viva». Si bien desde
2007 ya participaban profesores portugueses en las ediciones de «Ciencia en Acción», hay que recibir con alegría la colaboración con el programa Ciencia Viva.
El objetivo fundamental de esta serie de programas consiste en acercar la ciencia al mayor número posible de
personas a través de una serie de experimentos presididos por la creatividad y el buen hacer de los diferentes
participantes de «Ciencia en Acción», que van desfilando
a lo largo de las diversas semanas.
Hay que destacar que «Ciencia en Acción» también
se coordina con diversos programas europeos como son
«EUSCEA», «Science on Stage» y «Catch a Star», bajo el
impulso de diversas instituciones europeas de alto prestigio.
Este año, «Ciencia en Acción» se ha sumado a la celebración del Año Internacional de la Astronomía
(IYA2009), que representa una celebración global de la
Astronomía y de su contribución a la sociedad, a la cultura y al desarrollo de la humanidad. Su objetivo principal es motivar a los ciudadanos de todo el mundo a replantearse su lugar en el Universo a través de un
conjunto de descubrimientos que se inició hace ya 400
años. Haciendo nuestro este objetivo, «Ciencia en Acción» ha introducido nuevas modalidades en su estructura: la modalidad de «Experimentos para un laboratorio
espacial» y para los más jóvenes, la modalidad «Habla de
Astronomía» dentro del programa «Adopta una Estrella», que ha mantenido también la modalidad de «Investiga en Astronomía» que fue creada desde sus inicios,
hace ya nueve años. En este caso, los equipos de alumnos deben presentar un resumen de todas las actividades
que han desarrollado para difundir la astronomía durante este Año Internacional de la Astronomía 2009.
Hay que destacar la gran red de profesores que se ha
creado a través del intercambio de ideas, experimentos,
experiencias… en las diferentes ediciones de Ciencia en
Acción y cómo colaboran unos con otros en sus diferentes proyectos, ferias, congresos,… para que la ciencia
llegue a todas partes.
HISTORIA DE CIENCIA EN ACCIÓN
Actualmente, «Ciencia en Acción» tiene una serie semanal dedicada al programa emitida por la segunda cadena de RTVE, dentro del espacio de «La UNED en la 2».
100cias@uned
La primera edición de «Física en Acción», que ya estuvo marcada por una clara vocación europea, fue organizada por la Real Sociedad Española de Física. El único
premio consistió en un viaje del titular de cada uno de
142 Enseñanza
Participantes en Física en Acción 2, junto con los miembros del
Jurado, en el Museo Príncipe Felipe de la Ciudad de las Artes
y las Ciencias de Valencia.
Participantes en Física + Matemáticas en Acción 4 intentando
separar dos semiesferas en cuyo interior se había hecho el vacío,
al estilo de la experiencia de Magdeburgo. Museo de la Ciencia
y de la Técnica de Terrassa (Barcelona).
los trabajos seleccionados para la final a la sede del
CERN en Ginebra durante la semana de la Ciencia y la
Tecnología del 2000. La delegación española también
realizó diversas aportaciones y experimentos en la Feria
de «Physics on Stage». El Museo Miramon KutxaEspacio
de la Ciencia de San Sebastián albergó la final nacional
del programa, el cual se desarrolló solo en dos jornadas,
los días 29 y 30 de septiembre de 2000.
«Física en Acción 2» se desarrolló en el Museo Príncipe Felipe de la Ciutat de les Arts i les Ciencias de Valencia, los días 6 y 7 de octubre de 2001, donde fueron
presentados los trabajos preseleccionados y también se
organizó, por primera vez, una feria abierta al público en
general. En la segunda edición de
«Física en Acción» se incorporó la
convocatoria internacional de «Life
in the Universe» que incluía dos categorías, científica y artística. En
este concurso destinado a grupos de
alumnos, participaron en el CERN
en Ginebra un total de 22 países
con más de 70 equipos. España
consiguió el segundo premio en la
modalidad científica.
En la última sesión en el Museo
Príncipe Felipe se anunció la celebración de «Physics on Stage 2» en
la Agencia Espacial Europea (ESA)
en sus instalaciones de ESTEC, cerca
de Ámsterdam. En este evento internacional la delegación española
participó junto con otros países eu-
ropeos en la feria y el conjunto de actividades programadas. España fue el único país que consiguió dos galardones: el primero y el sexto.
«Física en Acción 3» se celebró en la Casa de la
Ciencia de A Coruña en septiembre de 2003, aunque los
participantes no tuvieron la oportunidad de presentar
sus trabajos en un foro europeo, ya que la edición europea de «Physics on Stage 3» se celebró en el año 2004.
Debido al incremento y la calidad de los trabajos presentados, obligó a la organización a desarrollar la final
durante tres días en lugar de los dos habituales.
«Física + Matemática en Acción 4» se desarrolló en el
Museo de la Ciencia i la Técnica de Terrasa durante los
días 26, 27 y 28 de septiembre. Por
primera vez, la Real Sociedad Matemática Española (RSME) se sumó a
la Real Sociedad Española de Física
(RSEF) y la edición amplió su convocatoria al ámbito científico. Se repitió también el concurso «Adopta
una Estrella», conectado con la versión europea «Catch a Star», organizado por la ESO y la EAAE.
En esta final se reprodujo la Experiencia de Magdeburgo con un par
de actores que representaron de manera teatralizada la experiencia realizada por Otto Van Guericke y su
ayudante, con la colaboración de 8
caballos percherones que demostraron de forma evidente «la fuerza necesaria para vencer al vacío».
100cias@uned
143 Enseñanza
Fuerza de la gravedad, centro de masas y equilibrio, conceptos físicos
a prueba de valientes en el Parque de las Ciencias de Granada.
«Física + Matemática en Acción 5» tuvo lugar en el
Parque de las Ciencias de Granada durante los días 24,
25 y 26 de septiembre con sus puertas abiertas para que
todo el mundo pudiera ver los trabajos y exposiciones
propuestas, durante los tres días que duró el festival. El
Premio Especial del Jurado fue para la sección «Futuro»
del diario «El País». El Concurso tuvo una gran acogida
por parte del público en general.
Hay que destacar que en la final internacional de
«Physics on Stage 3», en la sede de la ESA, conseguimos
el 4º premio, 3 premios-viajes de los 7 ofrecidos, y una
mención de honor. En esta edición, una bicicleta situada
a 5 metros de altura hizo las delicias de todos los valerosos participantes que se atrevieron y se subieron a la
misma.
Durante los días 4, 5 y 6 de marzo se celebró la final
del Programa Internacional «Cath a Star 3», en Garching
(Alemania), en la sede central de la organización de la
ESO. Nuestros estudiantes recibieron el primer premio,
consistente en un viaje al «El Paranal» en el desierto de
Atacama de Chile, donde la ESO tiene sus instalaciones.
Además también de un 6º lugar, 4 premios especiales y
un premio para la mejor escuela de Europa.
El Museo de la Ciencia y del Cosmos de La Laguna
(Tenerife), durante los días 23, 24 y 25 de Septiembre de
2005, albergó la sexta convocatoria del programa y la
primera edición que se abría a todas las ramas científicas
tal y como anunciaba su nombre: «Ciencia en Acción».
Hay que mencionar que el programa «Adopta una Estrella» era la primera vez que abría la convocatoria a países
de habla hispana o portuguesa.
100cias@uned
Al igual que en otras ocasiones, el Museo ofreció
unas jornadas de puertas abiertas a la vez que se celebraba el evento, y de esta manera acercó la ciencia a una
audiencia de amplio espectro. Destacaron los «Juegos de
Ingravidez», que se desarrollaron con la presencia adicional de Albert Einstein, que se paseaba por el Museo y
charlaba con todos los asistentes. El Premio Especial del
Jurado, se concedió a la Revista «Muy Interesante» por su
labor de difusión de los recientes avances científicos y
tecnológicos consiguiendo acercar estos contenidos a
amplios sectores de la sociedad española, y llegando especialmente a los más jóvenes.
En la Edición de 2005 de «Catch a Star», nuestro
país ganó el segundo premio consistente en un viaje a la
sede central de ESO en Garching (cerca de Munich) y al
Observatorio Wendelstein en Alemania. Otros dos equipos españoles consiguieron dos Menciones por sus trabajos.
La séptima edición de «Ciencia en Acción» se celebró
los días 29 y 30 de septiembre y 1 de octubre en el Museo «CosmoCaixa» en Alcobendas (Madrid). También los
jóvenes alumnos de primaria y secundaria participaron
en la quinta edición de «Adopta una Estrella». En esta
144 Enseñanza
convocatoria de «Ciencia en Acción» se premiaron a los
mejores trabajos presentados y a su vez se seleccionó la
delegación española que asistió del 2 al 6 de abril a la final de «Science on Stage 2», que tuvo lugar en la sede
del ESRF en Grenoble (Francia). En Grenoble estuvo presente el coche solar «Despertaferro», en el que se subió el
entonces Comisario europeo de Ciencia e Investigación
Janez Potoccnik, despertando el interés de los medios de
comunicación. También llegaron a los periódicos y a la
Televisión francesa. La experiencia de Magdeburgo preparada en esta ocasión de forma competitiva entre los
equipo de Futbol y Hockey de Grenoble, este último era a
la sazón el campeón de la liga de Hockey de Francia.
«CosmoCaixa» ofreció tres días de puertas abiertas
con entrada libre para todo el público que quería descubrir la aventura de la ciencia. En esta ocasión, visitaron
la final más de 12.000 personas. La gran experiencia
estaba destinada a un «Túnel de viento» donde los más
valerosos sentían la misma impresión que los paracaidistas cuando se lanzan al vacío. El Premio Especial de
Jurado fue otorgado a Ernesto Páramo, director del Parque de las Ciencias de Granada.
En la edición 2006 del certamen «Catch a Star»,
nuestro país ganó, por segundo año consecutivo, el segundo premio galardonado con un viaje a la sede central
de ESO en Garching (cerca de Munich) y al Observatorio
Konigsleiten en Austria. Hay que destacar que también
se consiguieron dos Menciones de Honor para nuestros
equipos.
«Ciencia en Acción» formó parte de la representación
seleccionada por la feria «Madrid por la Ciencia» (que organiza la Comunidad de Madrid) en el festival «WONDERS» de la EUSCEA (European Science Events Association) que se celebró en Friburgo (Alemania) del 12 al 14
de octubre de 2006. Por votación popular, el proyecto de
«Ciencia en Acción» titulado «Sorpresas Físicas» ganó el
pase para participar en la final del Carrusel de Festivales
que organizó EUSCEA en el «Heureka Science Center» de
Vantaa, cerca de Helsinki (Finlandia) del 8 al 10 de diciembre de 2006. Este proyecto consistió en un completo
paquete de experimentos espectaculares e inusuales relativos a la tecnología del motor de vapor, la microgravedad y la física del vacío. Las demostraciones, que correspondían a 21 países europeos, se realizaron en tres
escenarios simultáneos, a la vez que podrían mostrarse
en diversas mesas por un par de horas. Básicamente, se
presentaron actividades interactivas que acercaban la
ciencia al observador de una forma amable y entretenida.
100cias@uned
La Plaza del Pilar de Zaragoza acogió, durante los
días 19, 20 y 21 de octubre, la final de la octava edición
de «Ciencia en Acción». Al encuentro acudieron los 100
ganadores de la fase final del concurso. Hay que destacar
que en el año 2007, por primera vez, se abrieron todas
las modalidades del concurso a los profesores, alumnos y
profesionales de los medios de comunicación de todos
los países de habla hispana o portuguesa. Así, han resultado ganadores de su pase a la final de Zaragoza trabajos
de Portugal, El Salvador, Argentina, Venezuela, Colombia
y Uruguay.
La «Gran Final» acogió un amplio programa de actividades basado en las actuaciones de los seleccionados
por el jurado de «Ciencia en Acción» así como otras actividades festivas programadas por la propia organización: como fueron el «Looping Bike» y la «Funny Ball».
Más de 15.000 personas visitaron las dos carpas situadas
en la Plaza del Pilar, obteniendo una gran respuesta por
parte de la sociedad y también por parte de los participantes.
El Museo de la Ciencia de Valladolid acogió, durante los días 19, 20 y 21 de septiembre, la final de la novena edición de «Ciencia en Acción». Al encuentro acudieron los ochenta ganadores de la fase final del
concurso. La «Gran Final» acogió un amplio programa de
actividades basado en las actuaciones de los seleccionados por el jurado de «Ciencia en Acción» así como otras
actividades festivas programadas por la propia organización como fue el «Simulador de Vuelo».
El público pudo visitar el Museo gracias a sus jornadas de puertas abiertas, obteniendo una gran respuesta
por parte de la sociedad y también por parte de los par-
La gran experiencia: «Looping Bike» montada en la Plaza del Pilar
de Zaragoza para disfrute de todos los atrevidos.
145 Enseñanza
ticipantes, ya que el número de proyectos se había triplicado comparándolo con las primeras ediciones del
certamen.
LA ÚLTIMA EDICIÓN
El Parque de las Ciencias de Granada acogió, durante los días 25 al 27 de septiembre de 2009, la «Gran
Final» que reúne a todos los ganadores de «Ciencia en
Acción». En esta ocasión, más de 140 trabajos lograron
llegar a ella.
«Ciencia en Acción» esta destinado, principalmente, a
reconocer la labor de profesionales de los medios de comunicación social y profesores de todos los niveles educativos, sin olvidar al personal de los Museos de la Ciencia y centros de comunicación científica.
Los jóvenes estudiantes de primaria y secundaria
participaron en el concurso «Adopta una Estrella» con
sus dos modalidades: «Investiga en Astronomía» y «Habla
de Astronomía», al darse la circunstancia de que este
año 2009 ha sido declarado por la UNESCO y la IAU
Año Internacional de la Astronomía.
Sin duda la feria fue la actividad clave de la final de
«Ciencia en Acción». Este año se ha desarrollado en diferentes espacios del Museo. Acogía las demostraciones
de física, matemáticas, ciencia y tecnología, química,
biología y geología. De una forma diferente y amena, los
profesores popularizaban la ciencia a todos los niveles.
Además se organizaron varias sesiones, tanto en el Auditorio como en los cines del Parque, para presentar los
trabajos relativos a divulgación científica, materiales didácticos de ciencias y a ciencia, ingeniería y valores.
Hay que destacar que los premios en metálico por mo-
dalidades no son lo más interesante ni lo más significativo para los participantes sino la posibilidad de intercambiar información y contenidos entre todos ellos. Lo
que más importa y motiva dentro de este encuentro es
que ofrece la posibilidad de enseñar y aprender por parte de todos y para todos.
Para celebrar la décima edición se llevaron a cabo
tres Experiencias Singulares: Danza del Fuego, donde
El Jurado «en acción» en la final de Granada.
Los participantes de Ciencia en Acción 2009 en la final de Granada.
100cias@uned
146 Enseñanza
los visitantes descubrieron con el tubo de Rubens, fuego, música y unos contenidos sobre las características
de las ondas. Coge la Física al Vuelo, donde el público
tuvo la oportunidad de comprender algunos elementos
y conceptos fundamentales de la aerodinámica y de la
aviación como el Teorema de Bernoulli, el rozamiento
aerodinámico, la sustentación, los fuselajes, las alas,
etc. Y por último, Cocina con el Sol, donde
los interesados pudieron llevarse su cocina solar,
aprender a montarla y sacarle el mayor provecho. Con
el objetivo final de deleitar a sus familiares y amigos
con deliciosos platos y contribuir a mejorar el medio
ambiente.
El Taller de Cocina Solar contó con la colaboración
de la Fundación Terra, entidad con amplia experiencia en
acciones dirigidas a la sostenibilidad medioambiental y
pioneros en los encuentros solares dentro del ámbito
nacional.
El premio estrella del concurso, dentro de los muchos que se entregan, es el Premio Especial de Jurado
que se otorga a personas, instituciones o entidades públicas o privadas en el ámbito de la divulgación científica de calidad en nuestro país. En esta ocasión, el jurado
acordó por unanimidad, a iniciativa propia, otorgar el
Premio Especial del Jurado a Miguel Ángel Quintanilla
por ser uno de los precursores de la cultura científica en
España y ser un ejemplo del compromiso con la comunicación de la ciencia desde la universidad y desde las
instituciones que ha dirigido.
Entre todos los trabajos presentados, la UNED se
llevó las Menciones de Honor que indicamos a continuación:
Por presentar en un atractivo formato televisivo, el
papel fundamental, aunque frecuentemente olvidado por
la historia, que las mujeres científicas han tenido en el
desarrollo de la astronomía y la astrofísica, resaltando
sus descubrimientos y comentándolos a través de entrevistas con investigadoras actuales, se concedió Mención
de Honor de Trabajos de Divulgación Científica en Soportes Adecuados, al trabajo «Serie de televisión educativa de la UNED: Mujeres en las Estrellas», de Josefa Masegosa Gallego del Instituto de Astrofísica de Andalucía,
Granada.
En la Modalidad de Cortos Científicos se concedió
una Mención de Honor al trabajo «Nikola Tesla: el
hombre que iluminó el mundo» de Juan Peire Arroba de
la UNED (Madrid), por el interés que suscita, el rigor
científico e histórico con el que se aborda, con un
100cias@uned
guión equilibrado y ameno, así como por su inteligente combinación de imágenes del pasado y del presente.
El trabajo «AutomatL@bs: una red de laboratorios
virtuales y remotos para la enseñanza de control automático», cuyos autores son Sebastián Dormido Bencomo,
Fernando Morilla García, Mª Antonia Canto Díez, Natividad Duro Carralero, José Sánchez Moreno, Raquel Dormido Canto, Sebastián Dormido Canto, Héctor Vargas
Oyarzún y Gonzalo Farias Castro, de la UNED (Madrid),
consiguió una Mención de Honor en la modalidad de
Ciencia y Tecnología, por ser un proyecto de alto contenido científico-tecnológico y por estar dirigido a un gran
número de estudiantes de universidad.
Durante la final de Ciencia en Acción en el Parque
de las Ciencias de Granada, se ofrecieron las conferencias
inaugural y de clausura el viernes y el domingo respectivamente. La conferencia inaugural corrió a cargo del
Sr. D. Laureano Castro. El título de su conferencia fue
«La Teoría de la Evolución: de Darwin al neodarwinismo»
que desarrollaba la idea central de la evolución: esto es
que todos los seres vivos sobre la Tierra comparten un
antepasado común.
La conferencia de clausura la dictó el Sr. D. Antón
Álvarez, que explicó al auditorio las bases científicas de
las vacunas que se están desarrollando para el Alzheimer
y, en particular, habló de los esfuerzos en nuestro país
sobre la vacuna MimoVax en su conferencia titulada
«Vacunas para el Alzheimer».
Este año, como en ediciones anteriores, se han
convocado las catorce modalidades relativas a «Ciencia en Acción», dos en «Adopta una Estrella», y el premio especial del jurado. Estos premios los ofrecen diversas entidades colaboradoras del programa: la
Universidad Complutense de Madrid, la Universidad
Politécnica de Cataluña, la Universidad de Granada, la
Universidad de Zaragoza, la Universidad de Valencia,
la Cátedra VMO UPC-ENDESA Red, la Revista Mètode,
las empresas Sidilab, Pasco-Prodel, 3bScientific,
Antares, IBM, Editorial Santillana y el INTA. Hay que
mencionar la especial colaboración del Ayuntamiento
de Granada, la Consejeria de Innovación, Ciencia y
Empresa de la Junta de Andalucía, la Consejeria de
Educación de la Junta de Andalucía y la Agencia Andaluza de Energía.
El programa Ciencia en Acción premia la tarea diaria
de miles de profesores que la desarrollan de forma constante, callada y sin desfallecer, conscientes que las futu-
147 Enseñanza
ras generaciones están en sus manos. Sin duda «Ciencia
en Acción» no podría tener lugar sin el esfuerzo de todos
los participantes que envían sus trabajos, sin ellos no
existiría «Ciencia en Acción».
EN LA WEB DE
«CIENCIA EN ACCIÓN»
Después de 10 años, «Ciencia en Acción» ha evolucionado en muchos sentidos. Como ya se ha comentado
anteriormente, en la actualidad «Ciencia en Acción» dispone de un programa de televisión dentro del espacio de
La UNED en la 2, los viernes por la mañana, que también se repite por el Canal Internacional los sábados y
los domingos. Estas imágenes filmadas de experimentos
pueden servir para enriquecer las clases de muchos de
nuestros profesores. Por este motivo, en la página web de
«Ciencia en Acción»: http://www.cienciaenaccion.org,
esta disponible un buscador que permite a todos los interesados entrando por categorías y/o palabras clave
localizar las imágenes correspondientes. Es una facilidad
análoga a la que se dispone para localizar en la web los
experimentos de diversas modalidades.
formar parte de las base de datos de «Ciencia en Acción»,
para recibirlo en cada nueva edición.
LOS PLANES DE FUTURO
Carátulas del programa «Ciencia en Acción» de la Televisión
Educativa de la UNED.
El usuario dispone de un total de 228 experimentos
clasificados por materias y con un buscador por palabras
clave que le permite de una forma rápida y dinámica
acceder a los experimentos que desea. Estos materiales
también se pueden conseguir en el CD resumen anual del
programa que se distribuye de forma gratuita a todos los
profesores interesados o descargarlo directamente de la
pagina web. Para obtenerlo solo hay que enviar un correo electrónico a [email protected] y recibirán de
forma gratuita el CD en su domicilio y además pasarán a
100cias@uned
La próxima edición tendrá lugar en Santiago de
Compostela los días 1, 2 y 3 de octubre de 2010 en el IES
Rosalía de Castro, con la colaboración de Tecnopole y la
Xunta de Galicia.
Science on Stage vuelve a reiniciar su andadura después de unos años difíciles y tendrá lugar en Copenhague del 16 al 19 de abril del 2011.
Desde estas páginas queremos animar a todos los
lectores a participar en nuestras futuras propuestas. Se
puede hallar más información en la página web:
http://www.cienciaenaccion.org
Rosa M.ª Ros Ferré
Directora de Ciencia en Acción
148 Enseñanza
100cias@uned
N.º 2
Enseñanza
(nueva época)
| 2009
ISSN: 1989-7189
ENSEÑANZA Y DIVULGACIÓN
DE LAS CIENCIAS
HISTORIA DE LA ASTRONOMÍA
A TRAVÉS DE LOS INSTRUMENTOS
DE OBSERVACIÓN
INTRODUCCIÓN
La Astronomía es la ciencia que estudia el origen,
desarrollo y composición de los astros, así como las leyes
de su movimiento en el Universo. Puede considerarse
sin duda como la más antigua entre todas las que se
desarrollan y estudian en la actualidad.
ARQUEOASTRONOMÍA
Ya desde tiempos muy remotos los hombres comenzaron a interesarse por la Luna, el Sol y las estrellas, es
decir, por todos los astros en general. No obstante, las
primeras investigaciones sistemáticas que contribuyeron
a desarrollar la Astronomía como ciencia comenzaron a
llevarse a cabo en el Neolítico (9000-3000 a.C.), época en
que se inició el florecimiento de grandes culturas. La
curiosidad humana con respecto a fenómenos cíclicos
como el día y la noche y a los movimientos y naturaleza
de los astros llevó a los hombres primitivos a la conclusión de que los cuerpos celestes se movían de forma regular. La primera utilidad de sus observaciones fue definir el tiempo y orientarse. La Astronomía solucionó uno
de los problemas más inmediatos de las primeras civilizaciones: la necesidad de establecer con precisión las
épocas adecuadas para sembrar y recoger las cosechas y
la de orientarse en los desplazamientos y viajes.
Para los pueblos primitivos el cielo mostraba una
conducta muy regular. El Sol salía todas las mañanas
desde el este, se movía uniformemente durante el día y se
ponía en la dirección opuesta, el oeste. Por la noche se podían ver miles de estrellas que seguían una trayectoria similar. Los habitantes de las zonas templadas comprobaron
además la diferente duración de día y noche a lo largo del
año. En los días más largos el Sol salía más desplazado
hacia el Norte y ascendía más alto en el cielo al mediodía,
100cias@uned
mientras que en los más cortos salía más desplazado hacia
el Sur y alcanzaba poca altura en el horizonte.
El estudio de los movimientos cíclicos de los astros
mostró su utilidad para la predicción de fenómenos como
el ciclo de las estaciones, de cuyo conocimiento dependía
en gran medida la supervivencia del género humano.
Para las comunidades cazadoras resultaba trascendental
predecir cuándo se produciría la migración estacional de
los animales que les servían de alimento y, posteriormente, cuando surgieron las primeras comunidades agrícolas, también era fundamental conocer el momento
oportuno para la sementera y la recogida de las cosechas.
La alternancia del día y la noche constituyó seguramente la primera unidad de tiempo universalmente utilizada, pero fue la observación de la variación de la intensidad de la luz nocturna en función de la fase de la
Luna, y la periodicidad del ciclo de veintinueve a treinta
días la que ofreció una manera cómoda de medir el
tiempo. Los calendarios primitivos, por tanto, casi siempre se basaban en el ciclo de las fases de la Luna. En lo
concerniente a las estrellas, parecían estar agrupados
caprichosamente conservando un esquema fijo noche
tras noche. Debido a ello, desde épocas muy remotas, los
hombres pusieron nombres a muchas constelaciones
guiados por su imaginación. De hecho, del Neolítico se
conservan grabadas en piedra las figuras de algunas
constelaciones, en las que las estrellas están excavadas
como alvéolos circulares. También aprendieron a distinguir a los cinco planetas visibles a simple vista del resto
de las estrellas debido a su movimiento independiente en
la bóveda celeste (planeta = «estrella errante»).
Como consecuencia del cambio climático global que
tuvo lugar tras el último período glacial (hacia el año
10000 a.C.), la población nómada se agrupó en torno a zonas fértiles en las cuales las comunidades agrícolas y ganaderas evolucionaron, en torno al año 6000 a.C., a sociedades más complejas estructuradas y jerarquizadas.
Estas civilizaciones se desarrollaron inicialmente en torno
a los ríos Tigris y Éufrates, Nilo, Indo, Huang-Ho, América Central, Altiplano Andino y norte de Europa. Tras un
proceso de adaptación al régimen sedentario, los habitantes de estas regiones desarrollaron de manera individualizada sus primeras concepciones científicas acerca del Uni-
149 Enseñanza
verso. El progreso inicial de estas sociedades puede considerarse simultáneo comenzando a transmitir sus conocimientos geométricos, a excepción de las comunidades
centroamericana y andina, a partir del año 5000 a.C.
Antiguos pueblos pobladores de Europa tuvieron conocimientos avanzados de matemática, geometría y movimiento de los astros. Realizaron grandes construcciones para la práctica de la Astronomía, determinaron
solsticios y equinoccios y pudieron predecir eclipses.
Prueba de los sorprendentes conocimientos que poseían
los astrónomos del megalítico son los grupos de grandes
piedras erectas (megalitos, algunos de más de 25 toneladas de peso), dispuestas de acuerdo con esquemas geométricos regulares, hallados en muchas partes del mundo. Varios de estos observatorios se han conservado
hasta la actualidad, como los de Stonehenge en Inglaterra y Carnac en Francia. Stonehenge, erigido a 51º de latitud norte, es uno de los más estudiados. Se construyó
en varias fases entre los años 2200 y 1600 a.C. Su uso
como observatorio astronómico permitió al hombre del
megalítico realizar un calendario bastante preciso. El
círculo de piedras, dividido en 56 segmentos, se utilizaba
para averiguar las fechas de los solsticios de verano e invierno, predecir eclipses solares y lunares y determinar la
posición de la Luna a lo largo del año.
Figura 1. Stonehenge.
En la región de las cuencas de los ríos Tigris y Éufrates se desarrolló la civilización sumeria, quizá la primera del mundo, pues ya en el año 5000 a.C. contaba
con una compleja organización social, política y religiosa. Los sumerios se unirían posteriormente a otros pueblos, como los acadios, para dar lugar a la cultura babilónica en el siglo XVIII a.C. Los sumerios inventaron la
100cias@uned
escritura y establecieron un sistema de numeración en
base 12 que más tarde evolucionaría a otro en base 60.
La mayoría de las culturas orientales tomaban como
base de numeración el 10, basado en los dedos de la
mano, mientras que los sumerios utilizaban la base 12,
dada la ventaja de su divisibilidad entre muchos otros
números. Los sumerios llevaron a cabo, además, la división del círculo en 360 grados, a su vez divididos en sesenta minutos y éstos en sesenta segundos de arco. Esta
división sería introducida posteriormente en Grecia por
Hiparco de Rodas en el siglo II a.C.
Los primitivos sumerios sintieron fascinación al observar desde sus zigurats el Sol, la Luna, los cinco planetas conocidos y las estrellas, que agruparon en constelaciones. Observaron además cómo dichas
constelaciones se desplazaban de oriente a occidente
manteniendo sus posiciones relativas. También se dieron
cuenta de que la salida del Sol no siempre se producía
sobre el mismo fondo de estrellas, sino a lo largo de la
banda trazada a través de 12 constelaciones que forman el zodíaco.
En Mesopotamia, entre los diversos pueblos que dominaron esta región desde el 4000 a.C. hasta el siglo VI
d.C., destacó la civilización babilónica que, como se ha
comentado antes, fue una de las primeras en desarrollar
ampliamente esta ciencia. Babilonios y sumerios conocían ya muchas constelaciones en torno al 3000 a.C. e
incluso, algunos siglos después, dispusieron de un calendario basado en las regularidades de los movimientos
de diferentes astros. Fueron, de hecho, los babilonios de
la ciudad de Ur los que, en el año 2238 a. de C., registraron un eclipse de Luna, el primero del que existe
constancia escrita. Sus primeras actividades astronómicas comenzaron en el siglo VIII a.C. Midieron con precisión la duración del mes y la revolución de los planetas y estudiaron los movimientos del Sol y de la Luna
para perfeccionar su calendario. Designaban como comienzo de cada mes el día siguiente a la luna nueva y,
aunque en principio este día se determinaba mediante
la observación, después trataron de calcularlo anticipadamente.
La observación más antigua de un eclipse solar procede también de los babilonios y se remonta al 15 de junio del 763 a.C. Calcularon la periodicidad de los eclipses
describiendo el ciclo de Saros, el cual aun hoy se utiliza.
Confeccionaron un calendario lunar, dividieron el día
en 24 horas y nos legaron muchas de las descripciones y
nombres de las constelaciones.
150 Enseñanza
El pueblo egipcio, cuya supervivencia estaba estrechamente asociada a las periódicas inundaciones provocadas por el Nilo, estudió sistemáticamente la sucesión
de las estaciones. Su mayor aportación fue la confección
de un calendario lunisolar de 365,25 días que aun perdura hasta la actualidad. Los calendarios Juliano y Gregoriano (el que utilizamos en la actualidad) no son más
que modificaciones del calendario civil egipcio. Dicho
año tenía 12 meses de 30 días, más 5 días llamados epagómenos. Por tanto había una diferencia de un cuarto de
día respecto al año solar. Como no utilizaban años bisiestos, cada 120 años se adelantaba un mes, de tal forma que transcurridos 1456 años el año civil y el astronómico coincidían nuevamente. Fijaron esta unidad de
tiempo de forma definitiva en al año 200 a.C., tras milenios de sistemática observación astronómica, sobre la
base del período de repetición de los ortos helíacos de la
estrella Sirio (para ellos, Sothis) al producirse en esta
época el desbordamiento anual del Nilo.
La crecida del Nilo comenzaba aproximadamente en la
época en que dicha estrella, tras haber sido invisible durante varios meses bajo el horizonte, podía verse de nuevo
poco antes de la salida del Sol. El año egipcio comenzaba
el primer día del primer mes de la inundación y tenía tres
estaciones de cuatro meses: Inundación (Akhet), Invierno
(Peret), es decir, «salida» de las tierras fuera del agua, y Verano (Shemú), es decir, «falta de agua». Para la medida del
tiempo disponían del gnomon y la clepsidra, además de
diagramas estelares que les permitían determinar las horas
durante la noche por observación de las estrellas.
La orientación de templos y pirámides constituye
una prueba del tipo de conocimientos astronómicos de
los egipcios: La pirámide de Gizeh se construyó alineada
con la estrella polar, de manera que les era posible determinar el inicio de las estaciones guiándose por la posición de su sombra. Asimismo utilizaron las estrellas
para guiar la navegación.
Figura 2. Pirámides de Egipto.
100cias@uned
El pueblo maya (América Central) alcanzó su esplendor entre los siglos III a.C. y IX de nuestra era. Destacó por sus conocimientos astronómicos que todavía
siguen sorprendiendo a los científicos actuales. Los mayas confeccionaron su propio calendario solar y conocían la periodicidad de los eclipses. Inscribieron en monumentos de piedra fórmulas para predecir eclipses solares
y la salida heliaca de Venus. Su calendario solar resultó
ser el más preciso hasta la implantación del sistema gregoriano en el siglo XVI.
Figura 3. La pirámide de Chichén Itzá.
Todas las ciudades del periodo clásico (tales como Palenque, Tikal, Copán, etc.) están orientadas respecto al
movimiento de la bóveda celeste. Muchos edificios se
construyeron con el propósito de escenificar fenómenos
celestes en la Tierra, como la pirámide de Chichén Itzá,
donde se observa el descenso de Kukulkán, serpiente formada por las sombras que se crean en los vértices del edificio durante los solsticios. Las cuatro escaleras del edificio
suman 365 peldaños, los días del año. En varios códices de
la época se encuentran los cálculos de los ciclos de la
Luna, del Sol y de Venus (asociado por ellos al dios de la
lluvia), así como tablas de periodicidad de los eclipses.
La civilización Azteca surgió a partir del siglo X alcanzando su máximo esplendor entre los siglos XIV al
XVI. Los aztecas no sólo desarrollaron la Astronomía y
el calendario, sino también la meteorología, consecuencia lógica de sus conocimientos, para facilitar sus labores
agrícolas. La piedra del Sol es el monolito más antiguo
conservado de la cultura prehispánica. Probablemente
se esculpió en torno al año 1479. Consta de cuatro círculos concéntricos: En el centro se distingue el rostro de
Tonatiuh (Dios Sol). Los cuatro soles, o eras anteriores, se
encuentran representados por figuras de forma cuadrada
flanqueando al quinto sol, en el centro. El círculo exterior consta de 20 áreas que representan los días de cada
151 Enseñanza
Figura 4. La piedra del Sol.
uno de los 18 meses del calendario azteca. Para completar los 365 días del año solar incorporaban 5 días aciagos o nemontemi.
Para los aztecas la Astronomía era muy importante,
ya que formaba parte de su religión. Construyeron observatorios que les permitieron realizar observaciones
muy precisas, hasta el punto que midieron con gran
exactitud las revoluciones sinódicas del Sol, la Luna y
los planetas Venus y Marte. Al igual que casi todos los
pueblos antiguos, los aztecas agruparon las estrellas brillantes en asociaciones aparentes (constelaciones).
ASTRONOMÍA OCCIDENTAL Y ERA
PRETELESCÓPICA
La civilización griega se estableció al sur de los Balkanes en el segundo milenio antes de nuestra era, comenzando a desarrollar lo que ahora conocemos como
Astronomía occidental. Sus observaciones tenían como
fin primordial servir de guía a los agricultores, por lo que
se trabajó intensamente en el diseño de un calendario
que fuera útil para estas actividades.
La Odisea de Homero ya se refiere a constelaciones
como la Osa Mayor y Orión, y describe cómo las estrellas
pueden servir de guía en la navegación. La obra «Los trabajos y los días» de Hesíodo informa sobre las constelaciones que salen antes del amanecer en diferentes épocas
del año, para indicar el momento oportuno para arar,
sembrar y recolectar.
Fue la cultura griega la que desarrolló la Astronomía
clásica más que ningún otro pueblo de la antigüedad. La
concepción general del cosmos que tenían los griegos
(excepto casos concretos de sabios como Aristarco o Pitágoras), y junto a ellos el resto de pueblos de aquella época,
era la de un modelo geocéntrico; es decir, la Tierra se encontraba situada en el centro del Universo y el resto de
100cias@uned
cuerpos celestes giraban en torno a ella. Las bases de la teoría geocéntrica, vigente hasta el siglo XVI, eran:
— Los Planetas, el Sol, la Luna y las Estrellas se
mueven en orbitas circulares perfectas.
— Las velocidades de los Planetas, el Sol, la Luna y
las estrellas son perfectamente uniformes.
— La Tierra se encuentra en el centro exacto del
movimiento de los cuerpos celestes.
El más innovador de los antiguos observadores de
los cielos fue ARISTARCO DE SAMOS (310-230 a.C.).
Propuso para el Universo un modelo heliocéntrico y heliostático 1800 años antes que Copérnico. Creía que los
movimientos celestes se podían explicar mediante la hipótesis de que la Tierra gira sobre su eje inclinado una
vez cada 24 horas y que, junto con los demás planetas,
gira en torno al Sol. Esta explicación fue rechazada por
la mayoría de los filósofos griegos aristotélicos que contemplaban a la Tierra como un globo inmóvil alrededor
del cual giran los ligeros objetos celestes.
Aristarco, durante un eclipse lunar, calculó la relación de diámetros entre la Tierra y la Luna y la distancia
Sol-Tierra. Según dichos cálculos, la Tierra era tres veces
mayor que la Luna (valor real 3,66). Determinó que la
distancia Tierra-Luna sería 79 veces el radio terrestre
(valor actual 60) y también calculó que el Sol estaría 20
veces más lejos que la Luna (valor actual 390). Aunque
su método era correcto, sus cálculos no lo fueron debido
a la falta de instrumentos precisos.
Figura 5. Comparación de los tamaños de la Tierra y la Luna
(Aristarco de Samos).
ERATÓSTENES DE CIRENE (276-195 a.C.) midió la
oblicuidad de la eclíptica que coincide con la latitud de
Siena, situada en el trópico. Calculó la longitud del meridiano terrestre, el radio de la Tierra y, lógicamente, el
tamaño y volumen aproximado de ésta. Sorprendentemente su resultado resultó ser muy exacto, si se tiene en
152 Enseñanza
Figura 6. Determinación de la longitud del meridiano terrestre
(Eratóstenes de Cirene).
cuenta la carencia de instrumentos de medición de aquella época. La precisión de su medida no pudo superarse
hasta el siglo XVIII.
HIPARCO DE NICEA (190-125 a.C.), también llamado
«de Rodas», en el siglo II a.C. utilizó por primera vez el
astrolabio, un instrumento perfeccionado posteriormente por Hipatia, discípula de Platón, considerada como la
primera científica de occidente. El astrolabio servía para
medir la altura de los astros con respecto al horizonte e
incluso determinar la distancia en grados entre ellos.
Hiparco ideó también el sistema de magnitudes para clasificar las estrellas según su brillo aparente, descubrió la
precesión de los equinoccios, realizó uno de los primeros
catálogos de estrellas e introdujo en Grecia la división
del círculo en 360º, hasta aquel momento sólo utilizada
por los babilonios.
CLAUDIO PTOLOMEO, autor de la «Syntaxis Mathemática», compiló todos los conocimientos de la Astronomía antigua. Esta obra fue posteriormente traducida
por el rey árabe Isháq Ibn Hunyain dando lugar a los trece tomos del «Almagesto». Ptolomeo expuso un sistema
donde la Tierra estaría rodeada por esferas de cristal con
los otros 6 astros conocidos. La Tierra no ocupaba exactamente el centro de las esferas y los planetas describían
un epiciclo cuyo eje era la línea de la órbita que giraba
alrededor de la Tierra, llamada deferente. Como el planeta describe un epiciclo se aproxima y se aleja de la
Tierra mostrando a veces un movimiento retrogrado.
Este sistema permitía realizar predicciones de los movimientos planetarios, aunque tenía una precisión muy
pobre. Claudio Ptolomeo, además, clasificó 1022 estrellas,
100cias@uned
asignando magnitud
en función de su brillo, estableció normas
para predecir eclipses
y aplicó sus estudios
de trigonometría a la
construcción de astrolabios y relojes de sol.
En el siglo II d.C.
el centro de la vida intelectual y científica se
trasladó de Atenas a
Alejandría, ciudad
fundada por Alejandro
Magno y modelada
Figura 7. Universo geocéntrico
según el ideal griego.
de Ptolomeo.
La Astronomía griega
se transmitió más tarde hacia oriente a los sirios, indios y
árabes. Los astrónomos árabes recopilaron nuevos catálogos de estrellas en los siglos IX y X y desarrollaron tablas del movimiento planetario. Sin embargo, aunque
eran buenos observadores, hicieron pocas aportaciones
realmente originales a la Astronomía. No obstante, los
astrónomos hispanoárabes perfeccionaron métodos e instrumentos de observación elaborando tablas astronómicas tan completas y precisas que se utilizaron en todo el
mundo durante varios siglos.
Las traducciones árabes del Almagesto que circulaban por Europa estimularon el interés por la Astronomía
en este continente. Los europeos se contentaron en un
primer momento con hacer tablas de los movimientos
planetarios, basándose en el sistema de Ptolomeo, o divulgar su teoría. Precisamente, en el siglo XIII, nuestro
rey, Alfonso X el Sabio, contribuyó de una manera muy
notable al desarrollo de la Astronomía. Su obra se centra
en los «Libros del Saber de Astronomía» y las «Tablas Alfonsinas».
Alfonso X se interesó por la Astronomía estudiando
escritos árabes a través de los cuales conoció las obras de
los principales filósofos griegos, especialmente de Aristóteles y Ptolomeo. Entendió que el progreso de esta
ciencia dependía estrechamente de la observación y que
los movimientos periódicos de los astros pueden durar
miles de años, siendo por ello necesarias largas series de
observaciones. En virtud de ello reunió un equipo de
sabios cristianos, árabes y judíos, con sede en Toledo,
con objeto de llevar a cabo numerosas observaciones
que, unidas a las ya efectuadas en épocas anteriores,
153 Enseñanza
permitirían elaborar las Tablas Alfonsinas, utilizadas en
toda Europa hasta el siglo XVI.
LA REVOLUCIÓN COPERNICANA
Con el Renacimiento comenzaron a surgir en Europa
ideas científicas independientes y discrepantes de los esquemas tradicionales aristotélicos. La teoría geocéntrica se
mantuvo vigente hasta que NICOLÁS COPÉRNICO (14731543) formuló la teoría heliocéntrica, según la cual el Sol
se situaría en el centro del Universo y el resto de planetas,
incluida la Tierra, giraría en torno a él. Ésta nueva teoría,
junto con la invención de la imprenta por Gutenberg en el
año 1450, que permitiría una transmisión eficaz del conocimiento, supuso una revolución para la Astronomía, ya que a partir de ese
momento dejó de verse al
planeta Tierra y al hombre
como epicentro del resto de
las cosas existentes.
En su obra De Revolutionibus Orbium Coelestium, impresa en Nuremberg en 1543, describe la
teoría del movimiento de
Figura 8. Copérnico.
los planetas vigente hasta
entonces, sus dificultades y errores, y llega a la conclusión de que en ella se habría pasado por alto algo muy
importante, ya que la posición de los planetas y la Luna
calculados con las tablas alfonsinas no coincidían con
las observaciones. Su teoría representó también un duro
golpe para la Iglesia, que defendía la teoría geocéntrica
como una interpretación intocable de la Biblia.
TYCHO BRAHE (1546-1601) fue el último observador
de la era pretelescópica. Sus estudios constituyeron un
avance muy significativo para la Astronomía. Confeccionó un catálogo de objetos celestes con más de 1000
estrellas y perfeccionó las técnicas de observación hasta
alcanzar una precisión, inaudita en aquella época, de
cuatro minutos de arco. Introdujo una modificación del
sistema heliocéntrico de Ptolomeo, no aceptando el de
Copérnico. La teoría sobre el Universo formulada por
Tycho se basaba en que la Tierra sería el centro de éste y
el Sol orbitaría en torno a ella, pero los demás planetas
lo harían en torno al Sol.
Tycho estudió detalladamente la órbita de Marte con
cuadrantes de pared. El conjunto completo de las obser-
100cias@uned
vaciones de trayectorias de planetas fue heredado por su
discípulo Kepler. Construyó instrumentos, tales como cuadrantes, sextantes y teodolitos primitives, y observó una
supernova en Casiopea, en 1572, a la que llamó Stella
Nova. Ésta alcanzó una magnitud de -4 y era visible incluso durante el día hasta que dejó de serlo en marzo de
1574. Fue éste un descubrimiento importante, ya que en
aquella época se creía en la inmutabilidad del cielo sin
aparición de estrellas nuevas. Fue el primer astrónomo
que intuyó que un cuerpo celeste siguiera una órbita no
circular basándose en sus estudios acerca de los cometas.
LA ERA TELESCÓPICA
Aunque, según los escritos más antiguos, tanto los
griegos como los romanos utilizaban lentes, éstas eran
muy toscas e imperfectas.
A finales del siglo X, el matemático persa ALHAZÉN
escribió el primer tratado sobre lentes y describió la
imagen formada en la retina, debida al cristalino. En
sus investigaciones utilizaba la lupa para observar objetos diminutos.
Entre los años 1000 y 1599 los árabes y chinos también experimentaban con lentes y espejos, aunque su
interés se desvaneció y el uso de la lente no se extendió
hasta el siglo XII, en el que se utilizaban lentes cóncavas
y convexas para corregir problemas de visión; pero hasta el siglo XVII no se desarrolló toda su potencialidad.
Hasta comienzos del siglo XVII los astrónomos habían observado el cielo sin la ayuda de ningún tipo de
instrumento, es decir, a simple vista. Sin embargo, en
1608, se produjo en Holanda la mayor aportación de la
técnica a la Astronomía: la invención del telescopio,
atribuida a HANS LIPPERSHEY, aunque sus principios
ópticos ya habían sido enunciados en el s. XIII por ROGER BACON. Galileo, informado de este descubrimiento
por su discípulo Jacques Badouere, fue el primero en
utilizarlo con fines astronómicos.
GALILEO GALILEI (1564-1642) utilizó por primera
vez el telescopio refractor y enunció las primeras leyes
de la Mecánica. Su telescopio estaba formado por una
lente convergente (objetivo) y una divergente (ocular) y
tenía unos 30 aumentos. Con este sencillo instrumento
descubrió los cuatro satélites de Júpiter, llamados «galileanos» en su honor, Io, Europa, Ganímedes y Calixto y
observó por primera vez el relieve lunar con sus cráteres
y montañas. Descubrió por primera vez la «forma irregular» de Saturno así como su cambio cíclico. También
154 Enseñanza
Figura 9. Galileo Galilei.
no podían describirse con círculos sino con elipses. Publicó en su obra Astronomia Nova (1609) sus dos primeras leyes, acerca del movimiento de los planetas, que
asombraron a la comunidad científica y le consagraron
como el mejor astrónomo de la época. Posteriormente, en
1618, enunció la tercera ley. La formulación de dichas leyes, gracias en gran medida a los datos obtenidos por
Tycho Brahe, marcó el inicio de una nueva época para la
Astronomía. Estas tres leyes desterraban, aun más, la
concepción geocéntrica del universo. Su enunciado, que
describe con precisión el movimiento de los planetas alrededor del Sol, es el siguiente:
1.a Ley: Las órbitas de todos los planetas son elípticas, encontrándose el Sol en uno de los focos.
2.a Ley: El vector de cualquier planeta respecto del
Sol barre áreas iguales en tiempos iguales. Esta ley,
conocida como «ley de las áreas», es equivalente a la
constancia del momento angular: L = mr1v1 = mr2v2.
3.a Ley: Los cuadrados de los períodos de revolución
son proporcionales a los cubos de los semiejes mayores de la elipse: P2 = ka3.
Figura 10. Telescopio
refractor de Galileo.
observó por primera vez las manchas solares y acabó enfermando de ceguera por no protegerse los ojos.
Galileo colaboró en gran medida al avance de la
Astronomía, adquiriendo gran fama por las observaciones de la nova de 1604. Sin embargo, la Iglesia no aceptó sus ideas heliocentristas y le obligó a retractarse.
IOANNES KEPLER (1571-1630), discípulo de Tycho
Brahe y firme defensor del modelo de Copérnico, fue
uno de los astrónomos más brillantes de la historia. Perfeccionó el telescopio de Galileo, sustituyendo la lente
divergente del ocular por una convergente, construyendo
el llamado telescopio kepleriano. En 1596 escribió el
tratado Prodromus Disertationum Cosmographicorum
Continens Misterium Cosmographicum, donde expone
sus ideas acerca del Sistema Solar (distancias de los planetas al Sol dadas por esferas inscritas en poliedros perfectos).
Estudiando los datos recopilados por Tycho, especialmente el movimiento de Marte, entendió que el movimiento de los planetas no podía explicarse con su modelo y llegó a la conclusión de que las órbitas de éstos
100cias@uned
En aquella época los telescopios eran muy imperfectos, pues tanto objetivo como ocular estaban constituidos
por lentes simples y las imágenes no se veían claras debido al fenómeno de la aberración cromática, que se
produce en todas las lentes al comportarse éstas como
prismas y no refractar en la misma medida todos los
colores del espectro luminoso. Para paliar el efecto negativo de la aberración cromática se utilizaban telescopios de grandes distancias focales, como el de 45,7 m
construido por IOANNES HEVELIUS (1611-1687) motivado por los descubrimientos de Huyghens acerca de la
disminución de la aberración cromática con el aumento
de la distancia focal.
Hevelius dedicó 4 años a cartografiar exhaustivamente la superficie lunar y descubrió las «libraciones».
Publicó sus descubrimientos en el tratado Selenografía
(1647), lo que le valió el título de fundador de la topografía lunar. Descubrió cuatro cometas (1652, 1661,
1672, 1677) y sugirió que describían trayectorias parabólicas alrededor del Sol. Elaboró un catálogo estelar, siguiendo los procedimientos de Tycho Brahe, tabulando la
posición exacta de 1564 de estrellas. Observó también las
fases de Mercurio y un tránsito por delante del Sol confirmó la variabilidad de la estrella Mira Ceti y estudió
ampliamente las manchas solares para determinar el período de rotación del astro.
155 Enseñanza
La segunda mitad del siglo XVII fue pródiga en descubrimientos planetarios, debidos en parte al incipiente
desarrollo de la astronomía telescópica, erigiéndose los
primeros observatorios con instrumentos ópticos (en París, Greenwich, etc.). La nueva era se abrió con CHRISTIAN HUYGENS (1629-1695), astrónomo, matemático y
físico holandés que perfeccionó la técnica de tallado de
lentes y comprobó que los objetivos de gran distancia focal proporcionaban mejores imágenes. A partir de 1655
construyó anteojos de hasta 70 metros de largo, y otros
instrumentos precisos. Entre ellos destaca su telescopio
aéreo, sin tubo, de gran distancia focal, sujeto en un
mástil. Gracias a este instrumento observó imágenes
muy claras de Saturno y en 1655 descubrió sus anillos
(aunque sin distinguir sus divisiones) y la sombra que
arrojaban sobre el planeta, así como el mayor de sus
satélites, Titán, calculando además su período orbital.
Así quedó desvelado el enigma de la forma variable que
presentaba este planeta cuando era observado por los astrónomos de la época. Como en un principio no estaba
demasiado seguro de su hipótesis, comunicó a otros astrónomos conocidos sus descubrimientos relativos a la
estructura de los anillos y al satélite Titán mediante anagramas crípticos que después tradujo: «Annulo cingitur
tenui plano nusquam cohaerente ad eclipticam inclinato»
y «Saturno luna sua circunducitur diebus sexdecim horis
quator».
Calculó también el tamaño y el período orbital de
Marte en 1659 y en 1666 descubrió la nebulosa de Orión,
M-42, observando en su interior diminutas estrellas. Diseñó también un micrómetro para medir pequeñas distancias angulares y determinar tamaños de planetas y
distancias a sus satélites. Formuló la primera teoría ondulatoria de la luz, inventó el reloj de péndulo y estudió
con detalle la fuerza centrífuga.
GIOVANNI DOMENICO CASSINI (1625-1712) fue un
famoso astrónomo italiano cuyo nombre está ligado a
una de las divisiones de los anillos de Saturno que lleva
su nombre. Cassini determinó los períodos de revolución de Venus, Marte y Júpiter, así como la distancia a
Marte. Con ello midió el tamaño del sistema solar, obteniendo para la unidad astronómica un valor sólo con un
7% de error respecto del actual. A tales resultados llegó
mediante la observación de Marte desde París (al tiempo
que Richter hacía lo mismo desde la Guayana francesa a
10000 km. de distancia). Calculó la distancia Tierra-Marte y determinó las distancias de los otros planetas al Sol
(basándose en la tercera ley de Kepler).
100cias@uned
En 1668 elaboró tablas avanzadas con el movimiento preciso de los satélites galileanos de Júpiter lo
que, curiosamente, sirvió a los navegantes para su utilización como relojes celestes. Además, Olaf Roemer
utilizó posteriormente estos resultados para calcular la
velocidad de la luz. Descubrió también los cambios estacionales de Marte, midió su período de rotación, así
como el de Saturno, y descubrió un vacío entre los
anillos de éste, conocido hoy día como «división de
Cassini». Asimismo descubrió cuatro satélites de Saturno: Japeto (1671), Rea (1672), Dione y Tetis (1684).
No obstante tuvo grandes errores, como no aceptar la
teoría heliocéntrica.
ISAAC NEWTON (1643-1727) fue uno de los científicos más relevantes de todos los tiempos. Llevó a cabo
importantes trabajos acerca de la naturaleza de la luz.
Descubrió el espectro de color que se observa al descomponer la luz blanca por un prisma siendo ello inherente a la luz, según él de naturaleza corpuscular y
propagación en línea recta. Publicó sus estudios sobre
óptica en el tratado Optiks (1704), donde concluye que
el telescopio refractor sufriría aberración cromática.
Fue autor, asimismo, de los Philosophiae Naturalis
Principia Mathematica (1687), donde describe la Ley de
la Gravitación Universal y establece las bases de la
mecánica clásica (leyes de Newton). Sus estudios acerca
de la naturaleza de la luz, su reflexión y refracción, le
llevaron a construir el primer telescopio reflector evitando así la aberración cromática. Demostró matemáticamente las leyes de Kepler a partir de su Ley de la
Gravitación Universal y explicó de forma precisa el
movimiento de los planetas conocidos y sus satélites
(cuatro de Júpiter y cinco de Saturno).
Figura 11. Telescopio reflector de Isaac Newton.
156 Enseñanza
OLE CHRISTIAN ROEMER (1644-1710) continuó los
estudios acerca de la naturaleza de la luz emprendidos
por Newton. Las diferencias encontradas por Roemer y
Cassini en sus medidas del período orbital del primer
satélite de Júpiter, Io, llevaron al primero a la conclusión
de que la velocidad de la luz era finita, ya que el período
orbital no podía variar. Así pues midió la velocidad de la
luz en 1676, basándose en los retrasos del período orbital observados en las apariciones de Io a la salida del
cono de sombra de Júpiter en la primera y segunda cuadratura del planeta. El valor obtenido por Roemer para la
velocidad de la luz fue de 225.000 km/s. Aunque el error
es importante, dada la imprecisión del método de medida, este descubrimiento resultó ser trascendental.
EDMUND HALLEY (1656-1742) descubrió el cometa
que lleva su nombre. La teoría de la gravitación universal de Newton le impulsó por 1ª vez a calcular la órbita
de dicho cometa, que pasó en 1682, prediciendo que
volvería a pasar en 1758 (así sucedió) y deduciendo que
era el mismo que pasó en 1531 y 1607. Animó a su
amigo Newton a publicar sus «Principia» y en 1676 publicó una disertación sobre la teoría de los planetas en
Philosophical Transactions. En el mismo año se trasladó
a la isla de Santa Elena para compilar un catálogo de estrellas del cielo austral (Catalogus Stellarum Australium)
con un telescopio refractor de 7 m de distancia focal. En
1725 publicó mapas estelares con la posición exacta de
3000 estrellas determinadas desde el Observatorio de
Greenwich. Descubrió el movimiento propio de las estrellas estudiando la variación de las posiciones relativas de
Aldebarán y Arturo respecto a otras.
Halley publicó en Philosophical Transactions su método para determinar la paralaje del Sol por medio de los
tránsitos de Venus. Reflexionó sobre la idea de medir
distancias estelares por medio de la paralaje y calculó la
distancia Sol-Sirio, estimándola en 120.000 veces la distancia Tierra-Sol.
ASTRONOMÍA MODERNA
Tras la época de Newton, la astronomía se ramificó en
diversas direcciones. Con su ley de gravitación universal, el
viejo problema del movimiento planetario se volvió a estudiar como mecánico celeste. Los telescopios, mucho más
perfeccionados, permitieron la exploración de las superficies de los planetas, el descubrimiento de muchas estrellas
débiles y la medición de distancias estelares. En el siglo
XIX un nuevo instrumento, el espectroscopio, aportó in-
100cias@uned
formación sobre la composición química de los cuerpos celestes y nueva información sobre sus movimientos.
Conocido en el siglo XVIII el hecho de que los planetas describen órbitas en torno al Sol con alejamiento
progresivo, a mediados de este siglo se enunció una ley
empírica muy importante para los astrónomos del siglo
XIX a la hora de descubrir nuevos planetas, ya que permitía predecir matemáticamente la distancia de éstos al
Sol. Esta ley fue enunciada por WOLF en 1741, publicada por TITIUS en 1772 y enunciada nuevamente de forma matemática por BODE en 1778. Proporciona la distribución de los planetas en orden creciente de distancias
al Sol de acuerdo con la expresión matemática: a =
n + 4/10, donde n = 0, 3, 6, 12, 24, 48, 96, etc. y a es el
semieje mayor de la órbita, dado en unidades astronómicas (u.a.). Aplicada a los 6 planetas conocidos hasta
entonces, Mercurio, Venus, la Tierra, Marte, Júpiter y
Saturno, da los valores 0,4; 0,7; 1; 1,6; (2,8); 5,2; 10,0;
(valores reales: 0,38; 0,72; 1; 1,52; 5,2; 9,54). La ley de
Bode se consolidó espectacularmente cuando se comprobó, al descubrirse Urano, la coincidencia casi exacta
de su distancia con la predicha por la ley [19,6 (valor
real = 19,2)]. La ley predecía, además, que para el valor
2,8 debería existir un planeta entre las órbitas de Marte y
Júpiter. Varios astrónomos se lanzaron a su búsqueda,
hasta que en 1801 GIUSEPPE PIAZZI descubrió el asteroide Ceres dentro de la distancia predicha. Posteriormente se descubrieron más asteroides, cuyas órbitas forman un cinturón entre las de Marte y Júpiter. Sin
embargo, Neptuno viola dicha ley (en su formulación
original) que, tal vez fue una curiosidad matemática,
pero tuvo gran importancia en el desarrollo de la Astronomía a finales del siglo XVIII y principios del XIX.
Los hermanos WILLIAM (1738-1822) y CAROLINE
LUCRECIA (1750-1848) HERSCHEL fueron quizá los astrónomos que más tiempo de su vida dedicaron a la observación del cielo.
William descubrió Urano, en 1781, asombrando a
todos los científicos de la época, que consideraban que
no podía haber planetas más allá de Saturno. Descubrió
además los satélites de Urano, Titania y Oberón (1787) y
dos más de Saturno: Mimas y Encélado (1789). Construyó numerosos telescopios reflectores de grandes dimensiones y calidad excepcional, como el de 122 cm, que sería el mayor del mundo en la época. Gracias a estos
potentes instrumentos descubrió más de 2000 nebulosas
y estableció la base de los modernos catálogos de galaxias que parten del suyo, conocido como «General Cata-
157 Enseñanza
Figura 12. William y Caroline Herschel.
Figura 13. Uno de los telescopios reflectores construidos por los Herschel.
logue». Descubrió también las estrellas dobles y concluyó
que se trataba de pares físicos, una girando alrededor de
otra, y no alineaciones casuales.
William Herschel aplicó las leyes de Newton, no sólo
al movimiento de los planetas, sino también a estrellas
lejanas, descubriendo que el Sol se mueve lentamente
hacia la constelación de Hércules. Siempre fue ayudado
de manera infatigable por su hermana, Caroline Herschel,
que realizaba observaciones de precisión sobre las previas de su hermano y descubrió ocho cometas. Ésta educó en Astronomía a su sobrino John, hijo de Herschel.
CHARLES MESSIER (1730-1817) confeccionó un catálogo (que lleva su nombre) de 110 objetos estelares de
variada naturaleza, como galaxias, nebulosas o cúmulos
estelares. Muchos de estos objetos siguen siendo conocidos en la actualidad por su número del catálogo. Otros lo
son más por su número del catálogo NGC (New General
Catalogue). Al parecer, inauguró su catálogo con M-1
(Nebulosa del Cangrejo) cuando buscaba el cometa Halley
en la aproximación predicha por el astrónomo inglés.
LA ASTROFÍSICA
En el siglo XIX, la precisión alcanzada en las determinaciones angulares permitiría vencer uno de los mayores obstáculos en el conocimiento del Universo: la
medida de las distancias estelares.
FRIEDRICH WILHELM BESSEL (1784-1846), tomando ventaja del perfeccionamiento de los sistemas ópticos,
100cias@uned
a partir de la construcción de objetivos acromáticos patentados en 1758 por JOHN DOLLOND, hizo una de las
aportaciones más importantes de la Astronomía del s.
XIX: conocer las distancias a las estrellas. Utilizando el
método de la paralaje publicó, en 1838, la determinación
de la distancia Sol-61Cygni (10 años-luz).
Bessel desarrolló también en 1844 un método matemático para la detección de estrellas invisibles, compañeras de otras más grandes y luminosas en sistemas múltiples. Observó que la trayectoria de Sirio no era rectilínea y
concluyó que formaba parte de un sistema doble que giraba alrededor del centro de masas común. No logró observar Sirio B (enana blanca), mucho menos luminosa
que Sirio A, pero condujo
a su posterior descubrimiento. Fue ALVAN
CLARK quien 16 años
después de la muerte de
Bessel, con un telescopio
refractor de 45 cm, observó en la posición prevista
Sirio B, muy pequeña,
mucho menos luminosa y
extremadamente densa
(sólo 1% del diámetro del
Sol, pero la misma masa
que éste). La masa de Sirio A es 2,3 veces la del
Figura 14. Telescopio de Bessel,
utilizado para medir paralajes estelares.
Sol.
158 Enseñanza
Bessel determinó las posiciones de unas 50.000 estrellas con su telescopio especialmente diseñado y calculó, en 1830, la posición media y aparente de 38 estrellas para un período de 100 años. Señaló también las
irregularidades del movimiento de Urano, lo que abrió
las puertas al descubrimiento de Neptuno.
JOSEPH VON FRAUNHOFER (1787-1826) perfeccionó notablemente los telescopios refractores e incorporó
por primera vez un espectroscopio a su telescopio, analizando el espectro solar, donde observó las líneas que
llevan su nombre. Enumeró 754 de esas líneas que son el
resultado de la absorción de luz en ciertas
longitudes de onda por
átomos presentes en la
atmósfera solar. La espectroscopía ofrece la
posibilidad de determinar la composición de
un astro y su temperatura. Constituye la base
para la medida de la velocidad radial, en virtud
de la ley enunciada por
Doppler en 1848, mediante la cual se han deFigura 15. Telescopio de Fraunhofer.
terminado movimientos
relativos y rotaciones
planetarias. Fraunhofer construyó en 1817 el primer retículo de difracción con el cual midió las longitudes de
onda de todos los colores.
EL PODER DE LAS MATEMÁTICAS
Desde el momento de su descubrimiento, los astrónomos estudiaron el movimiento de Urano encontrando
que no seguía exactamente la órbita calculada. Algún
cuerpo estelar de gran masa parecía inducir perturbaciones en su movimiento orbital. En 1842, la Academia de
Ciencias de Göttingen ofreció un premio a quien encontrara la solución a este problema.
URBAIN LEVERRIER (1811-1877) estudió matemáticamente el movimiento de cometas y sabía cómo tratar
el problema de Urano. En 1846 completó sus cálculos escribiendo a J. Galle y pidiéndole que observara en el
lugar del cielo donde suponía que debía estar Neptuno.
¡Y allí estaba! Cinco días más tarde lo encontró Galle
muy cerca de la posición predicha. El descubrimiento
100cias@uned
fue motivo de orgullo nacional en Francia, pero sufrió
un pequeño contratiempo cuando se supo que esos cálculos habían sido efectuados un año antes por el matemático inglés JOHN COUCH ADAMS (1819-1892).
Adams, después de graduarse en la Universidad de
Cambridge, decidió atacar el problema de Urano. En
1845 hizo llegar al astrónomo real Airy sus resultados,
muy similares a los que encontraría Leverrier, pero ni
Airy ni Challis hicieron caso de ellos. Poco después, Galle encontró a Neptuno utilizando los cálculos de Leverrier. No obstante, la Royal Astronomical Society de Inglaterra hizo justicia a Adams concediéndole el mismo
premio con el que condecoró a Leverrier el año anterior.
Figura 16. John Couch Adams (izquierda)
y Urbain Leverrier (derecha).
El descubrimiento de Neptuno, mediante el poder
de las matemáticas, es sin duda una hazaña sin precedentes; sobre todo si se tiene en cuenta que las únicas
herramientas de que disponían estos astrónomos eran
lápiz y papel.
JOHANN GOTTFRIED GALLE (1812-1910) descubrió
Neptuno en 1846, gracias a los cálculos de Leverrier y
Adams que predijeron su posición con gran exactitud
(sólo 1° de diferencia). En 1838 descubrió el anillo interior C de Saturno. Pero su contribución más importante a
la Astronomía fue la propuesta de empleo de la paralaje
a los asteroides para determinar la escala de distancias
del sistema solar. Ello se llevó a cabo 20 años después.
Figura 17. Neptuno
(sonda Voyager II).
159 Enseñanza
ASAPH HALL (1829-1907), con el telescopio refractor de 66 cm del observatorio de La Marina, en Washington, descubrió en 1877 los dos pequeños satélites de
Marte, Phobos y Deimos. Determinó períodos orbitales y
tamaños de las órbitas de satélites de otros planetas y
observó una mancha clara en Saturno, lo que le sirvió
como referencia para determinar su período de rotación.
También Determinó la masa de Marte.
Figura 18. Phobos (izquierda) y Deimos (derecha).
GIOVANNI VIRGINIO SCHIAPARELLI (1835-1910)
fue gran observador de Marte y fundador de su topografía. En 1877 creyó descubrir redes de grandes canales en
la superficie del planeta, lo que dio lugar a la especulación acerca de si en él podría haber vida inteligente. En
realidad, los canales de Marte eran una ilusión óptica. En
sus investigaciones sobre la teoría de las estrellas fugaces
descubrió la relación entre las perséidas y el cometa
1862 III. Descubrió numerosas estrellas dobles entre 1875
y 1900 así como el asteroide 69 Hesperia en 1861. Fue
director del observatorio de Brera, en Milán.
Figura 19. Los
falsos canales de
Marte (dibujo de
Schiaparelli).
PERCIVAL LOWELL (1855-1916) fue un rico adinerado aficionado a la Astronomía y principal defensor, en
Estados Unidos, de la existencia de canales en Marte. Se
interesó en el tema por las observaciones y dibujos de
100cias@uned
Schiaparelli. Construyó un observatorio (Lowell Observatory) que permanece activo en la actualidad. Su mayor
contribución a la Astronomía fue la intensa búsqueda de
un planeta X exterior a Neptuno que sería descubierto
posteriormente (1930) por Tombaugh (Plutón).
ASTRONOMÍA CONTEMPORÁNEA
Durante el siglo XX se han construido telescopios
reflectores cada vez mayores. Los estudios realizados
con estos instrumentos han revelado la estructura de
enormes y distantes agrupamientos de estrellas, denominados galaxias, y de cúmulos de galaxias. En la segunda
mitad del siglo XX los progresos en física proporcionaron nuevos tipos de instrumentos astronómicos, algunos
de los cuales se han emplazado en los satélites que se
utilizan como observatorios en la órbita de la Tierra.
Estos instrumentos son sensibles a una amplia variedad
de longitudes de onda de radiación, incluidos los rayos
gamma, rayos X, ultravioleta, infrarrojos y regiones de
radio del espectro electromagnético. Los astrónomos no
sólo estudian planetas, estrellas y galaxias, sino también plasmas (gases ionizados calientes) que rodean a las
estrellas dobles, regiones interestelares que son los lugares de nacimiento de nuevas estrellas, granos de polvo
frío invisibles en las regiones ópticas, núcleos energéticos
que pueden contener agujeros negros y radiación de
fondo de microondas, surgida de la gran explosión, que
pueden aportar información sobre las fases iniciales de la
historia del Universo.
GEORGE ELLERY HALE (1868-1938), físico, profesor
de la Universidad de Chicago, dirigió el observatorio
Yerkes. Dotó a éste y a otros observatorios con los mejores telescopios del mundo; por ejemplo el observatorio
Wilson, con un telescopio de 2,5 m de apertura. Desgraciadamente no vivió para asistir a la inauguración del
gran telescopio, que lleva su nombre, del Monte Palomar.
Descubrió que las manchas solares eran más frías que el
resto de la fotosfera y demostró con técnicas espectroscópicas que dichas manchas son el resultado de fuertes
campos magnéticos. Dibujó un sorprendente mapa del
ciclo magnético del Sol (22 años), según el cual los patrones de polaridad cambian de signo cada ciclo. Inventó el espectroheliógrafo, que permite fotografiar el Sol en
una sola longitud de onda.
EDWIN HUBBLE (1889-1953) obtuvo el doctorado
en Ciencias Físicas en el Observatorio de Yerkes. Se incorporó posteriormente al Observatorio del Monte Wilson
160 Enseñanza
Figura 20. Telescopio reflector Hale (5m) de Monte Palomar.
Figura 21. Telescopio espacial Hubble.
coincidiendo con la puesta a punto del telescopio Hooker.
Sus observaciones con éste establecieron que numerosas
nebulosas observadas anteriormente no formaban parte
de nuestra galaxia, sino que se trataba de galaxias distintas. En 1924 hizo pública su naturaleza extragaláctica
ampliando los límites del Universo conocido. Junto con
Milton Humason, comparando las distancias calculadas
para diferentes galaxias y sus desplazamientos al rojo
establecidos por Slipher, descubrió la relación entre la
velocidad con la que se alejan las galaxias y su distancia
(ley de Hubble o de recesión de las galaxias).
Hubble organizó un sistema de clasificación de galaxias que perdura con pocos cambios hasta la actualidad. Determinó las distancias a muchas de ellas, estableciéndolas en centenares de años-luz y demostró que
cuanto más lejanas eran más rápidamente se alejaban
(ley de Hubble). La ley de Hubble evidencia la expansión
del Universo y el origen del mismo, conocido como gran
explosión (Big Bang).
CLYDE TOMBAUGH (1906-1997) en 1930, en el Observatorio Lowell, comparando fotografías tomadas en
días sucesivos en la constelación de Géminis encontró la
evidencia fotográfica de la existencia del 9º planeta del
sistema solar: Plutón (actualmente desclasificado como
planeta). Descubrió además seis cúmulos estelares, dos
cometas, centenares de asteroides, docenas de cúmulos
de galaxias y un supercúmulo. En 1932 descubrió una
nova en la constelación del Cuervo.
La Radioastronomía, otra fundamental rama de la
Astronomía, se inició en la práctica en 1932, cuando
Karl G. Jansky captó por casualidad las primeras ondas
de radio procedentes de la Vía Láctea. La potencialidad
de la Radioastronomía como exploradora del universo es
prácticamente infinita, hasta el extremo de que en 1937
G. Reber detectó ondas de radio procedentes del centro
de la Vía Láctea. También, en 1960 pudo identificarse
una galaxia distante de la Tierra 4500 millones de añosluz gracias a este método.
En 1946 tuvo lugar otro importante paso en la historia de la Astronomía, ya que en esa fecha se estudiaron
por primera vez los ecos de ondas electromagnéticas rebotadas en los cuerpos celestes del Sistema Solar, como
alternativa a los métodos empleados hasta entonces (luz
visible, principalmente). Este recién estrenado campo,
desarrollado principalmente durante la segunda guerra
mundial, avanzó con inusitada rapidez y, ya en 1963,
científicos soviéticos llevaron a cabo por este medio las
primeras observaciones detalladas de los planetas Mercurio y Venus.
La Astronomía también se vio beneficiada por el comienzo de la carrera espacial, ya que la posibilidad de poner satélites en órbita permitía el estudio del espacio sin
Figura 22. Galaxia de Andrómeda fotografiada por el HST.
100cias@uned
161 Enseñanza
las perturbaciones producidas por la atmósfera terrestre.
De hecho, los telescopios espaciales (como, por ejemplo,
el telescopio Hubble) desempeñan un papel muy importante en la observación actual del firmamento. Además,
las sondas científicas permiten observar y estudiar los
planetas desde una distancia mucho menor. En 1959, por
ejemplo, gracias a una sonda soviética, se obtuvieron las
primeras fotografías de la cara oculta de la Luna. Tres
años más tarde, la sonda estadounidense Mariner 2 obtuvo datos precisos sobre el planeta Venus, lo que nos
permitió conocer la existencia de su densa atmósfera y
las extremas condiciones reinantes en su superficie. Desde entonces hasta hoy el estudio de los cuerpos celestes
del Sistema Solar, en especial los planetas, no ha cesado,
y gracias a ello hemos obtenido un valioso conocimiento
de nuestro entorno espacial más próximo.
En 1963 se descubrieron los cuásares, objetos de
gran actividad que, según se cree, son los núcleos de galaxias muy lejanas. Cuatro años más tarde, se detectaron
por primera vez púlsares, que en realidad son estrellas de
neutrones orientadas de tal manera que su cono de emisión de ondas electromagnéticas está orientado hacia la
Tierra. Este tipo de objetos gira muy rápidamente, por lo
que la intensidad de las ondas electromagnéticas que
recibimos de ellos varía de forma periódica.
En 1965 tuvo lugar el descubrimiento, por parte de
ARNO PENZIAS y ROBERT WILSON, de la radiación de
fondo del universo. Este hecho apoya en gran medida la
idea de una explosión inicial similar al Big Bang. En 1980,
Allan Guth propuso la teoría de la inflación cósmica, en la
que proponía que durante los primeros instantes del Big
Bang tuvo lugar una rapidísima expansión del universo.
Las últimas décadas han aportado nuevos métodos e
instrumentos gracias a los cuales ha sido posible descubrir numerosos hechos que modifican continuamente
nuestra concepción del Universo. Un ejemplo es la interferometría, que permite combinar imágenes de dos telescopios iguales separados, para obtener enormes resoluciones (equivalentes a las que se obtendrían con un
telescopio de tamaño igual a la distancia que separa los
telescopios interferométricos). Así, el VLA (Very Large
Array) consiste en una red de 27 radiotelescopios situados en forma de Y en el desierto de Nuevo Méjico
(EE.UU.). Actualmente, los telescopios terrestres más
grandes tienen un diámetro de 10 metros, como los Keck
en Mauna Kea, Hawai, situados en un lugar privilegiado
para realizar observaciones astronómicas.
Los avances tecnológicos derivados del espectacular
desarrollo de la ingeniería y la técnica de la segunda mitad del siglo XX (tales como ordenadores cada vez más
rápidos, telescopios orbitales más sofisticados, sondas espaciales al encuentro de planetas y otros cuerpos, etc.) han
permitido que la Astronomía, como el resto de las ciencias,
haya presenciado en estos últimos años una revolución
muy importante que continuará durante el siglo XXI.
BIBLIOGRAFÍA
1. Chang et al. El Universo. Enciclopedia Sarpe de la Astronomía. Ed. Sarpe. Madrid, 1982.
2. Carl Sagan. Cosmos. Ed. Planeta. Madrid, 1980.
3. Fred Hoyle. Iniciación a la Astronomía. Ed. Orbis.
Barcelona, 1986.
4. Lloyd Motz. El Universo. Ed. Orbis. Barcelona, 1987.
5. J. B. J. Delambre. Histoire de l´Astronomie Moderne.
Johnson Reprint Corporation. New York, 1969.
WEBGRAFÍA
C. de Toro y Llaca. La evolución de los conocimientos astronómicos a través de la historia:
http://www.iag.csic.es/museo/documentos.htm
http://es.wikipedia.org/wiki/Astronomia
http://www.astrored.net/universo
http://www.astromia.com
Enrique Teso Vilar
Facultad de Ciencias
Figura 23. Los satelites galileanos de Júpiter: Io, Europa, Ganímedes y Calixto (sonda Voyager II).
100cias@uned
162 Enseñanza
100cias@uned
N.º 2
Enseñanza
(nueva época)
| 2009
ISSN: 1989-7189
TALLER Y LABORATORIO
EXPERIMENTO HISTÓRICO
DESCUBRIMIENTO DEL NEUTRÓN
INTRODUCCIÓN
Cuando en 19191 E. Rutherford (1871-1937) descubrió el protón, la estructura de la materia parecía ser
simple si se suponía que la masa y la carga se concentraban de forma elemental en dos partículas fundamentales: el electrón y el protón. Esto explicaba que la carga
de cualquier núcleo resultara ser un múltiplo entero de la
carga del protón, que es la misma que la del electrón
pero de signo opuesto. Además, una vez establecida la
existencia de los isótopos2, se vio que era la masa de éstos la que resultaba ser muy cercana a un múltiplo de la
masa de protón. Bastaba entonces con suponer que el
núcleo estaba constituido por el número de protones
necesario para explicar su masa y un número tal de
electrones que neutralizara la carga excedente igualándola a la carga característica de cada elemento. Por lo
que según esta hipótesis un núcleo de He4 (partícula α)
estaría compuesto de 4 protones y 2 electrones, lo que
daba como resultado un carga (número atómico) igual a
2 y un número másico de 4.
En la actualidad sabemos que esta suposición era
incorrecta y la verdadera respuesta la encontró J. Chadwick (1891-1974) cuando en 1932 descubrió una nueva
partícula a la que denominó neutrón, término que ya
había usado Rutherford en una conferencia que impartió
en 1920. Según Rutherford, esta partícula podía originarse en un átomo de hidrógeno en el que el electrón
habría «caído» al núcleo neutralizándolo eléctricamente.
Chadwick, después de graduarse en 1911 en la Universidad de Manchester, empezó a trabajar como ayu1
El experimento con el que Rutherford descubrió el protón está descrito en el nº 6 de 100cias@uned, págs. 107-111 (2003).
2
Son isótopos de un elemento químico de número Z, los distintos nucleidos con el mismo número de protones (mismo número atómico:
mismas propiedades químicas) y con distinto número de neutrones
(distinta masa atómica A: distintas propiedades nucleares).
100cias@uned
Figura 1. Fotografía de James
Chadwick.
dante de Rutherford. En 1914, Chadwick viajó a Berlín
para trabajar con H. Geiger (1882–1945), otro de los
discípulos de Rutherford. No era un buen momento para
que un ciudadano inglés estuviera en Alemania, y cuando comenzó la primera guerra mundial, el gobierno alemán lo retuvo como prisionero de guerra. Chadwick fue
tratado razonablemente bien, y aunque tuvo malnutrición, se le permitió seguir alimentando su curiosidad
académica con lecturas y conversaciones con otros científicos, pero le prohibieron continuar con sus experimentos. Al final de la guerra, en 1918, Chadwick volvió
a Manchester, justo en el momento en el que Rutherford
estaba trabajando en los experimentos que le llevarían al
descubrimiento del protón. En 1919 Rutherford es nombrado Director del Laboratorio de Cavendish y Chadwick le sigue a Cambridge, donde poco después de doctorarse es nombrado ayudante del Director.
Chadwick estaba interesado en el «neutrón» de Rutherford y estuvo varios años buscándolo sin éxito. En
1930 algunos resultados experimentales obtenidos en el
continente europeo, sobre choques de partículas alfa y
núcleos ligeros y la posterior producción de una extraña radiación, llamaron su atención y aunque no estaba de acuerdo con la interpretación que se daba de
ellos, le llevaron a repetirlos con algunas modificaciones, realizando una correcta interpretación de los resultados. En 1932 anunció el descubrimiento del neutrón, primero en «Nature»3 en una carta al Editor en la
que se avanzaban sus resultados, «Posible Existente of a
3
Nature, 129, 312 (27 de febrero de 1932).
Científica
Enseñanza
163 Vida
significaba un coeficiente de atenuación6 μ ~ 0,3 cm-1.
Este poder de penetración era notablemente mayor que
el de la radiación gamma emitida por los elementos radiactivos conocidos en ese momento. Además, al determinar la energía de esas extrañas radiaciones, concluyeron que ésta debería ser mayor que la energía de las
partículas alfa incidentes, lo que podía ser interpretado
como un fenómeno de desintegración.
Figura 3. Interpretación de Bothe y Becker sobre la emisión de
radiación por Be9 después de ser irradiado por partículas alfa.
Figura 2. Carta al Editor publicada en Nature, donde Chadwick
adelantaba su descubrimiento de la existencia del neutrón.
Neutron» y posteriormente en los «Procceedings of the
Royal Society of London»4, donde se desarrollaba todo el
descubrimiento y en el que en el título desaparecía la
palabra «possible» quedando como afirmación «The
Existente of a Neutron».
ANTECEDENTES EXPERIMENTALES
En 1930, los físicos alemanes W. Bothe (1891-1957)
y su discípulo H. Becker5 habían descubierto que al bombardear algunos elementos ligeros (particularmente berilio) con las partículas a, provenientes de un isótopo del
polonio, se emitían radiaciones muy penetrantes y eléctricamente neutras que, originalmente, pensaron que
eran fotones gamma de alta energía, con un poder de penetración de aproximadamente 20 cm en plomo, lo que
4
Procceedings of the Royal Society of London, Series A, Vol. 136, nº
830, 692 (1 de junio de 1932).
5
Z. f. Physik, Vol. 66, 289 (1930).
100cias@uned
Posteriormente, los físicos franceses I. Joliot-Curie
(1897–1956) y su marido F. Joliot7 (1900–1958) hicieron pasar la radiación penetrante, descubierta por Bothe y Becker, por blancos de parafina u otros compuestos hidrogenoides y, midiendo la ionización producida
al paso de la radiación, descubrieron que se producían
protones de alta energía. Lo interpretaron como resultado de la acción de los fotones sobre los núcleos de
hidrógeno de la parafina (usando una analogía con el
efecto Compton8 de los fotones sobre los electrones)
produciendo protones de retroceso. Este efecto había
sido observado en la interacción entre rayos X y electrones, pero debería ser igualmente válido para la dispersión de rayos gamma por protones. Sin embargo, los
protones son casi 1.836 veces más pesados que los
electrones, por lo que, para arrancarlos de un sólido,
serían necesarios fotones de gran energía. Otro problema con esta interpretación era que, dado el número
de protones observados, habría que suponer que la probabilidad de colisión entre estos fotones y los protones
de la parafina era millones de veces mayor a la que se
esperaría de extrapolar el cálculo válido para el electrón, esta probabilidad de dispersión en el caso de fotones de alta energía por electrones (efecto Compton)
viene dada con bastante exactitud por la fórmula de
Klein-Nishima9 y también debería poder ser aplicada a
6
El coeficiente de atenuación es la probabilidad de que un fotón
interaccione por unidad de recorrido.
7
C.R. Acad. Sci. Paris, Vol. 193, 1412 (1931).
8
El efecto Compton había sido predicho por A. Einstein en 1905 y
confirmado por A.H. Compton en 1923. Consiste en la dispersión de un
fotón por un electrón libre o débilmente ligado, en la que parte de la
energía del fotón incidente se comunica al electrón y el fotón dispersado tiene una longitud de onda superior a la del incidente.
9
Z. f. Physik, Vol. 52, 853 (1929).
164 Enseñanza
Figura 4. Comparación del efecto Compton con electrones
y con protones.
la dispersión de fotones por protones, pero los resultados experimentales mostraban que la probabilidad de
dispersión era varios ordenes de magnitud mayor que la
predicha en la fórmula.
A Chadwick no le convencían las interpretaciones
que se daban a los resultados obtenidos, por lo que se
propuso realizar unos experimentos similares y buscar
un razonamiento más correcto.
que se emitían esos protones, Chadwick utilizó un método basado en la medida del alcance10 de esos protones en
aluminio. Intercaló láminas de aluminio entre el blanco y
el gas de llenado de la cámara de ionización y midió la
variación en la ionización que se producía al aumentar el
espesor de aluminio. Llegó a la conclusión de que la velocidad transferida a los protones por la misteriosa radiación emitida por el berilio era de 3,3 × 109 cm/s, lo
que equivalía a una energía de 5,7 MeV. Si la emisión de
los protones fuera debida a una dispersión Compton con
fotones, éstos deberían tener una energía de 55 MeV,
pero por conservación de la energía es imposible producir fotones de esa energía en un choque de partículas
alfa de 5 MeV en un blanco de Be9.
EXPERIMENTO DE CHADWICK
Sistema Experimental
Figura 5. Esquema del sistema experimental del experimento
de Chadwick.
El sistema experimental utilizado por Chadwick consistía en una cámara (1) y un contador (2) conectado a
un oscilógrafo. En la cámara se hacía vacío y estaba
alojado el emisor alfa (una fuente de polonio) y el berilio (Be9). Las partículas alfa al chocar con el berilio producían un haz de la radiación desconocida, n0, cuyos
efectos se examinaban con el contador. El contador era
en una pequeña cámara de ionización conectada a un
amplificador, cuando se producían ionizaciones debidas
a la entrada de una partícula ionizante en la cámara, éstas eran registradas en un oscilógrafo. A la entrada del
contador se colocaba blancos de distintos materiales.
Resultados
Cuando el blanco era rico en hidrógeno, como la
parafina, se emitían protones como ya había observado
el matrimonio Joliot-Curie. Para obtener la energía con
100cias@uned
Figura 6. Gráfica de alcances de los protones, que le sirvió a
Chadwick para obtener la energía con la que eran emitidos. La curva
A se obtuvo midiendo los protones producidos en el mismo sentido
que el haz incidente y la B, en sentido contrario.
Si se colocaban otros blancos a la entrada de la cámara de ionización (litio, berilio, boro, carbono, nitrógeno….), en todos los casos se comprobaba que se producían ionizaciones posteriores, que sólo podían ser causadas
por la producción de partículas ionizantes con un gran
poder de ionización y que probablemente eran núcleos
de retroceso de los elementos del blanco. A medida que
la masa de los núcleos del blanco aumentaba, la energía
que deberían tener los fotones para producir los núcleos
de retroceso tendría que ser mayor, lo que por conservación de la energía no era posible.
10
La medida de alcances está descrita también en el artículo sobre el
descubrimiento del protón, nº 6 de 100cias@uned, págs. 107-111
(2003).
165 Enseñanza
LA HIPÓTESIS DEL NEUTRÓN
Quedaba claro que la radiación que producía esas
emisiones de núcleos de retroceso no podía ser radiación
electromagnética de alta energía, ya que esta hipótesis
no explicaba la probabilidad de interacción observada ni
la conservación de la energía. Sin embargo, si en lugar
de rayos gamma se suponía que el proceso era producido
por algún tipo de partícula neutra, el neutrón, todas las
propiedades podrían ser explicadas.
La masa que se deducía en todos los casos resultaba
ser consistentemente la misma y aproximadamente igual
a la del protón; para ello se supone que los núcleos de
retroceso detectados en la dirección de la flecha de la Figura 5 provienen de la colisión frontal elástica entre
las partículas que forman la radiación y los núcleos del
blanco, por ejemplo, hidrógeno y nitrógeno; sus respectivas velocidades están determinadas por:
VH =
2m
V
m + mH
y
VN =
2m
V
m + mH
en donde m, mH y mN son las masas de las partículas de
la radiación, de los núcleos de hidrógeno (protón) y nitrógeno, respectivamente y V, VH y VN las respectivas
magnitudes de las velocidades con las que son emitidas.
Dividiendo la primera de estas entre la segunda y sustituyendo mN = 14 mH (dato que ya se sabía), se obtiene:
VH
VN
艐
m
V
m + mH
la emisión de un neutrón, en lo que hoy sabemos que es
una reacción nuclear típica, y la reacción de la Figura 3
es en realidad:
Be9 + He4 → C12 + n
Por conservación de la energía, teniendo en cuenta
que las partículas alfa emitidas por el polonio tienen
una energía de 5,25 MeV, se obtiene que la energía con
la que se emiten los neutrones no es mayor que 8 MeV, y
neutrones de esa energía en su choque con núcleos de
hidrógeno sí que podían producir los protones de retroceso observados.
Cuando Chadwick reportó sus resultados, los interpretó como evidencia de una nueva partícula neutra, a la
que llamó neutrón, igual a la predicha por Rutherford
doce años antes. El descubrimiento de Chadwick, sin
embargo, no tuvo una repercusión inmediata en la concepción de la estructura del núcleo, puesto que él mismo
imaginaba al neutrón como un compuesto electrón-protón. Posteriormente, Heisenberg mostró que el neutrón
podría no ser la combinación de un protón y un electrón
y se aceptó la existencia del neutrón como una partícula
elemental11 constituyente del núcleo.
Por el descubrimiento del neutrón Chadwick fue galardonado con el Premio Nobel de Física en diciembre de
1935. En el discurso que pronunció al recibir el premio
ya habló del neutrón como constituyente elemental del
núcleo aunque sin dar una idea clara de la naturaleza de
su interacción con el protón.
REFERENCIAS
Chadwick midió la relación de velocidades VH//VN
(deducidas de sus medidas de alcance) y encontró que
era aproximadamente de 7,0. Por lo tanto, el valor de la
masa de la partícula que iba buscando tenía que ser
m 艐 1,15 mH. Este resultado fue corroborado midiendo
las correspondientes velocidades para otros núcleos de
retroceso de los elementos usados como blanco en las
colisiones.
En experimentos posteriores se ha determinado que la
relación VH//VN es cercana a 7,5 y se obtiene que m 艐 mH.
Además, con este resultado se podía explicar la producción de neutrones en el berilio al ser bombardeado
con las partículas alfa. La partícula alfa es capturada
por el núcleo de Be9, lo que produce un núcleo de C12 y
100cias@uned
1. J. Chadwick: «Possible Existence of a Neutron». Nature, 129, 312 (27 de febrero de 1932).
2. J. Chadwick: «Existence of a Neutron». Procceedings
of the Royal Society of London, Series A, Vol. 136,
nº 830, 692 (1 de junio de 1932).
3. D. Lincoln: «Undestanding the Universe: from quarks
to the Cosmos». World Scientific (2004).
Amalia Williart Torres
Dpto. Física de los Materiales
11
En la actualidad sabemos que el neutrón no es una «partícula elemental» en el estricto significado del término, ya que está compuesta
por quarks que sí que serían partículas elementales.
166 Enseñanza
100cias@uned
N.º 2
Enseñanza
(nueva época)
| 2009
ISSN: 1989-7189
TALLER Y LABORATORIO
EXPERIMENTO CASERO
UN ESPECTROSCOPIO CASERO
PARA OBSERVAR LAS LÍNEAS
DE FRAUNHOFER
INTRODUCCIÓN
La Espectroscopía es una técnica fisicoquímica que
permite conocer la estructura de los átomos y de las
moléculas a partir de las imágenes que se obtienen a través de dos fenómenos ópticos: la refracción de la luz por
un prisma o la difracción a través de una red. Estas
imágenes se conocen desde la época de Newton con el
nombre de espectro («alma») de la luz.
A partir de los espectros de fuentes luminosas (por
ejemplo, el Sol, una vela, una lámpara incandescente, un
tubo fluorescente, …) se puede determinar la estructura
de los átomos de que están compuestas, es decir, podemos conocer sus niveles atómicos, las energías de dichos
niveles, las posibles transiciones, … Cada átomo tiene un
espectro típico que lo identifica como si fuera su código
de barras.
Como contribución a la divulgación de la Ciencia en
el Año Internacional de la Astronomía, hemos diseñado
un sencillo espectroscopio con una rendija estrecha, una
lente convergente y una red de difracción, con el que hemos podido observar los espectros de emisión de diversas
lámparas (H, He, Na,…) en el laboratorio y las líneas negras de absorción del espectro del Sol, conocidas como
líneas de Fraunhofer.
La comparación de las líneas de los espectros de
emisión (de colores brillantes) con las líneas negras de
los espectros del Sol y de otras estrellas, permite detectar
la existencia de los elementos químicos presentes en las
atmósferas estelares.
ANTECEDENTES HISTÓRICOS
Newton, en 1666, utilizando el fenómeno de la refracción en un prisma de vidrio realizó su famoso expe-
100cias@uned
rimento de descomposición de la luz blanca procedente
del Sol en colores, a lo que denominó su espectro (1). En
la Figura 1 puede verse un ejemplo: la luz entra en el
prisma por la derecha, se refracta y se refleja en sus caras, y se transmite al exterior, recogiéndose el espectro
sobre una hoja de papel blanco.
En 1814, el físico alemán Fraunhofer observó unas
líneas oscuras sobre el espectro del Sol. Estas líneas fueron interpretadas posteriormente, en 1859, por los físicos
alemanes Bunsen y Kirchhoff, dando nacimiento a una
técnica de análisis de la composición de la materia que
ha revolucionado la Ciencia del siglo XX: la Espectroscopía. En la Figura 2 se puede ver el dibujo original de
Fraunhofer en el que señala las líneas negras más importantes.
Bunsen y Kirchhoff atribuyeron estas líneas a la absorción de la luz solar por los átomos de su atmósfera. La
identificación la realizaron asumiendo que cuando los
átomos se encuentran en forma de vapor (átomos libres)
absorben y emiten luz en las mismas frecuencias. Es decir,
cuando en el laboratorio quemamos sodio con el mechero
de Bunsen aparece una luz amarilla: emisión de su famoso doblete amarillo. Inversamente, si enviamos luz blanca
sobre vapor de sodio, éste absorbe la radiación amarilla del
espectro. Esto es lo que pasa en la atmósfera solar. Existen
átomos de sodio que absorben dicha radiación y por ello
observamos una línea negra doble en el lugar del espectro
solar correspondiente al doblete amarillo. La presencia de
esta línea negra nos indica que existe sodio en la atmósfera solar. Lo mismo sucede con muchos otros elementos
(hierro, hidrógeno, manganeso, ...).
La Espectroscopía ha seguido desarrollándose espectacularmente a lo largo de todo el siglo XX y las nuevas
técnicas de detección nos permiten disponer de espectros
muy precisos tanto del Sol, de estrellas muy lejanas,...,
como de substancias en el laboratorio. Un ejemplo es el
magnífico espectro visible del Sol proporcionado por la
NASA (ver Figura 3). El final de cada fila horizontal
empalma con el principio de la fila siguiente y nos proporciona una visión muy amplia del espectro solar con
una gran cantidad de líneas negras, líneas que nos permiten identificar los elementos químicos que se encuentran en la atmósfera solar.
167 Enseñanza
Figura 1. Sir Isaac Newton (1642-1727) y la descomposición de la luz del Sol al atravesar un prisma de vidrio.
Figura 2. Líneas negras de Fraunhofer (1787-1826).
Figura 3. Espectro solar proporcionado por la NASA.
Imagen astronómica del 23 de abril de 2006 del
Observatorio Solar McMath-Pierce.
(http://antwrp.gsfc.nasa.gov/apod/ap060423.html).
OBTENCIÓN DE ESPECTROS MEDIANTE UNA
RED DE DIFRACCIÓN
Una red de difracción está constituida por un número grande de rendijas paralelas (líneas), coplanares, de
100cias@uned
anchura muy pequeña, con sus centros alineados. La separación a entre dos rendijas contiguas es constante y
mucho mayor que su anchura. A la distancia a se le denomina constante de la red (2-3). Las redes utilizadas
para el análisis del espectro visible tienen una constante
de unas pocas micras (μm).
En la Figura 4 se muestra el esquema de un espectrómetro de red (4). La luz que proviene de la lámpara
(Sol, estrella,...) cuyo espectro se quiere estudiar se hace
pasar por una rendija limitadora. El observador mira a
través de una red, paralela a la rendija de entrada y situada a una distancia D de la misma. En la Figura 5 se
indica un ejemplo de lo que se observa a través de la red
cuando la fuente luminosa es un tubo de descarga de helio (He).
La parte central del espectro corresponde al orden
cero de la figura de difracción y es la imagen directa del
tubo de descarga. A derecha e izquierda vemos imágenes
del tubo en diferentes colores que corresponden al primer orden de difracción. Este primer orden contiene las
168 Enseñanza
La teoría de la difracción, basada en el principio de
propagación de Huygens-Fresnel, proporciona el perfil de
intensidad y las posiciones angulares de sus máximos
principales1. Éstas obedecen a la siguiente expresión:
sen θm = m
Figura 4. Esquema simplificado de un espectrómetro de red.
λ
a
;
m = 0, ±1, ...
[1]
donde θm es el ángulo de difracción correspondiente al
máximo principal de orden m para la longitud de onda λ
(ver Figura 4).
En la Tabla I se muestra un ejercicio de aplicación de
la difracción producida por una red para cuatro longitudes de onda del espectro visible. Se ha utilizado una red
de a = 3,33 μm, que corresponde a 300 líneas (rendijas)/mm.
TABLA 1. SEPARACIÓN ANGULAR PARA LOS MÁXIMOS
DE ORDEN 1 Y 2
Figura 5. Espectro de un tubo de descarga de He obtenido
a través de una red.
líneas de emisión del espectro del He separadas unas de
otras. Si pudiéramos extender la imagen a derecha e izquierda, observaríamos más órdenes de difracción con las
mismas líneas, cada vez más separadas entre sí y de
menor intensidad. Estos órdenes corresponden a lo que
se denomina máximos principales de difracción. En la
Figura 6 puede verse un esquema de la distribución de
intensidad debida a la difracción producida por una red
para una sola longitud de onda. Los picos más pronunciados son los máximos principales que representan los
órdenes de difracción anteriormente mencionados. Los
picos pequeños que aparecen entre medias corresponden
a máximos secundarios, cuya intensidad disminuye enormemente cuando aumenta el número N de rendijas iluminadas.
Figura 6. Perfil de la intensidad producida por una red de difracción
para luz monocromática (la línea de trazo discontinuo corresponde al
perfil de la difracción de una sola rendija de la red).
100cias@uned
λ (nm)
θm = 1
θm = 2
Azul
430
7,41º
14,95º
Verde
500
8,63º
17,46º
Amarillo
590
10,20º
20,73º
Rojo
650
11,24º
22,95º
Color
En este caso, para una variación de 220 nm en la
longitud de onda, hay 4º de variación en el ángulo de
difracción en el primer orden y 8º en el segundo. Esta
variación es un orden de magnitud mayor que la que se
obtiene para el caso de la refracción por un prisma. Sin
embargo, hay que señalar que la intensidad que se obtiene a la salida de un prisma es mucho mayor que la
que se obtiene con una red de difracción. Dependiendo
del espectro concreto a estudiar, se utiliza un dispositivo
de prisma o de red.
Por otra parte, para poder separar líneas muy próximas, como por ejemplo el doblete amarillo del sodio,
debemos tener en cuenta el poder de resolución de los
dispositivos. El poder de resolución R está definido como
el cociente entre la longitud de onda λ y la diferencia
mínima Δλmin entre longitudes de onda que pueden ser
separadas, que en el caso de las redes está relacionado
con el orden m de difracción y el número N de rendijas
iluminadas:
1
Los interesados en el desarrollo matemático del fenómeno de la difracción de la luz pueden consultar, por ejemplo, el libro «Óptica» de E.
Hecht. Ed. Addison-Wesley Iberoamericana, 2000.
169 Enseñanza
R=
λ
= mN
Δλmin
[2]
Con el mismo número N de rendijas iluminadas,
cuando aumenta el orden m de difracción disminuye la
separación mínima Δλmin que se puede resolver. Ahora
bien, como disminuye la intensidad al aumentar m, es
necesario buscar un equilibrio entre el aumento del poder de resolución (efecto que favorece la observación) y
la disminución de la intensidad (efecto que la limita).
Con ayuda de una cámara digital y colocando justo
delante de su objetivo una red de difracción de unas
500 líneas/mm se pueden obtener los espectros del Sol,
de la Luna y, con ayuda de un telescopio, de Júpiter,
Marte, ... En la Figura 7 se encuentran los espectros del
Sol y de la Luna. Como puede verse, ambos espectros
son similares, lo que quiere decir que se trata de la misma fuente luminosa. La Luna refleja esencialmente la
luz que le llega del Sol, no tiene luz propia. (Si se logran
obtener espectros de los planetas, se puede comprobar
que son similares al del Sol.) En estas imágenes no se
observan las líneas negras de Fraunhofer porque el poder
de resolución del sistema de detección no es suficiente
para esta observación.
Figura 7. Espectros del Sol y de la Luna, obtenidos con una cámara
digital y una red de difracción de 500 líneas/mm.
A continuación se coloca una lente convergente de 35
cm de distancia focal, con su plano focal objeto sobre el
plano de la rendija. De esta manera, toda la luz que entra
en el tubo por la rendija, se difracta y, después de atravesar la lente, sale paralela al eje del sistema.
Figura 8. Fotografía de la rendija de entrada utilizada
en nuestro espectroscopio.
Tras la lente, una red de unas 500 líneas/mm recoge
la luz que incide sobre ella perpendicularmente y produce el fenómeno de la difracción (ver Figura 9). Como todos los rayos (luz blanca) inciden con el mismo ángulo
sobre la red, todos los rayos difractados de la misma
longitud de onda (mismo color) salen paralelos. Si acercamos nuestro ojo a la red, vemos a derecha y a izquierda los órdenes de difracción que caracterizan los espectros así obtenidos. La lente convergente de nuestro
cristalino forma parte del sistema óptico: todos los rayos
que llegan a él paralelos alcanzan un mismo punto en la
retina (ver de nuevo el esquema de la Figura 9). En la Figura 10 puede verse el espectroscopio montado con una
lámpara.
DESCRIPCIÓN DE NUESTRO ESPECTROSCOPIO
En un extremo de un tubo cilíndrico2 hemos colocado una rendija estrecha (de aproximadamente 0,2 mm),
construida con dos hojas de afeitar yuxtapuestas montadas sobre el marco de una diapositiva (ver Figura 8).
2
Nosotros hemos utilizado como tubo el de un telescopio (despiezado)
de montura azimutal (horizontal), de fácil y barata adquisición en
centros comerciales en época navideña. Nuestro tubo ha sido adquirido como un resto incompleto por 1 €.
100cias@uned
Figura 9. Esquema de nuestro espectroscopio.
170 Enseñanza
Sobre la rendija incide perpendicularmente el rayo
láser y se recoge el espectro de difracción que se muestra
en la Figura 12 sobre una pantalla situada a una distancia D de la misma.
Figura 10. Espectroscopio de fabricación casera.
Para poder determinar las longitudes de onda de las
líneas espectrales lo primero que tenemos que conocer
es la anchura de la rendija de entrada y el número de líneas por unidad de longitud de la red. En el apartado
siguiente indicamos cómo se pueden abordar estas determinaciones, lo que constituye el calibrado del espectroscopio.
CALIBRADO DEL ESPECTROSCOPIO
Figura 12. Espectro de difracción producido por una
rendija de anchura b.
Los mínimos de difracción de orden m aparecen a
distancias dm que cumplen las siguientes relaciones3:
⇒
λ
b = m sen θ
m
[3]
De la geometría de la Figura 11 se deduce el valor
del sen θm:
sen θm = m
Determinación de la anchura de su rendija de
entrada
Para determinar la anchura b de la rendija disponemos de un pequeño láser de He-Ne rojo, de longitud de
onda perfectamente conocida ( λ = 632,8 nm), y procedemos como se indica en la Figura 11 [5].
λ
b
sen θm = m
dm
√D + d
2
2
m
⇒ b=mλ
√D2 + d2m
dm
[4]
Para m = 1, tenemos:
b=λ
√D2 + d21
d1
[5]
En nuestro caso, D = 1 m, d1 = 3,16 mm y λ =
632,8 nm, con lo que la anchura b de la rendija resulta
ser de 200 μm. Además, para garantizar el paralelismo de
los bordes de la rendija, como su altura es de unos 2 cm,
debe hacerse esta determinación a varias alturas (arriba,
en medio y abajo) para corregir el posible defecto.
Determinación del número de líneas por
milímetro de la red de difracción
Figura 11. Esquema del montaje experimental para la determinación
de la anchura b de la rendija de entrada del espectroscopio.
En el mismo montaje de la Figura 11, se substituye la
rendija por la red. Sobre la pantalla se observa el espectro
de difracción que se indica en la Figura 13. Los puntos
brillantes corresponden a los máximos principales de di3
100cias@uned
Ver el libro «Óptica» de E. Hecht, anteriormente mencionado.
171 Enseñanza
fracción. Sus distancias dm al punto central de la pantalla
verifican la ecuación [4] donde se sustituye b por a. De la
misma manera se calcula a a partir de la geometría del
sistema [5]. Para D = 1 m, d1 = 33,58 cm y λ = 632,8 nm,
a resulta ser de 1,988 μm, o lo que es lo mismo, la red
tiene 503 líneas/mm.
de tomar en consideración solamente los puntos del máximo central cuya intensidad es igual o superior al 50%
del valor máximo. En estas condiciones, la anchura del
haz que cumple este requisito es de 0,77 mm y, por lo
tanto, el número N de rendijas iluminadas es de 385.
Substituyendo este valor en la ecuación [3], el poder de
resolución de nuestro espectroscopio de red en el primer
orden de difracción (m = 1) resulta ser de 385. Es decir,
para λ = 500 nm la separación mínima Δλmin que podemos resolver es de 1,3 nm. No podemos resolver el doblete amarillo del sodio, cuyas líneas están separadas
0,6 nm (λ1 = 589,0 nm y λ2= 589,6 nm), pero sí podemos
ver líneas espectrales cuya separación en longitudes de
onda sea superior al nanometro.
OBTENCIÓN DE ESPECTROS
Figura 13. Espectro de difracción producido por una red.
Determinación del poder de resolución:
Por otra parte, para determinar el poder de resolución
del espectroscopio necesitamos conocer el número N de
rendijas iluminadas, ver ecuación [3]. En nuestro caso
particular, para calcular N, número de rendijas iluminadas por el máximo central del espectro de difracción
producido por la rendija de entrada, tenemos que tener
en cuenta cómo es este espectro. La mancha central tiene la distribución que se indica en la Figura 14. Corresponde a una función sinc2.
Figura 14. Distribución de intensidad producida por una rendija.
Como no es una función de tipo rectángulo, es decir,
la red no recibe la misma intensidad de luz en todos
sus puntos, tenemos que elegir un criterio en el que garanticemos que la iluminación de la red es prácticamente uniforme. Entre los posibles criterios hemos elegido el
100cias@uned
Además de hacer la observación a simple vista, es
conveniente tomar fotografías de los espectros con una
cámara digital; es preciso que permita el uso manual de
sus funciones (enfoque, apertura, velocidad de obturación, etc…). En nuestro caso hemos utilizado una cámara Nikon Coolpix P90. En la Figura 15 puede verse una
composición con los espectros obtenidos para (de arriba
abajo) el Sol, un tubo de descarga de hidrógeno, un tubo
de helio, otro de sodio y dos láseres de He-Ne, uno rojo
(632,8 nm) y otro verde (543,5 nm).
En la parte izquierda de la figura se han hecho coincidir los órdenes m = 0 de todas las fuentes luminosas.
En la parte derecha se pueden observar los espectros
correspondientes al orden m = 1. En el espectro del Sol
se observan unas líneas negras, las líneas de Fraunhofer,
que se corresponden con algunas líneas de emisión de la
serie de Balmer del átomo de hidrógeno (α y β) y con el
doblete amarillo del sodio.
Una vez realizadas las fotografías de los espectros
observados a través del espectroscopio, se puede llevar a
cabo el análisis y posterior interpretación de los mismos.
Para ello es preciso el empleo de software de edición y
de análisis y procesamiento de imágenes para la obtención de curvas de intensidad a lo largo de cualquier segmento seleccionado. En nuestro caso, hemos utilizado
PhotoShop para la edición y MatLab para el procesamiento, aunque el empleo de software gratuito es una
opción igualmente válida4. En la Figura 16 hemos repre4
Otros programas para el procesamiento de espectros son: SciLab,
Visual Spec, SpcAudace, SpIRIS, ...
172 Enseñanza
ANÁLISIS DE UN EJEMPLO
Figura 15. Espectros del Sol, los tubos de descarga de hidrógeno,
helio y sodio y de dos láseres de He-Ne (rojo y verde), obtenidos con
una cámara digital y nuestro espectroscopio.
Una vez caracterizado nuestro espectroscopio y conocido el procedimiento de medida vamos a utilizarlo
para determinar las longitudes de onda de las líneas espectrales Hα y Hβ de la serie de Balmer del átomo de hidrógeno, a partir de dos longitudes de onda conocidas,
por ejemplo, de dos láseres de He-Ne comúnmente utilizados en el laboratorio, uno rojo (λ = 632,8 nm) y otro
verde (λ = 543,5 nm).
El procedimiento a seguir es el siguiente: hacemos incidir sobre la rendija de entrada de nuestro espectroscopio
simultáneamente la luz procedente de los láseres rojo y
verde y de la lámpara de vapor de agua que emite la serie
de Balmer del átomo de hidrógeno. Disponemos la cámara digital de manera que podamos recoger el espectro de
difracción en el orden m = 1 (ver imagen de la Figura 17).
Según las ecuaciones [4] y [5], los máximos de primer orden para cada una de las longitudes de onda aparecerán
para los siguientes ángulos de difracción:
sen θi = m
λi
a
(con i = 1, 2)
[6]
donde a es la constante de la red.
A partir de la función seno podemos conocer la tangente del ángulo de difracción, que está relacionada con
las distancias l1 y l2 de cada línea al centro del espectro y
con la distancia D de la red al plano de observación:
tg θi =
li
D
(con i = 1, 2)
[7]
Por otra parte, de la fotografía obtenemos la distancia l2 – l1 entre las líneas espectrales5, que podemos
relacionar con la distancia D y con las tangentes de los
ángulos de difracción de la siguiente manera:
l2 – l1 = D (tg θ2 – tg θ1)
[8]
Lo único que desconocemos de esta expresión es la
distancia D.6 Despejando, obtenemos su valor. Repetimos
el proceso con las líneas Hα y Hβ de la siguiente manera:
Figura 16. Perfiles de intensidad de los espectros del Sol, del
hidrógeno y del sodio.
sentado los perfiles de intensidad de los tres espectros
mencionados en el párrafo anterior. Pueden verse las
coincidencias de las líneas de absorción (hendiduras) en
el espectro del Sol con las líneas de emisión (picos) de
los espectros del hidrógeno y del sodio.
100cias@uned
li – l1 = D (tg θi – tg θ1) ⇒ tg θi =
li – l1
+ tg θ1
D
(con i = α, β)
5
Para la ampliación concreta de la fotografía utilizada.
Para la misma ampliación concreta de la fotografía utilizada. Nótese
que es necesario disponer de dos longitudes de onda de referencia, porque lo que utilizamos es la distancia entre las líneas y no las distancia
de cada línea al centro.
6
173 Enseñanza
CONCLUSIONES
Figura 17. Espectros de primer orden de una lámpara de vapor de
agua (líneas Hα y Hβ de la serie de Balmer del átomo de hidrógeno)
y de dos láseres de He-Ne (rojo y verde).
Conocidas las tangentes de los ángulos de difracción
correspondientes a las líneas Hα y Hβ determinamos sus
respectivos senos, y a partir de ellos, las longitudes de
onda buscadas:
λi = a sen θi
(con i = α, β)
[10]
En el caso que nos ocupa, para determinar con precisión las posiciones de las líneas hemos utilizado el
cursor del programa PhotoShop, pero podría utilizarse
cualquier otro programa o procedimiento de medida. Los
valores obtenidos para las líneas Hα y Hβ se muestran en
la Tabla II, donde se comparan con los proporcionados
en la literatura. Como puede verse, la diferencia es muy
pequeña, lo que pone de manifiesto que a pesar de ser el
espectroscopio propuesto un dispositivo muy elemental,
como conocemos con mucha precisión las longitudes de
onda de los láseres utilizados, pueden obtenerse valores
muy buenos de magnitudes extremadamente pequeñas
como son las longitudes de onda del espectro visible.
TABLA 2. LONGITUDES DE ONDA DE LAS LÍNEAS ESPECTRALES
Hα Y Hβ DE LA SERIE DE BALMER DEL ÁTOMO DE HIDRÓGENO
λ (nm)
Línea
espectral
Determinada
Literatura
Hα
655,15
656,28
0,2
Hβ
484,72
486,13
0,3
(%)
100cias@uned
La construcción del espectroscopio, así como los experimentos cualitativos y cuantitativos que proponemos, son
de fácil realización y se pueden llevar a cabo desde los
primeros cursos universitarios introductorios de Física (4-5).
El espectroscopio es muy versátil, dependiendo del
nivel de conocimientos científicos de los estudiantes que
lo utilicen. De manera cualitativa, se puede poner en
evidencia la importancia de la Espectroscopía en el desarrollo de la Física y de la Química a lo largo del siglo
XX. Desde el estudio de los átomos en el laboratorio
hasta la identificación de los átomos presentes en las atmósferas estelares, lo que ha permitido asegurar que la
vida en la Tierra ha surgido de los materiales estelares.
De manera cuantitativa, se pueden determinar con
bastante precisión las longitudes de onda de lámparas
espectrales. Sin embargo, la resolución del dispositivo no
es suficiente para separar algunos dobletes como, por
ejemplo, el doblete amarillo del sodio.
Por último, se puede utilizar como elemento motivador en la enseñanza de la Ciencia: la Espectroscopía ha
sido fundamental en el avance de la Astrofísica, pues
gracias a sus resultados se han podido determinar el
movimiento de las galaxias y de las nebulosas, la constante de Hubble,…, y un largo etcétera.
BIBLIOGRAFÍA
1. Sir Isaac Newton: Óptica o Tratado de las reflexiones,
refracciones, inflexiones y colores de la luz (Introducción, Traducción, Notas e Índice Analítico de Carlos Solís). Ediciones Alfaguara, S.A., Madrid (1977).
ISBN: 84-204-0304-0.
2. E. Hecht: Óptica. Capítulos 4 y 10. Ed. Addison-Wesley Iberoamericana, S.A., 3ª edición, Madrid (2000).
ISBN: 84-7829-025-7.
3. C. Carreras Béjar, A. Fernández-Rañada, J.J. GarcíaSanz y M. Yuste Llandres: Física Básica 2. Capítulo
18. Alianza Editorial, Serie: El libro de Bolsillo, nº
1823 (Madrid, 1997). ISBN: 84-206-0823-8.
4. C. Carreras y M. Yuste: Una forma sencilla y natural de
iniciar a los estudiantes en la Física Cuántica: obtención
y análisis de algunos espectros atómicos. Óptica Pura y
Aplicada, 21(2), 167-177 (1988). ISSN: 0030-3917.
5. Carmen Carreras Béjar: El trabajo experimental en la
enseñanza de la Física. Revista Española de Física, 20(2), 53-61 (2006). ISSN: 0213-862X.
Manuel Yuste Llandres, Carmen Carreras Béjar
y Juan Pedro Sánchez-Fernández
Dpto. Física de los Materiales
174 Enseñanza
100cias@uned
N.º 2
Enseñanza
(nueva época)
| 2009
ISSN: 1989-7189
TALLER Y LABORATORIO
TALLER DE MATEMÁTICAS
LABORATORIO DE MATEMÁTICAS VÍA
INTERNET: UN RECURSO INACABADO
Al lector le sorprenderá la numeración de los apartados de este trabajo, y la ubicación de cada apartado
dentro del conjunto. Si hemos optado por presentar primero el apartado 5 es para mostrar el contenido tecnológico, a modo de escaparate, y que el lector decida si
este trabajo tiene suficiente interés como para leer la filosofía educativa en el que se sustenta. Sin duda, una
lectura adecuada debería seguir el orden natural de apartados, y así lo sugerimos.
hace suya la aplicación informática que se instancia en
cada laboratorio. La colaboración de profesores con el
autor no sólo no queda descartada si no que sería bienvenida.
El objetivo en este caso es: El estudio de la gráfica
de algunas funciones reales de variable real.
Ya se ha mencionado que los módulos son independientes, es decir, no es necesario desarrollar uno antes de
desarrollar otro, aunque si es conveniente hacer una utilización secuencialmente de módulos desde un punto de
vista educativo. Todos los módulos presentan características comunes con el fin facilitar la manipulación de los
objetos presentes en la pantalla de cada módulo. Éstas
son:
5. EL ENTORNO DE EXPERIMENTACIÓN CON
GRÁFICAS DE FUNCIONES
— Cada módulo se inicia presentado el título y un
cuadradillo de selección, Menú Principal, que
permite hacer visible el menú principal del módulo, mediante su marcado.
Todo a lo que se alude en los apartados 1-4 debe sugerir, más o menos, al lector la seriedad que debe aplicarse en los procesos de innovación docente al emplear
laboratorios virtuales. No se puede llegar a pensar que
una herramienta virtual es una herramienta educativa
por sí misma. Negamos como innovación docente la
simple novedad de utilizar, sin control educativo, un laboratorio virtual.
Si el laboratorio se emplea en procesos de enseñanza no presencial los controles deben ser más rigurosos,
puesto que las dificultades didácticas en las que puede
caer cualquier alumno suelen ser indetectables en la enseñanza a distancia, mientras que en la enseñanza presencial se detectan en un corto plazo de tiempo.
Procedemos a mostrar una ejemplificación que permita al lector entender las consideraciones previas que
son formuladas en los restantes apartados de este trabajo. Nuestro objetivo es hacer visible algunos módulos independientes con el fin de presentar algunas situaciones
de simulación aproximada. No describiremos el protocolo de uso, ni siquiera lo insinuaremos, para que cada
profesor idee la utilización del laboratorio según su propio interés y el de sus alumnos. Si esto es así, el profesor
— Al desmarcar el cuadradillo del menú principal
desaparecen las opciones de éste. Esto permite
no entorpecer el seguimiento visual de cada experimentación.
— Cada una de las opciones del menú principal de
cualquier módulo habilita, mediante el marcado
del algún cuadradillo de selección, un submenú o
alguna acción gráfica o textual.
100cias@uned
Científica
Enseñanza
175 Vida
—
—
—
— El título y los créditos se ocultan al desmarcar el
cuadradillo Título del menú principal.
— La función objetivo del estudio de cada módulo es
elegida por el usuario sin tener que teclear nada.
Esta función está constituida por una o dos funciones auxiliares cuyas expresiones son modificables. Además, se puede hacer visible la gráfica
de cada una de las funciones auxiliares.
— Las gráficas de las funciones auxiliares son visibles o no, aunque inicialmente están ocultas. Lo
mismo ocurre con sus expresiones algebraicas.
Esta operatividad permite diseñar prácticas que se
basen en establecer relaciones oportunas de las
funciones auxiliares con la función principal.
— Para cada función auxiliar se utiliza un color,
tanto para su expresión como para su gráfica.
100cias@uned
—
Un color distinto para cada función auxiliar y
distinto del de la función principal (color negro).
El submenú correspondiente a una función auxiliar se escribe con letra del mismo color que la
gráfica. Esta característica persigue que identifique todo lo concerniente a una función con un
código de color.
Las funciones auxiliares de aquellos módulos que
las utilizan son funciones polinómicas. Inicialmente, todos los coeficientes de una función auxiliar son nulos.
Un coeficiente puede, y debe, ser modificado al
actuar sobre un deslizador cuyo desplazamiento
está acotado en un intervalo [-a,a]. Este deslizador tiene un nivel de sensibilidad de dos decimales.
Los deslizadores relativos a una función pueden
quedar visibles aunque las opciones de los menús
estén ocultas. Esto posibilita experimentar con
funciones de gráficas similares y comprobar algunas variaciones gráficas significativas.
— El índice de la raíz empleada en los módulos de
funciones irracionales varía según la posición de
un deslizador. Inicialmente, el índice de raíz es
dos y toma valores enteros en el intervalo [2,20].
Este deslizador puede estar visible aunque las opciones de los submenús estén ocultas.
5.1. Módulo 1: Función polinómica
Este módulo está dedicado a presentar gráficas de funciones polinómicas de grado menor que ocho, es decir,
aquella gráfica de función cuya expresión es un polinomio.
176 Enseñanza
La opción Coeficientes de la función del menú inicial permite activar los deslizadores que se usan para variar los coeficientes del polinomio.
Todas las opciones y herramientas del módulo pueden ser visibles al mismo tiempo, si bien, la ventana
puede quedar muy cargada información.
Sólo si la opción Gráfica de la función está marcada
es posible ver la gráfica de la función. Esto mismo sucede con la expresión de la función, pues para que ésta sea
visible se marca la opción Expresión de la función.
5.2. Módulo 2: Función racional
La opción del menú principal Factores de escala
habilita un menú que posibilita modificar el factor de escala tanto para los valores en los que se calcula la función, donde x es sustituida por x/p1, como la escala que
se le aplica a la gráfica, donde se muestra e1 f (x) en lugar de f (x). Esto se ejecuta sin hacer uso de cambios de
escala en los ejes coordenados. Esta opción permite desarrollar una práctica en la cual la apariencia gráfica se
mantiene aunque se modifiquen dichos factores.
100cias@uned
Este módulo es el correspondiente al estudio de las
gráficas de funciones racionales, es decir, aquellas funciones cuyas expresiones son un cociente de dos funciones polinómicas de grado menor que cinco.
Las opciones Función numerador y Función de nominador del menú inicial permite activar los submenús
correspondiente a las funciones auxiliares numerador y
denominador. Con las opciones de estos submenús se habilitan los deslizadores para modificar los coeficientes de
cada polinomio y hacer visible la correspondiente gráfica.
177 Enseñanza
5.3. Módulo 3: Función raíz de un polinomio
En este módulo se tratan las gráficas de funciones
definidas por la raíz de una función polinómica de grado
menor que ocho. Inicialmente, el índice de la raíz es
dos.
La opción Función radicando del menú inicial permite activar un submenú donde se habilitan los deslizadores de modificación de coeficientes. También permite
activar la visualización de la gráfica de la función auxiliar.
Las opciones Gráfica de la función y Expresión de
la función actúan de la misma forma que las descritas en
el módulo anterior, si bien, en este caso tratan la función
racional definida.
Es posible dejar visibles los deslizadores, sin nada
más, para poder experimentar con familias de funciones
racionales.
100cias@uned
La opción Variar índice de la raíz permite hacer
visible el deslizador que posibilita la variación de dicho
índice.
178 Enseñanza
La opción Gráfica de la función actúa de forma
análoga que en módulos anteriores, si bien, en este
caso se trata la función irracional con radicando polinómico.
5.4. Módulo 4: Función raíz de una función
racional
Este módulo se dedica al estudio de las gráficas de
funciones definidas por la raíz de una función racional.
En este caso las funciones numerador y denominador
tienen las mismas restricciones que en el módulo 2, es
decir, son dos funciones polinómicas de grado menor
que cinco.
La opción Función radicando del menú inicial permite activar las opciones Función numerador y Función
denominador para tratar con las funciones auxiliares
numerador y denominador, y posibilitar el ver la gráfica
del radicando.
Si se dejan visibles los deslizadores únicamente, se
facilita el diseño de experimentos con familias de funciones irracionales. También se pueden tener visibles todas las opciones y herramientas del módulo, aunque la
ventana del laboratorio pueda quedar muy cargada de
información.
Las restantes opciones operan de forma similar a las
de igual nombre existentes en módulos anteriores.
100cias@uned
179 Enseñanza
La opción Variar índice de la raíz permite hacer
visible el deslizador que posibilita la variación de dicho
índice.
1. INTRODUCCIÓN
5.5. Un ejemplo de utilización
El reto que se quiere visualizar es: «Valore mediante
una estrategia gráfica el posible valor de la expresión:
lim √n. »
n→⬁
En esencia, consiste en dibujar la función f (x) = x,
como función radicando,
y analizar la gráfica de las funciones de expresión f (x) =
n—
n—
√x, para estimar el conjunto de valores [lim √x, n ∈ N],
n→⬁
—
y determinar inf [lim √x, n ∈ N].
n→⬁
100cias@uned
Dar respuesta a tres preguntas básicas constituye el problema esencial de todo profesor: ¿Cómo se aprende?, ¿en
dónde se aprende? y ¿cuándo se aprende? Poder formular
una respuesta coherente obliga a determinar una estrategia
que se basa en el desarrollo secuencial de actuaciones didácticas. Ahora bien, de cualquier respuesta didáctica emergen
otras tres nuevas preguntas: ¿Cómo se enseña?, ¿en dónde se
enseña? y ¿cuándo se enseña? Este conjunto de seis preguntas establece el marco inicial de referencia para cualquier
trabajo educativo. Desarrollar un laboratorio, catalogado de
virtual, accesible vía red para uso educativo no libera a su
constructor de dar respuesta a las preguntas anteriores.
Disponer de un laboratorio remoto, con el cual cualquiera puede interactuar, establece un entorno más o
menos experimental, que palía la dificultad de acceso a
la experimentación directa. Ahora bien, un experimento
en vivo, realizado en un laboratorio real requiere establecer ciertas normas de seguridad. Esto es así puesto
que en el transcurso de la experimentación se pueden
producir daños físicos que pueden ser irreparables. En los
laboratorios virtuales no se producen tales daños físicos,
pero no disponer de ciertas normas de utilización, mediante un protocolo claro, o no seguir ese protocolo de
experimentación puede generar daños educativos que
pueden ser irreparables en la práctica.
Aprender corresponde a una acción del individuo y
la experimentación es una vía para aprender. Parece que
favorecer la experimentación del individuo asegurando
la ausencia de daños físicos es suficiente para modificar
«adecuadamente», o favorecer, el aprendizaje. Ahora
bien, si se disponen de recursos suficientes con los que
experimentar y cada individuo tiene acceso a ellos, cabe
180 Enseñanza
preguntarse: ¿Por qué se enseña? La respuesta es inmediata y corresponde a un «instinto vital» de toda sociedad
como ente vivo que es. Una sociedad, o un grupo social,
no es una simple unión de individuos, pues ésta se basa
en el conjunto de interrelaciones de sus componentes y
las relaciones con otras sociedades.
Una sociedad que no desee desaparecer en poco
tiempo debe perpetuar sus principios fundacionales, por
un lado, y adaptarse adecuadamente a las sociedades
vecinas con las que se relaciona, por otro. Éstas son
obligaciones vitales, por ello se establece máxima prioridad a los procesos de enseñanza de los principios básicos a las nuevas generaciones que emergen en el seno
social. Esto obliga que la enseñanza se adapte en todo
instante al momento histórico del entorno social.
En general, los principios básicos suelen ser expresables en términos de conocimientos tanto generales como
específicos y de la utilización práctica de estos conocimientos. Podemos destacar como ejemplo la necesidad
existencial de la adquisición del conocimiento relativo al
ecosistema que tienen los individuos de los grupos sociales indígenas del Amazonas para asegurar la supervivencia
del grupo, así como el empleo de dicho conocimiento.
El conocimiento relativo a una sociedad compleja
como las sociedades modernas no es acumulable en un
individuo, por ello se requiere actuar sobre todos los
nuevos miembros con el fin de minimizar pérdidas del
conocimiento de una a otra generación. Si bien existen
mecanismos tecnológicos suficientes para asegurar el
almacenamiento de esos conocimientos, no es menos
cierto que dichos conocimientos no se transforman en
sabiduría si no existen individuos que los empleen. La
falta de utilizadores genera pérdidas prácticas que en
algunos casos no son sustituibles por otras prácticas, y
hay que redescubrirlas cuando se vuelvan a necesitar.
Aun asegurando la aplicación un considerable esfuerzo económico y humano a la enseñanza, no siempre
se genera el aprendizaje necesario para no depender del
cambio generacional. Esto depende en gran medida de la
actitud de los individuos y de la algorítmica aptitudinal
que se haya empleado en el proceso de enseñanza.
Hemos obviado la referencia a cuestiones como:
¿qué se aprende?, ¿qué se enseña?, ¿para qué se aprende? y ¿para qué se enseña? Pues es tarea de cada grupo
social y de cada individuo marcar sus objetivos específicos en la medida que responden a sus deberes sociales.
En este artículo tan sólo afrontamos parte del conocimiento matemático como objetivo social.
100cias@uned
2. DIFICULTADES EN EL APRENDIZAJE Y EN
LA ENSEÑANZA DE LAS MATEMÁTICAS
La capacidad del individuo es sin duda un factor
importante a la hora de producirse aprendizaje matemático. ¿Quién aprende? Podemos decir que aprende
matemáticas quien está preparado para aprender más
que quien quiere aprender. Sin duda, querer acceder a estos conocimientos es una condición necesaria para que
se produzca su aprendizaje.
La sólida belleza de las Matemáticas no es un factor
desencadenante del aprendizaje en todos los individuos.
Esta belleza tan sólo mueve a quienes atesoran cierta
cantidad de conocimiento matemático. Podemos realizar
una analogía con las bondades de un nuevo tipo (o marca) de cerveza, quizás cualquier bebedor prudente la
pruebe y sepa apreciarla. Sin embargo, cualquier niño la
repudia directamente por amarga.
Las Matemáticas disponen de bases del conocimiento
matemático (científico) y de reglas propias, que rigen dichos conocimientos, iniciadas en los tiempos de los clásicos griegos. No podemos renunciar a ellas, ni obviarlas, a
la hora de aprender matemáticas, y menos en actuaciones
que son catalogadas como actuaciones didácticas. Otra
cosa es el rigor matemático que debe ser empleado en
cada etapa educativa. Es la autoridad académica quien
establece el nivel de rigor requerido en cada momento,
pero ninguna autoridad está capacitada para cambiar el
significado de los objetos matemáticos, aunque pueda
emplear objetos aproximados suficientemente manejables.
No renunciar a las reglas matemáticas en el proceso de
aprendizaje genera algunas dificultades didácticas
independientes del individuo que aprende, pues están relacionadas con la naturaleza de los conceptos matemáticos.
En algunos casos, las dificultades se derivan de la
necesaria restricción del lenguaje natural al entorno
matemático para poder precisar este tipo de conocimiento, o del nivel de formalización de estos conceptos
o del rigor demandado. Estas son dificultades temporales y puntuales que se solventan en poco tiempo. En
otros casos, las dificultades están presentes en cualquier sociedad sin importar el momento histórico ni la
situación social. Son dificultades intemporales y universales dentro del conocimiento matemático. Este último tipo de dificultad condicionan fuertemente el aprendizaje, y el alumno aislado las afronta con una
estrategia más o menos memorística con poco, o ningún, significado personal.
181 Enseñanza
Otra vez resulta ser factor importante la capacidad
del que aprende a la hora de producir el proceso de enseñanza matemática. Es fácil comprobar en el día a día de
un profesor que enseñar a determinados individuos es
más costoso que a otros. ¿Quién enseña? Al enseñar
Matemáticas no sólo se tropieza con las dificultades personales de cada alumno, si no con las dificultades universales. Se intenta mitigar todas las dificultades aplicando
las herramientas didácticas y tecnológicas disponibles en
cada momento en la sociedad o grupo. Es el agente enseñante quien determina el empleo de las herramientas técnicas disponibles en relación a la capacidad de quien
aprende. Como ejemplo, podemos citar la estrategia educativa que empleaba Sócrates con sus discípulos: Solicitaba la búsqueda de respuesta a las preguntas que secuencialmente planteaba. Conducía sus razonamientos para
que pudieran llegar al entendimiento de las cuestiones
en profundidad, a la elaboración de posibles soluciones y
a la comprobación de la coherencia de éstas.
Hoy en día las matemáticas se reflejan como el aglomerado de conocimiento algorítmico por excelencia,
siendo el carácter finito y manipulador de sus elementos
«abstractos» lo más destacado y recordado por quienes
las estudiaron. Esta concepción forma parte del subconsciente común de nuestra sociedad; sin embargo,
esto no es cierto en la actual sociedad tecnológica. Pongamos un ejemplo: El concepto de medir de la Grecia
clásica se corresponde a lo que hoy en día podemos aludir por contar el número de veces que se empleaba un
elemento patrón (unidad). De hecho, en este sentido,
sólo son conmensurables las cantidades enteras positivas
y las proporciones positivas. Podríamos decir que algo
era medible si puede establecerse algún mecanismo de
conteo, de forma análoga a la manera de aproximar el
área de una sala contando el número de baldosas del
suelo. Este proceso contador se colapsaba con el simple
hecho de intentar medir la diagonal de un cuadrado,
apareciendo los inconmensurables. Hoy, veinticuatro siglos después, tenemos completamente formalizado el
concepto de número real y de medida, y no desde hace
mucho. Hoy asumimos que tales conceptos son componentes fundamentales del pensamiento matemático presente en nuestra sociedad.
3. APRENDIZAJE Y COMPETENCIA MATEMÁTICA
Existen áreas de conocimiento matemático de carácter algorítmico-algebraico y otras cuya base se sus-
100cias@uned
tenta en conceptos que han ido siendo elaborados a lo
largo de los últimos siglos, entre estas últimas se encuentra el Análisis o Cálculo Matemático. Si bien el
Análisis tiene una praxis algebraica que el alumno capta con relativa facilidad, también tiene una estructura
conceptual profunda, que pasa inadvertida a la mayoría
de los estudiantes e, incluso, profesores de Enseñanza
Secundaria o de Universidad. Si en el proceso de enseñanza tan sólo se hace hincapié en las reglas algebraicas,
entonces, el alumno sólo aprende la manipulación de
los objetos, abandonando sus significados intrínsecos
por cuestión de economía de esfuerzos. Si en algún
momento ese alumno debe enseñar ese conocimiento,
únicamente generará estrategias manipulativas, que pueden caer en un sin sentido, donde algunas cosas son
válidas porque sí, y otras no son válidas porque no.
El que aprende debe ampliar su forma de pensar al
tratar con ciertos objetos matemáticos. Parte de estar
familiarizado con un tipo de razonamiento tipo discreto
y debe adquirir una forma de razonar que le permita
tratar cuestiones de carácter continuo. El que enseña
debe favorecer de alguna forma esa transformación (o
evolución) de pensamiento. Así pues, el alumno necesita
evolucionar en su forma de pensar con los objetos del
Análisis Matemático si quiere ser competente en esta
área matemática. Sin duda, la competencia requiere familiarizarse con esa naturaleza profunda para poder detectarla en las diversas situaciones donde aparece.
Ante la necesidad de esta adaptación, aparece la dificultad didáctica Efecto Frontera descrita por la desaparición de los conceptos propios del Análisis. En consecuencia se desarrolla la creencia de que el aprendizaje del
Cálculo se transforma en una algebraización de sus elementos. Un ejemplo elemental se muestra en el caso de
las funciones, donde no se distingue el concepto de función de su expresión algebraica, fórmula para muchos,
sin ser relacionadas con sus distintas representaciones.
Sorprendentemente, esta dificultad perdura mucho
tiempo entre las creencias del alumno, y permanece activa a lo largo de su desarrollo académico si no se ataja
adecuadamente. Una cierta razón de este perdurar es que
la praxis empleada en la enseñanza es bastante algebraica una vez que se parte de los resultados adecuados. Sin
embargo, es necesario que el alumno sepa elegir los resultados de partida y la razón de su elección. Al faltar esta
parte esencial, se genera cierta inseguridad en los alumnos. No pueden analizar con profundidad los problemas y
llegar a conclusiones satisfactorias en las que el nuevo co-
182 Enseñanza
nocimiento se encuentre entroncado en su pensamiento
de forma coherente y eficaz. En ese caso, nos encontramos con alumnos que sólo solventan satisfactoriamente
los problemas cuando se redactan en planteamientos muy
teóricos o próximos al planteamiento teórico.
4. ENSEÑANZA MATEMÁTICA CONCEPTUAL
Y VISUAL
Asegurar que el estudiante aprende los significados de los conceptos y de los resultados es la vía apropiada para que estos adquieran las competencias tanto
en Matemáticas como en sus aplicaciones. El profesor,
emulando a Sócrates, paseando o no, debe acompañar al
estudiante en su aprendizaje, suscitando preguntas que
le lleven a plantearse cuestiones y debe ayudarle a buscar las respuestas aunque su modelo de enseñanza sea
no presencial. La finalidad última debe ser que aparezcan las habilidades y las competencias para que el
alumno afronte situaciones que no pueden ser previstas
en el aula, pues existen una enorme cantidad de ejemplos, situaciones, y diversidad de los objetos a los que se
puede aplicar una definición concreta o un resultado.
Esta finalidad no cambia si no existe el aula como lugar
de encuentro físico, es decir, en la enseñanza no presencial.
¿Cómo puede el profesor de enseñanza no presencial
inducir en el alumno las ideas que se aplicarán a distintos casos? Empleando alguna Ingeniería Didáctica adecuada a cada concepto, que represente un reto para el
alumno de adquirir el conocimiento y generar sus conclusiones. Esta ingeniería debe verificar que lo aprendido
es correcto y coherente con lo que se pretende aprender.
Además, debe ser compatible con los tiempos de aprendizaje empleados por sus alumnos, es decir, con el empleo de estudios discontinuos y estudios no sincronizados con la disponibilidad del profesor.
La respuesta a la que aludimos se corresponde con el
empleo de laboratorios virtuales vía Internet. Una respuesta basada en las necesidades de un aprendizaje conceptual y referenciada como un proyecto dentro del marco IV Proyecto de Redes de Innovación Docente de la
UNED, correspondiente al curso 2009-2010.
Nos referimos a laboratorios virtuales específicos
donde se experimente con sus normas de empleo que
aseguren la adquisición del conocimiento base, y sus
guías cronométricas que orientan la velocidad de aprendizaje y sugieren tiempos de interacción suficientes.
100cias@uned
Esa respuesta corresponde a la oportuna utilización de:
— El Entorno Virtual disponible, en nuestro caso,
los entornos virtuales de la UNED.
— El Entorno de Experimentación Conceptual Aproximado, compuesto por múltiples módulos de simulación, cuya finalidad es experimentar mediante simulación de la información Matemática
usando applets Java.
— El Entorno de Soporte Didáctico, compuesto por el
conjunto de guías didácticas que contienen los
protocolos de utilización para que el alumno asuma el reto de su aprendizaje, siguiendo un método de preguntas y respuestas inspirado en el método al que aludíamos al principio del trabajo.
Este proyecto tiene una estructura modular ampliable, bien con nuevos módulos temáticos bien con otras
aplicaciones internet, o bien con nuevos retos o utilizaciones. En un núcleo básico, a cada módulo le corresponde básicamente un applet y un protocolo de uso con
los que se desarrollan distintas aproximaciones al concepto, con los cuales tendrá que trabajar el estudiante y
tendrá que hacer pruebas hasta que el concepto haya
sido manejado y aprendido. Es el cuidadoso diseño del
protocolo de utilización lo que posibilita la función de
acompañamiento y sugerencia al alumno.
Los applets son concebidos dentro del marco de Visualización de los Conceptos Matemáticos, de forma que al
utilizar las capacidades gráficas del ordenador se permita
una adquisición abductiva de la aceptación de conocimiento tratado. Además, al emplear la capacidad de emular
fenómenos continuos a partir de la discretización natural
del proceso digital, se permite acceder al alumno a un nivel
de experimentación y recreación de los conceptos. En
esencia, la labor de sugerencia en las visualizaciones y su
interactividad aumentan las posibilidades de aprendizaje
del alumno que interactúa con el módulo de aprendizaje.
Destacamos que la función pedagógica no descansa
en la repetición similar a la de un libro de ejercicios, sino
en la estimulación a la reflexión por medio de la observación de un fenómeno experimental y aproximativo
que el applet posibilita y el protocolo adjunto sugiere.
El Entorno de Experimentación compuesto por el
conjunto de módulos forma un entorno visual, dinámico
e interactivo con posibles funcionalidades colaborativas, que guía al alumno en la toma de contacto y aprehensión de los conceptos.
A la hora de tratar con aproximaciones gráficas, entendemos que «visualizar» no es un sinónimo de ver,
183 Enseñanza
sino de adquirir conocimiento. Visualizar un concepto es
almacenar toda la información del concepto codificada
dentro de una imagen. Para recordar dicho concepto,
tan sólo hay que acceder a la imagen evocadora y decodificar la información.
La imagen portadora es necesaria para que se produzca el proceso de visualización y no es más que una
representación aproximada del concepto. Es una representación concreta (o particular) no necesariamente
genérica.
Suele ocurrir que se muestra una imagen portadora y
que el estudiante ve una simple imagen sin información añadida, puesto que la simple transmisión de la
imagen portadora no pone en marcha el proceso de visualización del receptor. Se requiere una secuencia de
preguntas o retos adecuados para iniciar la decodificación de ese tipo de imágenes.
La imagen de un ejemplo y la elección de los ejemplos son cruciales en cada módulo en el primer contacto
del alumno con el saber simulado. Ni vale cualquier
imagen ni vale cualquier ejemplo como punto de partida.
Se requieren aquellos que tengan una propiedad arquetípica y que representen de forma clara la propiedad que
se desarrolla, es decir se hacen necesarios los denominados «ejemplos arquetípicos».
Sólo mediante una cuidada selección de la presentación podemos lograr los fines que nos proponemos para
que el alumno genere su propia imagen fruto de la compresión y reflexión. No obstante, una vez trabajado el
ejemplo propuesto de inicio se desarrollan otros usos con el
mismo applets, admitiendo cambios de ejemplo para ampliar el conocimiento del alumno y situar nuevos elementos conceptuales en conexión con el adquirido. El uso de
un applet no sólo sirve para presentar de forma gradual un
concepto, si no que puede ser usado para presentar variaciones ejemplificables y contraejemplos. Esto permite que
el profesor, aun en la distancia, pueda desarrollar una estrategia de acompañamiento del alumno muy útil.
Se presenta la base suficiente para que el estudiante
mediante la analogía pueda obtener resultados distintos
a los que ha visto o rechazarlos justificadamente, es decir, haya alcanzado un nivel de madurez y unas habilidades que le permitan analizar otros casos. Nada más
opuesto a la enumeración tradicional de conceptos perfectamente enunciados donde el alumno los «traduce y
aplica» a los ejemplos. Lo sugerido con las técnicas de
visualización ayuden a extraer el concepto y, una vez
descubierto, tan sólo se tiene que formalizar la idea que
100cias@uned
ya se posee. El proceso que proponemos es más respetuoso con la Teoría del Conocimiento y con el proceso
histórico, pues si se acude a las fuentes que han dado a
lugar a los conceptos, se descubrirá que el método que
seguimos es el más natural, aunque se emplee tecnología
informática.
La presentación inicial de conocimiento que realizamos ni es de tipo deductivo ni es de tipo inductivo; de
hecho, perseguimos una adquisición de conocimiento
empleando procesos de abducción, es decir, empleamos
un método heurístico en el que el alumno sea llevado al
concepto y no al revés, de la misma forma en que el
alumno se ha hecho consciente del mundo que le rodea.
El alumno debe crear su propia imagen portadora de la
información relativa al concepto.
Por supuesto, los ejemplos arquetípicos no cubren la
variedad de posibilidades de los ejemplos con los que el
Análisis Matemático trabaja y aparecen algunos ejemplos
«patológicos», al igual que los números irracionales en
los griegos. Estos son fundamentales en un segundo o
tercer nivel de conocimiento, pero deben de ser evitados
en primera aproximación para permitir al alumno un
primer nivel de visualización.
BIBLIOGRAFÍA
1. Matemática Visual: El aprendizaje del concepto de derivada de una función en un punto mediante el desarrollo
de una ingeniería visual. M. Delgado Pineda. Proc. de Informática Educativa, UNED (Madrid, España, 2009).
2. Objetos Matemáticos dentro del marco de una Matemática Visual. M. Delgado Pineda. Proc. de EDUMAT
2009 (Buenos Aires, Argentina, 2009).
3. Representation, vision and visualization cognitive functions in mathematical thinking: Basic issues from learning. R. Duval. Procceding (021) ERIC P. (México, 1999).
4. Historia de la Matemática. C.B. Boyer. Alianza Editorial (Madrid, 2001).
5. Elementos de Historia de las Matemáticas. N. Bourbaki. Alianza (Madrid, 1995).
6. Calculus. M. Spivak. Ed. Reverté, S.A. (Barcelona, 1982).
7. Principios de Análisis Matemático. E. Linés. Ed. Reverté, S.A. (Barcelona, 1983).
8. Analyse Mathématique: Fonctions d’une variable. G.
Chilov. Éditions de Moscou. (Moscú, 1978).
Miguel Delgado Pineda
Dpto. de Matemáticas Fundamentales
184 Enseñanza
100cias@uned
N.º 2
Enseñanza
(nueva época)
| 2009
ISSN: 1989-7189
NUEVAS TECNOLOGÍAS EN LA
ENSEÑANZA
EL PORTAL FisL@bs: UNA RED
DE LABORATORIOS VIRTUALES
Y REMOTOS DE FÍSICA
1. INTRODUCCIÓN
Los laboratorios online son unos recursos que ya
pueden considerarse bien asentados en varias disciplinas
científicas y técnicas, gracias a la ayuda que ofrecen a la
hora de ilustrar fenómenos científicos que pueden requerir un equipo costoso y/o difícil de montar, tal y
como ocurre en [1] y [2]. La configuración ideal para estos laboratorios online es que consistan en dos partes
distintas: el experimento simulado y el experimento real,
controlado de forma remota.
A pesar de que las simulaciones cumplen un importante propósito, los laboratorios reales no pueden ser
sustituidos únicamente con esta herramienta, especialmente en algunos campos como las ciencias físicas, donde el comportamiento y la respuesta real de los componentes que conforman un experimento son factores
cruciales [3]. Por otro lado, aunque los laboratorios remotos (encargados de llevar los recursos de un laboratorio al hogar de los usuarios [4]) pueden perfilarse como
un mejor sustituto o complemento de los laboratorios reales, los laboratorios virtuales tienen aún su utilidad. La
simulación de los experimentos juega un papel fundamental como un recurso que se usa como primer contacto con el fenómeno que se desea estudiar.
Las simulaciones relacionadas con el campo de la física han experimentado un gran aumento tanto en número como en calidad gracias, principalmente, a la aparición de los applets de Java. En [5] y [6], se presentan
cientos de experimentos y procesos simulados en muchos
de sus campos. Sin embargo, los anteriores trabajos no
consideran de manera específica el experimento real
asociado. Otros trabajos recientes se centran en el uso e
introducción de los ordenadores en los laboratorios de física para recoger y analizar datos ([7], [8]) pero no los
usan con el objetivo de la enseñanza a distancia. Final-
100cias@uned
mente, la mayor parte de los laboratorios remotos existentes actualmente relacionados con la física, todavía
poco numerosos, son experimentos individuales ([9],
[10]) o se limitan a un único campo de la misma, como
la óptica ([1], [11]) o la electrónica ([12], [13]). Además,
ninguno de los trabajos antes mencionados ofrecen el
equivalente simulado de cada experimento ni tampoco
un entorno web de experimentación que contenga un
sistema de gestión de aprendizaje (LMS, por sus siglas
del inglés Learning Management System) y sólo en [14]
los experimentos se presentan de una manera similar a la
que se lleva a cabo en un laboratorio convencional para
estudiantes: introducción, teoría, ejercicios y problemas,
actividades de laboratorio, análisis, discusión y material de referencia.
La UNED ofrece a estudiantes españoles repartidos
por todo el mundo la posibilidad de realizar docenas de
grados y postgrados a distancia. Por tanto, esta Universidad tiene una gran necesidad de recursos y métodos de
educación a distancia y se encuentra siempre en disposición de investigar y analizar cómo mejorar estos aspectos. FisL@bs es un ejemplo de ello. Gracias a la colaboración del Vicerrectorado de Calidad e Innovación
Docente y a varios Departamentos de la Facultad de
Ciencias y de la Escuela Superior de Informática de la
UNED, este proyecto nace con la intención de mejorar el
servicio de enseñanza a distancia en el contexto del Espacio Europeo de Enseñanza Superior, el cual estimula el
trabajo práctico individual (satisfecho en FisL@bs por
medio de los laboratorios remotos y virtuales) sin perder
de vista la importancia de pertenecer y colaborar con un
grupo de trabajo (asegurado en FisL@bs gracias al uso
de un LMS).
FisL@bs es una red distribuída de laboratorios, tanto remotos como virtuales, destinados a la educación
superior de ciencias físicas a través de Internet. Usa un
sencillo LMS (eMersion) a fin de ofrecer canales de comunicación entre los estudiantes y los profesores y de
hacer accesible desde un mismo entorno las referencias,
teoría y ejercicios necesarios. Esta red, que pretende ser
distribuída entre varias universidades españolas, usa la
misma estructura que AutomatL@bs [15], una red
de laboratorios remotos y virtuales para la enseñan-
185 Enseñanza
za/aprendizaje de ingeniería de control, que lleva operativa desde hace más de tres años y que ofrece experimentos tan interesantes como el sistema de tres tanques
[16]. FisL@bs da a los estudiantes la posibilidad de realizar experimentos interactivos en diferentes campos de
las ciencias físicas, tanto de un modo real pero remoto,
como de un modo virtual y simulado. El modo de acceso
a los laboratorios es un navegador web compatible con
Java y con conexión a Internet, lo cual supone unos requisitos tan bajos y simples que garantiza el acceso a estos recursos a todos los estudiantes prácticamente desde
cualquier sitio y en cualquier momento.
Como parte del proyecto FisL@bs, están siendo desarrollados varios laboratorios con experimentos diversos: un banco óptico motorizado para la determinación
de la distancia focal de lentes delgadas, un experimento
para la comprobación de las leyes de la reflexión y la refracción de la luz (ley de Snell), un péndulo rígido, una
tabla XYZ (similar a una fresadora) que se usará para
medir distribuciones de potencial sobre una hoja de papel resistivo con diferentes configuraciones de campos
electrostáticos, un experimento sobre la ley de Hooke,
etc. Como se ha mencionado anteriormente, todos estos
laboratorios serán accesibles simplemente por medio de
un navegador web.
Cada uno de estos laboratorios precisa de distintos
materiales y herramientas para sus montajes reales y se
requiere además que puedan ser controlados de forma
remota. A fin de reducir costes y facilitar la fabricación e
implementación de los mismos, algunos de los experimentos anteriores (por ejemplo, el relativo a la ley de
Hooke y el que usa la fresadora) se han creado usando
piezas de Lego Mindstorms. Otros se han construido con
piezas de aluminio, controladoras y motores paso a paso,
sensores de fuerza y de voltaje, etc. En todos los casos, el
hardware es siempre controlado utilizando instrumentos
virtuales de tiempo real programados en LabVIEW, un
lenguaje de programación gráfica especialmente diseñado para desarrollar sistemas de instrumentación, análisis y adquisición de datos.
La interfaz gráfica de usuario (GUI, por sus siglas del
inglés Graphical User Interface) usada para experimentar
de forma remota con estos laboratorios es una interfaz
Java creada con Easy Java Simulations (EJS), un programa escrito en Java que ayuda a crear simulaciones
interactivas en Java, principalmente para objetivos de
enseñanza y aprendizaje [17], [18]. Los experimentos
virtuales correspondientes a cada experimento remoto
100cias@uned
también se crean usando EJS. Para alojar las interfaces
de EJS y para publicarlas en Internet se usa eMersion
[19], un marco de trabajo que facilita el desarrollo de escenarios pedagógicos y recursos de enseñanza para la
experimentación web en educación. Finalmente, para
realizar la comunicación entre los programas de EJS y
los instrumentos virtuales de LabVIEW, se hace necesario
utilizar también una herramienta basada en un software
que use un servidor Java-Internet-LabVIEW de interconexión. Esta herramienta (que consiste en una aplicación
llamada servidor JIL [20] y un fichero de librería Java)
utiliza LabVIEW [21] en el lado del servidor (donde el
experimento real está localizado), applets de Java en el
lado remoto del cliente (el ordenador del estudiante) y el
protocolo TCP/IP como mecanismo de comunicación entre ambos elementos. De este modo se conectan las variables definidas en Java con los controladores e indicadores establecidos en LabVIEW.
Uno de los experimentos que ya se encuentran operativos es el diseñado para estudiar la ley de Hooke. Los
kits de robótica de Lego, empleados en este montaje, se
han usado ya en varios proyectos de ciencia e ingeniería
tales como [22] y [23], así como en cursos de enseñanza/aprendizaje ([24], [25]), pues son un recurso bastante
económico a la hora de fabricar los prototipos. Otro experimento ya completado es el de la ley de Snell, el cual
utiliza distintos materiales para su montaje. Este artículo
ofrece un breve recorrido por la experimentación remota de ambos experimentos y una descripción detallada de
sus montajes reales y de la interactividad que ofrecen sus
controles remotos. Un pequeño resumen previo de la estructura de FisL@bs y la exposición final de conclusiones y comentarios relacionados con este proyecto completan el artículo.
2. MARCO DE EXPERIMENTACIÓN WEB PARA
LABORATORIOS
Continuando con la estructura de laboratorios web
utilizada para el proyecto AutomatL@bs [26], FisL@bs
usa una arquitectura cliente-servidor en la que se utiliza
el protocolo TCP/IP como medio de comunicación a cargo de realizar los intercambios de datos entre ambos. La
Figura 1 muestra la arquitectura de esta comunicación.
En ella, las líneas que van del remitente desde el lado del
cliente al parser del lado del servidor y del remitente desde el lado del servidor al receptor del lado del cliente representan esta comunicación por TCP/IP. Los apartados
186 Enseñanza
2.a y 2.b ofrecen más información acerca de la implementación de los lados cliente y servidor, respectivamente. Los apartados 3 y 4, por su parte, describen dos
ejemplos específicos de la información que necesita ser
comunicada por medio de los experimentos de las leyes
de Snell y de Hooke.
real, momento desde el cual el usuario puede interaccionar con el mismo. El estudiante realiza esta interacción
por medio del applet, que cuenta con llamadas especiales
(los comandos remitentes y receptores de la Figura 1,
provistos por la clase JIL [20]). Estas llamadas especiales
son las que se encargan de establecer una comunicación
con LabVIEW (en el lado del servidor) usando las funciones y rutinas TCP. El comando receptor se usa de
manera continua con el objetivo de obtener todos los datos medidos del experimento real, sin embargo, el comando remitente sólo se ejecuta cuando el estudiante
cambia un valor en el applet que maneja.
Figura 1. Arquitectura cliente-servidor. La comunicación entre las
dos partes se basa en el protocolo TCP/IP. El servidor ejecuta el
experimento remoto mientras que el simulado se ejecuta
localmente en el lado del cliente.
a. Implementación del lado del cliente
El lado del cliente es una applet de Java creado con
el programa EJS y contenido dentro del entorno web
que ofrece eMersion. Cuando un estudiante se conecta al
laboratorio, el navegador abrirá tres ventanas. La Figura
2 muestra una imagen de esta situación para el caso del
laboratorio virtual (simulado) de la ley de Hooke. La
ventana superior sirve al estudiante para que examine la
lista de actividades que debe llevar a cabo, consultar la
documentación, cambiar el idioma o desconectarse del
sistema. La ventana derecha muestra los ficheros que se
hayan generado usando el laboratorio (simulado o remoto) que se encuentre activo, tales como ficheros de
texto con datos o ficheros de imagen con gráficas. Finalmente, la ventana más grande contiene el applet que,
o bien es el experimento simulado, o bien es la GUI que
controla y visualiza el experimento remoto. Inicialmente,
el applet muestra siempre el simulado, ofreciendo tanto
la visualización como la interacción necesaria para controlarlo y experimentar con él.
Aunque toda la experiencia simulada se lleva a cabo
en el lado del cliente (en el propio ordenador del estudiante), una vez que el alumno ha realizado con éxito
todas las actividades del experimento virtual, se le permite el acceso a la siguiente fase: el laboratorio remoto.
El applet de Java que muestra inicialmente el laboratorio
simulado (Fig. 2) contiene un botón cuya función es la
de conectar al laboratorio remoto. Tras pulsar dicho botón, la vista del applet cambia y muestra el laboratorio
100cias@uned
Figura 2. Entorno web de eMersion y experimento simulado
de la ley de Hooke.
b. Implementación del lado del servidor
Es el mismo ordenador el que ejecuta tanto el servidor web como el controlador del experimento en cuestión. Dicho controlador está desarrollado en LabVIEW y
siempre contiene dos lazos principales de información. El
primero es un lazo asíncrono que se encarga de la comunicación con el applet (recibiendo las acciones del
usuario sobre éste y mandando también la información
del sistema), mientras que el segundo es un lazo síncrono que controla continuamente el experimento real.
El primer lazo (el asíncrono) puede ocasionar problemas a la hora de intentar controlar un experimento
debido a una posible dinámica de evolución rápida del
mismo y a retrasos en la red de Internet. Sin embargo,
este es un problema que debe ser analizado para cada
caso en particular (teniendo en cuenta las magnitudes de
tiempo de las dinámicas del proceso en cuestión) y, si las
dificultades aparecen realmente, no existe una única
187 Enseñanza
manera de tratarlo. Los apartados 3 y 4 presentan dos
experimentos cuyo control es lo suficientemente sencillo
como para evitar esta problemática.
3. PRIMER CASO DE ESTUDIO:
LA LEY DE SNELL
que el motor se controla mediante pasos de 0,9º, el error
de esta variable es δθi = ± 0,9º. El dispositivo cuenta con
un relé para el encendido/apagado del láser cada vez
que un estudiante se conecta y desconecta, respectivamente.
La ley de Snell, o ley de la refracción de la luz, junto
con la ley de la reflexión, constituyen axiomas ya enunciados por Sir Isaac Newton en su libro de Óptica [27] y
forman parte de las leyes fundamentales de la Óptica. En
particular, la ley de Snell describe la relación entre el ángulo θi de incidencia de la luz sobre la superficie de separación de dos medios isótropos (por ejemplo, aire y agua)
y el ángulo θr de refracción. La relación entre los senos de
estos dos ángulos es una constante que depende de los
medios en cuestión. Matemáticamente se expresa:
n1 sen θi = n2 sen θr ⇒
n2
sen θi
=
⬅n
n1
sen θr
(1)
donde n1 y n2 son los índices de refracción de ambos medios. Si n2 > n1, ello implica que θr < θi, es decir, la luz se
acerca a la normal. Por el contrario, cuando la luz pasa
de un medio más refringente a otro menos refringente
(n1 > n2), se aleja de la normal.
El experimento diseñado, como se describe más adelante, permite el estudio de los ángulos de refracción en
función de los ángulos de incidencia tanto para el primer
caso (paso de la luz del aire al agua, n2 > n1), como para
el segundo (paso de la luz del agua al aire, n1 > n2). En
este segundo caso se puede comprobar que existe un
valor del ángulo de incidencia para el cual el ángulo de
refracción alcanza los 90º. Este ángulo se conoce como
«ángulo límite», porque a partir de él deja de producirse
la refracción de la luz y la superficie de separación aguaaire se comporta como un espejo, fenómeno conocido
como «reflexión total».
El montaje experimental (Fig. 3) se hizo utilizando
piezas de aluminio, una cubeta de plástico, una webcam,
un puntero láser y un motor paso a paso. Las piezas de
aluminio forman la estructura básica que sirve de soporte para la cubeta (rellena hasta la mitad de agua u
otro líquido), el motor y el puntero láser. El láser se
encuentra montado sobre un disco de aluminio que
puede rotar en torno a su eje central. Dicho giro viene
controlado por el motor paso a paso, de tal forma que al
rotar el disco se cambia el ángulo de incidencia (θi) del
rayo láser sobre el líquido contenido en la cubeta. Dado
100cias@uned
Figura 3. Montaje experimental para la práctica de la ley de Snell.
Para poder medir el ángulo de refracción (θr), la GUI
del laboratorio remoto (Fig. 5) permite al usuario mover
un puntero virtual superpuesto a la imagen que da la
webcam. Esto se hace por medio de una barra deslizable
graduada que indica el ángulo en el cual se encuentra el
puntero en casa momento. De este modo, una vez que el
estudiante ha posicionado el puntero haciéndolo coincidir con el rayo refractado, puede realizar la lectura del
ángulo θr sobre la barra deslizable graduada. El error
estimado para estas medidas es δθr = ± 1º.
Dado que la única variable a controlar en este experimento es el ángulo de incidencia (θi) y que el ángulo
refractado (θr) se mide de manera visual, sólo hay un parámetro de control (θi) que debe ser enviado desde el remitente en el lado del cliente (EJS view, Fig. 1) al controlador de LabVIEW y ninguna información que deba
ser devuelta por parte del mismo.
a. Actividades en simulación
La simulación para el estudio de las leyes de la reflexión y la refracción de la luz está basada en el mismo
dispositivo construido para las actividades remotas, por
lo que la vista simulada del experimento sirve al alumno
para familiarizarse con el entorno.
En la ventana principal de la simulación (Fig. 4) se
muestra una figura en 2D del sistema depósito cilíndrico
188 Enseñanza
-puntero láser-escala graduada. El depósito contiene, a
partes iguales, dos medios isótropos que pueden elegirse
previamente de una lista desplegable en el apartado «Opciones». El rayo láser, tras incidir en la línea de separación de los dos medios, se escinde en los rayos reflejado
y refractado, pudiéndose medir fácilmente en la escala
graduada los valores de los tres ángulos implicados: el
incidente, el de reflexión y el de refracción. Actuando directamente sobre la figura (animación Java), o mediante
una barra deslizable, el estudiante puede ir variando el
ángulo de incidencia y comprobar el comportamiento
de los otros dos rayos. Para facilitar el registro de datos,
el programa muestra en displays los valores numéricos
de estos tres ángulos.
Figura 4. Experimento simulado de la ley de Snell.
Del análisis de los datos registrados en las correspondientes tablas y gráficas, el estudiante puede llevar a
cabo diversas comprobaciones:
— Verificación de la ley de la reflexión: Los ángulos
de incidencia y los de reflexión coinciden.
— Verificación de la ley de Snell: la representación
gráfica de sen θi frente a sen θr da lugar a una
recta. Si se realiza un ajuste lineal con los puntos
de la gráfica es posible, además, deducir la razón
n2/n1 entre los índices de refracción de ambos
medios (es la pendiente de la recta).
— Grado de validez de la aproximación de Gauss: la
representación gráfica de θi frente a θr puede
aproximarse por una recta sólo para valores pequeños de estos ángulos (hasta unos 30º). En dicho dominio, la pendiente de la curva sigue siendo la razón entre índices de refracción.
— Determinación del ángulo límite (fenómeno de la
reflexión total): si el medio incidente elegido es
100cias@uned
más refringente que el segundo medio, se comprueba fácilmente que a partir de un determinado
ángulo, θl, el rayo de luz no atraviesa la superficie
de separación de ambos medios, es decir, el rayo
se refleja totalmente hacia el interior del medio
incidente.
En esta simulación, para simular el error experimental que se comete al utilizar un dispositivo real (por
ejemplo, el error que se puede cometer en el experimento remoto en la lectura de los ángulos sobre la escala
graduada) se ha optado por generar los valores de los
ángulos de refracción y de reflexión a partir de los teóricos e incrementarlos con un pequeño porcentaje de
error aleatorio (positivo o negativo) generado por el ordenador. En el apartado «Opciones» el estudiante puede
elegir el valor máximo (cota superior) de este porcentaje
de error aleatorio, para simular medidas más o menos
precisas. Si se usa la configuración por defecto, se obtiene la relación n2/n1 con una precisión suficientemente
buena en el experimento simulado (alrededor de ± 0,007
cuando se usan, por ejemplo, diez puntos para la regresión lineal). Obviamente, en el cálculo de los ángulos teóricos se hace uso, de manera oculta para el estudiante,
de las leyes teóricas correspondientes y de los índices de
refracción tomados de la bibliografía.
El programa incluye explicaciones, pantallas de ayuda, guión de prácticas, etc., para guiar al alumno en su
trabajo en todo momento. Con el empleo de esta simulación, el estudiante adquiere la destreza suficiente para
pasar a utilizar el experimento remoto optimizando al
máximo el tiempo de conexión.
b. Actividades en remoto
Una vez conectado al laboratorio remoto, el estudiante podrá verificar empíricamente la ley de Snell
usando para ello el experimento real. La Figura 5 muestra la GUI en este modo de trabajo. Se muestran dos
barras deslizables en la parte superior del applet en la
ventana principal: uno controla el ángulo de incidencia
de la luz del láser y el otro se usa para desplazar un puntero virtual que sirve para medir el ángulo refractado. En
el lado derecho del applet se muestra el experimento en
tiempo real por medio de una imagen de webcam. Finalmente, la gráfica de la izquierda se usa para que el estudiante pueda ir representando sen θi frente a sen θr.
Una casilla con el texto «Ver rayos», permite visualizar (o no) los tres rayos simulados (incidente, reflejado y
189 Enseñanza
refractado) superpuestos sobre la imagen real de la webcam. De este modo, el estudiante puede comparar inmediatamente los resultados teóricos con los reales.
El experimento de la ley de Snell en su variante remota también ofrece a los estudiantes la posibilidad de
efectuar regresiones lineales automáticamente con los
datos recogidos. Teniendo en cuenta los errores de medición tanto en θi como en θr y asumiendo que el valor
de uno de los medios isótropos (el del aire) no tiene
error asociado, los estudiantes pueden determinar n2/n1
(o n1/n2 para los casos en los que se busca la reflexión
total) con una precisión notablemente buena (alrededor
de ±0,008 cuando se utilizan, por ejemplo, 10 puntos
para hacer la regresión lineal). Así pues, tanto los errores
en las medidas como los resultados obtenidos a partir de
ellas son similares para los dos modos de trabajo: experimento simulado y experimento remoto.
Figura 5. Experimento remoto de la ley de Snell. El puntero virtual
(la flecha naranja) se usa para medir el ángulo de refracción.
4. SEGUNDO CASO DE ESTUDIO:
LA LEY DE HOOKE
El experimento real de la ley de Hooke utiliza los siguientes elementos: un muelle de constante k = 14 N/m,
un motor dc NXT, un raíl de 25 cm de largo, un sensor
de contacto, un sensor de fuerza Vernie, una Webcam, y
una regla.
El muelle tiene uno de sus extremos fijados a una
pared, mientras que el otro extremo está enganchado al
motor NXT, que está montado sobre el raíl y puede desplazarse sobre él tirando del muelle en su movimiento. El
sensor de contacto se usa para resetear el contador de
vueltas del motor cada vez que éste llega al principio del
raíl. El sensor de fuerza de Vernier tiene un rango de
medidas lo suficientemente amplio para este experimento ([–10 N, +10 N]) y una precisión lo bastante buena
(± 0,01 N). Finalmente, la regla posee la graduación
usual, con marcas 1 mm. La Figura 6 muestra una imagen del montaje real del experimento con los elementos
antes descritos. En este experimento, un estudiante puede controlar la posición del motor NXT sobre el raíl y,
por tanto, la extensión del muelle. El motor NXT dispone
de un contador de giros o encoder que funciona con
una precisión de ± 1º, lo cual se traduce en unos ± 0,4
mm de precisión en la medida del estiramiento del muelle para este montaje (considerando que el error asociado
al valor conocido de su longitud natural, l, es cero). Esto
significa entonces que el estudiante puede controlar la
variable x de (2) con una precisión de ± 0,4 mm. Sin embargo, el estudiante también puede usar la regla para
medir dicha variable, en cuyo caso obtendría una precisión de ± 1 mm. F es la variable medida por el sensor de
fuerza y el error asociado a sus medidas es de ± 0,01 N.
La longitud natural del muelle, l, es conocida (y el error
asociado se considera nulo) y la constante del muelle, k,
es la incógnita.
En Mecánica, la ley de Hooke de la elasticidad enuncia que la extensión de un muelle es directamente proporcional a la fuerza aplicada sobre el mismo. Este enunciado es cierto siempre y cuando la fuerza no haga
exceder el límite elástico. Matemáticamente:
F(t) = – k [x (t) – l]
(2)
donde k es la constante del muelle, l es su longitud natural, x(t) es la longitud del muelle en el tiempo t y F(t)
es la fuerza de restauración ejercida por el muelle en ese
instante de tiempo.
100cias@uned
Figura 6. Montaje experimental para la práctica de la ley de Hooke.
190 Enseñanza
Dado que el área de la sección transversal del muelle, A, también es conocido, es posible calcular además el
módulo de elasticidad, E, usando (2) una vez se ha determinado el valor de k.
k = A·
E
l
na, mientras que en la parte izquierda hay una gráfica
que cambia dinámicamente a fin de representar la fuerza
frente a la elongación del muelle, mostrando así la ley de
Hooke.
(3)
Por lo tanto, en este caso hay únicamente un parámetro de control que se envíe desde el remitente en el
lado del cliente (EJS view, Fig. 1) al controlador de LabVIEW: la posición del motor NXT sobre el raíl (x). La información devuelta desde el lado del servidor al receptor
en el lado del cliente es la fuerza medida y la posición
del motor dada por el encoder. El otro modo disponible
para medir su posición (usando la regla) no requiere el
envío de datos puesto que las medidas se toman visualmente a través de la imagen de la webcam.
a. Actividades en simulación
El experimento simulado sirve para que el estudiante descubra la ley de Hooke y vea cómo varía la energía
potencial (V) cuando se estira o comprime el muelle. La
gráfica superior de la Figura 2 muestra la ley de Hooke
(la relación lineal entre F y x) mientras que la inferior representa el valor de V frente al estiramiento o compresión del muelle. Ambas gráficas se actualizan de forma
dinámica cuando el estudiante mueve la bola unida al
muelle (pinchando en ella con el ratón y arrastrando). Se
usa un valor por defecto para la constante del muelle
(k = 1), pero éste puede ser cambiado en cualquier momento usando la interfaz del experimento simulado. Los
datos recogidos tanto durante la realización del experimento real como del simulado se pueden grabar en ficheros de texto de tal modo que el estudiante puede
comparar los resultados teóricos con los reales y analizar
las posibles diferencias.
b. Actividades en remoto
La Figura 7 muestra la GUI cuando el estudiante se
conecta al laboratorio remoto. Aparecen entonces dos
displays en la esquina superior izquierda de la ventana
principal: uno para mostrar la fuerza medida y otro para
indicar el estiramiento del muelle. La barra deslizable se
usa para cambiar la posición del motor sobre el raíl y,
por tanto, el estiramiento del muelle. Al igual que en el
experimento de la ley de Snell, una webcam muestra la
imagen del experimento en la parte derecha de la venta-
100cias@uned
Figura 7. Experimento remoto de la ley de Hooke.
Aunque el fenómeno físico que se estudia en este
experimento es sencillo, sigue habiendo muchas otras
actividades importantes relacionadas con la metrología
que se pueden realizar a través de este laboratorio. Por
ejemplo, las incertidumbres en las medidas son algo que
el estudiante debe tener en cuenta. Tal y como ya se
mencionó las incertidumbres en las medidas para este
experimento son: δx = {± 0,4 mm, ± 1 mm} (dependiendo de cómo se mida el estiramiento del muelle, si
por medio del encoder del motor o usando la regla),
δl ≈ 0 para la longitud natural del muelle y δF = ± 0,01
N para las medidas de la fuerza de recuperación del mismo. Considerando el último valor y la constante elástica
del muelle utilizado (14 N/m), los estudiantes deberían
entender que necesitan tomar medidas con al menos
0,7 mm de diferencia entre cada estiramiento del muelle
a fin de ser capaces de medir diferencias en la fuerza.
La gráfica de la Figura 7 muestra mucho ruido debido al movimiento del motor (que no es perfectamente
suave) y a la limitada precisión del sensor de fuerza.
Sin embargo, los estudiantes pueden tomar pares de medidas individuales de F-x y representar dichos puntos en
otra gráfica distinta. Todo esto se hace por medio de la
GUI de la Figura 7. El botón «Medir» dibuja el par F-x
que se tenga en ese instante sobre dicha gráfica, la cual
puede verse pulsando en la pestaña inferior llamada
191 Enseñanza
«Gráfica». La Figura 8 muestra un ejemplo de esta gráfica representando una regresión lineal usando unos pocos
puntos, que son medidas particulares reales de este experimento.
mínimos cuadrados (manuales y/o computerizados) y la
comparación de resultados teóricos y experimentales son
aspectos que también se practican por medio de este
experimento.
5. CONCLUSIONES Y TRABAJO FUTURO
Figura 8. Regresión lineal efectuada con los datos recogidos en el
experimento remoto.
Al representar los datos de esta manera, el ruido
que aparecía en la Figura 7 parece desaparecer (aunque
la incertidumbre sigue afectando a las medidas, de modo
que, en efecto, el coeficiente de correlación de la regresión no es exactamente 1). En este caso, la regresión lineal da un resultado de k = 13,7 ± 0,2 (N/m), lo que se
aproxima bastante al valor real de la constante elástica
del muelle (14 N/m) y el error relativo es pequeño (cerca
del 1,5%).
También se puede practicar el cálculo de incertidumbres, ya que los alumnos deberían dar sus resultados
(el valor de la constante del muelle y el del módulo de
elasticidad) con las incertidumbres asociadas. Siguiendo
estas ideas, este experimento puede así mismo servir
para que los alumnos reflexionen acerca de la importancia de utilizar herramientas y dispositivos equilibrados.
En este caso, por ejemplo, la gran precisión para las medidas del estiramiento del muelle (usando el encoder del
motor) no sirve de mucho y se desperdicia en parte a la
hora de determinar la constante del muelle debido a la
peor precisión del sensor de fuerza.
Finalmente, a fin de obtener k, los estudiantes deben
realizar regresiones lineales con los datos recogidos tanto para el experimento simulado como para el remoto y
deben también comparar los resultados de las gráficas
mostradas en las Figuras 2 y 7. Por tanto, los ajustes por
100cias@uned
FisL@bs continua el trabajo iniciado con el proyecto AutomatL@bs, extendiendo su utilidad desde la educación en Ingeniería de Control a la educación en Ciencias Físicas. FisL@bs hereda la sólida estructura de su
exitoso homólogo y cambia únicamente los experimentos remotos y simulados para apropiarlos a un curso de
Física. Se pretende que FisL@bs comience a funcionar
como experiencia piloto durante el curso 2010-2011, con
un repertorio inicial de unos 5 ó 6 experimentos (típicos
todos de cursos introductorios) de diferentes campos de
la Física. Los planes a largo plazo son mantener este
portal y desarrollar y añadir nuevos experimentos remotos y virtuales a la red para cursos más avanzados.
Para los dos ejemplos aquí presentados, los experimentos simulados sirven a los estudiantes como un primer contacto con el fenómeno que se estudia: descubrir
las leyes de Snell y de Hooke y analizar la variación de
la energía potencial de un muelle. Continuando el estudio de estos mismos ejemplos, la experimentación remota permite a los estudiantes comprobar empíricamente
las leyes de Snell y de Hooke con un experimento real.
Aunque estos experimentos (y los fenómenos que tratan)
son relativamente sencillos, los estudiantes no sólo
aprenderán acerca de asuntos como la refracción, la reflexión, los índices de refracción, los muelles y la ley de
Hooke, sino que también lo harán sobre temas como la
medida de incertidumbres, cálculo de errores y regresiones lineales, etc. Los datos recogidos durante las experimentaciones reales y simuladas pueden ser guardados, de
modo que los estudiantes pueden comparar y contrastar
los resultados teóricos con los empíricos, lo que constituye uno de los pasos fundamentales del método científico. Dado que tanto el control remoto de la elongación
del muelle como el del posicionamiento del láser se hace
con una precisión alta (comparable con la utilizada en la
realización de estos experimentos en el laboratorio presencial), los estudiantes obtienen medidas suficientemente buenas con las que poder trabajar.
Hay otros experimentos que se encuentran en proceso de desarrollo, como el péndulo rígido, el banco óptico, la fresadora, etc. Todos estos experimentos (tanto en
192 Enseñanza
versión simulada como remota) serán integrados en la
red de laboratorios de física que constituyen FisL@bs.
Todos usarán la misma estructura y las mismas herramientas de software, aunque los materiales para sus
montajes difieran. La fresadora, por ejemplo, está construida también con piezas de Lego y su diseño está basado en el que se muestra en [27]. Emplea tres motores
NXT, un sensor de contacto, un par de pistones neumáticos, el brick inteligente NXT, un sensor de voltaje, una
fuente de alimentación y muchas otras piezas de Lego.
Dos de los motores NXT controlan la posición en las
coordenadas «x» e «y» del sensor de voltaje mientras que
el tercero se encarga de los pistones neumáticos, permitiendo que el sensor baje o suba para estar (o no) en
contacto con la hoja de papel resistivo e iniciar (o cesar)
la medición. La Figura 9 muestra una imagen del montaje para este experimento de electrostática. Aunque dicho montaje está terminado, el experimento virtual y
algunos detalles del control remoto aún están siendo
perfilados.
3.
4.
5.
6.
7.
8.
BIBLIOGRAFÍA
1.
2.
Chang, G.W., Yeh, Z.M., Chang, H.M. and Pan, S.Y.,
«Teaching Photonics Laboratory Using Remote-Control Web Technologies», IEEE Trans. Edu., 48, 642–
651 (November 2005).
S.C. Sivakumar, W. Robertson, M. Artimy and
Aslam, N., «A Web-Based Remote Interactive Labo-
9.
ratory for Internetworking Education», IEEE Trans.
Edu., 48, 586-598 (November 2005).
Alhalabi, B. et al. «Remote Labs: An innovative Leap
in the World of Distance Education», Proc. of the 4th
Multi Conf. on Systemic, Cybern. and Informatics,
and the 6th Int. Conf. on Information Syst., Anal.
and Synthesis, Orlando, Florida, 303-307 (July
2000).
Gorrel, J., «Outcomes of Using Computer Simulations», J. of Research on Comp. Educ., 24-3, 359366 (1992).
Hwang, F.K., «NTNU Virtual Physics Laboratory:
Java Simulations in Physics», Multimedia in Physics
Teaching and Learning Conference, Udine, Italia
(2009).
Christian, W. and Belloni, M., Physlet Physics, Prentice Hall, EE.UU. (2004).
Kocijancic, S., «Online Experiments in Physics and
Technology Teaching», IEEE Trans. Edu., 45, 26-32
(February 2002).
Schauer, F., Kuritka, I. and Lustig, F., «Creative Laboratory Experiments for Basic Physics using Computer Data Collection and Evaluation Exemplified
on the Intelligent School Experimental System
(ISES)», iNEER Special Volume: Innovations 2006,
305-312 (2006).
Park, S.T., Lee, H., Yuk, K.C. and Lee, H., «Web-Based
Nuclear Physics Laboratory», Recent Research Developments in Learning Technologies, 1165–1169 (2005).
Figura 9. Fresadora para el
experimento de electrostática.
100cias@uned
193 Enseñanza
10. Schauer, F., Lustig, F. and Ozvoldova, M., «Remote
Scientific Experiments Across Internet: Photovoltaic
Cell Characterization», Interactive Aided Comput.
Learning, Villach, Austria (September 2006).
11. Gurkan, D., Mickelson, A., and Benhaddou, D., «Remote Laboratories for Optical Circuits», IEEE Trans.
Edu., 51, 53-60 (February 2008).
12. Macías, M.E. and Méndez, I., «eLab - Remote Electronics Lab in Real Time», IEEE Frontiers in Educ.
Conf. - Global Eng.: Knowledge Without Borders,
Opportunities Without Passports, S3G-12–S3G-17
(October 2007).
13. Moon, I., Han, S., Choi, K., Kim, D., Jeon, C., Lee, S.
and Woo, S., «A Remote Laboratory for Electric Circuit using Passive Devices Controlled», Proc. of the
Int. Conf. on Engineering Educ., Budapest, Hungría
(July 2008).
14. Gröber, S., Vetter, M., Eckert, B. and Jodl, H.J., «Remotelly Controlled Laboratories: Aims, Examples
and Exercises», American J. of Physics, 76-4, 374378 (2008).
15. Vargas, H. et al., «The Spanish University Network of
Web-based Laboratories for Control Engineering Education: The AutomatL@bs Project», European Control Conf., Budapest, Hungría (2009).
16. Dormido, R., Vargas, H., Duro, N., Sánchez, J.,
Dormido-Canto, S., Farias, G., Esquembre, F. and
Dormido, S., «Development of a Web-Based Control
Laboratory for Automation Technicians: The ThreeTank System», IEEE Trans. Edu., 51, 35-43 (February 2008).
17. Esquembre, F., «Easy Java Simulations: A Software
Tool to Create Scientific Simulations in Java», Comput. Physics Commun., 156-2, 199–204 (2004).
18. Christian, W. and Esquembre, F., «Modelling Physics
with Easy Java Simulations», The Physics Teacher,
45-8, 475-480 (November 2007).
19. Gillet, D., Nguyen Ngoc, A.V. and Rekik, Y., «Collaborative Web-based Experimentation in Flexible
Engineering Education», IEEE Trans. Edu., 48, 696704 (November 2005).
100cias@uned
20. Vargas, H., Sánchez, J., Dormido, S., Salzmann, C.,
Gillet, D. and Esquembre, F., «Web-Enabled Remote
Scientific Environments», Comp. Sci. and Eng., 11-3,
36-46 (2009).
21. Travis, J. «Using Java with LabVIEW», Internet
Applications in LabVIEW, Prentice-Hall, EE.UU.
(2000).
22. Iversen, T.K. et al. «Model-checking real-time control programs: verifying LEGO(R) MINDSTORMSTM
systems using UPPAAL», 12th Euromicro Conf. on
Real-Time Syst., Estocolmo, Suecia, 147-155 (June
2000).
23. Trung, P. et al., «Development of Vision Service in
Robotics Studio for Road Signs Recognition and
Control of LEGO MINDSTORMS ROBOT», IEEE Int.
Conf. on Robotics and Biomimetics, Bangkok, Tailandia, 1176-1181 (February 2008).
24. Kim, S.H. and Jeon, J.W., «Introduction for Freshmen
to Embedded Systems Using LEGO Mindstorms»,
IEEE Trans. Edu., 52, 99-08 (February 2009).
25. García-Cerezo, A. et al., «Using LEGO Robots with
LabVIEW for a Summer School on Mechatronics», Proc. 2009 IEEE Int. Conf. on Mechatronics,
Málaga, España, 1-6 (April 2009).
26. Dormido, S. et al., «Developing and Implementing
Virtual and Remote Labs for Control Education: The
UNED pilot experience», 17th Int. Federation of Automat. Control World Congr., 8159-8164 (July 2008).
27. I. Newton, Opticks or a treatise of the reflections, refractions, inflections and colours of light. London
(1704).
28. A. Søborg, Anders’ Mindstorms Page [Online]. Disponible en: http://www.norgesgade14.dk/index.php.
Luis de la Torre Cubillo
Dpto. de Informática y Automática
ETS de Ingeniería Informática
Juan Pedro Sánchez Fernández
Dpto. de Física de los Materiales
194 Enseñanza
100cias@uned
N.º 2
Enseñanza
(nueva época)
| 2009
ISSN: 1989-7189
RECENSIONES DE LIBROS
MECÁNICA CUÁNTICA.
FUNDAMENTOS Y APLICACIONES
Autores: Marcelo Alonso y Henry Valk.
Edición a cargo de Jesús Martín Martín
Editorial: Ediciones Universidad
de Salamanca, 760 págs. (2009)
ISBN: 978-84-7800-330-3
Muchos físicos en todo el mundo iniciaron sus estudios universitarios con el libro Física de Marcelo Alonso
y Edward Finn, el «Alonso-Finn»
como se le conocía familiarmente.
La primera edición del libro data de
1967 y se enmarca en esa campaña
de renovación de los textos de física que se produjo en los Estados
Unidos en la década de los 60. Desde entonces el libro ha tenido continuas reediciones y mejoras: se han
vendido más de 1.500.000 ejemplares y se ha traducido a 15 idiomas.
Menos conocido era que Marcelo Alonso había escrito también,
en colaboración con Henry Valk,
un texto sobre Mecánica Cuántica,
que publicó Addison Wesley en
1983, aunque dejó de editarse años
más tarde.
En sus últimos años de vida,
Marcelo Alonso mantuvo una intensa relación con la
física en España. Sus visitas eran frecuentes, especialmente para participar en encuentros sobre la enseñanza
de la física. De uno de estos encuentros nació la idea de
hacer una edición española de su libro, tarea cuya dirección asumió Jesús Martín. Alonso acogió la idea con
entusiasmo y escribió unas notas introductorias para
esta nueva edición. Desgraciadamente, Marcelo murió
sin ver la obra concluida.
El libro se titula Mecánica Cuántica. Fundamentos
y Aplicaciones. Afirman los autores que «aunque exis-
100cias@uned
ten muchos textos… solo hay unos pocos que ponen el
acento adecuadamente en la aplicación de las técnicas
cuánticas a problemas específicos, tal y como ocurre
con otros textos orientados, por ejemplo, a la Mecánica
Clásica o al Electromagnetismo». El presente libro, en
consecuencia, ha sido escrito con el propósito de cubrir
la necesidad de una exposición de este tipo, sin despreciar en exceso los fundamentos de la Mecánica
Cuántica».
Los capítulos 1 y 2 constituyen una buena exposición de la mecánica ondulatoria elemental: ecuación
de Schrödinger estacionaria y dependiente del tiempo,
corriente de probabilidad, pozos de potencial, escalones
y barreras, etc. También incluye un
tratamiento, basado en el principio de correspondencia, de la radiación dipolar, probabilidades de
transición y reglas de selección.
Concluye con una interesante discusión de la molécula de amoniaco
como ejemplo de un pozo doble
con efecto túnel.
El capítulo 3 expone el formalismo abstracto de la mecánica
cuántica. Como ya es habitual en
muchos textos similares, los autores optan por definir directamente
los bra como simples vectores
conjugados de los kets sin pasar
por la introducción de los funcionales en un espacio dual. Aceptado este «atajo», el capítulo explica
de un tirón la teoría de la transformación, la descomposición espectral de operadores, las representaciones
de posiciones y momentos y las imágenes de Schrödinger, Heisenberg e interacción.
El capítulo 4 trata de las fuerzas centrales. Se incluye
aquí el estudio de los estados moleculares de vibración y
rotación. Más sorprendente es la inclusión en este capítulo del estudio de sistemas en presencia de un campo
magnético; en cualquier caso, es un tema que debe estar
tratado en cualquier libro, independientemente de en qué
lugar se incluya.
195 Enseñanza
El capítulo 5 está dedicado a los métodos aproximados
para estados acotados: método variacional, WKB y métodos perturbativos con diferentes variantes. Dentro del método variacional hay interesantes aplicaciones al estudio
del átomo de He y la molécula H2+.
El capítulo 6 trata la teoría formal del momento angular.
El capítulo 7 trata las interacciones dependientes
del espín, con interesantes aplicaciones a los efectos
eléctricos y magnéticos en las interacciones nucleares.
Además, y esto es algo difícil de encontrar en otros libros, utiliza el formalismo del isospín para estudiar las
interacciones fuertes.
El capítulo 8 trata los sistemas de muchas partículas,
aunque se centra básicamente en sistemas de fermiones. Se
estudian así las estructuras de átomos y moléculas. También se trata el formalismo partícula-hueco y se aplica a líquidos de Fermi, aunque no hay una aplicación concreta a
la teoría de los metales y los semiconductores. Por el contrario, apenas se consideran sistemas de bosones.
El capítulo 9 trata de las perturbaciones dependientes
del tiempo y los procesos radiativos. Como es habitual
se incluye la cuantización del campo electromagnético y
se estudia la absorción y emisión de radiación. Pero más
allá de esto, hay aquí un interesante conjunto de aplicaciones que no se suelen encontrar en textos introductorios: dispersión Raman, efecto Lamb, momento magnético anómalo.
El capítulo 10 trata la teoría de la dispersión, incluida la dispersión por fuerzas dependientes del espín y
los efectos de polarización.
El capítulo 11 trata la mecánica cuántica relativista y
el capítulo 12 es una buena introducción a la teoría
cuántica de campos, con la utilización de los diagramas
de Feynman que ya se habían introducido de forma elemental en el capítulo 8.
El libro se completa con tres apéndices sobre Mecánica Relativista, Transformación de Fourier y Funciones
Especiales.
Dada la fecha de su publicación original, es explicable que no se traten temas que han cobrado relevancia
desde entonces: condensados de Bose-Einstein, teoría de
la medida, información cuántica, entrelazamiento, etc.
(En este sentido es discutible la afirmación de que «poco
ha cambiado la mecánica cuántica desde la fecha de publicación del libro en lo que se refiere a sus aspectos
fundamentales».) Pero ya se ha dicho que el acento está
puesto fundamentalmente en las aplicaciones, y éstas
100cias@uned
son realmente interesantes y variadas. Hay que señalar,
no obstante, que las aplicaciones se limitan al dominio
atómico, nuclear y molecular, y no se extienden a la física del estado sólido, metales, semiconductores, etc. que
ya disponen de una abundante bibliografía por sí mismas.
Como ya se ha dicho, los autores escribieron unas
notas para la edición española. No obstante, dichas notas
son básicamente introducciones históricas y no modifican la estructura ni los contenidos del libro original.
Por ello se han incluido todas al principio de la edición
española.
El libro, con una selección apropiada de capítulos,
dada la abundancia de material, puede ser utilizado como
libro de texto en un curso de Mecánica Cuántica. Adicionalmente puede ser un buen libro de consulta para algunos temas más específicos que rebasan los contenidos
de un Grado. Por ello, esta traducción es bienvenida especialmente en un mercado en lengua castellana, donde
la existencia de textos de esta materia es bastante escasa.
J. Javier García Sanz
Dpto. de Física Fundamental
TOXICOLOGÍA FUNDAMENTAL
(4ª edición)
Autores: Manuel Repetto Jiménez y
Guillermo Repetto Kuhn
Editorial: Díaz de Santos, 587 págs. (2009)
ISBN: 978-84-7978-898-8
Precio: 54,00 €
Vista previa del libro: http://www.
diazdesantos.es/libros/repetto-jimenezmanuel-toxicologia-fundamentalC0000410004015.html#contenido
Contenido: Desarrollo y evolución histórica de la Toxicología. Conceptos y definiciones: Toxicología, Toxicidad. Tránsito de los xenobióticos en el organismo: Toxicinética. Biotransformaciones de los tóxicos. Fenómenos
de inhibición, activación e inducción enzimática. Mecanismos de toxicidad. Factores que modifican la toxicidad.
Interacciones entre fármacos. Antagonistas y antídotos.
Evaluación de la toxicidad y del riesgo: Toxicología experimental. Toxicología clínica. Diagnóstico de la intoxicación. El análisis químico-toxicológico. Sistemáticas
analíticas toxicológicas. Bases generales para la asistencia y tratamiento de intoxicados.
196 Enseñanza
NI TONTAS NI LOCAS.
LAS INTELECTUALES EN EL MADRID
DEL PRIMER TERCIO DEL SIGLO XX
Coordinadoras: Paloma Alcalá Cortijo, Capi
Corrales Rodrigáñez y Julia López Giráldez
Editorial: FECYT (febrero, 2009)
En esta nueva edición, los autores siguen manteniendo el mismo número de capítulos (16), pero introduciendo los avances más importantes en las distintas facetas de esta ciencia. Se mantiene la misma estructura de la
tercera edición, manteniendo aquellos capítulos dedicados
al conocimiento de los principales cimientos de la Toxicología: bases químicas, biológicas, bioquímicas, anatómicas y fisiológicas, que se van profundizando a lo largo
de los capítulos, tratando de incorporar los conocimientos
toxicológicos basados en la evidencia más reciente y los
avances sobre mecanismos de toxicidad que permiten
comprender los procesos fisiopatológicos y las posibilidades terapéuticas. Igualmente, las bases toxicocinéticas
contribuyen al diagnóstico y a la interpretación de los resultados analíticos; se renueva en su totalidad el capítulo
11 dedicado a la evaluación de la toxicidad y del riesgo
tóxico. Se han introducido nuevos esquemas, figuras y
tablas que ayudan a clarificar los conceptos con menor
exigencia memorística. Tal y como comentan los autores,
la Toxicología mecanicista, hoy en día, es más importante que la descriptiva clásica con el estudio del tóxico a tóxico, relegado a diccionarios o enciclopedias.
El libro resulta de gran utilidad para todos los estudiosos y profesionales, y no sólo de la Toxicología y
ciencias afines (Ciencias Experimentales, de la Vida y
Ambientales, Medicina Clínica y Forense, Ingenierías,
etc.). El libro no es un diccionario o catálogo de tóxicos
sino una revisión progresiva y panorámica de la ciencia
toxicológica en nuestros días.
J. Senén Durand Alegría
Dpto. de Ciencias Analíticas
100cias@uned
Este libro surgió como un proyecto en el Año de la
Ciencia 2007, proclamado así para celebrar el centenario
de la creación de la Junta de Ampliación de Estudios
(JAE) y dar un impulso fundamental a la cultura científica en nuestro país. La celebración del Año de la Ciencia
en España representó una oportunidad única para promover la cultura científica de la ciudadanía, realizando
un esfuerzo por mejorar la comunicación entre los investigadores y la población en general y por propiciar en
la sociedad un mejor conocimiento sobre el rol de la
ciencia y la tecnología en el desarrollo socioeconómico y
el bienestar social. Con todo ello se pretendía, en primer
lugar, que la ciudadanía fuera más capaz de comprender
y de valorar el esfuerzo de todas las administraciones por
fomentar la investigación científica y tecnológica; en
segundo lugar, estimular entre los ciudadanos el interés
por la ciencia y la tecnología, así como fortalecer las enseñanzas científico-técnicas mediante el aumento de vocaciones y la mejora docente, y, en tercer lugar, que el
sistema científico-tecnológico estuviera más abierto a
las inquietudes y a los intereses de los ciudadanos. Y no
debemos olvidar que las mujeres constituyen la mitad de
esa ciudadanía.
Cuentan María Teresa León y Carmen
Baroja en sus respectivas memorias que, al
invitar a Jacinto Benavente a dar una conferencia en el Lyceum
Club de Madrid, el autor contestó que no
hablaba «a tontas y a
locas». Esta institución,
una de las muchas
creadas durante el primer tercio del siglo
Portada del volumen 1: Ni tontas
XX, nació de la mano
ni locas. Las intelectuales en el
de un grupo de mujeMadrid del primer tercio
del siglo XX.
res, en absoluto tontas,
197 Enseñanza
Institución Libre de Enseñanza, que
revolucionó la docencia desde finales
del siglo XIX, abogando por la libertad de cátedra, laica y sin dogmatismos e introduciendo nuevos
métodos pedagógicos y teorías científicas. Dicha institución mantuvo
una línea fuerte de apoyo a la educación de las mujeres y a su promoción en la investigación y a la docencia. La Residencia de Señoritas,
que junto con la de varones formaban la Residencia de Estudiantes y a
través de la JAE dependía del Ministerio de Instrucción Pública, no sólo
permitió que mujeres de fuera de
Madrid pudieran ir a esa ciudad a
cursar estudios universitarios o de
Biblioteca de la Residencia de Señoritas (c/ Fortuny, 53, Madrid).
magisterio sino que contribuyó de
manera activa a crear una atmósfera
pero que debían de tener un punto de locura para lanfértil a la vez que fomentó en las mujeres jóvenes de la
zarse a la aventura intelectual de modernizar España.
época aspiraciones personales y profesionales. En ella se
Esa empresa había recibido su máximo impulso en 1907
ofrecían actividades y servicios tales como laboratorios,
con la creación de la Junta de Ampliación de Estudios e
biblioteca, cursos de idiomas, conferencias y clases comInvestigaciones Científicas, que se ha considerado el
plementarias a las que se impartían en la Universidad.
primer proyecto modernizador de la cultura emanado
Además, la JAE desarrolló un programa de pensiones
del Estado y que apostaba por la ciencia como elemeno becas para cursar estudios o investigar en el extranjeto fundamental de ésta. Este libro quiere ser un pero, del que no sólo se aprovecharon los varones: entre
queño reconocimiento a muchas de las que lo hicieron
1908 y 1934, se concedieron 121 pensiones a mujeres, 8
posible.
de las cuales fueron a grupos para visitar el funcionaA comienzos del siglo XX, el analfabetismo era casi
miento educativo de otros países. Gracias a estas pengeneral en nuestro país, pues alcanzaba a más del setensiones algunas mujeres pudieron estudiar la situación
ta y uno por ciento en las mujeres y el cincuenta y cinco
social de las mujeres en Europa, los aspectos pedagógicos
por ciento en los hombres. Poco a poco se fue reduciende la enseñanza de las ciencias, problemas o técnicas esdo y las mujeres comenzaron a frecuentar las universipecíficas y especializarse en diversas disciplinas que iban
dades. Las mujeres españolas podían entrar en la Unidesde las matemáticas a las humanidades, pasando por la
versidad desde 1868, pero en el año 1882 una Real
fisiología general y vegetal, la genética o la botánica.
Orden suspendió ese derecho a menos que lo permitiera
Las mujeres físicas y químicas, por ejemplo, tuvieron
la autoridad competente. Cuando se creó la Junta de
un papel destacado en esta época, pues fueron numeroAmpliación de Estudios e Investigaciones Científicas
sas las que pasaron por el Instituto Nacional de Física y
(JAE), todavía no se les permitía el acceso sin restriccioQuímica, como becarias o colaboradoras y contribuyenes, pero en 1910 el Ministro de Instrucción Pública,
ron, fundamentalmente, en dos campos: el de la especJulio Burell, promovió la Real Orden que permitía el actroscopia y el de la electroquímica. Todas ellas fueron
ceso de las mujeres a la Universidad libremente.
«alumnas brillantes e investigadoras fructíferas». PerteEl primer tercio del siglo XX fue un periodo en el
necían a la clase media ilustrada, pues eran hijas de
que se crearon nuevos e importantes mecanismos e insfuncionarios, catedráticos, etc., y con madres que ejertituciones para mejorar y promover la investigación y
cían de amas de casa. Para que nos hagamos una idea, el
educación científicas. La JAE hizo suyas las ideas de la
grupo de científicas del Instituto Nacional de Física y
100cias@uned
198 Enseñanza
Química (en su
mayoría licenciadas en Química o
Farmacia, sólo seis
en Física) realizó
un total de 63 publicaciones entre
1931 y 1937.
En la década
de 1920, el número de becadas o
pensionadas aumentó significativamente, gracias,
en parte, al acuerdo suscrito con la
Association of Collegiate Alumnae,
fundada en EstaPáginas 206 y 207 del primer volumen.
dos Unidos en
1881 con el objetide expertas que debían ocuparse de proponer, diseñar o
vo de promover la educación universitaria de las mujeevaluar acciones encaminadas a recuperar el trabajo y
res. Dicho acuerdo permitió intercambiar alumnas y prolas vidas de las mujeres en este periodo singular de nuesfesoras entre las universidades españolas y los Women’s
tra época. El grupo estaba formado por Paloma Alcalá,
Colleges norteamericanos, que complementaba otro susAntonio Canales, Rosa María Capel, Capitolina Díaz,
crito previamente con el International Institute for Girls
Consuelo Flecha, Alicia Gómez Navarro, Carmen Magade Madrid.
llón, Elisa Navas, Pilar Piñón, Ana Romero y yo misma,
Así pues, a lo largo del primer tercio del siglo XX las
que en aquél entonces estaba al frente de la Fundación.
españolas se unieron a sus congéneres europeas y norteSu trabajo y esfuerzo dio como resultado diversas actiamericanas en su afán por incorporarse a estudios, providades como seminarios, exposiciones, etc. Este libro, a
fesiones y actividades que antes les estaban vedadas, y
cargo de Paloma Alcalá, Capi Corrales y Julia López
entraron a formar parte de los grupos de investigación y
Giráldez pretende, como no podía ser menos, recuperar a
las sociedades científicas. Por ejemplo, en este periodo
esas mujeres que han contribuido a nuestro pensamiento,
entra la primera mujer en una Real Academia: Mercedes
a nuestra cultura, en especial la científica. A hacerlas
Gabrois fue admitida en la Real Academia de la Historia
visibles.
en 1932, aunque ingresó en 1935 (tendrían que pasar
Las autoras han contado para ello con la colaboramás de cincuenta años para que otra mujer ingresara en
ción de un nutrido grupo de especialistas: Rosa Capel
otra Real Academia: María Cascales lo hizo en la de
Martínez, Antonio Canales Serrano, Consuelo Flecha
Farmacia en 1987). La JAE, animada por María de MaezGarcía, Carmen Magallón Portolés, Teresa Marín Eced,
tu, auténtica y entusiasta impulsora de la educación suIsabel Pérez-Villanueva, Pilar Piñón, Mercedes Rico Caperior de las mujeres y de la moderna renovación pedarabias y Conchita Zamacona. El libro, en dos volúmenes,
gógica en todos los niveles, contribuyó a ello con su
se estructura de la siguiente manera. En primer lugar se
política equitativa de becas, dejando las mujeres de ser
nos ofrece una panorámica de la lucha por conseguir el
una excepción en la ciencia y la cultura españolas. Sin
acceso a la educación en Europa y América y el papel
embargo, estas y otras muchas mujeres han estado y esque el Instituto Internacional desempeñó en España. En
tán en el olvido, algo que pretende corregir esta obra.
la segunda parte, «Tiempo de Esperanza. España 1900A comienzos del año 2007, la Fundación Española
1936» se analiza la situación de la mujer en España
para la Ciencia y la Tecnología (FECYT) reunió un grupo
100cias@uned
199 Enseñanza
(dando la palabra a una de nuestras feministas avant
garde, Dña. Emilia Pardo Bazán), de la educación ‘femenina’ y del feminismo en ese periodo. En la tercera
parte, «Madrid se abre al mundo. Ni tontas ni locas», se
presenta la renovación pedagógica que para el
conocimiento en general y para las mujeres en particular
supuso la Institución Libre de Enseñanza y la JAE, con
especial atención a la Residencia de Señoritas y a su directora, María de Maeztu, tan injustamente invisibilizada.
Termina este primer volumen con un «Epílogo» que consta de tres secciones: en una, Josefina Rico Carabias evoca a su madre, la singular Josefina Carabias, que tantos
límites rompió; en otra, Conchita Zamarcona, antigua
residente, recuerda la Residencia y cómo se fue de ella
sin saber que sería para siempre (palabras que la Sra. Zamarcona pronunció en el acto Memoria y homenaje:
Científicas, pensadoras y educadoras de la Edad de Plata, organizado por FECYT en junio de 2007). Y Paloma
Alcalá y Antonio Canales, en un sentido, sintético y lúcido artículo presentan el desolador paisaje que quedó en
la educación y la ciencia españolas tras la Guerra Civil.
A lo largo del libro se van intercalando biografías de
muchas de las mujeres, desconocidas para la mayoría y
sobre todo para las y los jóvenes, que contribuyeron al
florecimiento del conocimiento en este periodo. Este
tomo termina con un listado de esas mujeres y lo que
fue de ellas tras la contienda.
El segundo volumen de este libro nos propone y
ofrece un paseo por el Madrid en el que vivieron nuestras protagonistas, por los edificios en los que estudiaron
o trabajaron, por los cafés en los que se citaban y charlaban. Todo ello con magníficos dibujos salidos de la
pluma de Capi Corrales
que complementan las
lucidas y resplandecientes ilustraciones que
hay en los dos volúmenes. Y hay que resaltar, además, la
cuidadísima y vistosa
edición que la FECYT ha
hecho de esta obra.
En los años treinta,
las mujeres eran sólo el
8,8% de los estudiantes
universitarios. Hoy en
día, constituyen más del
Portada del volumen 2: Un paseo por
Madrid.
60% y, sin embargo, las
100cias@uned
catedráticas de universidad apenas llegan al 14%. A pesar de que Gloria Begué fue la primera mujer en ser Decana de una universidad española en 1969 (en la Facultad de Derecho de la Universidad de Salamanca), hoy,
cuarenta años después, el número de rectoras es meramente anecdótico y lo mismo sucede con las académicas
u otros puestos de responsabilidad o toma de decisiones.
Desde aquél año de 1907, que dio origen a este libro,
es mucho lo conseguido, es cierto. Pero todavía queda
mucho por hacer. Eliminar la discriminación jerárquica o
vertical que deja a la mayoría de las mujeres en los niveles más bajos o intermedios de los escalafones de sus
respectivas carreras; romper el techo de cristal, invisible
pero sofocante; acabar con la discriminación horizontal
o territorial que relega a las mujeres a profesiones o
campos marcados por el sexo (algo que se va reconfigurando en el conocimiento, aunque aún quedan campos
resistentes como las ingenierías o la filosofía).
Aún así, vamos avanzando. Y todo eso no habría
sido posible sin muchas mujeres que nos precedieron y
de muchas y muchos que nos acompañan en este camino. Pero, sobre todo, de mujeres que han sabido estudiar,
indagar, avanzando en el conocimiento. En un conocimiento que, respetando las diferencias, cuando las hubiere, promueve valores como la novedad o la mutualidad de interacción. Que da preferencia a programas de
investigación que incorporan relaciones de cooperación,
no de dominador/subordinado y, por tanto, propicia el
control democrático de la investigación. Un conocimiento, en suma, que promueve la igualdad entre todos
los seres humanos.
Y aún falta mucho por hacer, por lo que no debemos
renunciar al papel que nos corresponde en la sociedad,
en la cultura o en las profesiones. La lucha no es nueva
y tenemos modelos de referencia: por lo menos, las mujeres que aparecen en este libro que, sin duda, no son todas. Y no eran ni tontas, ni locas, tan solo mujeres que,
hace ya un siglo, como nosotras hoy, luchaban y apostaron por los mismos ideales de justicia e igualdad.
Los interesados en estos dos volúmenes pueden acceder a ellos a través de las siguientes direcciones:
http://www.fecyt.es/fecyt/docs/tmp/1256490884.pdf
http://www.fecyt.es/fecyt/docs/tmp/-1595437946.pdf
Eulalia Pérez Sedeño
Dpto. de Ciencia, Tecnología, Sociedad
Instituto de Filosofía (CSIC)
200 Enseñanza
Descargar