El significado de la expansión

Anuncio
El significado de la
expansión
Cuando Einstein introdujo en 1917 su modelo relativista de un universo
estático, casi nada de lo expuesto anteriormente era conocido, por lo que
no es sorprendente que fuera considerado una posibilidad viable.
Hubiera sido un paso sencillo, matemáticamente hablando, pasar de un
su modelo al de un universo en expansión. El hecho de que Einstein no
hiciera mención alguna a la posibilidad de la expansión, y por tanto de
que su idea de un espacio-tiempo estático era una hipótesis ad hoc, nos
da una buena idea de cuan revolucionario era este último paso. Ahora
sabemos que un universo estático tiene problemas conceptuales, aparte,
claro está, del hecho observacional de que el universo se expande. Si la
Relatividad General es válida, una distribución estática de masa es
gravitacionalmente inestable, por lo que, incluso con el actual grado de
homogeneidad, no persistiría mucho más allá del tiempo de una vida de
una estrella de tipo solar. La misma situación se presentaba dentro de la
teoría newtoniana pero, a diferencia de Einstein, éste parecía consciente
del problema. En su Óptica de 1704 se preguntaba: "¿Qué impide que
las estrellas fijas caigan las unas sobre las otras?". La respuesta que dio
Newton a este dilema fue que en un universo infinito no habría centro y
por tanto no existiría un lugar especial hacia donde se dirigiría el colapso
de la materia:
"Pero si la materia estuviera distribuída a través de un espacio infinito,
ésta no podría reunirse en una masa; sino que una parte podría reunirse
en una masa y otra parte en otra, hasta producirse un número infinito de
grandes masas, dispersadas a grandes distancias una de la otra a través
de todo el espacio infinito. Y así podrían haberse formado el Sol y las
estrellas fijas, asumiendo que la materia fuera de una naturaleza "lúcida".
(La referencia a la materia "lúcida" se refiere a la creencia de Newton de
que el Sol y las estrellas estaban hechas de una materia diferente a la
que se encuentra en la Tierra).
Newton cometió un error de razonamiento: en un espacio infinito ¡sí
que la materia puede colapsar sobre sí misma uniformemente a través de
todo el espacio y sin elegir un centro determinado!, contrariamente a lo
que podría indicarnos la intuición.
En 1917, de Sitter exploraba en un artículo las implicaciones
astronómicas del modelo de Einstein. En él señalaba que era posible otra
solución de las ecuaciones de campo de la Relatividad General para un
universo que es homogéneo, isótropo y cuya ecuación de campo fuera la
misma propuesta por Einstein. La solución de de Sitter requería que la
densidad de materia del universo fuera despreciable, es decir, que el
universo fuera esencialmente vacío. El modelo predecía un
desplazamiento al rojo de los objetos lejanos que aumentaba con la
distancia, el que fue denominado efecto de scattering de de Sitter. La
posible constatación de este efecto fue lo que llevó a Hubble a sus
fructíferas observaciones de la relación entre desplazamiento al rojo y
distancia. Pero la evidencia observacional era la de un universo que
estaba lejos de ser vacío. Esto podría ser un fuerte argumento a favor de
la solución de Einstein de un universo lleno de materia, pero los datos
tampoco encajaban. La solución de este callejón sin salida fue divulgada
en 1930 por el sacerdote y astrónomo belga Georges Édouard Lemaître
(1894-1966).
Nacido el 17 de Julio de 1894 en Charleroi, Bélgica, Lemaître prestó
servicios en la Primera Guerra Mundial donde ganó medallas al valor. De
personalidad más bien agresiva, fue expulsado de la clase de
preparación militar por desafiar una respuesta incorrecta de su maestro
en un problema de balística. Durante una tregua en la guerra, Lemaître
leyó un libro sobre cosmología de Poincaré y quedó impresionado por los
desafíos que éste planteaba. En 1927 publicó en una desconocida
revista belga la que ahora es la aceptada solución de un universo lleno
de materia en expansión, originalmente investigada por el físico ruso
Alexander Friedmann en dos artículos: uno de 1922, donde se ocupaba
del caso de un universo con una geometría cerrada del mismo tipo que la
del modelo de Einstein, y otro en 1924 donde estudió el caso de una
geometría abierta en un universo infinito en eterna expansión. Entre 1927
y 1933, Lemaître esbozó la más antigua versión de la teoría del Big
Bang. La llamó "la hipótesis del átomo primitivo". Sugería que el universo
había nacido de un solo cuanto de energía y trató, sin éxito, de interesar
a Einstein y de Sitter en su teoría. En 1927 buscó a Einstein en la Quinta
Conferencia Solvay de Bruselas a fin de defender sus ideas, pero
Einstein estuvo brusco y seco: "sus cálculos son correctos, pero su visión
física es abominable". El viejo maestro de Lemaître, Sir Arthur Stanley
Eddington (1882-1944), probablemente el científico más influyente de la
época, tampoco estaba dispuesto a hablar de comienzos cósmicos. En
un artículo de Nature de 1931 escribía: "Filosóficamente, la noción de un
principio para el presente orden de la Naturaleza es repugnante". El 9 de
mayo de 1927, Lemaître publicaba sus ideas en la revista Nature, en una
misiva que ha sido llamada a veces "la carta magna de la teoría del Big
Bang". Cinco años más tarde, Eddington rectificó su actitud publicando
un manuscrito que le había entregado Lemaître y que había
convenientemente archivado, lo que constituyó un signo definitivo de
aprobación.
¿Qué se entiende por un universo en expansión?. La expansión no es
más que el incremento con el tiempo de la distancia entre cualquier par
de galaxias lejanas. Se suele utilizar para representar este hecho la
analogía de un globo donde hemos pintado una serie de puntos a modo
de galaxias. La goma podría representar al espacio y a medida que
inflamos el globo los puntos se alejan unos de otros.
Pero el lector debería tener cuidado en llevar esta analogía demasiado
lejos. Algunas personas plantean inmediatamente por qué no todos los
objetos se están expandiendo: por ejemplo¿por qué no aumenta la
distancia entre el Sol y la Tierra?. La respuesta es que los sistemas
unidos bajo la fuerza gravitatoria no están en expansión debido a que el
efecto gravitatorio local domina sobre la tendencia a la expansión. Por
ejemplo, la galaxia Andrómeda, que se encuentra a unos dos millones de
años luz de distancia, está unida gravitacionalmente al Grupo Local de
galaxias, del que nuestra Vía Láctea forma parte. Andrómeda no se está
alejando de nosotros, sino que de hecho se acerca a una velocidad de
unos 100 km/s. Otra interpretación posible de la expansión sería que se
está creando continuamente espacio entre las galaxias, pero esto nos
confunde más que aclararnos las ideas. Podemos desde luego seguir
haciendo cosmología con el mismo poder de predicción sin plantearnos
este tipo de cuestiones, al igual que podemos estudiar la cinemática de
un proyectil sin entender en profundidad lo que es el espacio, el tiempo o
la gravedad. A todos nos intriga el significado profundo del tiempo, del
espacio y de todas estas cuestiones, y por supuesto es un reto para la
ciencia el profundizar en el conocimiento de estos conceptos, que de
hecho es a donde nos ha llevado la Relatividad General. Pero la ciencia
tiene que basar sus predicciones en magnitudes que podamos observar,
es decir, que nuestras definiciones tienen que ser operacionales. La
definición de expansión del universo es operacionalmente muy concreta
y precisa: "el universo se expande en el sentido de que dos galaxias
distantes se alejan con una velocidad de la forma v = dD/dt = H D, donde
D es la distancia entre las galaxias y H la constante de Hubble en
cualquier instante de la vida del universo". Aquí hay varias cuestiones
fundamentales que aclarar:


¿Qué queremos decir con "dos galaxias distantes"?. Dos galaxias que no
estén unidas gravitacionalmente. Normalmente las galaxias forman parte
de cúmulos y éstos a su vez se agrupan en supercúmulos. Por tanto resulta
comprometido cuando tenemos que medir la velocidad de expansión, si
además tenemos velocidades peculiares de las galaxias relativas al centro
de gravedad del cúmulo del que forman parte, e incluso la velocidad
peculiar del propio cúmulo con respecto al centro del supercúmulo al que
pertenece. De esto se deduce que el trabajo observacional tiene más
triquiñuela de la que podría parecer a primera vista.
¿Qué entendemos exactamente por distancia en un universo dinámico y
con una geometría diferente de la habitual?. La distancia que aparece
etiquetada como D en la expresión anterior representa a una magnitud que


no se puede observar. Imagínese el lector una cadena ideal de galaxias
típicas que yacen cercanas unas a otras a lo largo de la línea de visión
entre nosotros y una galaxia lejana, y supongamos que en mismo instande
de la vida del universo cada observador mide la distancia a la galaxia que
tiene más próxima de una forma trivial, como enviando una señal de radar
y esperando su rebote. Sumando todas esas subdistancias obtenemos la
distancia etiquetada por D. Ahora bien, nuestras distancias observables son
aquellas que inferimos de los diámetros aparentes, de la luminosidad
aparente o del desplazamiento al rojo que presentan las galaxias. Por lo
tanto, lo mejor que puede hacer un cosmólogo observacional es eliminar la
distancia D y relacionar las cantidades observables como el diámetro
aparente, la luminosidad aparente y el desplazamiento al rojo.
¿Qué ocurre cuando la distancia es suficientemente grande para que la
velocidad v = dD/dt de alejamiento de una galaxia sea igual a la velocidad
de la luz?. ¿Estamos ante una violación de la Relatividad Restringida?. La
distancia D a la que la velocidad de expansión se extrapola hasta la de la
luz es conocida como radio de Hubble y es de uno 4,000-5000 Mpc
(depende por supuesto del verdadero valor de la constante de Hubble).
Ésta esfera de Hubble delimita la parte del universo donde las galaxias se
alejan del observador a mayor velocidad que la de la luz de la parte
sublumínica. Este hecho no viola el principio de relatividad restringida,
puesto que esa velocidad superrelativista consiste en realidad en la suma
de velocidades relativas de observadores cercanos situados a lo largo de la
línea que conecta las galaxias, cada uno de los cuales ve que la relatividad
restringida describe perfectamente lo que ocurre en su inmediata vecindad.
A medida que avanza el tiempo sin embargo el universo disminuye su
ritmo de expansión (en el caso más sencillo) y galaxias antes
superlumínicas pueden convertirse en sublumínica. En otras palabras, el
radio de Hubble aumenta con el tiempo. En principio, aunque parezca
poco intuitivo, se pueden observar galaxias situadas más allá del radio de
Hubble!!! (ver ejemplo). Las galaxias más lejanas que podemos en
principio observar son aquellas que tienen un desplazamiento la rojo
infinitamente grande. La distancia a la que se encuentran estos objetos se
denomina un horizonte de eventos porque los objetos que se encuentran
más allá de esta distancia son inobservables aún en principio (ver
horizontes en cosmología)
Con la anterior definición de distancia, la relación v = H D es una
consecuencia teórica del Modelo Estándar del Big Bang y es válida para
cualquier distancia. Pero no debemos confundir esta relación con la ley de
Hubble. La ley de Hubble relaciona el desplazamiento al rojo con la
distancia observable. Este desplazamiento al rojo puede ser explicado de la
siguiente manera: si imaginamos un rayo de luz que parte de una galaxia
lejana y tenemos en cuenta que la luz viaja a una velocidad finita, cuando
esta luz llegue al observador el universo será mayor que cuando fue
emitida (ver figura abajo). Por tanto, los valles y crestas de la onda de luz
no llegarán con una frecuencia menor que la que tenían en el momento de
la emisión, es decir, la longitud de onda estará alargada y por tanto la
radiación observada estará desplazada hacia la zona roja del espectro
electromágnético. Esta interpretación coincide con la debida a efecto
Doppler cuando la distancia considerada corresponde a tiempos muchos
menores que el tiempo de Hubble. Cuando las distancias son del orden del
radio de Hubble, las relaciones entre desplazamiento al rojo y distancia
observada se vuelve más compleja, tal y como el mismo Hubble había
sospechado.
Analogía del globo para dos instantes diferentes de la expansión del universo. Los puntos
amarillos representan galaxias o cúmulos de galaxias (en general estructuras ligadas
gravitatoriamente). Se puede observar la analogía de las onda de luz (en azul) estirándose
debido a la expansión del universo (en rojo) como interpretación estándar del
desplazamiento al rojo.
Por último podríamos discutir la causa de que el universo se expanda.
El único atisbo de repuesta que tenemos hoy en día proviene del campo
de la física de partículas: la productiva idea de unos primeros estadios
del universo donde la expansión fue de una manera exponencial y muy
brusca, conocida como modelo inflacionario. El modelo inflacionario llegó
a la cosmología para explicar algunos hechos curiosos que en el Modelo
Estándar no tienen explicación satisfactoria.




El problema de la curvatura nula, relacionado con la convegencia del valor
de la densidad hacia la densidad crítica a medida que nos acercamos en el
tiempo a la singularidad inicial.
El problema del horizonte cosmológico, relacionado con la homogeneidad
del universo: si miramos en direcciones opuestas del cielo encontramos el
mismo tipo de estructuras, aún cuando algunas de estas regiones no han
estado causalmente conectadas. ¿Cómo se explica entonces que se
parezcan tanto las unas a las otras?.
La suavidad de las perturbaciones gravitatorias que originaron las galaxias.
Si estas perturbaciones hubieran sido un poco más intensas, el universo
estaría lleno de objetos muertos, tales como agujeros negros y materia
ultradensa. Las galaxias y estructuras que vemos hoy en día jamas se
hubieran formado. Si hubieran sido algo menores el universo podría ser
mucho más homogéneo y pobre en estructuras.
Por último está un problema más propio de la física de partículas que es el
de la inexistencia de monopolos magnéticos.
La aparente solución de todos estos problemas han convertido al escenario
inflacionario en un modelo muy atractivo para explicar los primeros estadios de
la expansión. Me gustaría dejar bien claro, sin embargo, que el modelo de
universo inflacionario no es parte todavía del Modelo Estándar puesto que
observacionalmente sólo pueden comprobarse sus predicciones mirando en la
estructura de las variaciones de la radiación cósmica de fondo, un campo
observacional que todavía está en pañales. Según este escenario la causa de la
expansión provendría de la existencia, en los primeros estadios de la vida del
universo de un valor muy elevado de la constante cosmológica. Dicha constante
fue introducida por Einstein para salvar su modelo estático, hecho comentado
anteriormente. Su interpretación teórica no es muy satisfactoria, pero valdría
decir que añade un término a las ecuaciones de campo de la Relatividad General
con un efecto repulsivo que compensa la tendencia al colapso de la materia. El
valor de esta constante ha sido otra de las controversias de la cosmología actual.
Argumentos basado en teorías cuánticas de campos (donde la constante
cosmológica está relacionada con la densidad de energía del vacío) han
establecido un valor de ésta que es hasta ¡120 órdenes de magnitud! mayor que la
que se deduce de una simple evidencia astronómica. Esta evidencia indica que el
valor de la constante cosmológica tiene que yacer muy próximo a cero, de otra
manera el universo bien hubiera colapsado sobre sí mismo hace ya mucho tiempo
si el valor fuera negativo, bien, en caso contrario, se hubiera expandido tan
rápidamente que no hubiera dado tiempo a que se formaran las acumulaciones de
materia que dieron posteriormente lugar a las galaxias. Ésta es una coincidencia
numérica notable, que a unos hace plantear la plausible posibilidad que, de un
número que pueda tomar en principio un gran rango de valores, y que esté
observacionalmente tan cercano a cero, y que además fue introducido
innecesariamente en la teoría, su valor sea nulo.
Sin embargo, existen otras coincidencias numéricas que ya fueron
señaladas tan pronto como en 1937 por Paul Dirac (1902-84) y
reanalizadas posteriormente por Robert H. Dicke (n. 1916) del grupo de
teóricos de Princeton, lo que llevó a estos últimos a la formulación de lo
que se conoce como Principio Antrópico. La versión fuerte de este
principio nos dice que "el universo ha de ser tal que admita en su seno la
creación de observadores conscientes en alguna de sus fases". Pero
esto representa un cambio demasiado radical respecto al concepto
clásico de lo que entendemos por una explicación científica,
asemejándose más a la tradicional visión religiosa. Un poco más
aceptable podría ser una versión más débil de este principio que
podríamos enunciar como: "aquello que es factible observar está
delimitado por las condiciones necesarias para nuestra presencia como
observadores". Este enunciado no es más que un enunciado de un tipo
de principio de selección que tendría perfectamente sentido dentro de
escenarios inflacionarios (como inflación caótica de Linde) donde es
posible la existencia de innumerables universos con propiedades bien
diferentes. En dichos escenarios es una perogullada que sólo existirían
observadores en aquellos universo que, como el nuestro, poseen
condiciones apropiadas para el desarrollo de las formas biológicas
superiores. Aun así, muchos piensan recurrir sistemáticamente a un
principio de este tipo dentro de una ciencia empírica resultaría algo
descorazonador, si no inadmisible. Una discusión mucho más detallada
se puede encontrar en el artículo El Argumento del Diseño y El Principio
Antrópico.
seguir línea principal del texto
En el principio...
Bueno, lo que en realidad estamos llamando el principio aquí es el universo
cuando la temperatura rondaba los 100,000,000,000 K. El universo ya había
existido al menos por una pequeña fracción de segundo y estaba dominado por
radiación con unas pequeñas trazas de materia. La radiación estaba en forma de
fotones, neutrinos y antineutrinos. La materia estaba en forma de electrones,
positrones y una pequeña concentración de protones y neutrones (denominados
nucleones) - aproximadamente un nucleón por cada 1,000 millones de partículas
-. A estas temperaturas y densidades tan extremas (la densidad equivalía a unos
3,800 millones de veces la densidad del agua) todas estas entidades se comportan
como partículas. Eso significa que están todo el tiempo colisionando entre ellas,
casi como lo harían un montón de canicas que estuvieran bien empaquetadas en
un container. En el universo primitivo no existían "paredes" físicas que
contuvieran a esas partículas, sino que el elevado número de colisiones y la
rapidez de éstas jugaban perfectamente el papel de "paredes del universo". Sin
embargo, esas "paredes" no eran estáticas, sino que a medida que se producían
las colisiones el universo aumentaba de tamaño. La expansión del universo
producía una disminución de la densidad de energía que tenía que distribuirse en
un volumen cada vez mayor. Este proceso implicaba a su vez una disminución de
la temperatura del universo, proceso que continúa ocurriendo hoy en día.
Las colisiones entre partículas tenían tres importantes consecuencias. La primera
es que el universo estaba en equilibrio térmico. Para dar al lector una idea de lo
que esto significa, vamos a fijarnos en un vaso de agua a 40 grados. La
temperatura de un objeto es una medida de la energía media del movimiento
(energía cinética) de sus moléculas. Pero no todas las moléculas tienen la misma
energía cinética correspondiente a una temperatura de 40 grados, sino que existen
moléculas con menos energía y moléculas con más energía. Una representación
del número de partículas para cada valor de la energía tendría la siguiente
apariencia
[average temperatura significa temperatura media]
Sin embargo, todas esas moléculas están continuamente colisionando con las
moléculas de su alrededor, por lo que se producen intercambios de energía. Este
hecho produce que las moléculas cambien continuamente de energía. El
equilibrio térmico se consigue cuando el número de moléculas que tienen una
determinada energía no cambia con el tiempo con gran aproximación. Esto es
posible si por cada molécula que cambia su energía en una colisión, existe otra
molécula que ocupa el lugar de la anterior después de que su energía previa haya
cambiado en otra colisión cualquiera. En el universo primitivo, debido a la
rapidez de las colisiones entre las partículas, existía una condición casi perfecta
de equilibrio térmico. La importancia de este hecho radica en que hace posible
que podamos hacer cálculos precisos de lo que sucedía con la materia en aquellas
circunstancias.
Las otras dos consecuencias de esas colisiones están relacionadas con las
interacciones que se producen entre las partículas que colisionan.
La primera interacción que puede ser considerada era la constante aniquilación y
producción de electrones y positrones. Uno de los descubrimientos más famosos
del siglo XX es la equivalencia entre la masa y la energía: bajo condiciones
adecuadas, la energía se puede convertir en materia y viceversa. La conversión de
energía en materia no se observa comúnmente en nuestro entorno porque éste es
demasiado frío y no hay presión suficiente. Pero con las densidades y
temperaturas que reinaban en el universo primitivo, esta conversión era el pan de
cada día. Los fotones () se convertían en electrones (e-) y positrones (e+)
(proceso conocido como producción de pares). Estos fotones no podían producir
partículas más pesadas (como nucleones por ejemplo) por no poseer suficiente
energía. Los electrones y positrones terminarían por colisionar con sus
respectivas antipartículas y convertirse de nuevo en fotones (a lo que nos
referiremos como aniquilación)
La segunda interacción fue la conversión de protones en neutrones y viceversa.
Esas partículas atómicas pesadas estaban ya presentes "en el principio" y estaban
continuamente transmutándose una en otra mediante las siguientes reacciones:
"En el principio", debido a la alta densidad de energía, las colisiones entre las
partículas ocurrían de forma tan rápida que las reacciones de conversión de
protones en neutrones y viceversa se equilibraban de tal manera, que su número,
aunque pequeño, era muy aproximadamente el mismo. Pero esa igualdad se
rompió casi inmediatamente debido a que los neutrones son ligeramente más
pesados que los protones. Por tanto, se necesita un poco más de energía para
cambiar de un protón a un neutrón que viceversa. Al principio esto no tenía
ninguna influencia porque había gran cantidad de energía en los alrededores.
Pero como esta densidad de energía decrecía continuamente con la expansión,
cada vez había menos energía disponible para cada colisión. Este hecho empezó
a inclinar la balanza hacia la formación de protones, por lo que en número de
protones empezó a ser mayor que el de neutrones y a medida que bajaba la
temperatura la diferencia fue cada vez más notable.
De acuerdo con las ecuaciones, 13.82 segundos después "del principio", la
temperatura había descendido hasta unos 3,000,000,000 K. En este momento se
produjo una drástica reducción de la población de electrones y positrones. La
razón: de nuevo la expansión del universo. A medida que los electrones y
positrones se aniquilaban mutuamente, la longitud de onda de los fotones
producidos aumentaba y disminuía, por tanto, su energía de tal manera que ya no
era posible que volvieran a producir pares de electrones-positrones
Hasta este momento (sobre unos tres minutos después "del principio") no hubo
nucleosíntesis (formación de núcleos atómicos) debido a la alta densidad de
energía. Para que se cree un núcleo es necesario que se produzca una colisión
entre nucleones y que éstos permanezcan enlazados. En el universo primitivo, la
reacción clave fue la colisión de un protón y un neutrón para formar un núcleo de
deuterio (isótopo del hidrógeno). Las colisiones entre protones y neutrones
habían estado ocurriendo desde "el principio", pero sus energías eran demasiado
alta para permitirles enlazarse y formar un núcleo de deuterio.
Este hecho impediría que se produjeran núcleos más pesados. Este tipo de
situación, donde un producto intermedio es un enlace débil en un proceso de
síntesis global, es llamada un "cuello de botella". Una vez este "cuello de botella"
es superado, las reacciones restantes pueden llevarse a cabo. En el universo
primitivo, una vez el "cuello de botella" debido al deuterio fue superado, las
trazas cada vez más estables de deuterio podrían producir reacciones nucleares
que llevarían a la formación del Helio.
Esto podría suceder según los dos caminos que se describen a continuación
PRIMER CAMINO
Los núcleos de deuterio colisionan con un protón formando 3He, y seguidamente
con un neutrón formando 4He
SEGUNDO CAMINO
El deuterio colisiona primero con un neutrón formando 3H (habitualmente
conocido como tritio), y posteriormente con un protón para formar de nuevo 4He
Este núcleo fue el más pesado que se formó en el universo primitivo, debido a
que en el momento en que esto fue posible, la densidad de energía ya era
demasiado baja para permitir que los núcleos colisonarán con suficiente energía
para fundirse. En el momento en que comenzó la nucleosíntesis, la abundancia
relativa de protones y neutrones era: 13% de neutrones y 87% de protones. Todos
los neutrones fueron utilizados para formar los núcleos de Helio. Los protones
quedarían de esa manera como núcleos de hidrógeno. Por lo tanto, tenemos que
en el momento en que se completó la nucleosíntesis primigenia, el universo
consistía en prácticamente un 25% de He y un 75% H (en peso) con ligeras trazas
de otros elementos ligeros.
Más abajo se muestra una gráfica que resume el resultado de la nucleosíntesis en
el universo primitivo. La gráfica muestra la abundancia relativa de diferentes
núcleos (eje vertical) durante las primeras tres horas del universo. El eje
horizontal ha sido etiquetado con el tiempo en segundos (parte superior) y la
temperatura equivalente a ese periodo en la parte inferior. Para aquellos lectores
que no estén acostumbrados al uso de una escala logarítmica, se ha añadido una
línea discontinua que incida un nivel de abundancia del 1%. Cualquier cosa por
debajo de esta línea corresponde a abundancias de menos del 1% de la masa total
presente.
Como se pude ver en las curvas de la gráfica, a temperaturas más altas, sólo
existían protones y neutrones, con más de los primeros. Pero a medida que
disminuía la temperatura, hay un incremento de la cantidad de deuterio y núcleos
de helio. Justo por debajo de mil millones de grados aparece una cantidad
significativa de deuterio y helio, y una disminución de la abundancia de protones
y neutrones. Éste es el "cuello de botella" del deuterio que habíamos mencionado
previamente. El uso de todos los neutrones libres y algunos protones, causa que
la curva de la abundancia de neutrones caiga abruptamente y la de los protones
tenga un pequeño bache. La abundancia de deuterio sólo crece hasta este punto
porque éste es un estado intermedio en la formación del helio. Por lo que a
medida que se crea deuterio, se consume rápidamente para completar la síntesis
del helio. Una vez se han usado todos los neutrones, su abundancia disminuye.
El paso final en la formación de los elementos fue la captura de los electrones
libres por parte de los núcleos para formar los átomos neutros (proceso conocido
curiosamente como recombinación a pesar de que es la primera vez que se
ligaban electrones y núcleos).
Pero los electrones tenían aún suficiente energía para y el proceso de
recombinación no ocurriría de forma masiva hasta que transcurrieran unos
700,000 años. La
captura de los
electrones para
formar los átomos
tuvo una
consecuencia
importantísima: sin
electrones libres, la
radiación
electromagnética
(los fotones) ya no
tenían con quién
interactuar y el
universo se volvería
transparente al paso
de ésta. Esto
significó que los
fotones serían
capaces de
expandirse junto
con el universo.
Esos fotones que
acabaron por ser
libres tenían energías altísimas que se traducía en longitudes de onda muy cortas.
Pero la expansión del universo causó el alargamiento de esta longitud de onda.
Esos fotones de longitud de onda alargada debida a la expansión son a los que
nos referimos cuando hablamos del fondo cósmico de microondas. Éste es un
remanente del Big Bang. Hemos sido capaces de medir la intensidad de este
fondo de radiación que se ajusta casi perfectamente a lo que predicen los cálculos
teóricos. Ésta ha sido una de las evidencias más rotundas a favor de la imagen del
universo que proporciona el modelo del Big Bang.
Las abundancias relativas de elementos que predicen los cálculos de
nucleosíntesis primordial dependen drásticamente de la densidad de bariones [B
h2 = densidad de bariones/densidad crítica (H0/100)2]. En la figura se muestran
las abundancias relativas de Helio, Deuterio y Litio. La banda amarilla muestra el
rango que permite las observaciones actualmente: obsérvese que ya es un hecho
extraordinario que las observaciones se ajusten con tanta precisión a la teoría.
Esto implica (según sea la indeterminación de la constante de Hubble) una
densidad de bariones en algún lugar entre una centésima y seis centésimas de la
densidad crítica.
Una historia detallada del desarrollo del modelo de nucleosíntesis primigenia y la
detección del fondo cósmico de microondas puede ser vista aquí.
Documentos relacionados
Descargar