Cosmología en la teoria de la relatividad

Anuncio
COSMOLOGIA
EN LA TEORIA GENERAL DE LA RELATIVIDAD
Rafael Zamora Ramos
1
Índice
Introducción ............................................................................................... 3
Relatividad general y cosmología ............................................................. 3
La métrica de Friedmann-Robertson-Walker ......................................... 5
Las ecuaciones de Friedmann .................................................................... 10
El contenido de energía y materia del universo .................................... 12
Modelos cosmológicos ................................................................................ 15
El espacio de Einstein-de Sitter y otros universos espacialmente planos ............ 15
Universos dominados por materia con k general ................................................... 17
Datos experimentales ................................................................................. 21
Ley de Hubble........................................................................................................... 21
Medidas de distancias astronómicas ........................................................................ 22
Estructuras a gran escala ....................................................................... 27
La edad del Universo ................................................................................................ 29
La edad de los elementos químicos. .................................................................. 29
Datación radiactiva de una estrella vieja .......................................................... 30
La edad de los cúmulos de estrellas más viejos................................................. 30
La edad de las enanas blancas más viejas ......................................................... 30
Materia oscura .......................................................................................................... 32
Primeras evidencias de materia oscura ............................................................ 32
Evidencias aún más rotundas ............................................................................ 32
Materia oscura no bariónica ............................................................................. 33
Tipos de materia exótica no bariónica.......................................................... 34
Materia oscura fría ............................................................................................ 35
Energía Oscura ......................................................................................................... 35
Radiación de fondo de microondas .......................................................................... 36
Supernovas de tipo Ia y aceleración del universo.................................................... 40
La constante de Hubble ............................................................................................ 43
Algunos problemas con los desplazamientos al rojo ............................................... 44
El universo primitivo.................................................................................. 45
Alternativas al Big Bang ............................................................................ 45
Inflación ...................................................................................................... 46
Bibliografía ................................................................................................. 50
2
Introducción
Utilizaremos como hipótesis de trabajo el principio cosmológico, es decir que a
grandes escalas el universo es homogéneo e isótropo llegado al resultado de una métrica
de curvatura constante llamada métrica de Friedmann-Robertson-Walker en la que podemos distinguir tres casos diferenciados: espacio cerrado, abierto hiperbólico y parabólico. Resolveremos las ecuaciones de Einstein según esa métrica y para las posibles distribuciones de energía materia, comparando los resultados con los datos experimentales
del corrimiento al rojo y del a constante de Hubble. Haremos pues una posible descripción de la evolución del universo desde su origen Big Bang hasta sus posibles finales.
Veremos los problemas que surgen en la observación y las hipótesis de materia oscura y
energía oscura. Veremos a su vez las dificultadas para la interpretación de los datos astrofísicos y su discusión por parte de diferentes sectores de la comunidad científica.
Relatividad general y cosmología
Cosmología (del griego teoría del universo) es probablemente el área de conocimientos más antigua. Aún, hasta hace poco, sólo podríamos contestar a algunas de sus
preguntas más básicas. Esta pobre situación ha cambiado dramáticamente en los últimos
años pasados gracias a medidas precisas de una amplia gama de parámetros cosmológicos.
Obviamente es imposible encontrar una solución exacta de las ecuaciones de
Einstein que describe el universo entero con todo detalle. Pero esto tampoco es lo que
pretende la cosmología que describe la dinámica del universo entero a muy grandes
escalas, donde la influencia de galaxias individuales e incluso cúmulos de galaxias
son meramente perturbaciones despreciables (del orden de 100 Mpsc).
El primer principio es el Principio Cosmológico, que pretende decir algo sobre la forma del universo. La idea es que, sea como sea la evolución del universo, en
cualquier momento su aspecto es el mismo en todos los puntos y en todas las direcciones.
En cualquier momento, el universo es homogéneo e isótropo a muy grandes escalas.
Por lo tanto, el Principio Cosmológico implica que la métrica del universo se
puede escribir como una familia de hipersuperficies (superficies tridimensionales)
espaciales, cada una homogénea e isótropa, que representan el universo a un tiempo
t constante y juntos describen la evolución en el tiempo.
Un espacio que es homogéneo e isótropo es máximamente simétrico, es decir, tiene
el número máximo de simetrías. Matemáticamente, las variedades que son máximamente simétricos son espacios con curvatura constante, una propiedad que se refleja en la siguiente condición sobre el tensor de Riemann:
ℛ
=
−
(1)
donde la constante K está relacionada con el radio de curvatura.
3
Principio Cosmológico fija casi completamente la forma de la métrica.
La validez del Principio Cosmológico parece estar confirmados mediante las
observaciones astronómicas del espacio profundo con radioondas y rayos X cósmicos
indican que el universo efectivamente es bastante homogéneo a escalas de 109 años
luz. Pero la mejor indicación del la veracidad del Principio Cosmológico llegó en
1965, cuando Penzias y Wilson descubrieron la radiación cósmica de fondo de microondas, correspondiendo a la radiación térmica, proveniente de un cuerpo negro
con una temperatura de T = 2,7K . Esta radiación cósmica de fondo es en realidad el
residuo de la radiación térmica de un pasado mucho más caliente del universo y
fue predicha por el físico ruso George Gamov (1904 - 1968) en 1948, como una
consecuencia directa del modelo del Big Bang. La radiación cósmica de fondo, que
nos proporciona información sobre cuando el universo todavía era muy joven, resulta ser muy isótropa, confirmando de manera extraordinaria el Principio Cosmológico.
En realidad no fue hasta 1992 cuando el satélite COBE logró medir las primeras
anisotropías en la radiación de fondo, cuyas fluctuaciones son sólo del orden de ∆T /T
∼ 10−5.
El segundo principio básico de la cosmología relativista es el Postulado de
Weyl, que intenta modelar el contenido de materia del universo. Igual que el Principio Cosmológico afirma que las fluctuaciones de densidad son muy pequeñas a escala cosmológica, el Postulado de Weyl dice que las velocidades propias de la materia
son pequeñas en comparación con el movimiento cosmológico.
Postulado de Weyl: La materia a escalas cosmológicas se comporta como un fluido perfecto, cuyas componentes se mueven a lo largo de geodésicas temporales, que no se intersectan, salvo (posiblemente) en un
punto en el pasado.
También el Postulado de Weyl se ve satisfecho en las observaciones: aunque
sin duda existen interacciones gravitatorias entre las distintas galaxias, que en ocasiones llevan las galaxias a colisionarse y mezclarse, en general las velocidades particulares causadas por estas interacciones son despreciables con respecto a las velocidades generadas por la evolución del universo.
El Postulado de Weyl supone una clase de observadores privilegiados en el
universo: los que están en reposo con respecto al fluido perfecto y cuyo movimiento
por lo tanto únicamente está determinado por la evolución del universo. A estos observadores se les suele llamar observadores comóviles. También podemos definir un
tiempo cosmológico, siendo la dirección temporal de un observador comóvil. Este
tiempo cosmológico será útil para describir la evolución del universo y calcular su
edad.
La métrica de Friedmann-Robertson-Walker
El Principio Cosmológico y el Postulado de Weyl determinan casi por completo la forma de la métrica del espacio tiempo. Por un lado, el Postulado de Weyl implica que se puede foliar el espaciotiempo con una familia de hipersuperficies espaciales, que son las superficies de simultaneidad t = cte con respecto al tiempo cosmológico t. Y por otro lado, el Principio Cosmológico dicta que estas superficies han de
ser maximalmente simétricas. La hipótesis para la métrica por lo tanto se puede escribir sin pérdida de generalidad como
4
=
( )
−
( )
(2)
donde
es la métrica de las secciones espaciales tridimensionales con curvatura
constante. En otras palabras, el tensor de Riemann
de la métrica
satisface la
condición
ℛ
=
−
(3)
La función ( ) es el factor de escala, una función del tiempo cosmológico que
mide la expansión o la contracción del universo de las secciones espaciales. Obsérvese que para que las secciones espaciales sean homogéneas e isótropas en todo momento, todas las direcciones espaciales tienen que evolucionar de la misma manera y
por lo tanto el factor de escala tiene que ir multiplicando a todas las direcciones espaciales. En principio es posible incluir una función del tiempo f 2(t) multiplicando el
término dt2, pero es fácil de ver que se podría absorber esta función con una redefinición de la coordenada temporal. La métrica (2) con la condición (3) es por lo tanto la
métrica más general de un universo homogéneo e isótropo.
El problema central de la cosmología relativista es determinar las funciones
S (t) y ( ) en la hipótesis (2) en función del contenido de energía y materia del
universo. El factor de escala S2(t) se determinará a través de las ecuaciones de Einstein, ya que éstas describen la dinámica del sistema. Hallar
( ) es un problema
puramente geométrico, puesto que implica resolver la ecuación (3). Interpretaremos
las soluciones de esta ecuación.
2
La isotropía del espacio implica una simetría esférica, por lo tanto podemos escribir la métrica en las secciones espaciales como
̃ =
( ̅)
̅ + ̅ (
+ sin
)
(4)
donde ( ̅ ) es una función aún desconocida de la coordenada radial ̅ . En lugar de
sustituir esta hipótesis en la ecuación (3), vamos a determinar la función ( ̅ ) a través
de la ecuación para el tensor de Ricci:
= −2
(5)
En un espacio tridimensional las condiciones (3) y (5) son equivalentes, por
lo tanto es preferible resolver la última, ya que es más sencillo calcular el tensor de
Ricci que el de Riemann. Sin embargo en general la condición (5) es claramente más
débil que la condición (3). Todas las métricas de curvatura constante satisfacen la
ecuación (5), pero no todas las métricas que satisfacen (5) tienen curvatura constante.
Las métricas que satisfacen la ecuación (5) se llaman métricas tipo Einstein.
Los símbolos de Christoffel no nulos de la hipótesis (4) son
1
= r̅
= − sin θ cos θ
Γ = B Γ = Γ
Γ
= −r̅ e
Γ
Γ
= −r̅ sin θ e
Γ
(6)
= cotgθ
5
de modo que las componentes no-triviales del tensor de Ricci vienen dadas por
=− ̅ = −1 +
− ̅
= sin
(7)
donde la prima denota la derivada con respecto a ̅ . La ecuación (5) se reduce
entonces, en nuestro caso, a dos ecuaciones independientes
̅ ̅
̅
=
( 1 − ̅ ′) + 1 = 2
−
,
̅
(8)
que tienen como solución
=
(9)
̅
La métrica de una superficie (tridimensional) con curvatura constante viene dada
por lo tanto por
̃ =
(10)
̅
̅ + ̅ (
)
+ sin
donde la constante K puede tener un valor arbitrario positivo, negativo o cero, correspondiendo respectivamente a una variedad tridimensional con curvatura constante positiva, negativa o cero. Para interpretar esta métrica y para futuro comodidad
es conveniente sacar un factor común
|K|−1 , escalando la coordenada radial ̅ =
tonces coge la forma
̃ =| |
̃ =
+
(
+ (
+ sin
| |
(para K = 0). La métrica (10) en-
+ sin
) para
)
=0
para
(11)
≠0
donde ahora la constante k está definida como k = K/|K |.
Para interpretar la métrica (11), hay que considerar uno por uno los tres casos
de K positivo, negativo o cero. El caso más sencillo es sin duda K=0: en (11) reconocemos directamente la métrica para R3 en coordenadas esféricas. Esto era de esperar, ya que para K=0 la ecuación (3) se reduce a la condición para el espacio
plano. Intuitivamente sabemos que R3 es un espacio de curvatura constante, puesto
que tiene curvatura cero en todos los puntos.
El caso K > 0, es decir curvatura constante positiva, es un poco más sutil. Nótese que ahora k = 1 y por lo tanto el rango de la coordenada r cubre sólo el intervalo ] − 1, 1[, ya que la componente
se vuelve singular cuando r → ±1. Es por
lo tanto natural hacer el cambio de coordenadas
=
⇔ = √
(12)
de modo que la métrica (11) se convierte en
̃ =
[
+
(
+ sin
)]
(13)
6
Esta métrica es la de una esfera tridimensional S3 2 con radio
. La manera
más fácil de verlo es embeber (13) en el espacio plano cuadridmensional R4 a través
de las coordenadas
=
sin sin cos
=
sin sin sin
=
sin cos
=
cos
(14)
Claramente estas coordenadas satisfacen la ligadura
+ +1 +
=
, de modo que las coordenadas {χ, θ, φ} efectivamente describen una tresesfera en R4 con radio
. Además la métrica (13) corresponde a la métrica de
esta tres-esfera, porque sustituyendo el cambio de
coordenadas (14) en la métrica cartesiana de R4 (¡sin olvidarse de la ligadura!)
obtenemos
=
+
+
+
=
[
+
(
+ sin
)]
(15)
El último caso es la variedad con curvatura constante negativa, K < 0, o
equivalentemente k = −1. En este caso podemos hacer el cambio de coordenadas
=
ℎ ⟺ =√
(16)
de modo que la métrica (11) se convierte en
̃ =
[
+
ℎ (
+ sin
)]
(17)
Esta métrica describe un hiperboloide tridimensional H3 , lo que se puede comprobar considerando el cambio de coordenadas
=
sinh sin cos
=
sinh sin sin
=
sinh cos
=
cosh
(18)
7
Figura 1. Los tres espacios con curvatura constante (aquí en su versión bidimensional): la esfera SN con curvatura positiva (izquierdo), el plano RN con curvatura cero (centro) y el hiperboloide HN con curvatura negativa (derecha), cada uno con su ángulo acimutal θ. La esfera SN se
puede embeber en el espacio euclideo RN+1 , mientras que el hiperboloide HN se puede embeber en el espacio lorentiano R1,N .
El hiperboloide H3 no se puede embeber en R4 , sino en su versión lorentziana, el espacio de Minkowski R3,1 efectivamente, las coordenadas satisfacen
la ligadura
+
+ − =−
, lo que determina en R3,1 una superficie
a distancia temporal constante 1
del origen (véase la figura 2). La métri| |
ca (17) se obtiene sustituyendo el cambio de coordenadas (18) y la ligadura en la
métrica
=−
+
+
+
En resumen, las tres superficies tridimensionales con curvatura constante son
por lo tanto la esfera S3 (curvatura positiva), el plano R3 (curvatura cero) y el hiperboloide H3 (curvatura negativa). No es sorprendente que fue en estos espacios
donde históricamente se desarrolló la geometría diferencial, dado que estos son los
casos con más simetría: la geometría plana en R3 de Euclides (siglo III A.C.), la
geometría esférica por la cartografía y astronomía y la geometría no-euclidea de János
Bolyai (1802-1860) y Nicolay Lobachevsky (1792-1856) para el hiperboloide en el
siglo XIX. No fue hasta Gauss y Riemann a lo largo del siglo XIX, cuando se generalizó la geometría diferencial para variedades arbitrarias.
Por lo tanto, sustituyendo la forma de la métrica (11) en nuestra hipótesis cosmológica (2), vemos que la métrica de un universo homogéneo e isótropo siempre se
puede escribir como
)
=
− ( )
+ (
+ sin
(19)
donde hemos absorbido el radio |K | de los espacios tridimensionales en un nuevo factor de escala a(t), definido como
( )=| |
( )= ( )
( )
para
para
≠0
=0
(20)
La imagen por lo tanto es que a cualquier momento t = t0 , las secciones espaciales son superficies de curvatura constante y el factor de escala a(t) representa de
cierto modo el “tamaño” de esta superficie espacial. En el caso de k = 1, la función
a(t) es el radio de la tres-esfera en el momento t y, aunque para los otros dos casos es
más difícil visualizar, el aumento o disminución del factor de escala implica una ex8
pansión o contracción de la sección espacial y marca por lo tanto una escala en las
secciones espaciales. La expansión del universo por lo tanto no se corresponde con la
imagen de diferentes galaxias alejándose unas de otras debido a los movimientos radiales de cada una de ellas en un espacio fijo, sino más bien a la imagen del contenido de materia y energía diluyéndose, debido a la constante creación de espacio, con el
aumento del factor de escala. Obsérvese que para k = 0, es factor de escala es adimensional, pero para k = ±1, a(t) tiene dimensiones de longitud.
La métrica (19) se llama la métrica de Friedmann-Robertson-Walker (FRW),
llamada así por el físico-meteorólogo ruso Alexander Friedmann (1888 - 1925), el
físico americano Howard Robertson (1903 - 1961) y el matemático inglés Arthur
Walker (1909 - 2001). Friedmann propuso en 1922 la métrica (19) como hipótesis
para el universo, dedujo las ecuaciones de Friedmann y obtuvo una de las primeras
soluciones realistas de un universo en expansión. En 1935 y 1936 Robertson y Walker demostraron independientemente que la métrica que propuso Friedmann es la
hipótesis más general que describe un universo homogéneo e isótropo. Las coordenadas en que está escrita la métrica de FRW en (19) se suelen llamar coordenadas
comóviles, ya que el tiempo t es el tiempo propio de un observador que se mueve
con la expansión del universo.
Las ecuaciones de Friedmann
Ya que tenemos la forma general de la métrica de un universo homogéneo e
isótropo, podemos concentrarnos en el verdadero problema de la cosmología relativista: la evolución del universo, codificado en la dinámica del factor de escala a(t).
Para esto hay que resolver la ecuación de Einstein, utilizando los resultados que
acabamos de derivar y la descripción apropiada de la materia.
Para calcular los tensores de curvatura de la métrica (19), conviene escribirla
como
=
−
( )
( )
(21)
( ) es la métrica de las secciones espaciales de curvatura constante, que
donde
hemos calculado antes. No sólo de esta forma podemos tratar los tres casos k =
−1, 0, 1 simultáneamente, sino también resulta que el resultado es explícitamente independiente de las coordenadas utilizadas en las secciones espaciales, ya que lo único
que necesitamos saber es que
=
−
= −2
,
,
= −6
(22)
Un cálculo rutinario revela que los símbolos de Christoffel no nulos son
=
̇g
=
̇
=
(23)
donde el punto indica derivar con respecto a la coordenada t y los son los símbolos
de Christoffel (6) de la métrica
. Del mismo modo el tensor de Ricci, el escalar
de Ricci y el tensor de Einstein vienen dados por
=3
̈
= −[2 +
̈ +2 ̇ ]
=6
̈
+ +
̇
9
= −3
+
̇
=[ +2
̈+ ̇ ]
(24)
Aunque no es estrictamente necesario para resolver las ecuaciones de Einstein,
conviene calcular también el tensor de Riemann, para estudiar las singularidades de
las soluciones que vamos a encontrar. Las únicas componentes que no son cero son
de la forma
=− ̈
=− [ + ̇ ]
−
(25)
En cosmología la combinación
=
̇
(26)
se llama el parámetro de Hubble y mide la velocidad de expansión (o contracción) en
comparación con la escala del universo. Como tiene dimensión de longitud inversa, el parámetro de Hubble marca una escala de tiempo y de distancia para el modelo
cosmológico en consideración. El tiempo de Hubble tH es la edad que tendría el universo si se hubiera expandido siempre con la misma velocidad que ahora, y la longitud de Hubble es la distancia que ha viajando la luz en el tiempo de Hubble. Obsérvese que el tiempo de Hubble no es (necesariamente) la edad real del universo (de
hecho sólo lo es para un modelo específico), ni la longitud de Hubble es una indicación para el tamaño real, aunque en muchos casos sí es de la mismo orden de
magnitud.
Para determinar a(t), hay que resolver un sistema de ecuaciones diferenciales
para el factor de escala a(t), que se obtiene sustituyendo la métrica de FRW (21) en
las ecuaciones de Einstein
−
=−
(27)
donde el tensor de energía-momento contiene las contribuciones de todos los tipos de
energía- momento presente en el universo (materia, radiación, constante cosmológica, ...). por el Principio de Weyl se puede considerar el contenido del universo como un fluido perfecto. Podemos escribir por lo tanto
=
=
P
(28)
donde = ∑
y =∑
son respectivamente la densidad y la presión total de
todos los tipos de energía y materia presentes en el universo.
En 1922 Friedmann sustituyó la métrica (21) en las ecuaciones de Einstein, obteniendo así las ecuaciones de Friedmann (y corrigiendo un error que cometió Einstein al derivar estas ecuaciones para su modelo del universo estático de 1917):
̇
̈
+
1
3
=
̇
−
=−
−
(29)
Aunque al conjunto de estas ecuaciones se le llama las ecuaciones de Friedmann, también a la primera ecuación sólo, la componente {tt} de la ecuación de Einstein, se le denomina confusamente la ecuación de Friedmann, mientras que la segunda, la componente {ij}, se llama la ecuación de evolución. Se puede simplificar
10
bastante esta última, combinándola con la ecuación de Friedmann, dando lugar a la
ecuación de aceleración
̈
=− ( +3 )
(30)
La ecuación de Friedmann relaciona por lo tanto la velocidad de expansión del
universo con la densidad de energía y con la curvatura de las secciones espaciales.
Obsérvese que sólo es una ecuación diferencial de primer orden y por lo tanto no es
realmente una ecuación de movimiento, sino más bien una ligadura para H , ρ y k.
Por otro lado, la ecuación de evolución sí es una ecuación de segundo orden y
actúa como la ecuación de movimiento de a(t) (de ahí su nombre). En la práctica muchas veces basta con resolver la ecuación de Friedmann para determinar el factor de
escala. Veremos en la siguiente sección que la ley de conservación de energía y la
ecuación de Friedmann implican la ecuación de aceleración.
Finalmente, a veces conviene reescribir la métrica de FRW (21) en las llamadas coordenadas conformes, donde el factor de escala aparece en la métrica como
un factor conforme. Se define el tiempo conforme τ , a través de una reparametrización de la coordenada temporal, como
dτ = a−1(t)dt
⇔
dt = a(τ )dτ
(31)
de modo que la métrica (21) coge la forma
=
( )
−
(32)
donde el factor de escala a(τ ) = a(t(τ )) ahora es una función del tiempo conforme. El tiempo conforme no es el tiempo propio de ningún observador en particular
(obsérvese que τ tiene dimensiones de longitud inversa para k = 0, pero es adimensional para k = ±1), pero estas coordenadas tienen algunas ventajas, como por ejemplo dejar claro que las métricas FRW con k = 0 son conformamente planas.
Los tensores de curvatura en estas coordenadas vienen dados por
( ′) ] ,
( ′) ]
= 3[
′′ −
= −3[ +
( ′) ] ,
= −[2 +
′′ −
=[ +2
′′ −
= 3[ 2
+2
′′]
( ′) ]
(33)
donde el acento indica una derivación con respecto al tiempo conforme τ . Las
ecuaciones de Friedmann en estas coordenadas son entonces
′
=
1
3
−
−
=−
−
(34)
y la ecuación de aceleración viene dada por
=
( +3 )
(35)
El contenido de energía y materia del universo
11
Como hemos visto, la evolución del universo depende de la densidad de energía
ρ y de la presión P , de modo que hay que especificar éstas para poder resolver las
ecuaciones de Friedmann. Sin embargo, a su vez, la densidad de energía y la
presión cambian con la evolución del universo y dependen por lo tanto del factor
de escala. Necesitamos entonces información adicional, que determina como varía
a(t) con la densidad y la presión.
Esta información nos la da la ley de conservación de energía
∇ T
=0
(36)
Aunque (36) es una ecuación vectorial, sólo la componente temporal nos proporciona una relación entre ρ, P y a(t). Sustituyendo (23) y (28) en la ley de conservación de energía, encontramos en coordenadas comóviles
̇
̇ +3 ( + ) =0
(37)
Esta ecuación, por rara que pueda parecer a primera vista, es en realidad una
identidad conocida de la termodinámica. Multiplicando (37) por a3 , podemos reescribirla como
[
]=−
[ ]
(38)
Si interpretamos a3(t) como el volumen de un trozo de la sección espacial en el
momento t, vemos que la ley de conservación de energía dice que el cambio de energía en un volumen es igual a menos la presión por el cambio de volumen. En otras palabras, hemos recuperado una formulación de la primera ley de la termodinámica
dE = −P dV.
(39)
Con la ley de conservación de energía podemos demostrar que las dos ecuaciones de Friedmann en realidad no son independientes: derivando la ecuación de Friedmann (29a) con respecto a t y usando (37), obtenemos después de un poco de cálculo la ecuación de aceleración (30). La ecuación de Friedmann y la conservación de
energía implican por lo tanto la ecuación de aceleración y consecuentemente la de
evolución. Dado que siempre trabajaremos con fluidos perfectos, que satisfacen la
conservación de la energía, en la práctica sólo tenemos que resolver la ecuación de
Friedmann para determinar la evolución del sistema.
La ley de conservación de energía (37) es imposible de resolver, si no especificamos con qué tipo de energía estamos tratando. El tipo de energía o materia
viene especificado por la dependencia de la presión Pα de la densidad ρα , expresado en la ecuación de estado
Pα = ω(α) ρα ,
(40)
donde ω(α) es el parámetro de la ecuación de estado. En principio ω(α) no tiene porqué ser constante, pero la homogeneidad y la isotropía de la métrica de FRW obliga
a ω(α) sea independiente de las coordenadas x. Además se suele tomar ω(α) también
independiente de t: cada fluido perfecto está caracterizado por un valor de ω(α) y, como veremos en breve, diluye de manera diferente con la expansión del universo. Si
en distintas épocas el universo está dominado por distintos tipos de energía, es
12
preferible caracterizar estas por varios fluidos perfectos, que por uno solo con un
parámetro de estado variable en el tiempo.
Como hemos dicho ya, cada valor de ω(α) define un tipo de fluido perfecto. Por
ejemplo, ω = 0 corresponde a un fluido perfecto con solamente densidad de materia,
sin presión y describe por lo tanto materia fría, sin interacciones, o polvo. Por otro
lado ω = 1/3 corresponde a materia muy caliente, materia relativista o radiación y
ω = −1 corresponde a una constante cosmológica. El hecho de que estos valores de
ω correspondan a estos tipos de fluidos se deriva a través de las leyes de la termodinámica.
Sustituyendo la ecuación de estado (40) en la ecuación de conservación de
energía (37), encontramos la siguiente ecuación diferencial para ρα en términos de a,
(
( )=
)(
)
(42)
donde ρ0 es la densidad en un momento dado t = t0 (por ejemplo en la actualidad) en que normalizamos el factor de escala como a(t0 ) ≡ 1. En particular, para
materia fría (ω = 0) vemos que la densidad va como a−3, es decir, la materia se diluye
de manera inversamente proporcional al volumen. Por otro lado, la densidad de
energía de radiación (ω = 1/3) evoluciona como a−4,es decir aparte de diluirse inversamente proporcional al volumen, pierde energía en el corrimiento hacia el rojo de
la radiación, ya que al expandirse el universo, también aumenta la longitud de las
ondas de la radiación de manera lineal en a. Por último, una constante cosmológica
(ω = −1) proporciona una densidad de energía constante por unidad de volumen.
En este sentido, una constante cosmológica realmente corresponde a la energía del
vacío.
Una observación interesante surge al sustituir la ecuación de estado en la ecuación de aceleración:
̈
=−
(1 + 3 )
(43)
Una expansión acelerada del universo sólo es posible cuando el universo
está dominado por un fluido perfecto con parámetro de estado ω < −1/38 . Un
universo con materia fría o radiación sufrirá una deceleración, debido a la atracción gravitatoria del contenido de energía y materia. Más concretamente se define
el parámetro de deceleración como
=
̈
(44)
̇
Obsérvese que q es un parámetro adimensional, que indica la deceleración del
universo para valores de q positivo y aceleración para q negativo.
Otra observación importante sacamos de la ecuación de Friedmann: para
que las secciones espaciales sean planas (k = 0), es preciso que la densidad de energía en el universo sea igual a una densidad crítica
=
̇
(45)
13
Si la densidad es menor (mayor) que la densidad crítica, necesariamente tenemos que k = −1 (k = +1) y por lo tanto las secciones espaciales tienen necesariamente que tener curvatura negativa (positiva). En este caso se suele hablar de un universo abierto (cerrado), mientras que k = 0 se le denomina un universo plano (¡refiriéndose obviamente a las secciones espaciales, no a la curvatura cuadrimensional!).
Podemos definir el parámetro de densidad total, que mide la densidad total en
términos de la densidad crítica
Ω=
(46)
Como hemos dicho antes, el universo es espacialmente plano para Ω = 1,
abierto para Ω < 1 y cerrado para Ω > 1. También es conveniente definir los parámetros de densidad parciales de cada componente del fluido perfecto
Ω =
(47)
que mide la importancia de cada fluido en comparación con la densidad crítica. Por
construcción tenemos que
∑ Ω =Ω
(48)
Modelos cosmológicos
El espacio de Einstein-de Sitter y otros universos espacialmente planos
Presentado en 1932 en un artículo conjunto de los dos científicos que aparecen
en su nombre, fue considerado una buena descripción de nuestro universo hasta bien
avanzado los años 1980.
El espacio de Einstein-de Sitter supone que el universo consiste principalmente
de materia fría con densidad crítica, o sea Ω = 1 y Ω = Ω = 0. Debido a la densidad crítica de materia, las secciones espaciales son planas (k = 0) y la ecuación de
Friedmann
̇
=
(49)
es directamente integrable, si recordamos que la materia fría se diluye con el factor de
( ). La solución a esta ecuación diferencial es
escala como ( ) =
( )=
donde la constante
(cuando ( ) =
tanto de la forma
=
(50)
es el parámetro de Hubble en el momento t = t0
y ( ) = 1. La métrica del espacio de Einstein-de Sitter es por lo
14
=
−
(51)
Esta métrica parece singular para t = 0 y efectivamente el escalar de Ricci,
=
(52)
diverge para t = 0, lo que implica que la singularidad es física. La coordenada temporal
corre por lo tanto en el intervalo ]0, ∞[ donde la singularidad en t = 0 representa el origen del universo. Se suele llamar Big Bang tanto a la singularidad inicial, como a los
modelos cosmológicos que la predicen. El nombre lo puso el astrofísico británico Fred
Hoyle (1915 - 2001) en una entrevista con la BBC en 1950, para mofarse de la idea,
puesto que él era partidario de la teoría del estado estacionario, que predice un universo sin evolución, de edad infinita. El espacio de Einstein-de Sitter es por lo tanto el
primer modelo que encontramos según el cual el universo no ha existido desde siempre.
La edad del universo se calcula fácilmente de la expresión (50) del factor de
escala: denominando la actualidad t = t0 y normalizando el factor de escala como a(t0 )
= 1, vemos que la edad del universo en el modelo de Einstein-de Sitter viene dada por
=
(53)
Hasta la segunda mitad de los años 1990, se estimaba el valor actual del
parámetro de Hubble H0 entre 50 y 90 km/s/Mpc, lo que resultaba en una edad entre
aproximadamente 6,5 y 13 mil millones de años. La cota superior en realidad está cerca
del valor que se cree hoy en día, pero la cota inferior es claramente demasiado corta,
puesto que hay estrellas y estructuras que existen desde hace más tiempo que esto. El
problema más grave por lo tanto del modelo de Einstein y de Sitter era que predecía
una edad demasiado corta para nuestro universo.
Merece la pena mirar la evolución de universos espacialmente planos dominados por otro tipo de energía, es decir para
general. Tomando en cuenta que la
(
)
densidad de energía en general disminuye como ( ) =
) , la ecuación de
Friedmann se reduce a
̇ =
(54)
con H0 definido en (67). La solución general viene dada por
( )=
siempre y cuando
≠ −1. El caso
(
)
(
)
(55)
= −1 requiere un análisis propio.
15
Figura 2: La evolución del factor de escala para distintos valores de (para universos espacialmente
planos): un universo dominado por materia fría (línea fina continua) inicialmente crece más lentamente que un universo dominado por radiación (línea discontinua), pero decelera menos rápidamente, de
modo que después de un cierto tiempo crecerá más rápido. Todos los universos con > −
deceleran, el universo con
=−
(linea punteada) crece de manera constante y universos con
< − (línea continua en negrita) son acelerados. Los universos tienen una edad más elevada,
cuanta más bajo sea . Por otro lado, puesto que todos tienen el mismo valor para H0, el tiempo de
Hubble tH es el mismo para todos.
Obsérvese que el factor de escala depende del parámetro de estado , y por lo tanto
universos con distintos contenidos de energía, tienen evoluciones diferentes: en el
espacio de Einstein-de Sitter el factor de escala va como ( )~ , pero por ejemplo un
universo dominado por radiación ( = ) crece como ( )~ . Es decir, en tiempos
primordiales, un universo con radiación se expande más rápido que un universo con
materia, pero también decelera más rápido, de modo que tarde o temprano su factor de
escala será alcanzado por el factor de escala de Einstein-de Sitter y quedará atrás (véase
Figura 2). Si los distintos modelos evolucionan a ritmos diferentes, también quiere
decir que tienen edades distintas, por lo menos si todos coinciden en el valor actual del
parámetro de Hubble H0 . Igual que en el caso de Einstein-de Sitter, se calcula la edad
desde el factor de escala. De (55) vemos que para general (pero ≠ −1)
=
(
(56)
)
y por lo tanto el universo es más joven, cuanto más alto es el valor de .
La métrica general para universos espacialmente planos (con
=
(
−
)
(
)
≠ −1)
(57)
tiene una singularidad del tipo Big Bang para t = 0: el escalar de Ricci viene dado por
=
(
)
(58)
16
lo que efectivamente es divergente para todo , salvo = . Para saber qué es lo que
pasa en este último caso, tenemos que calcular otro escalar de curvatura. Por ejemplo,
vemos que para estas métricas el invariante de curvatura
=
(
(59)
)
es singular para cualquier valor de , y en particular para
= . Todos estos universos empezaron por lo tanto con un Big Bang, salvo ≠ 1, que ha existido desde
siempre.
Universos dominados por materia con k general
Por último miraremos a los modelos para universos con materia fría, que no
tengan necesaria- mente la densidad crítica. Ya hemos dicho en la sección 12.4 que si
la densidad es menor que la crítica, las secciones espaciales tienen curvatura negativa, mientras que si la densidad es mayor, las secciones espaciales son cerradas.
Calcular la métrica de estas soluciones resulta más fácil en las coordenadas conformes (32). En estas coordenadas, las ecuaciones de Friedmann (34) para un fluido
perfecto con = 0 se pueden escribir como
3(ℎ + ) =
2ℎ + ℎ + = 0
(60)
donde ℎ = / es el parámetro de Hubble en coordenadas conformes y la prima
indica una derivación con respecto al tiempo conforme . La ecuación de evolución se
puede integrar fácilmente para como función de h, resultando
= −2 ∫
que se puede resolver con técnicas estándar para todos los valores de k.
(61)
Miremos primero el caso k = 0, a pesar de que ya sabemos que la solución es
el espacio de Einstein-de Sitter, para familiarizarnos con las coordenadas conformes.
En este caso la integral (61) se resuelve como
= −2 ∫ = 2ℎ +
de modo que podemos escribir h, y por lo tanto a, en función de
(62)
como
ℎ=

= ( + )
(63)
donde c y son constantes de integración. Se puede reabsorber c con una redefinición
de , pero se determinará por la ecuación de Friedmann, que todavía nos queda por
resolver. Sustituyendo la solución para a en la primera ecuación de (60), vemos que el
factor de escala viene dado por
( )=
(64)
y la métrica es de la forma
=
−
(65)
17
Para ver que esta solución es realmente el espacio de Einstein-de Sitter (51), sólo hace
falta ir a coordenadas comóviles a través del cambio de coordenadas (31)
⇔ = [12
=
(66)
( ) en (64), obtenemos la expresión
Efectivamente sustituyendo la expresión para
(50).
El caso
]
= −1 es nuevo, pero la integral (61) se resuelve fácilmente:
= −2 ∫
=2
ℎℎ
(67)
de modo que
ℎ=
ℎ ⇒ =
ℎ
(68)
Otra vez la ecuación de Friedmann determina la constante de integración como
=
, un parámetro con dimensión de longitud, como era de esperar, de modo
que la métrica viene dada por
= ℎ [
−
−
Ω ]
(69)
Al intentar escribir esta métrica en coordenadas comóviles, nos encontramos
con un problema técnico. El cambio de coordenadas (31) puede expresar t en función
de
=
[sinh − ]
(70)
pero no al revés, de modo que no podemos obtener una expresión exacta para a(t). Sin
embargo, si podemos aprender algunas cosas de esta métrica, mirando los tensores
de curvatura y la evolución en tiempos muy tardíos.
El escalar de Ricci viene dado por
=3
ℎ
(71)
de modo que, al igual que el espacio de Einstein-de Sitter, tiene una singularidad
del tipo Big Bang. Sin embargo, la expansión es mucho más rápida que en el caso k =
0. Aunque no podemos invertir la relación (70) en general, sí podemos mirar lo que
pasa cuando ≫ 1. En este caso tenemos que
≈
(72)
y por lo tanto
( )≈
(73)
Por lo tanto vemos que un universo dominado por materia con densidad más
baja que la densidad crítica se aproxima en tiempos tardíos (o no tan tardíos, ya que va
exponencialmente) al espacio de Minkowski. En otras palabras, un universo con densidad subcrítica se expande tan rápido y diluye la materia tanto, que el universo se apro18
xima al espacio plano. La evolución del factor de escala para todo
Figura 3.
está dibujada en
Por último, miremos el caso k = 1. Entonces la integral (61) se resuelve como
= −2 ∫
= 2
ℎ
de modo que podemos escribir h y por lo tanto a en función de
ℎ = cot ⇒ =
(74)
como
sin
(75)
Otra vez la ecuación de Friedmann determina la constante de integración en función de
la densidad
como
=
, de modo que métrica viene dada por
=
[
−
−
Ω ]
(76)
También aquí encontramos problemas al intentar escribirla en coordenadas comóviles.
El cambio de coordenadas (31) puede expresar t en función de
=
[ −sin ]
(77)
Figura 3: El factor de escala para universos dominados por materia con distintos valores de k: un
universo con densidad crítica (k = 0, línea continua) corresponde al espacio de Einstein-de Sitter; el
caso subcrítico ( = −1, linea discontinua) expande más rápido y se aproxima en tiempos tardíos al
espacio de Minkowksi; el caso supercrítico (k = 1, línea punteada) expande muy rápido inicialmente,
pero está frenado por la gran cantidad de materia y recolapsará en un tiempo finito. Hace falta interpretar este diagrama con cuidado, puesto que a(t) en el caso k = 0 es adimensional, mientras que tiene
dimensión de longitud para k = ±1.
19
pero no al revés. Sin embargo, con las dos expresiones para ( ) y ( ) sí tenemos
una parametrización de a(t), que nos permite interpretar la solución: la curva a(t)
representa una cicloide(véase Figura 3). El factor de escala por lo tanto crece inicialmente muy rápido, pero está frenado por la gran cantidad de materia (recuerda
que estamos en el caso supercrítico), hasta parar del todo y contraerse otra vez. Al calcular el escalar de Ricci,
=3
sin
(78)
vemos que la métrica no sólo es singular en = 0 (t = 0, el Big Bang), sino también en
= 2 o equivalentemente en =
. El recolapso causará un aumento de la densidad que resultará en otra singularidad, parecida al Big Bang, denominada Big Crunch
(Gran Colapso), que hará desaparecer el universo entero. Lo curioso es que cuanto más
grande sea la densidad del universo, más tardará en colapsarse.
Vemos por lo tanto que el espacio de Einstein-de Sitter es justo el caso límite
entre un universo cerrado y uno abierto. Teniendo justo la densidad crítica, no hay
suficiente materia para frenar la expansión por completo y iniciar un recolapso, pero sí
lo suficiente para diluirse del todo y hacer que el universo se convierte en Minkowski.
Datos experimentales
Ley de Hubble
La primera observación con significado puramente cosmológico fue la ley de
Hubble. Hubble obtuvo una relación lineal entre el desplazamiento al rojo z y distancia D
c z = H0 D
(79)
donde c es la velocidad de la luz y H0 es la constante de Hubble, expresada habitualmente en Km s-1 Mpc-1. Esta relación aproximada para pequeños desplazamientos al rojo
podría implicar, por extrapolación directa, una relación lineal entre la velocidad y la
distancia que se cumpliera para cualquier distancia considerada.
20
Figura 4.Representación de la velocidad
frente a la distancia con los datos originales
de 1929.
Figura 5. Representación de 1996 de la
distancia frente a velocidades de más
de 30,000 Km/s (z = 0.1). Como se ve la
relación permanece lineal con gran
aproximación.
Este hecho puede ser interpretado como que el Universo está en expansión. Pero
una ley de la forma
v=HD
(80)
conocida como relación velocidad-distancia (y muchas veces confundida con la ley de
Hubble) tiene muchas más implicaciones. La primera es que ésta es la única relación
posible que produce una expansión homóloga que no cambia la forma de las estructuras
en el Universo. La segunda es que es compatible con una visión Copernicana donde
nuestra posición en el universo no es de particular importancia. Todos los observadores,
en cualquier lugar del universo verán el mismo tipo de ley.
La tercera es que para una distancia suficientemente grande, un objeto se puede
alejar con una velocidad mayor que la de la luz, lo que implica que hay algún tipo de
horizonte cosmológico al que tenemos que dar una explicación dentro de un modelo
razonable del Universo observable. Este horizonte conocido como radio de Hubble, se
produce a una distancia
D = c/H0=3000 h-1 Mpc
Donde h es un número adimensional ampliamente utilizado: h = (H0 / 100).
Por último, si extrapolamos la expansión hacia atrás en el tiempo, parece ser que
podría haber un tiempo en que las galaxias estuvieran mucho más cerca y la densidad
del universo podría crecer indefinidamente si nos vamos suficientemente atrás en el
tiempo. Podemos hacer una primera estimación del tiempo de expansión (denominado
tiempo de Hubble) como la inversa de la constante de Hubble.
tH = 1/H0 = 9.78 h-1 Gaños
donde 1 Gaño = 109 años = mil millones de años = 1 eón.
21
Medidas de distancias astronómicas
Los astrónomos han desarrollado una gran variedad de técnicas para enfrentarse
al problema de la medida de distancias.
La esencia del método utilizado en la
mayoría de técnicas es sencilla de explicar. Si uno tiene una bombilla situada a una distancia y la aleja hasta el
doble de distancia, su brillo aparente
disminuye cuatro veces, si la alejamos
al triple de distancia el brillo aparente
disminuye en nueve veces y así sucesivamente. Este tipo de variación se conoce como la ley inversa del cuadrado de la distancia. Entonces, si conociésemos el brillo intrínseco de un objeto en el cielo, podríamos usar esta ley para determinar la distancia. Todo parece fácil
hasta que uno piensa que existen tres problemas básicos aquí:
1. Encontrar objetos en otras galaxias suficientemente similares a los que podemos
estudiar a distancias cortas y entender bien sus propiedades físicas para que nos
permitan utilizarlos como candelas estándar, es decir, fuentes de luz de brillo
intrínseco conocido.
2. Relacionado con el primero está un factor temporal que debemos tener en cuenta, puesto que estamos observando objetos en galaxias lejanas que se hallan en
nuestro pasado temporal, y no podemos asegurar que las propiedades de los objetos estudiados en el presente sean extrapolables a las propiedades de los mismos en el pasado. Este es el problema de la evolución temporal.
3. Determinar los factores de corrección debidos al material (gas y polvo) que se
sitúe entre el objeto observado y el observador, problema que uno capta inmediatamente si decide determinar la distancia a una bobilla en medio de la niebla.
Esto se conoce como corrección del factor de extinción.
A continuación se mencionan algunos métodos muy utilizados que requieren una
calibración, es decir, conocer de alguna manera las propiedades físicas de los objetos
implicados:
1. ESTRELLAS PULSANTES COMO CANDELAS ESTÁNDAR
Cefeidas
Las variables Cefeidas son estrellas jóvenes, de masa intermedia (2-10 masas
solares) y pulsantes, con periodos de varios días. Se llaman así por el miembro más brillante de la clase, Delta Cephei. Estas estrellas son pulsantes debido a las zonas de hidrógeno y helio ionizado que se encuentran cerca de la superficie. Este hecho fija la
temperatura, más o menos, de la estrella y produce una franja de inestabilidad en el diagrama H-R. Se sabe desde hace años que existen dos grupos de cefeidas: las clásicas,
con una amplitud elevada y una curva de luz asimétrica, y las cefeidas-s con una amplitud más moderada y una curva de luz simétrica.
22
El diagrama anterior muestra una estrella creciendo y enfriándose, luego disminuyendo de tamaño y calentándose. Las Cefeidas son más brillantes cuando están cerca
de su tamaño mínimo. Puesto que todas las Cefeidas están aproximadamente a la misma
temperatura, el tamaño de una Cefeida determina su luminosidad. Un objeto pulsante y
grande tiene un periodo de oscilación más largo que un objeto del mismo tipo que sea
más pequeño. Por lo tanto debe existir una relación periodo-luminosidad para las Cefeidas. Si uno tiene dos Cefeidas cuyos periodos de oscilación difieren en un factor dos, la
de mayor periodo es aproximadamente 2.5 veces más luminosa que la de periodo corto.
Puesto que es fácil medir el periodo de una estrella variable, las Cefeidas son una maravilla para determinar las distancias a galaxias. Además, las Cefeidas son tan brillantes
que se pueden observar en galaxias tan lejana como M100 en el cúmulo de Virgo.
El único problema con las Cefeidas es la calibración de la relación periodoluminosidad, pues debe realizarse usando Cefeidas situadas en las Nubes de Magallanes
y en cúmulos estelares cuya distancia haya sido determinada por ajuste de la secuencia
principal del cúmulo. Y uno debe preocuparse por que la calibración podría depender de
la abundancia de metales en la Cefeida, la cual es mucho menor en la Gran Nube de
Magallanes que en galaxias espirales luminosas del tipo M100.
Indicadores RR Lyrae
Las estrellas RR Lyrae son estrellas pulsantes variables como las Cefeidas, aunque éstas son estrellas de baja masa (< 0.8 masas solares), periodos cortos (0.2-1.2 días)
y amplitudes por debajo de las dos magnitudes. Se observan dentro de cúmulos globulares, son estrellas de Población II de baja metalicidad y parece ser que todas tienen la
misma luminosidad. Puesto que las masas de las RR Lyrae están determinadas por las
masas de las estrellas que están saliendo de la secuencia principal, esta constancia en la
luminosidad puede deberse a las similitudes en la edad de los cúmulos globulares.
2. Función de luminosidad de las nebulosas planetarias
Las nebulosas planetarias son estrellas que han evolucionado a través de las fases de gigante roja y gigante roja asintótica (ver diagrama HR) y han expulsado sus capas externas de hidrógeno sin fusionar, formando una nebulosa ionizada que rodea a
una estrella central pequeña y muy caliente. Éstas emiten grandes cantidades de luz en
la línea espectral de 501 nm del oxígeno dos veces ionizado (OIII) que las hace fáciles
de encontrar. Las nebulosas planetarias más brillantes que se han observado parecen
tener el mismo brillo en muchas galaxias, por lo que sus flujos pueden ser usados como
indicador de distancia. Este método está correlacionado con el método de fluctuación
del brillo superficial, el cual es sensible a la rama asintótica de estrellas gigantes antes
de que expulsen sus envolturas.
3. Las estrellas más brillantes
Cuando una galaxia está lo suficientemente cerca, las estrellas individuales pueden ser separadas individualmente. La más brillante de esas estrellas puede ser usada
23
para estimar la distancia a la galaxia. Frecuentemente la gente asume que existe un límite superior fijo al brillo de las estrellas, pero esto parece ser una hipótesis débil. Sin embargo, en una población suficientemente grande de estrellas brillantes, se puede hacer
una estimación razonablemente buena de la distancia.
4. Diámetros de las mayores regiones H II
Las estrellas muy calientes y luminosas ionizan el gas hidrógeno que se encuentra a su alrededor produciendo lo que se denomina una región H II como la nebulosa de
Orión. El diámetro de las mayores regiones H II en galaxias ha sido utilizado como "vara estándar" para medir distancias. Pero parece ser nuevamente una hipótesis débil.
4. Supernovas de tipo Ia
Las supernovas de tipo I son explosiones de enanas blancas situadas en sistemas
binarios. La acreción de materia que se produce desde la estrella compañera hace que la
enana blanca alcance el límite superior de masa (límite de Chandraeskhar) donde pierde
su estabilidad. Entonces la estrella empieza a colapsar y la compresión propicia la combustión explosiva del carbono que produce una destrucción total de la estrella. La radiación que se emite procede principalmente de la descomposición radiactiva del níquel y
el cobalto producidos en la explosión. El pico de luminosidad está relacionado con la
rapidez de la caída de la curva de luz. Cuando se aplica esta correlación, la luminosidad
relativa de una supernova de tipo Ia puede determinarse dentro de un intervalo de error
del 20%. Se han observadas unas cuantas Supernovas Ia en galaxias lo bastante cercanas para permitir que el Telescopio Espacial Hubble determine las distancias y luminosidades absolutas mediante el uso de Cefeidas, permitiendo una de las mejores determinaciones de la constante de Hubble.
5. Fluctuaciones del brillo superficial
Cuando una galaxia es demasiado lejana para detectar las estrellas individuales,
uno puede todavía estimar la distancia utilizando las fluctuaciones estadísticas en el
número de estrellas por pixel en un CCD. Una galaxia cercana podría proyectar unas
100 estrellas por pixel, mientras que una más lejana, un número como 1000. La galaxia
cercana podría tener ±10% de fluctuaciones en el brillo superficial mientras que la galaxia más distante sólo un 3%.
Los siguientes métodos utilizan propiedades globales de las galaxias y deben calibrarse:
6. Relación Tully-Fisher
La velocidad de rotación V(rot) de una galaxia espiral puede ser utilizada como
indicador de su luminosidad L. La relación observacional es aproximadamente
L = Constante × V(rot)4
Puesto que la velocidad rotacional de una galaxia espiral puede medirse utilizando un espectrógrafo óptico o un radiotelescopio, se puede determinar la luminosidad.
Combinada con medidas del flujo F, puede ser inferida la distancia D mediante la relación
L = F 4 p D2
24
El diagrama que se muestra a continuación representa dos galaxias: una gigante
espiral lejana y una espiral enana mucho más cercana a la Tierra. Ambas cubren el
mismo ángulo en el cielo y tienen el mismo brillo aparente.
Pero la galaxia distante tiene una velocidad de rotación mayor, y así la diferencia
entre el desplazamiento al rojo relativo que presenta uno de los lados y el desplazamiento al azul del otro en la galaxia gigante será más notable. De esa manera pueden ser inferidas las distancias relativas de ambas galaxias.
7. Relación Faber-Jackson
La dispersión de velocidades estelares s(v) (que básicamente es la raíz cuadrada
del promedio del cuadrado de las velocidades estelares) en una galaxia elíptica puede
también ser utilizada como indicador de su luminosidad. Esta relación es aproximadamente
L = Const × s(v)4
Puesto que la dispersión de velocidades en una galaxia elíptica puede medirse
usando un espectrógrafo óptico, puede determinarse la luminosidad, que combinada con
medidas de flujo no da una estimación de la distancia
8. El cúmulo de galaxias más brillante
La galaxia más brillante de un cúmulo de galaxias ha sido usada como una candela estándar. Éste método adolece de las mismas dificultades que el de la estrella más
brillante y el de las regiones H II de mayor tamaño: los cúmulos ricos con numerosas
galaxias contienen seguramente ejemplos de galaxias muy luminosas aunque ese tipo de
galaxias sea más bien raro, mientras que cúmulos menos ricos probablemente no contendrán tales miembros brillantes.
Los siguientes métodos no requieren calibración:
9. Retraso temporal en lentes gravitatorias.
Cuando se observa un cuásar a través de una lente gravitatoria (deflexión de la
luz por el efecto gravitatorio de una galaxia o cúmulo de galaxias interpuesto en la línea
de visión del observador), múltiples imágenes del mismo cuásar pueden verse, tal y como se muestra en el diagrama
que está a continuación:
25
Los caminos que sigue la luz desde el cuásar hasta nosotros tienen longitudes que difieren en una cantidad que depende de la distancia la cuásar y del ángulo de deflexión.
Puesto que los cuásares presentas variaciones de luminosidad, la diferencia de longitudes recorrida por la luz puede ser calculada observando las diferencias temporales en
variaciones particulares de la luminosidad de la fuente que se producen en varias imágenes.
10. Efecto Sunyaev-Zeldovich
El gas caliente situado en los
cúmulos de galaxias distorsiona el espectro de la radiación cósmica de fondo
observada a través de dichos cúmulos.
El siguiente diagrama muestra un esquema de este proceso. Los electrones
libres del gas dispersan una pequeña
fracción de los fotones del fondo de
microondas que son sustituidos por fotones ligeramente más energéticos
La diferencia entre el fondo de radiación visto a través del cúmulo y el fondo de
radiación sin modificar que se ve en cualquier otra región del cielo puede medirse. En
realidad, sólo aprox. un 1% de los fotones que pasan a través del cúmulo son dispersados por los electrones del gas caliente ionizado que se encuentra en éste, y el aumento
de energía de estos fotones es de aprox. un 2%. Todo esto lleva a una carencia de fotones de baja energía del orden del 0.02% (0.01×0.02), que produce una reducción de la
temperatura de brillo de unos 500 microKelvin cuando miramos en la dirección del cúmulo. A frecuencias altas (mayores que unos 218 GHz) el cúmulo aparece más brillante
que el fondo. Este efecto es proporcional a:



La densidad de electrones libres
El grosor del cúmulo en nuestra línea de visión
La temperatura de los electrones
La emisión de rayos X procedente del gas caliente es proporcional a:



El cuadrado de la densidad electrónica
La anchura del cúmulo a lo largo de la línea de visión
De la temperatura electrónica y de la frecuencia de los rayos X
Si se asume que la anchura a lo largo de la línea de visión es la misma que el
diámetro del cúmulo, la distancia puede ser entonces inferida del diámetro angular del
cúmulo.
26
Esta técnica es complicada, y años de duro trabajo por pioneros como Mark Birkinshaw (Birkinshaw, M. 1998) sólo ha permitido estimar unas pocas distancias, y un
valor de la constante de Hubble que tiende a situarse alrededor de 60 (km/s)/Mpc sin un
intervalo de error convincente.
Figura 6. Cuadro resumen del alcance de los métodos de estimación de distancias
Estructuras a gran escala
Supercúmulos. Consisten habitualmente en cadenas de poco más de una decena de
cúmulos. Nuestro propio Supercúmulo Local está centrado en Virgo y es relativamente
pobre, con un radio de unos 15 Mpc. Los mayores supercúmulos, como el asociado con
Coma, pueden extenderse sobre unos 100 Mpc de distancia.
Vacíos, estructuras laminares y filamentos. Los surveys de galaxias de desplazamientos al rojo elevados revelan una estructura de pompas de jabón, metafóricamente hablando, con las galaxias básicamente confinadas en estructuras laminares y filamentosas. Los vacíos son la característica observable dominante (ocupando el 90% del espacio) con diámetros típicos de unos 25 Mpc y llegando a monstruos del tipo del vacío de
Bootes con un diámetro de algo más de 120 Mpc. También destacan estructuras laminares como la "Gran Muralla" con unas dimensiones del orden de unos 100 Mpc.
27
Figura 7. El survey de galaxias CfA muestra la estructura a gran escala hasta distancias del orden de
150 Mpc, esto es un 2% de la distancia hasta el borde del universo observable. Nosotros estaríamos
situados en el centro y la zona donde no hay galaxias representadas corresponde principalmente a la
proyección del plano de la Vía Láctea. La posición de las galaxias están representadas por puntos blancos y las enormes estructuras filamentosas y laminares son tan evidentes como los vacíos entre ellas a
modos de pompas de jabón.
Muestras de campo profundo
Desde la puesta en funcionamiento del telescopio espacial Hubble, disponemos
cada vez de más imágenes de galaxias extremadamente lejanas que muestran cómo eran
sólo un par de eones (miles de millones de años) después de la Gran Explosión. Una de
los misterios más interesantes que han revelado estas imágenes es que las galaxias parecen haberse formado antes de lo predicho en la mayoría de los modelos de formación.
Figura 8. Imagen de campo profundo de agrupaciones de galaxia tomada por el telescopio espacial
Hubble
La edad del Universo
Hay al menos tres maneras de estimar un límite inferior a la edad del Universo:
28



La edad de los elementos químicos.
La edad de los cúmulos de estrellas más viejos.
La edad de las enanas blancas más viejas.
La edad de los elementos químicos
La edad de los elementos químicos puede ser estimada utilizando las propiedades de la desintegración radiactiva. Las edades mejor definidas que se pueden determinar por este método son las transcurridas desde la solidificación de una muestra de roca.
Cuando una roca se solidifica, los elementos químicos frecuentemente se separan en
diferentes tipos de fragmentos cristalinos. Por ejemplo, el sodio y el calcio son elementos bastante comunes, pero su comportamiento químico es bastante diferente, por lo que
uno los encuentra en diferentes granos de una roca.
Cuando este método se aplica a rocas de la superficie terrestre, las más viejas
datan de unos 3.8 mil millones de años atrás. Aplicado a meteoritos se obtienen valores
tan altos como 4.56 mil millones de años. Esto determina perfectamente la edad del
Sistema Solar.
Cuando se aplica a un sistema en evolución como el gas presente en la Vía Láctea, la precisión del método no es tan buena. Uno de los problemas es que no hay separación en granos con diferente cristalización, por lo que deben usarse los valores absolutos de las proporciones de isótopos en lugar de la pendiente del ajuste lineal. Esto hace
que sea necesario conocer la cantidad exacta de cada isótopo que estaba originalmente
presente, por lo que se necesita un modelo preciso de la producción de elementos. Un
par de isótopos que ha sido usado es el Resnio y el Osmio: en particular, el Re-187 se
desintegra en Os-187 con una vida media de 40 mil millones de años. Parece ser que un
15% del Re-187 se ha desintegrado, lo que nos lleva a una edad de 8 a 11 mil millones
de años. Pero ésta es sólo la edad media de formación de la materia que forma el Sistema Solar, y ningún Resnio u Osmio se ha producido por al menos 4.56 mil millones de
años. Por eso necesitamos unos modelos de cuándo fueron producidos los elementos. Si
todos los elementos fueron producidos muy pronto después del Big Bang, entonces la
edad del universo debería rondar los t0 = 8-11 mil millones de años. Pero si los elementos son producidos continuamente a una tasa constante, entonces la edad media de la
materia del Sistema Solar es
(to + tSS)/2 = 8-11 Gaños
donde 1 Gyr = 109 años
que puede resolverse despejando la edad del universo
to = 11.5-17.5 Gaños
Datación radiactiva de una estrella vieja
Un artículo muy interesante de Cowan et al. (1997, ApJ, 480, 246 ó Cowan et al.
1998) discute la abundancia de Torio en una estrella vieja del halo. Normalmente no es
posible medir las abundancias de isótopos radiactivos en otras estrellas porque las líneas
espectrales son demasiado débiles. Pero en la estrella CS 22892-052, pueden verse las
29
líneas del Torio debido a que las del hierro son muy débiles. La fracción Th/Eu en esta
estrella es 0.219, comparado con el 0.369 que se mide en el Sistema Solar hoy en día. El
Torio se desintegra con una vida media de 14.05 Gyr, por lo que el Sistema Solar se
formó con una fracción Th/Eu = 24.6/14.05 × 0.369 = 0.463. Si la estrella CS 22892-052 se
formó con la misma fracción Th/Eu, la edad estimada de la estrella es de 15.2±3.5 Gyr.
En realidad, la estrella debería se ligeramente más vieja debido a que alguna cantidad de
Torio que podría haber formado parte del Sistema Solar se desintegró antes de que el
Sol se formara, y esta corrección dependerá de la historia de nucleosíntesis en la Vía
Láctea. Sin embargo, ésta es una medida interesante porque es independiente de métodos basados en la evolución de la Secuencia Principal.
La edad de los cúmulos de estrellas más viejos
Mientras las estrellas convierten hidrógeno en helio en sus núcleos, éstas caen en
una misma banda en el diagrama H-R: la Secuencia Principal. Puesto que la luminosidad de una estrella varía con su masa M como M3 ó M4, la vida de una estrella en la
secuencia principal varía como t = const×M/L = k×L-0.7. Así, si uno mide la luminosidad de las estrellas más luminosas de la secuencia principal, uno consigue un límite
superior para la edad del cúmulo:
Edad < k×Lmax-0.7
Éste es un límite superior porque la ausencia de estrellas más brillantes que las
observadas (Lmax) podría deberse a que ninguna estrella se ha formado en el rango apropiado de masas. Pero en cúmulos con miles de estrellas, tal salto en la función de masa
es bastante improbable, y una buena estimación de la edad estará dada por la relación
anterior.
Han aplicado esta técnica a cúmulos globulares y han encontrado que la edad del
Universo es mayor que 12.07 Gyr con un 95% de confianza. Estos investigadores dicen
que la edad es proporcional a uno entre la luminosidad de las estrellas RR Lyrae que
son usadas para determinar la distancia al cúmulo globular. Chaboyer (1997) da una
mejor estimación de 14.6±1.3 Gyr para la edad de los cúmulos globulares. Pero recientemente, los resultados de Hipparcos muestran que los cúmulos globulares están más
lejos de lo que previamente se pensaba, por lo que sus estrellas son más luminosas. Gratton et al. calculan edades entre 11 y 13 Gyr, y Chaboyer et al. deducen 11.5±1.7 Gyr
para la edad media de los cúmulos globulares más viejos.
La edad de las enanas blancas más viejas.
Una enana blanca es un objeto estelar que es tan pesado como el Sol pero que
tiene un radio como el de la Tierra. La densidad media de una enana blanca es un millón
de veces mayor que la del agua. Estas estrellas moribundas se forman en el centro de las
gigantes rojas, pero no son visibles hasta que la envoltura de la gigante es expulsada al
espacio. Cuando esto ocurre, la radiación ultravioleta que proviene del núcleo estelar
ioniza el gas circundante y produce una nebulosa planetaria. La envoltura de la estrella
continúa alejándose del núcleo central hasta que se hace invisible, abandonando el núcleo residual caliente que se conoce como enana blanca. Las enanas blancas brillan sólo
de su calor residual. Las enanas blancas más viejas serán también más frías y así brillarán de forma más débil. Observando por tanto enanas blancas poco brillantes, se puede
estimar el periodo por el que la estrella se ha estado enfriando. Oswalt, Smith, Wood
and Hintzen (1996, Nature, 382, 692) han utilizado este método para estimar la edad del
30
disco de la Vía Láctea en 9.5+1.1-0.8 Gyr. La edad del Universo es al menos 2 Gyr mayor que este valor, unos 11.5 Gyr.
Es importante observar que aunque los intervalos de error son considerables, es
bastante impresionante que métodos tan diferentes sean consistentes entre sí, situando la
edad del universo entre los 10 y los 18.7 Gyr.
Edad del Universo t0
Método
valor (eones)
referencia
Abundancia de uranio en la estrella de baja metalicidad
CS 31082001
>12.5±3
Cayrel et al. 2001
Abundancia de Torio en la estrella del halo CS 22892-052
> 15±4
Cowan et al. (1997, ApJ, 480,
246)
Cowan et al. 1998
>12±1
>11.5±1.7
Cúmulos globulares
13.5±1.5
Gratton et al.1997
Chaboyer et al.1997
Krauss & Chaboyer 2001
12.6 +3.4-2.2
Krauss, L.M., and Chaboyer, B,
2003, Science, 299, 65
>9.5+1.1-0.8
Oswalt, Smith, Wood and
Hintzen (1996, Nature, 382,
692)
edad de las enanas blancas más viejas
>12-13
Hansen 2002
238
232
Combinación de medidas de la proporción U: Th en el
Sistema Solar y en estrellas viejas y de baja metalicidad
14.5+2.8-2.2
Dauphas (2005, Nature, 435,
1203)
12.7+3-2
Krauss, L.M. 2001
13 ± 3
Análisis estadístico de las medidas disponibles
13.4+1.4-1.0
13.7± 0.2
Lahav 2001
Ferreras, Melchiorri & Silk
2001
Spergel et al. 2003 (WMAP)
Conclusión: todavía las medidas directas de la edad del universo son suficientemente
imprecisas, pero no deja de sorprender la compatibilidad general con la estimación dinámica de alta precisión de WMAP (Spergel et al. 2003). Quizás el valor de mayor
confianza viene a ser la estimación de la edad de los cúmulos globulares por diversos
métodos incluyendo funciones de luminosidad, enfriamiento de enanas blancas implican una convergencia en edades del orden de 11-13 eones, lo que dejaría al menos 1 eón
para la formación de la galaxia, lo que es compatible con resultados recientes.
Materia oscura
31
A principios del siglo XX se creía que toda la masa del universo residía en las
estrellas. Un siglo más tarde la situación parece bastante más compleja y sorprendente,
según refleja la tabla a continuación:
Fracción de la masa en función de la densidad crítica
Estrellas
~ 0.5%
Gas neutro
~ 0.5%
Gas ionizado
~ 3%
Total de materia bariónica
~ 4 a 5%
Neutrinos
~ 0.1 a 5%
Materia Oscura Fría
~ 25 a 33%
Constante Cosmológica u otras formas de energía oscura
~ 60 a 72%
Componente
Primeras evidencias de materia oscura
Desde los años treinta se sabe que las velocidades peculiares de las galaxias en
cúmulos corresponden a una masa total del cúmulo de aproximadamente un orden de
magnitud mayor que el total de toda la materia luminosa observada dentro de las propias galaxias. ¿Cómo se sabe esto?. Hay una manera simple de hacer una estimación de
la masa del cúmulo. La única fuerza apreciable entre las galaxias de un cúmulo es la
gravedad. Cuanto mayor sea la masa de un cúmulo, las galaxias exteriores estarán sometidas a una mayor fuerza gravitatoria total y por tanto a una mayor aceleración, alcanzando mayores velocidades. Por tanto, la velocidad media de las galaxias de un cúmulo es una medida de su masa. Este mismo argumento nos permite calcular la masa
utilizando medidas de las mayores velocidades que se observan en el cúmulo. Éstas no
pueden ser mucho mayor que la velocidad de escape, o en caso contrario las galaxias se
habrían alejado del cúmulo.
Siempre por supuesto, una idea simple en astronomía suele estar acompañada de
dificultades observacionales. En este caso, desde luego que no podemos observar las
galaxias moviéndose realmente. Sólo podemos obtener una instantánea del cúmulo junto con una medida, a través del desplazamiento doppler, de las velocidades peculiares
de cada galaxia. Pero podría pasar que las galaxias con velocidades más elevadas estuvieran realmente escapando del cúmulo, o que no pertenezcan realmente a éste, o que
simplemente sean galaxias de fondo atravesando la franja del cielo donde está el cúmulo.
Evidencias aún más rotundas
32
También, desde los años sesenta se ha observado una situación similar en las
partes exteriores de las galaxias espirales y al menos en algunas elípticas. Si imaginamos una galaxia a modo de Sistema Solar, con las estrellas girando en órbitas cerradas
alrededor del centro donde se concentra una gran cantidad de masa, cabría esperar entonces que las velocidades de las estrellas disminuyeran a medida que nos alejamos del
centro siguiendo una ley kepleriana del tipo del inverso de la raíz cuadrada de la distancia. La representación de la velocidad de rotación frente a la distancia se denomina curva de rotación.
Sin embargo, las observaciones indican otra cosa.
La velocidad parece mantenerse prácticamente constante hasta el límite observacional externo de la galaxia,
como podemos observar en el
ejemplo de la curva de rotación de la derecha correspondiente a la galaxia NGC3198
(fuente: Berkeley). Sólo existen dos posibles explicaciones a este fenómeno:
1. Existe una cantidad de
materia distribuida de manera
diferente a la materia visible
2. Bien las leyes dinámicas o
bien la teoría gravitatoria que
aplicamos a esas escalas no
son correctas.
Aunque existe al menos una teoría dinámica alternativa (MOND) y alguna teoría
gravitatoria alternativa (Gravedad Conforme por ejemplo), éstas tienen algunos problemas y de momento nadie ha encontrado ninguna desviación de las predicciones de la
Teoría General de la Relatividad. Por tanto, antes de abandonar sin motivos suficientes
una teoría consistente de tal éxito observacional como la Relatividad General tenemos
que probar con la alternativa más simple.
Materia oscura no bariónica
Antes de 1980 se asumía habitualmente que esta "materia oscura" era materia
ordinaria en alguna forma no detectable como gas, estrellas de baja masa y cadáveres
estelares del tipo enana blanca o agujero negro. Sin embargo, los años ochenta trajeron
a escena otra fascinante idea: que la materia oscura está formada por neutrinos o alguna
forma más exótica de partículas aún no descubierta en los laboratorios de altas energías.
¿Por qué piensan los cosmólogos en estos tipos de materia exótica?. La razón es que
muchas observaciones convergen a un valor del parámetro de densidad del orden de un
30% de la densidad crítica. Pero la nucleosíntesis primigenia, es decir, el modelo de
formación de los elementos químicos ligeros en los primeros instantes del universo,
indica que la cantidad de materia bariónica (aquella formada por protones y neutrones)
no puede ser muy diferente de un 4 a 5% de la densidad crítica. El total de materia luminosa visible está por debajo de esta cantidad, lo que implica que debe haber mucha
33
materia no detectada en forma de objetos compactos denominados habitualmente MACHOS (del inglés Objetos Compactos del Halo [Galáctico]). Todo esto nos lleva a que
al menos un 85% de la materia está formada por algún tipo de materia exótica.
Tipos de materia exótica no bariónica
Neutrinos
La primera partícula que se pensó podía formar parte de esta materia oscura fue
el neutrino. El neutrino es una partícula emitida en la desintegración beta donde un protón (p) reacciona con un antineutrino ( ̅ )convirtiéndose en un neutrón (n) y un positrón
(e+) [reaction#1] ó un protón (p) interacciona con un electrón (e-) para producir un neutrón (n) y un neutrino ( ).
En el Modelo Estándar de la física de partículas, el neutrino es una partícula que
no tiene masa. Sin embargo se pueden hacer modificaciones en la teoría que permita la
existencia de neutrinos masivos de forma que tienen que ser las observaciones o los
experimentos los que decidan cuál es el caso. Al ser el neutrino una partícula sin masa o
tremendamente ligera se mueve a la velocidad de la luz o a velocidades muy cercanas,
lo que los convierte en lo que se denominan partículas relativistas. Actualmente se denomina a cualquier tipo de partículas relativistas en cosmología como materia oscura
caliente (del inglés Hot Dark Matter o abreviado HDM)
La nucleosíntesis primigenia establece que el número de tipos de neutrinos sólo
puede ser tres (hecho que confirman los experimentos del CERN) y que su número actual tiene que ser del orden de unos 115 neutrinos de cada especie por centímetro cúbico. Teniendo en cuenta que la densidad crítica es del orden del peso de 2 ó 3 átomos de
hidrógeno por metro cúbico, si los neutrinos tienen que contribuir con algo así como del
orden de la densidad detectada (1/3 de la densidad crítica aprox.) tendríamos que unos
100 millones de neutrinos tendrían que pasar algo así como un átomo de hidrógeno. Un
átomo de hidrógeno pesa (en unidades de energía) unos 1000 MeV. Por tanto la masa
del neutrino tendría que ser del orden de unos 10 eV para que pudiera constituir el resto
de la masa oscura.
Pero si los neutrinos constituyen la masa dominante de estructuras como galaxias podemos hacer una nueva estimación de la masa del neutrino de la siguiente manera: Las galaxias tienen unas masas dinámicas que podemos deducir aproximadamente
del simple hecho de que las estrellas estén unidas gravitacionalmente al cuerpo de la
galaxia. Se debe cumplir entonces que la energía de ligadura gravitacional (G m M/r)
sea como muy poco del orden de la energía cinética de las estrellas (1/2 m v2), con objeto de que éstas no escapen de sus órbitas. Por ejemplo, para nuestra galaxia, con el Sol
situado a unos 10 kpc gira con una velocidad de unos 220 km/s implica una masa míni34
ma de algo más de 5 ×109 masas solares. Los neutrinos son fermiones (partículas de
spin semientero) y el principio de exclusión de Pauli establece un máximo de densidad
de neutrinos del orden de un millón por centímetro cúbico. Esto establece una masa
mínima para el neutrino de unos 30 eV, lo que es incompatible con el cálculo anterior
que establecía un límite superior de unos 10 eV.
Las medidas del experimento Super-Kamiokande de 1999 indican que la masa
del neutrino es probablemente mucho menor que esta cantidad. Las medidas del CERN
ponen un límite superior a la masa del neutrino más pesado de unos 9 eV. Medidas más
recientes estiman la suma de los tres tipos de neutrinos en algún lugar entre 0.05 y 8.4
eV . Esto implicaría una contribución escasa a la densidad de materia del universo, situada en algún lugar entre 0.001 y 0.18 de la densidad crítica. Las observaciones de la
supernova 1987A también son compatibles con la existencia de tres tipos de neutrinos y
con un límite superior de la masa del neutrino electrónico de unos 25 eV. Pero hay un
problema más grave que todo esto. Cuando ponemos tanta masa de neutrinos en el universo, las grandes estructuras galácticas como los supercúmulos tienden a formarse
primero que las pequeñas estructuras como los cúmulos de galaxias (que se suele denominar formación de arriba a abajo), lo que contradice las observaciones que indican una
formación relativamente reciente de las grandes estructuras (más compatible con una
formación de estructuras jerarquizada de abajo a arriba). Además las concentraciones de
materia en los grandes supercúmulos serían considerablemente mayor de lo observado.
Materia oscura fría.
Se denomina materia oscura fría (del inglés Cold Dark Matter, abreviada CDM)
a cualquier tipo de partículas relativamente masivas que se mueven a velocidades mucho menores que la velocidad de la luz. La búsqueda de este tipo de partículas como
parte de la materia oscura tienes dos motivaciones básicas:
1. Su existencia es una característica general de las teorías de gran unificación que intentan unificar todas las interacciones a excepción de la gravedad.
2. Su inserción en las simulaciones de la formación de las estructuras galácticas consigue mejorar la semejanza con lo observado.
Las partículas que podrían formar la materia oscura fría podrían tener masas que
rondan el Gigaelectrónvoltio e interactuarían sólo a través de la interacción débil y de la
gravedad. Por ello se les suele llamar WIMPs (de Weak Interacting Massive Particles o
partículas masivas débilmente interactuantes). Algunos de estos tipos de partículas han
sido propuestas desde la teoría pero nunca observadas hasta la fecha.
Energía Oscura
Tanto la Relatividad General permite la existencia de un término que puede producir una repulsión gravitatoria a gran escala, implicando un universo que podría estar
incluso acelerando su expansión. Lo intrigante del caso es que existe evidencia de que
ésta podría ser de hecho la situación, procedente de tres observaciones independientes:
1. De la relación desplazamiento al rojo-distancia aplicada al brillo de supernovas tipo Ia.
2. De las anisotropías de la radiación de fondo cósmico.
3. Del estudio estadístico de lentes gravitatorias.
35
Todos estos estudios indican que esta componente de energía oscura contribuye
con unos 2/3 de la masa del universo, implicando un universo muy cercano o justo con
la densidad crítica, y por tanto de geometría espacial plana.
¿Qué podría constituir esta energía oscura?. Se están explorando actualmente
dos posibilidades:
1. Constante Cosmológica.
2. Quintaesencia
Radiación de fondo de microondas
Si fijamos un radiotelescopio lo suficientemente sensible en una dirección particular del cielo podremos sintonizar una señal muy débil con un máximo centrado en una
frecuencia de unos 280 GHz, que corresponde al rango de las microondas en el espectro
electromagnético.
Figura 9. Variación de la intensidad del
fondo cósmico de microondas para diferentes frecuencias. El trazado continuo representa el mejor ajuste de una distribución
debida a un cuerpo negro a 2.728 K. Las
barras de error no pueden ser apreciadas
por ser muy pequeñas en comparación con
la escala de la representación. Como vemos, el acuerdo es espectacular. Los datos
fueron obtenidos por el instrumento FIRAS
(Far Infrared Spectrometer] del satélite de
la NASA COBE (Cosmic Microwave Explorer).
Si nuestro radiotelescopio
fuera capaz de sintonizar frecuencias cercanas a los 280 GHz, observaríamos que la intensidad de la señal disminuye a
ambos lados de una forma particular y sorprendentemente equivalente a la señal que
mediríamos en un cuerpo negro a unos 2,73 grados por encima del cero absoluto de
temperatura. Técnicamente se suele llamar a esta señal Fondo Cósmico de Microondas.
Sólo el modelo del Big Bang nos da una respuesta simple a la existencia de este
fondo de microondas. Si el universo está en expansión, éste podría haber sido más pequeño, más denso y más caliente en el pasado. En algún momento la temperatura era tan
alta que ni siquiera los átomos podían existir como tales, encontrándose los electrones
desligados de los núcleos. En esas condiciones los electrones interaccionan con los fotones de una forma muy eficiente. En otras palabras, la luz estaba en estrecho contacto
con la materia alcanzando ambas un equilibrio térmico perfecto. Pero la expansión del
universo enfriaba el entorno hasta que alcanzados unos 3000K los electrones empezaron
a combinarse rápidamente con los núcleos formando átomos. En ese momento la luz
empezó a viajar libremente, encontrando cada vez menos electrones a su paso. Esa luz
sigue entre nosotros (unos 400 fotones por metro cúbico), pero la expansión del universo ha tenido como efecto el disminuir drásticamente la frecuencia hasta convertirla en
microondas.
El CMB fue detectado por primera vez por dos técnicos de los laboratorios Bell,
Arno Penzias y Bob Wilson en 1965.
36
Poco después del descubrimiento de la radiación de fondo, en 1967 Sachs y
Wolf (1967, ApJ, 147, 73) sugerían que los primeros agrupamiento de materia que terminarían por formar las grandes estructuras galácticas que vemos en la actualidad podrían haber producido fluctuaciones de la intensidad de la radiación de fondo en regiones diferentes del cielo. Esto sería debido básicamente a que los fotones que nos han
llegado desde regiones de mayor densidad de materia tienen que escalar la barrera mayor de potencial gravitatorio y perder energía.
Sachs y Wolfe esperaban que las variaciones producidas fueran tan apreciables
como del 1%. Pero hoy se sabe que el universo es mucho más homogéneo de lo que
sospechaban Sachs y Wolf.
Figura 11. Representación de la temperatura de la radiación de fondo en todo el cielo
en una escala de color tal que negro representa 0 K y blanco 3 K. Para apreciar diferencias, tendríamos que ser capaces de diferencial una variación del color de alrededor de algunas parte por diez mil
El primer tipo de variación detectada fue la anisotropía dipolar en 1969 por
Conklin. COBE produjo un mapa de esta anisotropía dipolar con mayor sensibilidad
que el original de Conklin. Este tipo de anisotropía es debida al movimiento del Sistema
Solar con respecto a un sistema de referencia comovil con la expansión del universo.
Figura 12. Anisotropía dipolar. La parte roja es más caliente por un factor v/c T0 y la zona azul más
fría por el mismo factor. De ello puede ser inferida una velocidad del Sistema Solar con respecto al
universo observable de 370 km/s en dirección a = 11.2h, d = -7º. Podemos decir que un sistema de
referencia donde esta anisotropía dipolar fuese cero constituye un sistema de referencia de particular importancia en cosmología que denominamos sistema de referencia comóvil y que puede usarse
por cualquier observador para medir lo que se denomina su velocidad peculiar.
37
Las anisotropías debidas al efecto predicho por Sachs y Wolfe fueron medidas
por COBE en un rango de algunas partes en 100,000
Figura 13. Mapa del cielo donde los diferentes tonos de color significan diferentes temperaturas con
rojo más caliente y azul más frío. El mapa de la izquierda incluye la emisión galáctica y la anisotropía dipolar. En el mapa de la derecha han sido restadas todas las contribuciones quedando las anisotropías propias del efecto Sachs y Wolf y algo de ruido (¡o más bien bastante!) de los instrumentos de medida.
La resolución angular de COBE no permite observar los detalles de la formación
de estructuras aún tan grandes como supercúmulos de galaxias (para ello se necesitarían
una resolución al menos de medio grado). Sin embargo, si extrapolamos los resultados a
menores escalas conseguimos que los pozos de potencial sean lo suficientemente grandes para formar las estructuras que vemos en la actualidad. Esto sería así si no hubiera
algún efecto que también produjera cambios de energía de los fotones de la radiación de
fondo. Si la mayoría de materia necesaria para explicar, con estos datos, la formación de
estructura fuera materia bariónica normal, los electrones libres existentes antes de la
recombinación dispersarían a los fotones y sería un mecanismo responsable de que no
encajaran en la imagen de extrapolación de los datos de COBE a escalas más pequeñas.
Por tanto es necesario invocar materia oscura no bariónica que no interaccionara con los
fotones de la radiación de fondo.
Pero, ¿qué fenómeno físico puede explicar las características del espectro de las
variaciones de temperatura observado?. Siguiendo Inflación, las fluctuaciones cuánticas
aleatorias producidas cuando el universo tenía la escala de Planck, fueron amplificadas
por la expansión exponencial del universo hasta escalas cosmológicas, convirtiéndose
en variaciones de densidad. En escalas grandes (mayores de 1º en el cielo actual), estas
variaciones de densidad quedaron congeladas. Pero en la fase de gas caliente en el universo primigenio, las variaciones de la densidad en pequeñas escalas (<~1º) se propagarían al modo de ondas acústicas. Dicha onda acústica se producirían por el hecho de que
los fotones de luz tienden a dispersar la materia mientras que ésta tira gravitatoriamente
del entorno, produciéndose dos efectos contrapuestos: cuando la densidad disminuye
debido a la acción dispersora de los fotones, su presión pierde eficiencia y empieza a
ganar el tirón gravitatorio que vuelve a aumentar la densidad en un ciclo que se autoalimenta a sí mismo creando ondas acústicas.
Si pudiéramos estar en aquel ambiente infernal de la creación seríamos capaces
de oír un ruido característico de esas ondas acústicas de densidad. Entre todo ese ruido
distinguiríamos una nota particular que destaca entre todas las demás, una longitud de
onda que la expansión del universo ha alargado unas 1100 veces de tamaño y que ahora
podríamos observar como un máximo de variación de la temperatura del fondo cósmico
entre dos regiones del cielo separadas angularmente algo menos de 1º.
38
La razón de la existencia de una frecuencia que destaca sobre las demás está
relacionada con el hecho de que los modos de oscilación acústicos no pueden estar
coordinados más allá de la distancia que ha viajado la luz desde el comienzo del universo.
Por supuesto que no podemos oír la música de la creación, pero sí al menos representar sus notas. La posición exacta de esa nota destacada depende de la densidad
total de materia y energía del universo. Un poco más denso y la escala angular será algo
mayor; un poco menos denso y la escala se hará menor.
Espectro de potencias del Fondo Cósmico de Microondas en escalas menor que
~1º. A partir de un determinado momento (zeq ~ 3200) el universo pasa de estar dominado por la radiación a estar dominado por materia. Las sobredensidades de materia
oscura empiezan entonces a aumentar y a oscilar debido a las fuerzas contrapuestas de
la gravedad y la presión de radiación. En el periodo del desacople entre la materia y la
radiación (Dz ~ 195) la presión de radiación es cada vez menor y el tamaño de la sobredensidad o las zonas de baja densidad determina la amplitud de la potencia como una
función de la escala (compresiones y rarefacciones adiabática, es decir sin intercambio
de calor con el medio).
El movimiento del gas produce además una contribución Doppler desfasado
respecto a la contribución adiabática. Estas compresiones y rarefacciones quedan impresas en la radiación resultando un espectro análogo al producido por las ondas estacionarias producidas en un punteo de la cuerda de una guitarra.
En noviembre de 1999 llegaban a los medios de comunicación los resultados
preliminares del proyecto Boomerang, un globo estratosférico provisto de un pequeño
radiotelescopio capaz de medir variaciones de la temperatura del fondo de microondas
en escalas de hasta 1/5 de grado. Los datos de la muestra obtenida, que cubría un 1% del
cielo, fueron publicados en la revista Nature en Abril de 2000. Habían descubierto el
rastro dejado por la contribución principal de las ondas acústicas. El denominado técnicamente primer pico Doppler estaba justo donde cabría esperar si la densidad total del
universo fuera igual a la densidad crítica; el universo tiene geometría espacial euclídea,
o en términos más coloquiales, el universo parece ser plano.
Figura 14. Datos observacionales de los diferentes experimentos que han medido variaciones de la
temperatura del fondo cósmico de microondas con sus barras de error correspondientes. Se puede
39
observar como el primer pico Doppler está bien delimitado a una frecuencia angular en torno a 200,
justo lo esperado para un universo de densidad crítica. La curva azul corresponde al modelo estándar de materia oscura fría. Las zonas amarillas indican la sensibilidad esperada en las medidas del
satélite MAP que decrece rápidamente para escalas angulares menores que 1/5 de grado y mayores
de unos 10º. Fuente: Ned Wright's Cosmology Tutorial
El equipo del satélite de la NASA WMAP (antiguo MAP y rebautizado en honor
del recientemente fallecido David T. Wilkinson) ha analizado el primer año de observaciones del fondo cósmico de microondas corroborando los resultados de observaciones
anteriores.
Figura 15. Comparación entre los mapas de COBE y WMAP. La resolución angular de WMAP es
unas 20 veces mejor (unos 20 minutos de arco). El azul más oscuro corresponde a temperaturas de
unos 200 microKelvin por debajo de la media de 2,728 Kelvin. El color varía gradualmente por el
espectro visible hasta el rojo más oscuro que representa temperaturas de 200 microkelvin por encima de la media.
Supernovas de tipo Ia y aceleración del universo
Durante la última década, varios grupos de investigadores liderados por los astrónomos Saul Perlmutter y Alan Riess han estado usando Supernovas de tipo Ia como
candelas estándar. Una candela estándar no es más que una fuente luminosa cuyo brillo
intrínseco es conocido y usado para medir distancias. La enorme utilidad de las supernovas reside en el hecho de ser capaces de rivalizar en brillo con el conjunto de estrellas
de su galaxia de origen, y por tanto ser una de las pocas formas que tenemos de conocer
a qué distancia se encuentran las galaxias más lejanas.
Las supernovas de tipo I son explosiones de enanas blancas situadas en sistemas
binarios. La acreción de materia que se produce desde la estrella compañera hace que la
enana blanca alcance el límite superior de masa (conocido como límite de Chandrasekhar) donde pierde su estabilidad. Entonces la estrella empieza a colapsar y la compresión propicia la combustión explosiva del carbono que produce una destrucción total
de la estrella (ver reacciones en interiores estelares). La radiación que se emite procede
principalmente de la descomposición radiactiva del níquel y el cobalto producidos en la
explosión. El pico de luminosidad de este tipo de supernovas está relacionado con la
40
rapidez de debilitamiento de su brillo. Cuando se aplica esta correlación, la luminosidad
relativa de una supernova de tipo Ia puede determinarse dentro de un intervalo de error
del 10 al 20%. ¡Podemos así medir distancias extragalácticas relativas con una precisión
sin precedentes!.
Ahora que podemos comparar distancias entre galaxias lejanas podremos estudiar cómo cambia la tasa de expansión a medida que nos vamos a diferentes épocas del
universo. Pero ¿cómo relacionar esta tasa de expansión con la distancia?. El factor clave
aquí es el desplazamiento al rojo. Cada modelo de universo conlleva una relación definida entre el desplazamiento al rojo y la distancia. Veamos a continuación cómo podemos entender este hecho básico.
Relación entre brillo y desplazamiento al rojo
En un universo en expansión existen en principio tres efectos a considerar sobre
el movimiento de una galaxia. Uno es la inercia de la expansión, que viene caracterizada por el valor de la constante de Hubble. Otro es la tendencia al frenado de la expansión originada por la atracción gravitatoria mutua de toda la masa del universo. El último es un efecto repulsivo debido a la constante cosmológica. Es un fenómeno análogo
al que se produce al lanzar una piedra verticalmente hacia arriba. La inercia debida a la
velocidad de lanzamiento y la atracción gravitatoria terrestre tienen efectos contrapuestos sobre el movimiento de la piedra (claro que aquí no habría lugar para una constante
cosmológica)
Supongamos ahora un universo con tan poca densidad de materia que el efecto
inercial de expansión sea el dominante (que constituiría el análogo al caso de una piedra
lanzada desde un cuerpo de poca masa como un asteroide) . La tasa de expansión permanecerá muy aproximadamente constante. Siempre que miremos a un objeto con desplazamiento al rojo z = 1 estaremos mirando atrás hasta una época cuando los objetos
del universo estaban la mitad de separados que en la actualidad (¿Por qué?). En un universo con una tasa constante de expansión eso significa que una supernova observada
con desplazamiento al rojo z = 1 habría emitido su luz cuando el universo tuviera la
mitad de su edad actual.
Si observáramos la misma supernova pero ahora situada en un universo con mayor densidad de materia, la desaceleración de la expansión por efecto de la atracción
gravitatoria implicaría que el universo se estaba expandiendo más rápido en el pasado
que en la actualidad. Los objetos en el universo estarían la mitad de separados al desplazamiento al rojo z = 1 que lo que están en la actualidad, pero el universo ya no tendría la mitad de su edad, sino algo menos (un ejemplo de ello sería el modelo de Einstein-de Sitter). Al expandirse más rápido en el pasado que en la actualidad, se necesitaría menos tiempo que en el caso con tasa de expansión constante para llegar hasta la
separación actual, y por tanto la luz habría viajado durante menos tiempo desde la supernova hasta nosotros. Su distancia aparentaría ser menor y aparecería algo más brillante que en el caso de un universo de baja densidad.
El resultado que han obtenido los grupos de investigadores de supernovas no
corresponde a ninguno de los dos casos mencionados en las líneas precedentes. Las supernovas a un determinado desplazamiento al rojo son aún menos brillantes que lo esperado en un universo de baja densidad. La manera más directa de interpretar este resultado es que el universo está en expansión acelerada (de forma análoga al universo de de
Sitter). Así, ésta era más lenta en el pasado que en la actualidad, con lo que el universo
41
necesitó más tiempo para alcanzar la separación actual de objetos y por tanto la luz de la
supernova ha tardado más tiempo hasta nosotros, lo que implica una mayor distancia
aparente y consecuentemente un menor brillo aparente.
Figura 18. Representación del
brillo de supernovas para
diferentes desplazamientos al
rojo. La línea superior roja
(OCDM) es el resultado que
cabría esperar en un universo
con materia oscura fría de
densidad crítica dominado por
la contribución de la constante
cosmológica. La línea central
azul corresponde a un universo de baja densidad dominado
por materia oscura fría
(OCDM). La línea inferior en
verde corresponde a un universo de densidad crítica dominado por materia oscura
fría (SCDM).
Figura 19. Diagrama de Hubble de supernovas tipo Ia con la inclusión de las nuevas observaciones de
supernovas a elevado desplazamiento al rojo. Datos de Wang et al. 2003 en naranja y de Tonry et al.
2003 en negro junto con sus barras de error. DL es la distancia de luminosidad calibrada para una
constante de Hubble de 71 km/s/Mpc. Las líneas son modelos teóricas correspondientes a: rojo-universo
cerrado (W = 2), negro-universo de Einstein-deSitter, verde-universo vacío (W = 0), azul-modelo de
estado estacionario y púrpura-modelo estándar (Wl+WM = 0.73+0.27 = 1). Se observa claramente como
a desplazamiento al rojo alrededor de cz = 400000 se produce el cambio de universo desacelerado a
universo acelerado (cruce de las líneas verde y púrpura). Fuente: Ned Wright's Tutorial
42
Cabe por supuesto la posibilidad de que ese menor brillo observado sea debido a
efectos evolutivos o de interposición de gas y polvo que no se han tenido en consideración (Por ejemplo Rowan-Robinson 2002 alega que este efecto está de hecho distorsionando las conclusiones y Wright 2002 concluye que hay que tomar con cautela el resultado hasta obtener el mismo resultado por algún método independiente). Pero el trabajo
observacional de los grupos de supernovas ha sido muy cuidadoso en tener en cuenta
todos estos detalles y aún se sigue estudiando la manera en que esos resultados podrían
ser engañosos.
Estathiou et al. 2002 utiliza un análisis de probabilidad conjunto del espectro de
potencias del survey de desplazamientos al rojo 2dFGRS y de los datos del fondo cósmico de microondas llegando a la misma conclusión que los estudios de supernovas,
con lo que la aceleración del universo y la existencia de algún tipo de energía oscura
parece inevitable.
Conclusiones: El Big Bang no está en crisis
En la última década ya nos hemos habituado a ver, tanto en los medios de comunicación como en las revistas especializadas, informaciones sobre la crisis del modelo
estándar del Big Bang. Estas informaciones suelen confundir el propio modelo del Big
Bang con parámetros libres de éste, como puedan ser la constante de Hubble o la densidad media de materia.
La constante de Hubble
Desde que Hubble en 1929 propusiera una relación lineal entre el desplazamiento al rojo y la distancia para su primer estudio de 24 nebulosas espirales, ésta no ha dejado de confirmarse a medida que se han ido añadiendo más y más objetos. Esta relación es menos aproximada a medida que aumenta el desplazamiento al rojo, como han
venido a mostrar las observaciones de supernovas tipo Ia. Pero implica una verdadera
relación lineal entre velocidad y distancia que es una mera definición dentro de un universo en expansión.
La constante de Hubble, sin embargo, es otra cuestión. Esta constante es un parámetro libre de la teoría. Para aquellos que no entiendan el significado de lo que representa un parámetro libre en una teoría, la siguiente ejemplificación pudiera valer. Si
alguien ahora descubriera que la velocidad de la luz es 10 m/s mayor que el valor actual,
¿invalidaría eso la Relatividad Restringida?. Obviamente no, en principio, puesto que la
teoría afirma que esta velocidad es constante pero no nos da su valor, un parámetro a
medir. Nos podremos plantear todo lo que queramos sobre los métodos que hemos utilizado para medir esta velocidad y qué errores de metodología habríamos cometido. Pero
hace falta más que eso para echar abajo toda una teoría coherente como la Relatividad
restringida.
Con la constante de Hubble estamos en la misma situación. Después de las medidas del telescopio espacial, pocos astrónomos dudan que la constante sea menor que
unos 50 o mayor que unos 80, situando el valor más probable alrededor de 70. Bien,
esto nos deja en apenas unos 10 mil millones de años para la edad del universo (asumiendo que el tiempo esté dado según el modelo de Einstein de-Sitter como 2/(3 H0),
una cantidad de tiempo más bien escasa para la formación de estructuras que vemos en
la actualidad.
43
Se puede ajustar el modelo perfectamente (mediante la introducción de la constante cosmológica ) para que estos datos encajen no sin que sea algo forzado en principio, pero también hay que tener en cuenta que los métodos de medida de la constante de
Hubble (que no es más que una estimación apropiada de distancias) están basados en
prácticamente todas las disciplinas astrofísicas, y un error de comprensión que estemos
cometiendo en cualquiera de estas disciplinas podría derribar todo el edificio metodológico. De hecho la nueva calibración de distancias llevada a cabo por el satélite Hipparcos y las nuevas observaciones que parecen favorecer un modelo con constante cosmológica con una edad dinámica del orden de unos 14 mil millones de años, parece haber
puesto fin al conflicto.
Por último comentar que nadie tiene en consideración que el rango de valores en
los que se mueve actualmente la constante es (dentro del error observacional), si no del
todo satisfactorio, sí es al menos coherente. Imagine el lector que estuviéramos todavía
discutiendo valores de 200 o aún mayores.
Algunos problemas con los desplazamientos al rojo.
La interpretación del desplazamiento al rojo dentro del modelo estándar se puede describir de manera sencilla como sigue: si imaginamos una onda electromagnética
que parte de una galaxia lejana y tenemos en cuenta que ésta onda viaja a una velocidad
finita, la de la luz, y que el universo está en expansión, cuando esta onda alcance al observador el universo será mayor que cuando abandonó la galaxia emisora. Por tanto, los
valles y crestas de la onda de luz nos llegarán con una frecuencia menor que la que tenían en el momento de la emisión, es decir, con una longitud de onda que estará alargada y por tanto desplazada hacia la zona roja del espectro electromagnético. Esta interpretación es esencialmente diferente que la habitual de efecto Doppler (que explican
erróneamente muchos libros de divulgación) aunque coincide con ésta cuando las distancias consideradas no corresponden a tiempos del orden de una fracción importante de
la edad del universo. Hay mucha evidencia observacional de que esta interpretación es
esencialmente válida: El fenómeno de lentes gravitatorias confirma la existencia de cuásares de elevado desplazamiento al rojo detrás de cúmulos de galaxias con un desplazamiento al rojo menor (Stockton 1978, ApJ, 223, 747) y el valor de la constante de
Hubble deducida por este método es compatible con las medidas de otro tipo (Falco et
al. 1999 Ap. J. 484, 70);
Todo esto nos está diciendo que no estamos esencialmente equivocados en la
interpretación del desplazamiento al rojo y por tanto de la cinemática básica del Modelo
Estándar. Bien es verdad que existen algunos casos, comentados brillantemente por el
astrónomo Halton Arp (1987. Controversias sobre las distancias cósmicas y los cuásares. Tusquets. 1992), que parecen no corresponderse con esta cinemática básica del modelo. Algunas de estas supuestas asociaciones entre cuásares de elevado desplazamiento
al rojo, con galaxias de bajo desplazamiento al rojo son bastante llamativas (ver por
ejemplo Stephan's Quintet). Pero hay que tener en cuenta que estos casos son excepciones a la regla general y la conexión física entre los objetos pudiera ser sólo aparente (de
hecho parece ser que utilizando el método de fluctuaciones en el brillo superficial se
puede ver que en el caso del Quinteto de Stephan una de las galaxias parece estar más
resuelta en estrellas que su compañera lo que indica que estaría más cercana). Y al menos tenemos cuásares tan luminosos como 3C273 que se encuentran con mucha seguridad a la distancia indicada por su desplazamiento al rojo. Así que aplicando el principio
de no multiplicar las hipótesis innecesariamente (navaja de Occam) podemos concluir
44
que es probable que esta sea la regla general. Por otro lado, parece ser que Arp ha cometido algunos errores en los análisis estadísticos. Otros comentarios de interés pueden
encontrarse en esta página.
Además, se ha afirmado durante muchos años la observación de la existencia de
cierta periodicidad en la distribución de los desplazamientos al rojo (Arp 1987 pag. 2628, 30-32, 116-117). Con los nuevos surveys de quasars, se ha podido demostrar que
esto era un artificio de los surveys muy limitados de los que se disponía en ese momento (Hawkins, Maddox & Merrifield 2002).
Resulta curioso que algunos críticos recientes (p.e. López-Corredoira 2003) sigan utilizando los mismos argumentos sin responder a las críticas de las referencias
mencionadas.
Las evidencias rotundas de que vivimos en un universo en expansión pueden
hallarse en esta página.
El universo primitivo.
En contra de lo que piensa la mayoría de la gente, el Modelo Estándar del Big
Bang no dice absolutamente nada sobre el instante de creación, por decirlo de algún
modo, del universo. El modelo nos remonta en el tiempo hasta una fase de alta densidad
y temperatura dominada por radiación térmica. No voy a describir aquí con detalle la
apasionante historia de descubrimientos que nos llevan a esta conclusión (ver sección
anterior), pero la evidencia observacional viene de tres hechos que han sido suficientemente contrastados: las abundancias cósmicas primordiales de los elementos ligeros, la
existencia de un fondo de radiación electromagnética correspondiente a una emisión
térmica a 2,73 Kelvin y la existencia de tres familias de neutrinos, hecho relacionado
con el modo en que se tuvo que llevar a cabo la nucleosíntesis primordial y confirmado
en los aceleradores de partículas actuales (ver neutrinos en cosmología).
Los problemas teóricos de remontarnos hasta tiempos muy próximos al origen
mismo (cualquier cosa que esto signifique) es un problema de la física fundamental y no
del propio Modelo Estándar. Sabemos, por los teoremas de Hawking-Penrose, que el
Modelo Estándar tiene una singularidad inicial, pero insisto en que cualquier explicación consistente de lo que esté pasando en ese "instante inicial" está más allá de lo que
sabemos en física fundamental. Y cualquier especulación que surja al respecto, no sólo
tiene que ser compatible con las observaciones actuales, sino proponer nuevas observaciones que no encajen dentro del Modelo actual para invalidarlo. Una propuesta sugerente para entender los escenarios pre-Big Bang son algunos escenarios inflacionarios,
donde el universo tiene que haber pasado por unos primeros estadios de expansión exponencial, nacidos de las Teorías de Gran Unificación. Pero las soluciones a los problemas con la singularidad inicial no parece que estén en el buen camino todavía (sin
embargo ver noticia del 28 de abril de 2001 y ¿Qué ocurrió antes del Big Bang?).
Alternativas al Big Bang
El escepticismo es una de las mejores armas del difícil arte de la astronomía en
general y de la cosmología en particular. Hay que tener en cuenta que en cosmología
estamos usando una lista relativamente pequeña de observaciones indirectas (aunque en
espectacular aumento en los últimos años) para extrapolar hasta la gran conclusión de
que el universo se expande desde unas primeras fases de alta densidad y temperatura.
45
Fred Hoyle, Halton Arp, Hemann Bondi o Jayant Narlikar son los abanderados del escepticismo frente al modelo del Big Bang, y no hay que olvidar que han mostrado muchas y buenas observaciones que no debemos pasar por alto a la hora de pensar lo que
estamos haciendo en cosmología. Pero, como señal el astrónomo P.J.E. Peebles, estos
escépticos siempre olvidan en sus ataques tres cuestiones fundamentales. Primero, el
Modelo Estándar ajusta perfectamente las observaciones disponibles con gran precisión
(un ejemplo impresionante). Segundo, hoy en día no existe ninguna teoría alternativa
con alguna posibilidad de sustituir al Big Bang; El modelo de Estado Estacionario, la
alternativa clásica, ha tenido que cambiar de tal manera a lo largo del tiempo que, en las
últimas versiones, sus predicciones son difícilmente diferenciables de las del Big Bang
y su estructura es claramente más compleja, con lo que podemos aplicar sencillamente
un corte de Occam para que el Modelo Estándar siga siendo preferible. Parece ser sin
embargo, que la versión más elaborada, conocida como Modelo Cuasi estacionario sigue presentando problemas insalvables. Tercero, que obviamente existen cuestiones sin
resolver, como puede ser el origen y la formación de las galaxias, pero ninguna que parezca contradecir el modelo dentro de los presentes niveles de conocimiento.
Personalmente añadiría una cuarta observación: el Modelo Estándar ha servido
de telón de fondo para nuestro avance en la comprensión del universo y de los objetos
que éste contiene desde hace al menos seis décadas. La historia de la ciencia nos sugiere
que las teorías falsables como el Big Bang, que son tan exitosas durante tanto tiempo
suelen ser una aproximación útil a la realidad, y cualquier teoría más completa que esté
por venir, incluirá, con toda seguridad, al Modelo Estándar como una aproximación.
Esta falsabilidad del modelo se puede poner fácilmente en evidencia si por ejemplo encontráramos en los nuevos surveys de galaxias fluctuaciones en densidad mayores que
las que permite la alta isotropía de la radiación de fondo. O detectando algunos objetos
extragalácticos con fracciones de helio muy diferentes del 24% predicho por los cálculos de nucleosíntesis primordial. O los astrónomos podrían descubrir unos nuevos objetos con fuertes desplazamientos al azul que violaran la cinemática básica del modelo
(ver sin embargo Tamara M. D. & Lineveaver C.H. & Webb J. K. 2001). O descubrir un
cúmulo estelar con una edad evolutiva de digamos unos cien mil millones de años que
pondría el valor de la constante de Hubble bien lejos del rango permitido por las incertidumbres del modelo cosmológico. Éstas sí serían razones de peso para la actuación. Las
propuestas que tenemos hasta el momento, no es que sean descabelladas sino que, parafraseando a Pauli, no son lo suficiente descabelladas para tenerlas siquiera en consideración.
Inflación
El modelo estándar del Big Bang nos proporciona una descripción física del
Universo desde que éste tenía alrededor de una diezmilésima de segundo de forma consistente con todas las observaciones realizadas hasta la fecha. Sin embargo, dentro de
esta imagen del Universo surgen espontáneamente cuestiones fundamentales acerca de
las condiciones iníciales: el origen del alto grado de homogeneidad del universo a gran
escala, el problema de la curvatura nula, el problema del horizonte, el rompecabezas de
la constante cosmológica y la sutil asimetría entre la materia y la antimateria son las
cuestiones principales que deja sin resolver el modelo estándar.
En un artículo ya legendario (Guth, A. H. 1981, Phys. Rev. D 23, 347), Alan
Guth introdujo la idea de universo inflacionario o inflacionista: la expansión exponencial del universo en sus primeras fases en la que en unos meros 10-35 segundos el factor
de escala del universo crecería al menos en un factor del orden de 1030 veces.
46
Figura 16. Inflación es un periodo de expansión acelerada que probablemente ocurrió en algún momento
anterior a un picosegundo (10-12 s) en el que el universo creció en un factor de al menos 1030. En los
modelos preferidos inflación empezó cerca de la escala de Gran Unificación (10-35 segundos, 1015 GeV )
y finalizó unos 10-30 s después del Big Bang. Nuestro universo observable (45 gigaaños-luz) partiría de
una región 10-60 veces menor, es decir, unos meros 10-33 m
El propio Guth (Guth A.H. & Weinberg E.J. 1983. Nucl. Phys. B212 321) mostró que el modelo en el que se basaba su idea no funcionaba y Stephen Hawking (Hawking, Moss & Stewart 1982, Phys. Rev. D 26 2681) presentó un artículo en un encuentro
celebrado en Moscú donde apuntaba que efectivamente no iba a llevar a ningún lado,
aunque en el mismo encuentro e improvisadamente Andrei Linde presentó una versión
mejorada que llamó "nueva inflación" que salvaba las dificultades del modelo de Guth.
Algunos meses más tarde Linde publicaba el nuevo modelo (Linde A.D. (1982), Phys.
Lett. B 108, 389; 114B, 431 & 116B, 335, 340) . Dentro de un periodo de pocos meses,
el nuevo escenario inflacionario fue publicado también por Andreas Albrecht y Paul
Steinhardt (1982, Phys. Rev. Lett. 48,1220) de la universidad de Pennsylvania.
Con el tiempo se han desarrollado numerosas versiones del escenario inflacionario. No existe por tanto un modelo estándar para la inflación. Los modelos más simples
tienen como mecanismo de expansión un campo escalar (el inflatón) que actuaba a modo de constante cosmológica cuando el universo tenía unos 10-35 segundos de vida (la
escala de energía corresponde a unos 1016 GeV) y llevó a un aumento del factor de escala del universo en unos 30 órdenes de magnitud, permitiendo resolver el problema de la
curvatura nula y el problema del horizonte. El modelo de expansión de un universo inflacionario dominado por la energía de vacío se acerca mucho a un universo de de Sitter
donde la expansión es de tipo exponencial.
En el modelo original de Guth, antes de que tuviera lugar la transición de fase
donde se produjo la ruptura espontánea de la simetría de la interacción electrodébil y
nuclear fuerte, el potencial V(f) del campo escalar f estaba situado en un mínimo. Sin
embargo, a medida que el universo se enfriaba, el potencial evolucionaba con el tiempo
de tal manera que el mínimo global se convertía en mínimo local creándose otro mínimo global.
El mínimo local representa un estado denominado de falso vacío y el nuevo mínimo global es verdadero vacío. En el nuevo estado superenfriado, se crearon por efecto
47
túnel (línea discontinua en la figura) algunas regiones burbuja de verdadero vacío dentro del estado general de falso vacío
El choque entre las burbujas crearía un recalentamiento del universo de donde
aparecería toda la radiación y partículas elementales. Sin embargo, el propio Guth señalaría que este modelo crearía un universo demasiado poco homogéneo para ser compatible con las observaciones actuales.
Como solución aparecería la nueva inflación y los modelos posteriores. La diferencia principal con el modelo de Guth estriba en que la transición de fase es de segundo orden –del tipo de la que se produce a la temperatura de Curie cuando un material se
vuelve ferromagnético– y que el potencial tiene una forma muy plana durante la transición (las transiciones de segundo orden son mucho más suaves que las de primer orden)
y la evolución del universo se compone de tres episodios separados
(a) El potencial disminuye
muy lentamente (en tiempos
característicos mucho mayores que el tiempo de Hubble
1/H(t) en ese momento) y se
produce el periodo de expansión exponencial característico de la inflación.
(b) El potencial empieza a
cambiar mucho más rápidamente. La transición de (a) a
(c) es muy corta (con un
tiempo característico mucho
menor que el tiempo de Hubble)
(c) El potencial oscila alrededor del mínimo, y la energía de vacío en las oscilaciones es
convertida en partículas de masas del orden de 1014 GeV que terminan decayendo en
partículas más ligeras, recalentando el universo.
La física de la inflación es especulativa por dos razones fundamentales


Porque ningún campo de naturaleza escalar ha sido observado
Porque la escala de energías asociadas con la inflación es del orden de 1015 GeV y
no hay una teoría física robusta para ese rango de energías.
Sin embargo, todos los modelos tienen una características común: una curva de
energía potencial casi plana que permite una expansión exponencial "superlumínica"
(perfectamente consistente con la Relatividad General) y con una alta tasa de producción de entropía debida al recalentamiento del Universo, por la creación de partículas
que terminan decayendo en los fotones que podemos observar hoy en día como radiación de fondo.
Esas características comunes llevan a una serie de predicciones interesantes
48



El universo tiene que tener una geometría espacial indistinguible de la euclídea y
por tanto el parámetro de densidad debería ser esencialmente uno (La mayoría
de modelos predicen W = 1 ± 0.0001).
El espectro de las fluctuaciones de la densidad es muy aproximadamente invariante con la escala considerada (la mayoría de modelos predicen un índice espectral n = 1 ± 0.2). Estas perturbaciones en la densidad quedan reflejadas en anisotropías de la radiación cósmica de fondo. Las medidas observacionales son
compatibles con esta predicción.
El espectro de ondas gravitatorias producidas por las fluctuaciones de la métrica
debería también ser muy aproximadamente invariante con la escala.
Inflación: Una visión escéptica






Los modelos inflacionarios podrían no resolver definitivamente el problema de
la curvatura nula ni el problema del horizonte y existen alternativas que también
podrían resolver estos problemas
¿Qué sentido tiene invocar propiedades ad hoc de un campo escalar que no ha
sido observado para solucionar problemas con condiciones iníciales ad hoc del
Big Bang estándar?. Una solución podría ser inflación caótica propuesta por
Linde en 1983. Sin embargo parece que aún se requiere un ajuste ad hoc excesivamente preciso (del orden de 1012) en el acoplamiento del inflatón consigo
mismo y con otros campos.
Existen modelos de inflación que pueden encajar dentro de un universo con densidad de materia menor que la densidad crítica. Andrei Linde reconoce este grado de libertad de los escenarios inflacionarios. Alan Guth 2001 muestra que no
existe un método riguroso para calcular la probabilidad relativa de los diferentes
parámetros en una burbuja en expansión, con lo que no se puede decidir, por
ejemplo, entre si es más probable la existencia de un universo plano o de baja
densidad.
Inflación predice un tipo de espectro de potencias de las fluctuaciones de la radiación de fondo que parece compatible con las medidas de COBE y WMAP.
Pero existen formas alternativas de producir un espectro de ese tipo, por ejemplo, defectos topológicos debidos a transiciones de fases tales como cuerdas
cósmicas o texturas. ¿Pueden hacerse observaciones que distingan entre los diferentes modelos?. Esa sería la única manera de que el modelo inflacionario fuera
falsable.
No existe una teoría consistente (teoría cuántica de la gravedad) que ponga algo
de luz en el origen de las fluctuaciones cuánticas que producen inflación en escalas sub-planckianas.
Inflación caótica se basa en un campo escalar (el inflatón) sencillo que no tiene
ninguna motivación en la física de partículas subyacente (puesto que en principio no tiene nada que ver con el campo de Higgs), lo que es un paso atrás en la
idea original de Guth de un modelo inspirado en física de partículas emergente.
49
Bibliografía
[1] Byrd Gene G, Chernin A.D., Valtonen M.J.,Cosmology, URSS 2007
[2] Andrew Liddle, An Introduction to Modern Cosmology, Wiley 2003
[3] J. García-Bellido, Astrophysics and Cosmology, Theoretical Physics Group, Blackett Laboratory,
Imperial College of Science
[4] Andrei Linde, Particle Physics and Inflationary Cosmology, Department of Physics, Stanford
University, Stanford CA 94305-4060, USA
[5] J. Foster, J. D . Nightingale, A short course in General Relativity, Longman Group Limited 1979
[6] Wolfgang Rindler, Relativity Special, General, and Cosmological, Oxford University Press 2006
[7] Fernando Chamizo Lorente, Seminario relatividad: La odisea continua
[8] Bert Janssen, Teoría de la Relatividad General, Dpto de Física Teórica y del Cosmos,Universidad
de Granada 2010
50
Descargar