NUESTRO UNIVERSO (Copyright 2001)

Anuncio
NUESTRO UNIVERSO
(Copyright 2001)
PRÓLOGO.........................................................................................................................................................1
Capítulo I. GRAVEDAD RELATIVISTA....................................................................................................... 5
1. Teorías del espacio-tiempo............................................................................................................................ 5
2. Relatividad General..................................................................................................................................... 14
Capítulo II. CONCEPTOS COSMOLÓGICOS.............................................................................................. 19
1. Parámetros.................................................................................................................................................. 19
2. Estimación de distancias............................................................................................................................ 19
3. Constante cosmológica............................................................................................................................... 22
4. Ley de Hubble............................................................................................................................................. 28
5. Materia oscura y antimateria.................................................................................................................... 31
A. Materia oscura....................................................................................................................................... 31
B. Antimateria............................................................................................................................................ 34
C. Crítica a la interpretación clásica de Dirac............................................................................................ 37
Capítulo III. INFLACIÓN.............................................................................................................................. 51
1. Universo de Einstein- de Sitter............................................................................................................... 51
2. Universos dominados por materia fría de tipo general........................................................................ 51
3. Universo dominado por radiación.......................................................................................................... 52
4. Universo dominado por la densidad de energía de vacío. Universo de de Sitter................................ 52
5. Caso general...............................................................................................................................................52
6. Parámetro de desaceleración....................................................................................................................53
7. El modelo clásico del Big Bang.................................................................................................................54
8. Universo inflacionario...............................................................................................................................54
9. Inflación caótica.........................................................................................................................................60
10. Inflación autorregenerante.......................................................................................................................62
Capítulo IV. OTROS MODELOS COSMOLÓGICOS.................................................................................. 65
1. Modelo del estado estacionario............................................................................................................... 65
2. Modelo relativista del big bang................................................................................................................66
3. Modelo de la aceleración de la expansión...............................................................................................69
4. Modelo del universo pulsante...................................................................................................................71
5. Modelo cósmico de la “fuerza nuclear” (o “teoría unificada del espacio-tiempo-masa”)..................72
6. Modelo de la expansión de la escala del cosmos.....................................................................................73
7. Modelo de la oscilación entrópica............................................................................................................79
8. Modelos para la solución del llamado “problema de la desaparición del tiempo”.............................80
9. Modelo de Stephen W. Hawking..............................................................................................................83
10. Nuestro modelo cosmológico....................................................................................................................84
Capítulo V. ASTRONOMÍA OBSERVACIONAL.........................................................................................91
1. Estimaciones de interés.............................................................................................................................91
2. Parámetros cosmológicos de los distintos modelos relativistas.............................................................92
3. Valores de los parámetros cosmológicos.................................................................................................92
A. Sobre la constante de Hubble H0............................................................................................................92
B. Sobre el parámetro de densidad Ω0 (suponiendo ΩΛ=0)........................................................................93
C. Sobre el parámetro de densidad debido a una cte. cosmológica ΩΛ......................................................93
D. Sobre la edad del universo T0.................................................................................................................94
4.
Verificaciones y problemas en el modelo estándar...............................................................................94
0
A. Verificación de la teoría estándar........................................................................................................94
B. Divergencias respecto a la teoría estándar...........................................................................................96
I.
ACELERACIÓN DEL UNIVERSO........................................................................................... 96
II.
PROBLEMAS CON LA SIMETRÍA ROTACIONAL DEL U. A ESCALAS CÓSMICAS..... 97
C. En defensa del big bang...................................................................................................................... 98
Capítulo VI. TEORÍAS UNIFICADAS (GTU´s)...........................................................................................101
1. Introducción.............................................................................................................................................101
2. La intensidad fuerte...............................................................................................................................105
3. Cromodinámica cuántica QCD (Quantum Chromodynamics)..........................................................112
4. La interacción débil................................................................................................................................118
5. Resumen de las teorías GTU..................................................................................................................123
Capítulo VII. SUPERSIMETRÍA. SUPERGRAVEDAD..............................................................................129
Capítulo VIII. SUPERCUERDAS Y TEORÍA M.........................................................................................135
1. Supercuerdas...........................................................................................................................................135
2. La teoría M..............................................................................................................................................147
Capítulo IX. RESUMEN DE NUESTRA TEORÍA. IMPLICACIONES.....................................................165
Capítulo X. NOTICIAS Y TENDENCIAS EN ASTRONOMÍA.................................................................181
BIBLIOGRAFÍA..........................................................................................................................................185
1
PRÓLOGO
En esta obra se ha pretendido un doble
objetivo. En primer lugar hemos
intentado hacer llegar al lector una visión
actual de la cosmología de nuestra época;
y es que constituye prácticamente un libro
de texto de amplia perspectiva, a la vez
que riguroso en algunas cuestiones.
Intencionadamente no se han evitado las
fórmulas que se consideran estrictamente
necesarias en un libro sobre Ciencias
Físicas, lo que por otro lado, aunque
parezca farragoso el incluirlas, permite
tomar una visión de conjunto bastante
clara de todo el panorama científico que
encuadra la cosmología moderna pisando
“suelo firme”, sin un exceso de literatura
que acercaría más el libro a la ciencia
ficción en la que, lamentablemente, caen
muchos textos de divulgación.
Así que, si lo que se busca es, en una sola
obra, tener una ancha visión de
cosmología, este libro cumplirá ese
cometido. Al mismo tiempo, dada la
importancia tan substancial que está
adquiriendo la red informática global de
interconexión, Internet, se han dado
muchas referencias de sitios Web, sobre
todo en lo que se refiere a los distintos
modelos teóricos de universo, de los que
se ha sacado bastante texto de la obra.
En segundo lugar, hemos aprovechado la
ocasión tan inmejorable que nos ofrecía el
trabajo para aportar nuestro “granito de
arena” en la construcción de un modelo
cada vez más perfeccionado del Universo,
más allá del modelo estándar: nuestro
propio modelo, descrito en el Capítulo II
(5.c), Capítulo IV (10) y Capítulo IX.
2
materia. A ello se dedican el Capítulo VI
citado, el VII y el VIII.
La obra consta de nueve capítulos. En el
I, se repasa la base de la teoría
matemática que subyace en las teorías del
espacio-tiempo, entre las que se incluye la
Relatividad General einsteniana. El
capítulo puede resultar un poco
complicado para los que no tengan una
base matemática media, no obstante
aunque no se entienda toda la
formulación, sí puede obtenerse una idea
de cómo se construye el edificio
matemático en que están basados
prácticamente todos los modelos de
universo que gozan de la máxima
credibilidad en el estamento científico.
El Capítulo VI estudia con carácter
general las Teorías Unificadas de la
Física, GTU, en su búsqueda de la misma
base de la constitución de la materia.
El Capítulo VII hace un resumen de la
teoría Supersimétrica, adentrándose en los
terrenos de la Supergravedad.
En el Capítulo VIII es la popular teoría de
las Supercuerdas la que ocupa nuestro
interés, rematada por la teoría del Todo o
la teoría M, como extensión de las
propias Supercuerdas.
El Capítulo II entra ya de lleno en el tema
que nos ocupa, puesto que todos los
conceptos usados generalmente en
cosmología práctica van apareciendo.
La obra termina con una breve historia de
los hitos más importantes habidos en la
Astronomía científica, rematada con las
últimas observaciones más relevantes
logradas por nuestra tecnología actual.
El siguiente Capítulo, el III, está dedicado
monográficamente a la Inflación, dado
que la mayoría de modelos, entre ellos el
estándar, la incluyen entre sus
fundamentos.
Inmediatamente antes, en el Capítulo IX,
es ofrecido un resumen de la teoría que
proponemos con las implicaciones y
cuestiones que pretende resolver.
El Capítulo IV nos ofrece, como
ejemplos, diez tipos de modelos de mayor
o menor solidez científica; aquí no
entramos en su valoración, simplemente
se ofrecen como forma de aproximación
al abanico de ideas que se barajan en
cosmología. Claro está, el modelo
científico preferido es el estándar
obtenido a partir de la Inflación.
Una vez más es preciso aclarar al lector
que la obra, con separación de las partes
correspondientes a los capítulos donde se
expone nuestra teoría (ya citados), por lo
demás podría constituir un libro de texto
con el carácter de imparcialidad que suele
adornar a los mismos, como una de las
características principales que avalan su
utilidad. Queremos decir que su lectura
no induce a la adopción de una u otra
teoría, en detrimento de las demás, y es
que pretende ser bastante aséptica,
consecuencia, quizás, de su carácter
eminentemente descriptivo.
El Capítulo V está dedicado a La
Astronomía Observacional, dándose en el
mismo los valores más fiables de los
parámetros obtenidos hasta el presente.
Ya en el Capítulo VI se inicia el estudio
del universo “primordial”, que según se
cree tiene estrechos vínculos con el
mundo submicroscópico, o de los
componentes fundamentales de la
Otra cosa, sin duda, aparece en la parte de
la obra dedicada a la enunciación de
nuestra teoría cósmica. Aquí sí
3
una continuación en la misma senda que
siguieron Kaluza y Klein, y todos los
creadores de las teorías unificadas. Esa
extrapolación va más allá de la espuma
cuántica del espacio-tiempo de Valenkin.
Ni siquiera esa espuma cuántica es
primordial. Antes de la “Creación”, de su
aparición de la Nada, ésta última, matriz
de ella, no era el vacío cuántico (por
cierto tan particular y altamente
“estructurado”) propuesto por las
recientes teorías físicas. Hasta dicho
vacío cuántico aparece casi a la vez que el
mismo espacio-tiempo. El minúsculo
átomo primordial, supermasivo y
supercaliente, estrechamente vinculado a
la incertidumbre cuántica de Heisenberg,
es la expresión de las leyes físicas en su
más alto grado de unificación, verdaderas
constructoras de la propia espuma
cuántica, con su aparición explosiva,
subsiguientemente
materializada
en
espacio-tiempo.
encontramos ideas propias acuñadas bajo
una filosofía de globalidad que va más
allá de lo que sería una teoría física, sin
que por otra parte dejemos de lado a la
misma, por lo menos la teoría física más
actual, adentrada en terrenos que hasta
hace
relativamente
poco
más
corresponderían al dominio de la
Filosofía, y hasta de la misma Psicología.
Y nos estamos refiriendo a las
consecuencias de la explicación del papel
del “observador”, en suma de la propia
mente en la “definición” de la realidad, en
el llamado “colapso” de la función de
ondas definido por Roger Penrose.
Conceptos como la holografía, la teoría M
o la multidimensionalidad, nos adentran
en una teoría del Todo, definida
indisolublemente
junto
o
inseparablemente a sus partes, lo que da
un carácter holístico a la Física y con ello
a todo el Universo.
La Nada es nada, no el vacío cuántico
(falso o real). El “acto” de creación
incluye el vacío cuántico, la espuma
cuántica, y las siguientes fases de
espacio-tiempo, materia y radiación. El
“salto” desde la Nada incluye todo lo
anterior, hasta el propio vacío. Una vez el
“acto creativo” se produce, todo lo
anterior se configura. No es necesario un
vacío (cuántico) en el que aparecen
universos-burbuja aquí y allá. No existe el
aquí, ni el allá, ni el propio vacío sobre el
que se definen. Toda definición es
consecuencia de la “aparición” de la Ley
Física Unificada (de la que se deducen
todas las demás). Lo anterior, lo previo,
es simplemente Nada.
Se ha dicho que se vislumbra un
horizonte en el que todo queda
entrelazado, es decir, va deduciéndose de
unas teorías globales, cada vez más
unificadas, de forma que ya no se necesita
un Creador para la creación de la materia,
el espacio y el tiempo, el mismo
Universo; ahora bien, sigue subsistiendo,
cada vez más nítido, el papel de un
“Forjador” de las propias leyes de ese
Universo, y en este sentido sí existiría un
Creador de leyes, creador de la base para
que todo se manifieste.
Nuestra teoría, como casi todo en
cosmología tiene fuertes implicaciones
filosóficas. El salto magistral promovido
por el propio Einstein, al sustituir, al
transmutar algo tan sólido, tan pétreo
como las propias masa de los cuerpos y
su pesadez, en luz-energía y simplemente
geometría, del espacio-tiempo, se nos ha
quedado insuficiente. Mejor, necesita de
4
5
CapítuloI.GRAVEDAD RELATIVISTA
∑ij=1n gij dxi dxj = ∑ij=1n gij dxi dxj
1.Teorías del espacio-tiempo
Ello no ocurre si se cambia de geometría
pasando, por ejemplo de una euclídea una
curvada no euclídea. El tensor métrico
queda cambiado en la forma:
En 1984, Riemann considera espacios o
variedades de un número cualquiera de
dimensiones; los puntos de estas
variedades
quedan
unívocamente
determinados por n-tuplas de números
reales. Si establecemos en una de tales
variedades un sistema de coordenadas x1,
x2,.....,xn, podemos definir un elemento de
arco en n dimensiones, llamado tensor
métrico mediante la fórmula:
ds2 = ∑ij=1n g*ij dxi dxj
Si la métrica ds2 no es euclídea, no existe
ningún sistema de coordenadas en el que
g*ij= diag (1,1,.....1).
Resumiendo, se puede considerar una
variedad riemaniana n-dimensional como
una forma o esquema abstracto que
podemos “rellenar” mediante distintos
tensores métricos para obtener diferentes
espacios geométricos concretos. La
variedad n-dimensional abstracta carece
de estructura geométrica (métricamente
amorfa) hasta que en ella no sea definido
un tensor métrico. Tal variedad abstracta,
entonces, solamente posee una estructura
“topológica” localmente euclídea como
resultado de la utilización como
coordenadas de n-tuplas de números
reales.
ds2= Σnij=1 gij dxi dxj
(Recordemos que en coordenadas
continuas, el arco adopta la forma
habitual:
ds2= dx12+ dx22
que en coordenadas
arbitrarias adopta la forma:
ds2= g11 dx12+ g12 dx1 dx2 + g21 dx2 dx1+
g22 dx22)
Con la condición de simetría ( gij= gji) y
ds>0 (si se renuncia a la última condición
de definida positiva se obtienen métricas
semirriemanianas, que tienen un papel
importante en la Relatividad). Riemann
nos muestra cómo definir la curvatura en
tales variedades. Para el caso especial de
las variedades euclídeas o “llanas” existen
coordenadas en las cuales la matriz de
coeficientes (gij) adopta la forma diagonal
(1,1.....,1), o sea, gij=1 si i=j y gij=0
cuando i≠j. (Si la métrica es
semirriemaniana y llana gij= diag (±1,
±1,.....,±1).
En un espacio euclídeo n-dimensional, el
nivel mínimo de estructura es la
estructura métrica que corresponde a un
elemento de arco dado por el teorema de
Pitágoras:
ds2 = dx12+dx22+.......+dxn2 (1)
La citada estructura proporciona una
longitud para cada curva, una distancia
entre dos puntos cualquiera, una noción
de línea recta y también una noción de
ángulo entre dos rectas que se corten
entre sí. Sin embargo, algunas de estas
mismas nociones son más generales que
la estructura anterior. Por ejemplo, la
estructura afín, o clase de líneas rectas,
dada por la condición xi= ai u+ bi (siendo
Entonces, si sólo se cambia de
coordenadas, de x1, x2,......xn ,a x1, x2,.xn,
los coeficientes gij se transforman en los
gij, y el elemento de arco se preserva:
6
ai y bi constantes, y el parámetro u
recorriendo el conjunto de los números
reales), es más amplia que la clase de
sistemas de coordenadas que verifican
(1). (Métricas distintas pueden originar
una misma estructura afín). También la
estructura conforme, relacionada por la
noción de ángulo, es de igual forma, más
general que la estructura métrica (1),
puesto que si Ω es una función cualquiera
con valores reales positivos definida
sobre nuestro espacio, entonces ds2=Ω ds2
proporciona los mismos ángulos que ds2.
Por último, el nivel más alto de estructura
es justo la propia estructura de variedad:
la topología de espacio localmente
euclídeo n-dimensional.
Topología (Estructura de variedad)
Transformaciones bicontinuas arbitrarias
↑
↑
Ángulos
Transfor.conformes
Líneas rectas
Transfor.afines
↑
↑
Estructura métrica
Isometrías
El sistema de cooordenadas:
x1 = x1 – vt
x2 = x2
x3 = x3
La estructura métrica queda preservada
por las isometrías o movimientos rígidos,
que en un espacio euclídeo tiene la forma:
(3)
recibe el nombre de referencia inercial; la
transformación (3) se denomina galileana.
x*i = ∑j=1n αij xj+ βi Las αij y las βi son
ctes. Y la matriz (αij) es ortogonal; o sea,
Einstein demostró que un principio de
relatividad para la electrodinámica
consiste en dejar intactas las leyes de
Maxwell de dicha electrodinámica y
modificar,
en
cambio,
las
transformaciones que definen las
referencias inerciales, de la forma:
∑j αij αkj = δik =1 si i=k y 0 si i≠k
(El grupo euclídeo no es más que el grupo
de rotaciones y traslaciones)
La estructura topológica es preservada
por las transformaciones arbitrarias:
t = ( t – v x1/ c2 ) / (1 – v2/ c2)1/2
x1= (x1 – vt) / (1 – v2/ c2)1/2
(2) x*i = fi (x1, x2,......xn) donde las fi son
suficientemente continuas.
x2 = x2
O sea, según nos movemos hacia niveles
más y más generales de estructura
geométrica,
los
grupos
de
transformaciones asociados se van
haciendo cada vez más amplios.
x3 = x3
que se denominan transformaciones de
Lorentz(4). De éstas ultimas se deduce
que la velocidad c de la luz, se preserva,
es decir, es constante.
(2) Es el grupo de las transformaciones de
coordenadas
admisibles
(esto
es,
biunívocas y suficientemente continuas).
Las transformaciones de Lorentz son la
base de la relatividad restringida. Dicha
teoría, según la interpretación geométrica
7
° σ(u) y las
Donde
xi = xi
Tjki(i,j,k=0,1,2,3) son funciones realvaloradas, llamadas componentes de la
conexión afín D, que depende del sistema
de coordenadas {xi }. Precisamente se
dice que una variedad afín es llana o
euclídea en un punto p cuando puede
hallarse un sistema de coordenadas
locales en p tal que todas las funciones
Tjki se anulen. Tal sistema de coordenadas
se llama sistema cartesiano o inercial, y
en el se cumple:
de Minkowski, que data de 1908, describe
una
variedad
tetradimensional
semieuclídea, cuyo elemento de arco
viene dado por:
(5) ds2 = dx02-dx12-dx22-dx32 siendo x0=ct
En esta teoría las referencias inerciales
son los sistemas de coordenadas
cartesianas correspondientes a este
elemento de arco. Las transformaciones
de Lorentz preservan la forma cuadrática
(5) correspondiente a ds2, desempeñando,
pues, un papel análogo al de las
transformaciones ortogonales euclídeas.
Las trayectorias, o “líneas del mundo”, de
las partículas libres son “líneas rectas” o
geodésicas de la métrica (5): curvas
tetradimensionales de longitud mínima,
medida según ds, y que satisface la
ecuación afín, xi= ai u+ bi, en todas las
referencias inerciales.
DTσ Tσi = d2xi/ du2 = la aceleración
ordinaria.
Las geodésicas verificaran:
d2xi/du2 =0 , xi = ai u + bi con ai y bi ctes.,
es decir, las geodésicas son líneas rectas
ordinarias, lo que no cumplen las
variedades no-euclídeas, curvadas o
alabeadas.
Suponiendo que nos den una curva σ y un
campo vectorial X-(p) definido sobre
puntos situados sobre σ , y donde X-(p)
es una selección continua y diferenciable
de vectores elegidos cada uno en el
espacio tangente de la variedad en cada
punto p de σ, dado Tσ (campo vectorial
tangente a σ ), X(p) y un punto q situado
sobre σ, un operador de derivación D nos
proporciona un vector (DTσ X) (q) en Tq
que registra la tasa y la dirección del
cambio de X(p) en q. (Conexión afín si
posee las propiedades que una derivada
debe tener).
Pero la variedad afín anteriormente
definida aún adolece de una estructura
métrica, pues no se han definido, todavía,
la longitud o distancia.
Si σes la longitud de la curva σ(t)
definida en un proceso de rectificación
(resultado de dividir la curva en pequeños
segmentos infinitesimales acoplados a los
puntos de la misma, y sumados después)
es fácil demostrar que:
σ= ∫σ Tσ(T) dt
siendo
Tσ(T)=((dx/dt)2+(dy/dt)2+(dz/dt)2)1/2
Una variedad afín, es decir una variedad
equipada con un operador de derivación
(conexión afín), posee una geometría. En
ella hay una clase privilegiada de “líneas
rectas”, o geodésicas, que cumplen DTσ
Tσ =0. Explícitamente están dadas por
o en otras palabras, la longitud de una
curva del espacio euclídeo tridimensional
es el resultado de integrar la longitud
“infinitesimal” del vector tangente Tσ (t)
= (dx/dt,dy/dt,dz/dt) sobre la curva entera.
DTσ Tσi = d2xi/ du2+ Tjki dxj/du * dxk/du
8
; el ángulo α comprendido entre dos
vectores X,Y de Tp, es definido como
cos(α) = gp(X,Y)/XY, y la longitud de
cualquier curva σ(u), mediante la
fórmula:
σ= ∫σTσ(t)dt =
∫σ (gσ(u) (Tσ(u),Tσ(u))1/2 du.
Si nos fijamos, la cantidad que aparece en
el radicando anterior es el producto
escalar o producto interior euclídeo del
vector tangente Tσ (t) por sí mismo. En
general, el producto escalar de dos
vectores X = (a1,a2,a3) e Y = (b1,b2,b3) de
R3 viene dado por X*Y =a1b1+a2b2+a3b3 ,
y tiene las siguientes propiedades:
También, una noción de geodésica
geométrica, es la de una curva de longitud
mínima (extremal).
X*X>0 si X≠0 (positiva definida)
X*V = V*X
(simetría)
X*Y =0 para todo Y, si y solo si X=0 (no
singularidad)
Si la variedad posee estructura afín (un
operador de derivación) y estructura
métrica (tensor métrico riemaniano), es
preciso exigir que las dos nociones de
geodésicas coincidan: una curva es una
geodésica afín (la línea más recta) justo
en el caso de que sea una geodésica
métrica (la curva más corta). O sea, que la
métrica g es compatible con D. Entonces,
esta variedad se llama riemaniana. En el
caso de que g sea semirremaniana la
situación se complica algo y en general
las geodésicas afines no serán extremales,
aunque todas las geodésicas afines lo
serán de carácter temporal o cromomorfas
(caso de g(Tσ,Tσ)>0) o de carácter
espacial o espaciomorfas (si g(Tσ,Tσ)<0).
X*Y también, es lineal; o sea:
X*(aY+bZ)=a(X*Y)+b(X*Z) donde a y b
son números reales.
Y el
producto es lineal en ambos
argumentos.
Entonces, este producto escalar, forma
bilineal con valores reales definida sobre
el espacio tangente a cada punto de una
curva, es la métrica “infinitesimal” que
buscábamos. Nos proporciona una
longitud para cada curva por integración c
para cada vector tangente Tσ (t), y una
función distancia d(p,q)= longitud de
curva más corta trazada entre p y q.
Dado un sistema de coordenadas {xi},
Tσ(u) se convierte en una cuaterna de
funciones de valores reales (d(xi°σ)/du), y
puede demostrarse que la función
g(Tσ(u),Tσ(u))= gij dxi/du dxj/du donde
xi=xi°σ(u) y las gij (i,j=0,1,2,3),
componentes del tensor métrico, son
funciones reales dependientes del sistema
de coordenadas {xi}. Las componentes
gij forman una matriz de 4*4. Por cada
punto p, puede hallarse un sistema de
coordenadas tal que la matriz anterior
quede diagonalizada con todos los
elementos de la diagonal iguales a ±1 en
p. O sea:
Es fácil generalizar todo lo anterior a
otras
variedades
arbitrarias,
no
necesariamente euclídeas. Un tensor
métrico riemaniano es cualquier función
bilineal g(X,Y) de valores reales, definida
sobre el espacio tangente en cada punto y
que verifica las tres condiciones
anteriores. (Si g(X,Y) sólo verifica la
segunda y la tercera, recibe el nombre de
tensor
métrico
semirriemaniano).
Entonces, dado tal tensor métrico,
definimos la longitud X de cualquier
vector de Tp mediante la ecuación
X2 = gp(X,Y)
9
±1 0 0 0
0 ±1 0 0
(gij)= 0 0 ±1 0 = diag (±1,±1,±1,±1)
0 0 0 ±1
Si la variedad es llana, puede encontrarse
un sistema de coordenadas en el que las
partículas libres obedecen a la ecuación:
d2xi/du2=0 (ley de la inercia newtoniana)
en p.
El sitema de coordenadas para el que Tjki
=0 se denomina referencia inercial.
El par (n+,n-), donde n+ es el número de
elementos positivos de la diagonal y n- el
número de elementos negativos de la
misma se llama “signatura” de g.
Sobre la variedad espacio-tiempo M, a
cada función t que asigne números reales
a los puntos de M se asocia una segunda
función dt que va de los vectores
tangentes en M a los números reales, tal
que para cada vector tangente X,
dt(x) =X t y t´ definen la misma función
dt, puesto que X(t-b)=Xt.
Precisamente, se dice que una métrica
(semi) riemaniana es llana o (semi)
euclídea en p cuando puede hallarse un
sistema de coordenadas (sistema (semi)
cartesiano) en torno a p tal que gij=
(±1,±1,±1,±1) en un entorno de p.
La función dt es también un operador
lineal definido sobre el espacio tangente
Tp:
Dt(aX+bY)=a dt(X)+b dt(Y) cualesquiera
sean los vectores X e Y de Tp, y las
constantes a y b. La colección de todos
estos operadores lineales definidos por Tp
se denota Tp* y es el espacio cotangente
en p. Los elementos de Tp* reciben el
nombre de covectores, y los vectores
tangentes pertenecientes a Tp se les llama
contravectores. En general, a cada
covector w está asociada una familia
{fw} de funciones reales tales que
w(X)=X(fw)
para
todos
los
contravectores X. Los números reales
tales que wi= ∂ (fw)/∂xi se denominan
componentes de w en {xi}. Las
componentes de dt están dadas por:
Entonces, sobre una variedad riemaniana
llana, la fórmula correspondiente a
Tσ(u) será:
Tσ(u)2 =(dx0/du)2+(dx1/du)2+(dx2/du)2+
(dx3/du)2
, o sea, la fórmula euclídea en cuatro
dimensiones.
Tanto si el espacio-tiempo (las tres
dimensiones espaciales, mas el tiempo
tomado como otra dimensión) es tenido
por llano como si no, todas las teorías
coinciden en que las partículas libres, o
sea, aquellas sobre las que no actúan
ninguna
fuerza
exterior,
siguen
geodésicas de su estructura afín. En otras
palabras, las partículas obedecen a la
siguiente ecuación del movimiento:
Ti= ∂t/∂xi=∂(t+b)/∂xi
Con todo esto, la primera versión de la
cinemática newtoniana es la siguiente. Se
postula en la variedad espacio-tiempo M
los siguientes objetos geométricos: una
conexión afín D, un campo de covectores
dt, un campo h de tensores métricos de
tipo (2,0) (o sea, cada hp está definido
DTσ Tσ = 0
Que referida al sistema de coordenadas
{xi} se traducen en:
d2xi/du2 + Tjki dxj/du dxk/du = 0
10
sobre Tp*×Tp*) con signatura (3,0,1) y un
campo V de vectores contravariantes (V
es un campo vectorial, y las curvas σ que
se adaptan a V, es decir T0=V a lo largo
de σ constituyen las líneas de nuestro haz.
Como queremos que estas líneas tengan
carácter temporal, se exige que dt(V)=1, y
como también deseamos que sean
geodésicas, se exige D(V)=0).
Las ecuaciones de movimiento para las
partículas libres toman la forma:
Si K(ver en este capítulo *) es el tensor de
curvatura, tendremos que los anteriores
objetos “geométricos” deben cumplir las
siguientes ecuaciones de campo:
Una forma natural de expresar la ley del
movimiento
correspondiente
a
la
dinámica de Newton es :
d2xi/du2+ Tjki dxj/du dxk/du=0 y la forma
ti(dxi/du)=0 para partículas arbitrarias.
Que puede expresarse en la forma:
d2xi/dt2 + Tjki dxj/dt dxk/dt = 0
m(d2xi/dt2+Tjki dxj/dt dxk/dt) = Fi siendo
m la masa de la partícula y Fi un campo
vectorial espacial.
K=0
D(dt)=0 Para que los planos de
simultaneidad sean llanos(euclídeos en
sentido afín, es decir, la derivada
covariante de dt con respecto a nuestra
conexión afín D sea nula)
O sea, m d2xi/dt2 =Fi , forma familiar de
la segunda ley de Newton.
En el campo gravitatorio F = m G, siendo
G el campo gravitatorio que es el opuesto
del gradiente del potencial gravitatorio Φ:
G=-∇Φ ∇ es (∂Φ/∂x,∂Φ/∂y,∂Φ/∂z)
D(h)=0 Condición de conexión llana.
h(dt,w)=0 Para que hp sea singular y
definida
sobre
el
subespacio
tridimensional “espacial” de Tp.
También, el potencial Φ está relacionado
con la densidad de masa ρ mediante la
ecuación de Poisson:
D(V)=0
∇2Φ = 4πKρ (k es la cte.gravitatoria de
Newton)
∇2 es la laplaciana tridimensional
(∂2Φ/∂x2,∂2Φ/∂y2,∂2Φ/∂z2).
dt(V)=1
Tales ecuaciones de campo expresadas en
función de las componentes de los objetos
con respecto a {xi} adoptan la expresión:
Entonces las ecuaciones de campo serán:
Rijkl = 0
t;j = 0
hij;k = 0
hijti = 0
vi;j = 0
t i vi = 0
k=0
D(dt) = 0
D(h) = 0
h(dt,w) = 0
del (Φ) = 4πkρ
Y expresada en componentes:
donde las vi son las componentes de V,
las Rijkl de K.
11
Rijkl = 0
ti;j = 0
hij;k = 0
hij ti =0
hij;i;j =4πkρ
En (6) puede eliminarse de ambos
miembros m, obteniendose:
Para la 2ª ecuación del movimiento se
adopta la forma covariante de la segunda
ley de Newton:
Entonces, introducimos una conexión D
cuyas componentes son:
(7) d2xi/dt2+T°jki dxj/dt dxk/dt=-hir Φ;r
(D° es la conexión llana)
(8) Tjki = T°jki = hir Φ;r tj tk
ir
mDTσTσ = -mh Φ;r
y para las leyes del movimiento:
Así que la ecuación (7) puede
nuevamente ser escrita en la forma:
m(d2xi/dt2+Tjki dxj/dt dxk/dt)=-mhirΦ;r (6)
∂2xi/dt2+Tjki dxj/dt dxk/dt = 0
Para un sistema inercial de coordenadas
{xi}, tenemos:
Tjki = 0, (ti)=(1,0,0,0) y (hij)=diag(0,1,1,1)
Así que la última ecuación de campo se
convierte en:
Por tanto, nuestras ecuaciones de
movimiento pueden ser interpretadas
como geodésicas correspondientes a la
conexión D. Esta conexión no es llana, y
en este caso el tensor de la curvatura de
D está dado por:
∂2Φ/∂x12+∂2Φ/∂x22+∂2Φ/∂x32=4πkρ
Rijkl = 2 tj hir Φ;r;(ktl)
2
o sea ∇ Φ = 4πkρ
El “tensor de Ricci” de la conexión D está
dado por:
En el espacio libre, se tiene ρ=0 y del(Φ)
=0, que en sistemas inerciales se reduce a:
Rjk = Rajka = -har Φ;a;r tj tk
2
∇ Φ=0
y al comparar esta expresión con la
ecuación de Poisson anterior del (Φ) =
4πkρ , la ecuación de Poisson, ahora
equivale a :
Rjk = -4πkρ tj tk
que en el
espacio libre se reduce a Rjk = 0.
En los sistemas inerciales las ecuaciones
del movimiento se convierten en:
m d2xi/dt2 = -m ∂Φ/∂xi (2ªley de Newton)
Ahora intentaremos “eliminar por vía
geométrica” las fuerzas gravitatorias en el
contexto de la teoría newtoniana,
haciendo que el potencial gravitatorio
quede incorporado a la conexión afín. El
método es construir un nuevo operador de
derivación D, que esta vez no sea llano,
afirmando que las partículas que caen
libremente, es decir, que tan sólo están
afectadas por la gravitación, sigan las
geodésicas de D.
Entonces las ecuaciones de campo
expresadas en sus componentes quedan:
ti;j = 0
hij;k = 0
hijti = 0
Rjk = -4πkρ tj tk
T(aRij)kl = 0
hia Rjkal = hja Rilak
12
y para las ecuaciones del movimiento:
; t puede utilizarse como parámetro para
cualquier curva temporal, y en un sistema
inercial {xi} se puede escribir las
ecuaciones de la misma de la forma xi(t)
= xi o σ(t). Así que hay dos tipos de
tiempo asociados a la trayectoria de una
partícula: el tiempo independiente del
sistema de coordenadas, o tiempo propio
τ, y el tiempo dependiente de las
coordenadas, o tiempo coordenado t.
d2xi/dt2+Tjki dxj/dt dxk/dt = 0
La cinemática de la relatividad especial es
de una gran sencillez. Se tienen sólo dos
“objetos” geométricos: una conexión afín
D y un tensor métrico g de tipo (0,2) y
signatura (1,3) (signatura característica de
una métrica lorentziana). Se tienen dos
ecuaciones de campo:
Igualmente hay dos tipos de vectores
velocidad: la velocidad propia u, de
componentes ui = dxi/dτ y la velocidad v
según coordenadas de componentes vi =
dxi/dt.
K=0
D(g) = 0
Estas ecuaciones expresan que el espaciotiempo de Minkowski es una variedad
llana y semirriemaniana. Las ecuaciones
del movimiento exigen que todas las
partículas describan curvas temporales y
que las partículas libres tracen geodésicas
temporales:
Como τ(t)=∫ta (gij dxi/dt dxj/dt dt)1/2
dτ/dt=(gij dxi/dt dxj/dt)1/2 =
((dx1/dt)2+(dx2/dt)2+(dx3/dt)2 )]1/2
[1-
O sea: dτ/dt = (1-v2)1/2 ;y como ui
=dxi/dτ =(dxi/dt)/(dt/dτ) tenemos como
componentes de u:
u0 =dx0/dτ = 1/(1-v2)1/2
ui =vi/(1-v2)1/2 = vi/(1-v2)1/2 (i=1,2,3)
;siendo las vi las componentes de la
velocidad tridimensional v.
DTo To = 0
Y en sus componenetes, las ecuaciones de
campo adoptan la forma:
Rijkl = 0
gij;k = 0
La ley del movimiento de la dinámica
newtoniana es:
y las ecuaciones del movimiento:
d2xi/ dτ2+Tijk dxj/dτ dxk/dτ = 0
m (DTσ(t) Tσ(t)) = F ;donde F es un
campo vectorial espacial, t cualquier
función tiempo (dt(X)=Xt para todo t) y
m la masa de la partícula.
En un sistema inercial {yi}, una geodésica
temporal σ(t) verifica las ecuaciones:
d2 (xi°σ)/dτ2 = 0 . Las soluciones son
xi= aiτ+bi , siendo ai y bi constantes. Por
consiguiente, t = x0 = a0τ+b0 es un
parámetro
afín
sobre
geodésicas
temporales. Dado que en sistemas
inerciales se verifica Tijk = 0, las
geodésicas temporales cumplen:
La correspondiente
relativista es :
de
la
dinámica
m0 (DTσ(τ) Tσ(τ)) = F ; donde F es un
campo vectorial espacial ortogonal a Tσ ,
τ es el tiempo propio y m0 es la masa en
reposo de la partícula.
d2xi/dt2 = 0
13
En sistemas inerciales de coordenadas, la
ecuación anterior se convierte en:
Si definimos la masa relativista como
m=p/v se encuentra m = m0/(1-v2)1/2. (En
todos estos cálculos se ha considerado
c=1).
m0 d2xi/dτ2 = Fi ; o también d (m0 ui)/dτ
= Fi , donde ui es la velocidad propia
dxi/dτ. El vector tetradimensional pi=m0ui
es el análogo relativista del momento
clásico. Encontramos que pi puede
expresarse en la forma:
(9) p0=m0/(1-v2)1/2;
siendo i = 1,2,3.
Si se define la energía relativista
mediante la ecuación dE/dt = v dp/dt
, se encuentra E=m0/(1-v2)1/2 + E0. Si E0
se hace igual a cero, la energía relativista
será E= m0/(1-v2)1/2 =m. (10)
pi=m0vi/(1-v2)1/2
Comparando (9) y (10) se observa que el
vector
tetradimensional
pi
tiene
componentes (E, p) donde p es el vector
tridimensional de momento relativista;
por ello el vector pi recibe el nombre de
vector energía-momento.
La cantidad p = m0v/(1-v2)1/2 es la
magnitud del momento relativista
tridimensional.
14
gravitatorio, y una ecuación que ponga en
relación a un objeto geométrico que
represente la curvatura del espaciotiempo, con un objeto geométrico que
represente la fuente de ese campo
gravitatorio. En la teoría newtoniana nos
servimos de la densidad de masa ρ como
fuente del campo gravitacional, pero
también puede considerarse como
variable “fuente” al tensor momento P =
ρ (u⊗u), donde u es el campo vectorial
de velocidad de la distribución de masa.
El homólogo relativista de este tensor es
el tensor energía-momento. Pero, si la
energía mecánica de nuestra distribución
de masa sirve como fuente para el campo
gravitatorio, también pueden serlo otras
formas de energía, lo que llamamos el
tensor esfuerzo-energía T, que da cabida
al
energía-momento
de
nuestra
distribución de masa, así como a
cualesquiera otras formas de densidad de
energía.
2 . Relatividad General
Es una teoría de la gravitación formulada
en el contexto de las concepciones del
espacio y tiempo propias de la relatividad
especial.
La teoría gravitatoria da cuerpo a las
concepciones newtonianas del espaciotiempo en virtud de su tiempo absoluto dt
y su métrica espacial h. Para preservar el
espacio-tiempo relativista, se reemplaza
el tiempo y la métrica anteriores por la
métrica g relativista. Puesto que esta
última es no-singular, nuestro espaciotiempo es una variedad semirriemaniana.
Luego la métrica g y la conexión curva D
no
pueden
desempeñar
roles
independientes; por el contrario, la
condición D(g) = 0 implica:
Tjki={jki}=1/2gir(∂grk/∂xj+∂grj/∂xk-∂gjk/∂xr)
(Esta ecuación constituye la definición
clásica de una conexión semirriemaniana.
Los números del 2º miembro de la misma
están habitualmente denotados por los
símbolos de Christoffel “{jki}”. A una
conexión semirremaniana le están
asociados cierto número de otros tensores
importados. En primer lugar el tensor de
Ricci, Ric = tr13 K, de componenetes Rjk
= Rmjkm. En segundo lugar el escalar de
curvatura, R = tr11 G*i Ric, también dado
por R = gmn Rmn ).
La comparación con la teoría newtoniana
induce a pensar que el tensor de Ricci es
el objeto geométrico apropiado para la
representación de la curva del espaciotiempo. La ecuación de campo
gravitatoria debería poner en relación el
tensor de Ricci con el tensor de esfuerzoenergía. La relación más sencilla posible
sería la de proporcionalidad, Ric = χ T,
pero como T es la densidad de masa y
energía total, queremos que satisfaga la
ley de conservación div (T) = 0, por lo
que deberíamos buscar un tensor
conservativo construido a partir del tensor
de Ricci. Este tensor existe, es el tensor
de Einstein, ζ = G*1 G*2 Ric –1/2 R g*,
que verifica div (ζ) = 0, y cuyos
componentes son ζij = gim gjn Rmn–1/2 gijR
De la segunda identidad de Bianchi (a
saber, Rijkl;m+Rijmk;l +Rijlm;k =0) se deduce,
por contracción, que ζ es conservativo :
div (ζ) = 0.
Lo anterior es igualmente cierto en
relatividad especial. La métrica g, al igual
que la conexión D es no-llana, es decir,
no existen, en general, sistemas de
coordenadas en los cuales (gij )= diag (1, 1, -1, -1), no obstante, sí podemos tener
esto en cualquier punto dado p ∈M en
tanto que g conserve signatura {1,3}.
Nuestro problema consiste en dar una
ecuación de campo para el campo
15
El escalar de curvatura,R, está dado por R
= gab Rab. Tomamos, pues, como ecuación
de campo la ecuación ζ = χ T, y para que
sea posible deducir como límite la teoría
newtoniana se hace χ = -8π k, donde k es
la constante gravitatoria newtoniana.
En el espacio libre (11) se reduce a Rjk=0,
igual que en el caso newtoniano.
Esta teoría tiene,pues, tres objetos
geométricos: una conexión afín D, un
tensor métrico semirremaniano g de
signatura {1,3} y un campo de tensores
simétricos T de tipo (2,0).
Rjk –1/2 gjk R +Λ gjk = -8πk Tjk que es la
ecuación de Einstein con término
cosmológico Λ.
En las fórmulas anteriores puede incluirse
una constante Λ de pequeño valor, en la
forma:
Las ecuaciones del campo newtoniano
pueden reescribirse como:
Hay dos ecuaciones de campo:
G*1
2
Rjk = -4πk Pjk porque Pjk =Tja Tkb Pab =
ρtj tk lo que permite considerar el tensor
momento P como fuente del campo
gravitatorio.
*
G* Ric –1/2 R g = -8πk T
D (g) = 0
La ecuación del movimiento es la ley
geodésica:
DTσ Tσ = 0
Puede demostrarse que la ecuación
anterior newtoniana, puede ponerse en la
forma:
Y en términos de componentes:
Rjk = -8πk (tja tkb Pab –1/2 tjk tab Pab) (12)
Rjk –1/2gjk R = -8πk Tjk
Por otra parte la ecuación (11) relativista
en forma explícita es :
Gij;k = 0 donde Rjk = gja gkb Rab y
2
2
Rjk =-8πk (gja gkb Tab–1/2 gkk gab Tab) (13)
Tijk
d xi/dτ +
dxj/dτ dxk/dτ = 0 siendo τ,
desde luego, el tiempo propio.
(13) sólo se diferencia de (12) en que la
métrica temporal tjk ha sido reemplazada
gjk del espacio-tiempo, y en que en el
tensor momento Pab ha sido reemplazado
por el tensor energía-esfuerzo total Tab.
Así, pues, la relatividad general consiste
meramente en teoría newtoniana de
gravitación más relatividad especial.
Podemos bajar los índices para obtener:
(10) Rjk – ½ gjk R = -8πk Tjk donde Tjk =
gja gjb Tab
Multiplicando ambos miembros de la
ecuación anterior por gik, hallamos que R
=8πk T , donde T = gab Tab.
(*) Por último decir que el tensor de
curvatura Riemann-Christoffel es un
campo tensorial de valores reales y clase
C∞, de tipo (1,3), tal que:
Sustituyendo en (10), se obtiene:
Rjk = -8πk (Tjk –1/2 gjk T) (11)
Kp (wp; xp,yp,zp) = wp[R(yp,zp) xp]
16
Expresadas
en
un
sistema
de
coordenadas, {xi}, las componentes de
Tor (X,Y) están dadas por:
Ya hemos dicho que en relatividad
general el espacio-tiempo es considerado
una variedad riemaniana, cuya invariante
fundamental, el intervalo de universo,
puede expresarse también en la forma:
ai bj [ Tkij - Tkji] donde X =ai (∂ /∂xi) e Y =
bj ( ∂ /∂xj). Por tanto, D es simétrico si y
sólo si
Tkij = Tkji
ds2 = Gµν dxµ dxν dondeµ,ν = 1,2,3,4
Las componentes del tensor de curvatura
Riemann-Christoffel son:
Gµν es el tensor métrico que representa
los “potenciales de gravitación”.
Rijkl = k (dxi; ∂ /∂xj, ∂ /∂xk, ∂ /∂xl) =
∂Tijl/∂xk -∂Tijk/∂xl+Tmjl Timl- Tmjk Timl y
esta ecuaciín constituye la definición
clásica del tensor de curvatura.
Dijimos que la ecuación de Einstein se
escribía en la forma Gµν = χ Tµν , donde
el tensor métrico Gµν, aquí es el llamado
tensor de Einstein que contiene la parte
geométrica. Tµν representa el contenido
material y χ es una constante.
La importancia del tensor de curvatura
reside en que puede demostrarse que
existe un sistema de coordenadas en torno
a p∈M, en el cual las componentes de la
conexión afín se anulan si y solamente si
el tensor de curvatura se anula en p. En
tal sistema de coordenadas, la condición
de las geodésicas:
Cartan demostró que la forma más
general de Gµν, conservándose la energía
y para que la aproximación de primer
orden sean las ecuaciones mecánicas de
Newton, es:
Gµν = Rµν -1/2 Gµν(R-2Λ)
d2xk/du2+dxi/du dxj/du Tkij = 0
donde Rµν es el tensor de Ricci de la
variedad, R la curvatura escalar y Λ la
llamada constante cosmológica, propuesta
por Einstein, citada con anterioridad. Λ
realmente restringe la teoría, por ello
muchas veces se ha supuesto nula.
se convierte en d2xk/du2 = 0
Luego, si el tensor de curvatura se anula
en p, existe un entorno de p en el cual la
conexión afín se comporta de igual modo
que la “derivada direccional” euclídea
ordinaria. Por ello, esa región A⊆M o
entorno en el cual se anula el tensor de
curvatura se le da el nombre de llana o
semieuclídea.
El término Tµν o tensor material (energíaesfuerzo) es tomado normalmente en
cosmología como el correspondiente a un
fluido perfecto:
Una vez introducidos en los aspectos
teóricos de la relatividad general es
conveniente realizar un enfoque más
práctico del tema que nos ocupa, que es la
aplicación de aquella en cosmología. En
este enfoque es más idóneo cambiar de
notaciones para hacerlas más sencillas al
lector dotado de menor bagaje
matemático.
Tµν = (ρ c2+p) Uµ Uν -p Gµν
Donde: ρ es la densidad en reposo
c la velocidad de la luz
p la presión
Uµ la cuadrivelocidad Uµ =dxµ/ds
17
Para obtener las ecuaciones de los
modelos cosmológicos ortodoxos Gµν
suele deducirse de la siguiente métrica en
coordenadas cilíndricas:
Y el desplazamiento espectral:
Z = (λ0 - λ1)/λ1 = R0/R1-1
ds2= c2dt-R2(t)dr2/1-kr2+r2(dθ2+sen2θdϕ2)
Como siempre se encuentra (para objetos
alejados) que Z>0, se deduce que R0>R1;
en otras palabras, el universo se expande.
;donde R(t) es el llamado factor de escala.
K sería una constante conectada a la
curvatura espacial y que puede valer 0
(universo plano) y ±1.
Entonces, las ecuaciones de Einstein en
forma explícita quedan:
8πp = -k/R2-R2/R2-2R¨//R+1
8/3 πρ =k/R2+R2/R2+Λ/3
ρR3 = cte.
Siendo R la derivada de R respecto del
tiempo y R¨ la derivada segunda de R
respecto del tiempo.
2
Como para la luz ds = 0, entonces:
dt2/R2(t) = dr2/1-kr2.
Si se considera al observador en (0,t0) y la
fuente luminosa en (r1,t1), la relación
entre frecuencia emitida por la fuente y la
recibida por el observador será:
ν1/ν0 = δ t0/δ t1 = R(t0)/R(t1) = R0/R1
18
19
Capítulo II.
*El de distancia-luminosidad, dado por:
CONCEPTOS COSMOLÓGICOS
dL = (L/4πl)1/2 ; donde L es la
luminosidad intrínseca y l la recibida.
También puede expresarse por:
1.Parámetros
dL = R02 r1/R1 = r1 R0 (1+z) ; y
desarrollando R(t) alrededor de R0 se
obtiene:
*El de densidad:
Ω0 = 8π G/3 H02
ρ = ρ0/ρc
;y donde ρc = 3H02/8πG se conoce como
densidad crítica, al ser el valor frontera
entre los modelos cerrados y los abiertos.
G es la cte. de Newton.
R(t)=R0[1+R0/R0 (t-t0)+R0¨/2R0 (t-t0)2+..]
Definiendo H0 = R0/R0 (relación de
Hubble) y q0 = (R0¨-R0)/R02 (parámetro
de deceleración), se obtiene:
*El de presión:
dL = [z+(1-q0)/2 z2+....]/H0
ε =p/ρ ; que en muchos casos se toma
como nulo.
2.Estimación de distancias
*El de tiempo T, definido por:
Realmente son muchas las técnicas
utilizadas por los astrónomos para
resolver el problema de algo tan
importante como la distancia a que se
encuentran situados los distintos objetos
celestes.
T = H0 t ; donde H0 es la constante de
Hubble y t el tiempo transcurrido desde el
inicio de la expansión.
Cuando p = 0 resulta:
A continuación relacionaremos algunos
que requieren una calibración, es decir,
conocer de algún modo las propiedades
de los objetos implicados.
T = ∫10 dy/ [(Ω/2-q) y2+Ω y-1 q+1-3Ω/2]1/2
Los anteriores parámetros no son todos
independientes. Para p = 0, sólo tres
individualizan cada uno de los modelos
cosmológicos.
El primer método es el uso de estrellas
pulsantes como candelas estándar.
Las Cefeidas son estrellas bastante
jóvenes, de masa entre 2 y 10 masas
solares, y además pulsantes, con períodos
de varios días. Su nombre proviene del
miembro más brillante de esta clase, la
Delta Cephei. Su pulsación se debe a las
zonas de hidrógeno y helio ionizado
existentes cerca de su superficie. Este
último hecho fija aproximadamente la
temperatura de la estrella, produciendo
una franja de inestabilidad en el diagrama
H-R. Ahora bien, hay, que se sepa, dos
Con p = 0, las relaciones más importantes
entre parámetros son:
Λ = -3 H2 (q Ω/2)
k c2 = H2 R2 (3Ω/2-q-1)
; y si se toma Λ = 0:
q = Ω/Z
k = H2 R2/ c2 (2q-1) y sólo habría dos
parámetros independientes.
20
amplitudes por debajo de dos magnitudes.
Están en cúmulos globulares; son de baja
metalicidad y al parecer tienen todas la
misma luminosidad. Puesto que las masas
de las RR Lyrae están predeterminadas
por las masas de las estrellas que van
saliendo de la secuencia principal, la
constancia de la luminosidad parece
deberse a las similitudes en la edad de los
cúmulos globulares.
grupos de cefeidas: las clásicas, con
amplitud elevada y representación de la
magnitud frente al tiempo (curva de luz)
asimétrica, y las cefeidas-s con amplitud
moderada y curva de luz simétrica.
Las estrellas crecen y se enfrían,
disminuyendo posteriormente su tamaño
mientras se van calentando. Es decir, las
Cefeidas son más brillantes cerca de su
tamaño mínimo. Al ser la temperatura
aproximadamente
la
misma,
su
luminosidad determina el tamaño de la
cefeida. Como un objeto pulsante tiene un
período de oscilación más largo cuando
posee mayor tamaño, debe haber una
relación período-luminosidad para las
Cefeidas. Si, por ejemplo, dos cefeidas
poseen períodos de oscilación que
difieren en un factor dos, la de mayor
período es 2,5 veces más luminosa que la
del período más corto. La facilidad de
medir el período de una estrella variable,
hace de las Cefeidas una valiosa
herramienta para determinar la distancia a
las galaxias. Además, al ser tan brillantes
las Cefeidas pueden usarse hasta para
calcular
distancias
de
galaxias
pertenecientes al cúmulo de Virgo. El
problema reside en la calibración de la
relación período-luminosidad, que se
realiza usando Cefeidas localizadas en la
Nubes de Magallanes o en cúmulos
estelares cuyas distancias se determinan
por ajuste de la secuencia principal del
cúmulo. Se piensa que la calibración
podría depender de la abundancia de
metales en la Cefeida, que seguramente es
mucho menor en la Gran Nube de
Magallanes.
El segundo método de medición de
distancias se basa en la función de
luminosidad de las nebulosas planetarias.
Estas son estrellas que han evolucionado
a través de gigante roja y gigante roja
asintótica, habiendo expulsado sus capas
externas de hidrógeno sin fusionar, lo que
forma una nebulosa ionizada que rodea a
una estrella central pequeña de elevada
temperatura. Estas últimas emiten grandes
cantidades de luz en la línea del espectro
de 501 nm del oxígeno dos veces
ionizado (O III) que permite su fácil
identificación. Las nebulosas planetarias
más brillantes parecen tener el mismo
brillo en muchas galaxias, por ello sus
flujos pueden ser usados como
indicadores de distancia.
Otro método posible en el problema que
nos ocupa es utilizar las estrellas más
brillantes de una galaxia para estimar la
distancia de toda la galaxia. Est es debido
a que se asume en general que existe un
límite superior fijo al brillo de las
estrellas, hipótesis algo débil pero que
puede subsanarse si existe en la galaxia
una población suficientemente grande de
estrellas brillantes.
Otro método, igualmente de escasa
fiabilidad, es el de la utilización de la
ionización del gas hidrógeno existente
alrededor de las estrellas muy calientes y
luminosas, lo que se denomina una región
de H II como la nebulosa de Orión. El
También se aplica el mismo método
utilizando las estrellas RR Lyrae que, de
igual modo, son pulsantes variables como
las Cefeidas. Estas estrellas poseen una
masa pequeña, de unas 0,8 masas solares,
con períodos cortos entre 0,2 y 1,2 días y
21
Uno es el de la utilización de la relación
Tully-Fisher. Y es que la velocidad de
rotación V(rot) de una galaxia espiral
puede utilizarse como indicador de su
luminosidad L. Se observa que:
diámetro de las mayores regiones H II en
galaxias se ha utilizado como una “vara”
de medir distancias.
El siguiente método que también requiere
calibración es el de la utilización de
Supernovas de tipo I. Éstas son
explosiones de enanas blancas situadas en
sistemas binarios de estrellas. La
acumulación o acreción de materia que se
produce desde la estrella compañera hace
que la enana blanca llegue a alcanzar el
límite superior de masa llamado de
Chandrasekhar
donde
pierde
su
estabilidad, empezando a colapsar. La
compresión propicia la combustión del
carbono de forma explosiva, originándose
la destrucción total de la estrella. La
radiación emitida tiene su origen
principalmente en la descomposición
radiactiva del níquel y cobalto producidos
en la explosión. El pico en la luminosidad
puede determinarse con un error menor
del 20%. Este método ha servido para que
el telescopio Hubble haya obtenido una
de las mejores medidas de la constante de
Hubble, que estudiaremos a continuación.
L = constante×V(rot)4
La velocidad rotacional se mide
un
espectrógrafo
óptico
radiotelescopio. Entonces, si
medir el flujo F, la distancia
calcularse mediante la relación:
mediante
o
un
podemos
D puede
L = F 4π D
Otro método de este tipo es el que se basa
en la relación Faber-Jackson que utiliza
galaxias elípticas. La dispersión de
velocidades estelares en las mismas, σ(v),
– raíz cuadrada del promedio del
cuadrado de las velocidades estelaresviene relacionada con la luminosidad por
la expresión:
L = const.×σ(v)4
De igual forma que antes, la medición de
la dispersión efectuada por un
espectrógrafo óptico (medición de la
luminosidad), junto con medidas de flujo,
nos permite estimar las distancias.
Por último, otro método con calibración
emparentado con el de la luminosidad de
las nebulosas planetarias, es el de la
medida de las fluctuaciones estadísticas
del brillo superficial de las galaxias
cuando éstas están tan lejanas que es
imposible
detectar
sus
estrellas
individuales. Una galaxia cercana podría
tener ±10% de fluctuaciones en el brillo
superficial (100 estrellas por pixel), y una
lejana sólo un 3% (1000 estrellas por
pixel).
Por último, al igual que en el método de
estrellas más brillantes, las galaxias más
brillantes de un cúmulo de galaxias se han
utilizado como fuentes luminosas
estándar; pero igualmente la fiabilidad del
método es baja.
Como tercer bloque de métodos para la
medida de las distancias están los que no
requieren calibración.
Otro bloque de métodos para evaluar
distancias utiliza propiedades globales de
las galaxias y también necesitan
calibración.
El primero de ellos se basa en el retraso
temporal que se produce en las “lentes
gravitatorias”.
22
Si se considera que la anchura a lo largo
de la línea de visión es la misma que el
diámetro del cúmulo, la distancia puede
inferirse a partir del diámetro angular del
cúmulo.
Y es que cuando se observa un cuásar a
través de lo que se llama una lente
gravitatoria, que es la deflexión
(desviación) de la luz por el efecto
gravitatorio de una galaxia o cúmulo de
ellas interpuesto en la línea de visión del
observador, pueden verse múltiples
imágenes del mismo cuásar. Los caminos
que sigue la luz hasta nosotros tienen
longitudes que difieren en una cantidad
dependiente de la distancia al cuásar y el
ángulo de deflexión. Al presentar los
cuásares variaciones de luminosidad, la
observación de las diferencias temporales
en variaciones particulares de la
luminosidad de la fuente producida en
variadas imágenes, sirve para calcular la
diferencia de dichas longitudes.
Como es fácil deducir de lo anterior esta
última técnica es harto complicada y sólo
ha permitido estimar unas pocas
distancias.
3.Constante cosmológica
Cuando Einstein construyó la teoría de la
relatividad general se suponía que el
universo era estático. Entonces la
gravedad de la materia y la energía
conducirían a un colapso del universo.
Einstein suponía tal aserto como
inaceptable físicamente, por eso introdujo
un
término
con
una
constante
cosmológica que se oponía a la fuerza de
atracción de la gravedad. Más tarde
Edwin Hubble descubrió que las galaxias
parecen alejarse con respecto a nosotros,
así que el universo actualmente está
expandiéndose. Estas observaciones
provocaron que Einstein afirmara que la
introducción
de
esta
constante
cosmológica fue el mayor error de su
vida, y subsiguientemente fue sacada de
las teorías cosmológicas.
El segundo se basa en el efecto SunyaevZeldovich, que se produce cuando el gas
caliente situado en los cúmulos de
galaxias distorsiona el espectro de la
radiación cósmica de fondo. Los
electrones libres del gas dispersan una
pequeña fracción de los fotones del fondo
de microondas, sustituyéndolos por
fotones algo más energéticos. Sólo un 1%
de los fotones que pasan por el cúmulo
son dispersados por los electrones
pertenecientes al gas caliente ionizado del
mismo, y el aumento de energía de
aquellos es de, únicamente, el 2%. Por
ello se observa una carencia de fotones de
baja energía del orden de 0,02%
(0,01×0,02), observada como una
reducción de la temperatura de brillo de
unos 500 micro K. A frecuencias altas el
resultado es que el cúmulo aparece más
brillante que el fondo.
Hay razones para creer, sin embargo, que
la constante cosmológica puede, todavía,
ser aplicada en cosmología. Hoy es
mayoritaria la opinión de que el universo
estuvo durante un tiempo en una
expansión rápida, la llamada inflación, en
un período temprano de su historia. Esta
inflación actuaría allanando el universo y
haciéndolo
geométricamente
plano.
Matemáticamente, esto produce una Ωtotal
muy cercana a uno, lo que origina
problemas que la constante cosmológica
puede remediar. Cuando los astrónomos
miden la cantidad de materia y energía
El efecto anterior es proporcional a la
densidad de electrones libres, el grosor
del cúmulo en nuestra línea de visión y la
temperatura de los electrones.
23
homogeneidad e isotropía en el universo
es la métrica de Robertson-Walker:
del universo, obtienen sólo un 30% de la
que se necesitaría para que el universo
fuese plano. La constante cosmológica
podría “aportar” la masa necesaria para
que el universo fuese plano. Incluso si la
inflación es errónea y no hay razones para
creer que el universo es espacialmente
plano, hay todavía un problema aparente
con la edad del universo. La edad
obtenida de un universo abierto con la
cantidad de materia observada y sin
constante cosmológica es más joven que
la edad de las estrellas más viejas, lo que
no puede ser. Sin embargo, un universo
plano con materia y constante
cosmológica es un universo mucho más
viejo, incluso más viejo que las estrellas
más antiguas.
ds2= c2dt2-a2(t) [dx2+f(x)2(dθ2+sen2θdρ)]
f(x) describe la geometría espacial del
universo, parametrizada por la constante
k de curvatura:
sen(kx)1/2/(k)1/2
k>0
f(x) =
x
k =0
sen(kx)1/2/(k)1/2 k<0
Para k<0 la geometría espacial del
universo es abierta.
Para k = 0 el universo es plano.
Para k>0 el universo es cerrado.
Las coordenadas x,θ y ρ son coordenadas
“comóviles”. Un sistema de coordenadas
comóviles se expande en el universo. Por
tanto, la distancia comóvil entre dos
puntos permanece constante durante la
evolución del universo. Sin embargo, la
distancia física entre dos puntos cambia
cuando el universo se expande. Es el
factor cósmico de escala quien relaciona
las coordenadas comóviles con las
distancias físicas, a través de la relación;
d= a x. Con la métrica definida con
coordenadas comóviles, la evolución del
tiempo del universo es descrita por la
evolución del tiempo del factor de escala
cósmica. Si el factor de escala cósmica
crece con el tiempo cuando el universo se
expande, también disminuye con el
tiempo si y cuando el universo colapsa.
Otra razón para esperar una constante
cosmológica es la existencia de una
energía mecánico-cuántica del vacío. La
mecánica cuántica predice que el vacío no
está realmente vacío, sino que tiene una
cantidad de energía asociada. Desde que
la relatividad general establece que todas
las formas de materia y energía producen
gravitación, debemos asociar la constante
cosmológica con la energía del vacío. El
emparejamiento de energía del vacío y
gravedad no es inaudito, la teoría
inflacionaria cuenta con una influencia
gravitacional de la energía del vacío.
Todas estas razones mantienen vivo el
interés actual por la cte. cosmológica.
Las observaciones demuestran que el
universo es homogéneo e isótropo a
grandes escalas. Esto significa que no hay
un centro o dirección únicos en el
universo. En la relatividad general la
forma del espacio-tiempo está descrita
por una ecuación métrica. La forma
general de la ecuación métrica que
satisface
las
condiciones
de
Una de las ideas básicas en relatividad
general es que la materia y la energía
actúan curvando el espacio-tiempo. Es la
ecuación de campo de Einstein la que lo
describe matemáticamente:
Rij-1/2 R gij-λ gij =8πG/c4 Tij
Donde, gij representa la métrica, Rij es el
tensor de Ricci (que deriva esencialmente
24
de la métrica), R el radio de curvatura del
espacio-tiempo,
λ
la
constante
cosmológica, G la constante gravitatoria y
Tij el tensor energía-esfuerzo. El tensor
energía-esfuerzo, como dijimos en
párrafos
anteriores,
describe
la
distribución de la materia y la energía,
con su densidad y presión. Por tanto,
dando una distribución de materia y
energía, las ecuaciones de campo
gobiernan la forma del espacio-tiempo
(por ejemplo, la métrica). La inclusión del
término de la constante cosmológica en
esta ecuación depende, desde luego, de si
es cero o no. Una de las ecuaciones de
campo puede ser presentada en forma
parecida a la ecuación newtoniana del
potencial de gravitación, sin embargo,
con un ingrediente extra:
materia y la energía, excepto que es una
presión negativa. El efecto neto de una
cte. cosmológica positiva es que crea una
fuerza gravitacional de repulsión. Esta
repulsión actúa expandiendo el universo.
La densidad de energía del vacío es
diferente de la densidad de materia y
energía en otro sentido. Cuando el
universo se expande la materia y la
energía se expanden sobre un mayor
espacio físico, y entonces la atracción
gravitatoria disminuye. Para la energía
del vacío, sin embargo, el trabajo P dV
del vacío realizado durante la expansión
adiabática provee exactamente la cantidad
de energía necesaria para llenar el nuevo
volumen a la misma densidad. Por tanto,
la constante cosmológica permanece
constante y su repulsión gravitacional (o
atracción) nunca cambian durante la
evolución del universo.
∇2 φ = 4πG(ρ+3p/c2)
El ingrediente añadido es que, dentro de
la densidad la presión contribuye al
potencial gravitacional, y esto es un
efecto
puramente
relativista.
Es
justamente porque la presión también
contribuye a la gravedad por lo que la
inclusión de la constante cosmológica es
interesante. Si las ecuaciones de campo
son reescritas de forma que la constante
cosmológica aparezca a la derecha de la
ecuación, el término de la constante
cosmológica puede ser asociado a una
densidad de vacío:
De la métrica de Robertson-Walker y las
ecuaciones de campo de Einstein, se
deriva la siguiente ecuación del
movimiento:
H2 = (1/a da/dt)2 = 8πG ρ/3+λ/3-k/a2
Porque el término de la cte. cosmológica
es proporcional a la métrica, la presión
asociada con el vacío es dada por la
relación:
Donde H es la constante de Hubble, a es
el factor de escala cósmica, ρ la densidad
de la materia y la radiación, λ la constante
cosmológica y k la constante de
curvatura. Ésta ecuación es generalmente
denominada ecuación de Friedman
(originalmente escrita sin el término de la
constante cosmológica, como lo es en la
actualidad). La ecuación de Friedman
describe la evolución temporal del factor
de escala cósmica, o tamaño del universo.
Con las siguientes definiciones:
Pvac = -ρvac c2
Ωmo = 8πG ρmo/3H02 Ωλo = λ/3H02
Así, la
comporta
Ωko = -k/H02
movimiento queda:
λ = 8πG ρvac
constante cosmológica se
gravitatoriamente como la
25
la ecuación del
(da/dt)2 = H02 (Ωmo/a +a2 Ωλo+Ωko)
compatible con la edad de las estrellas
más viejas.
Donde el 0 representa cantidades medidas
en la actualidad, y a se normaliza de
forma que es igual a uno hoy. Se tiene en
cuenta la contribución de la materia
exclusivamente, puesto que la de la
radiación en la actualidad es menor de
10-5. La inclusión de la radiación sólo es
importante en la evolución del temprano
universo. De las definiciones anteriores se
ve claramente que:
Recientemente, este problema parece
encontrar alguna solución a partir de los
resultados del satélite Hipparcus. Ambos,
la edad de los racimos o enjambres
globulares y la edad del universo (a través
de H0 ) depende de la escala de distancia
usada. Hipparcus ha revisado la escala de
distancia midiendo el paralaje de las
estrellas Cefeidas más cercanas. Esta
revisión ha ajustado el valor de la
constante de Hubble alrededor de 60
km/s/Mpc, dejando la puerta abierta a un
universo plano, con una edad de 13 a 11
billones de años. Con esta corrección la
edad de los enjambres globulares baja por
debajo de los 10-14 billones de años
Entonces, quizás el problema de la edad
pudiera no existir, así que la constante
cosmológica pudiera no ser necesaria.
Ωmo+Ωλo+Ωko = 1
Es útil definir la cantidad:
Ωtotal, 0 = Ωmo+Ωλo = 1-Ωko
Si Ωtotal, 0 <1 el universo es espacialmente
abierto, si Ωtotal,0 = 1 el universo es
espacialmente plano, y si Ωtotal,0 >1 el
universo es espacialmente cerrado.
Por otro lado, la luz con la más alta
desviación hacia el rojo puede presentar
el “efecto lente” debido a altas
concentraciones de masas tales como
galaxias y enjambres de galaxias. El
efecto lente produce múltiples imágenes
del mismo objeto. Una constante
cosmológica afecta la geometría y
evolución del universo y ambas hacen de
la estadística de las lentes una técnica
potente para limitar el valor de la
constante cosmológica en nuestro
universo. Las altas desviaciones hacia el
rojo de los cuásares proveen una buena
fuente para el estudio del efecto lente, ya
que están situados a distancias
cosmológicas; y la gran masa de las
galaxias elípticas son buenas lentes.
Aunque el efecto lente es sensible al valor
de la constante cosmológica, hay varias
incertidumbres en la determinación del
número absoluto y especificaciones en las
expectativas del efecto lente en un
modelo cosmológico dado. Se debe
La astronomía observacional posee varios
métodos para constreñir el valor de la
constante cosmológica en nuestro
universo, ya que la geometría del espacio
y el pasado de la evolución del universo
son afectados por la presencia de la
constante cosmológica.
Si se asume que el universo está hecho
puramente de materia (Ωmo<0,3) entonces
el universo tiene una edad de unos 10-13
billones de años.
La situación es peor si se requiere un
universo plano: en ese caso la materia
dominaría el universo (Ωmo=1), y el
mismo tendría sólo 8-11 billones de años.
Sin embargo, un universo plano con
materia al nivel observado (Ωmo≅0,3) y
una constante cosmológica, transformaría
la edad en 12-16 billones de años que es
26
conocer la distribución de las galaxias
“lentes”, su densidad espacial, el
potencial de las lentes, y la evolución con
el desplazamiento al rojo en orden a
calcular la “profundidad óptica” de la
lente de una fuente. Todas estas
incertidumbres pueden producir errores
de hasta un factor dos en las predicciones
teóricas de las lentes. Sin embargo, todo
esto no es tan malo puesto que las
predicciones de los diferentes modelos
pude diferir en un orden de magnitud
(para los universos planos Ωλo =1 predice
10 veces más efecto lente que uno con
Ωλo =0). Entonces, esta técnica ofrece un
camino viable para limitar el valor de la
constante cosmológica. Por ejemplo,
Kochanek en 1996, basado en este
método, ha encontrado para un valor
menor de o,66 con una fiabilidad del
95%. Para universos con Ωλo =0
encuentra Ωmo>0,2 con el 90% de
fiabilidad.
los parámetros cosmológicos como H0,
Ωmo, Ωλo pueden ser determinados sin
ambigüedad. En la práctica, sin embargo,
es difícil encontrar un conjunto de objetos
no sujetos a efectos evolutivos, por
ejemplo no todos tienen el mismo tamaño
y brillo. No obstante, sí hay una elección
de objetos que parecen libres de efectos
evolutivos, son las supernovas tipo Ia.
Éstas exhiben un comportamiento que
permite determinar la magnitud absoluta
de la supernova (y por tanto una distancia
actual de nosotros) a partir de la forma de
su curva de luz y la variación de su
espectro.
Perlmutter en 1997 utilizando este
método sobre siete supernovas halló un
universo plano constituido por materia y
constante cosmológica Ωλo =0,6(+0,28,0,34) con un límite de Ωλo<0,51(con una
confianza del 95%). Para un universo con
dominio de materia encuentra Ωmo=0,88
(+0,69,-0,60). Sus resultados postulan la
ausencia de constante cosmológica en
nuestro universo.
Myungshin en 1997 usando siete cuásar
ha encontrado un universo plano con Ωλo
=0,64(+0,15,-0,26).
Riess en 1998 usando 16 supernovas de
alto corrimiento al rojo y 34 supernovas
cercanas para calcular la constante de
Hubble, la densidad de masa, etc., por dos
métodos diferentes encontró un universo
plano
con
Ωλo
=0,68±0,10
y
Ωλo=0,84±0,09. Sin el requerimiento de
un universo plano halló que Ωλo>0 con
una fiabilidad del 99%.
Chiba y Yoshii en 1997 han hallado que
las observaciones están en mejor acuerdo
con un universo plano con Ωλo≅0,8. Los
mismos autores han presentado en 1999
nuevos límites a la constante cosmológica
basados en un nuevo conocimiento de la
función de luminosidad y la dinámica
interna de galaxias E/SO. Comparan sus
modelos para fuentes de lentes y
encuentran un universo plano con Ωλo
=0,7(+0,1,-0,2).
Por fin, Perlmutter en 1999 analizando 42
supernovas ha encontrado un universo
plano con Ωλo =0,71(+0,08,-0,09); y sin
el requerimiento de un universo plano
obtiene Ωλo>0 con un grado de confianza
del 99%.
Uno de los efectos de la constante
cósmica es el cambio de la relación entre
distancia y desplazamiento al rojo. En
principio, dado un conjunto de objetos
con un tamaño y luminosidad estándar
puede determinarse la distancia de los
mismos. Sabiendo su corrimiento al rojo,
La interpretación física de la constante
cosmológica como densidad de energía
del vacío tiene su base en la existencia del
27
“punto” cero de energía predicho por la
mecánica cuántica. En mecánica cuántica,
los pares partícula-antipartícula son
creados desde el vacío. Incluso aunque
dichas partículas existen únicamente
durante poco tiempo antes de aniquilarse
una con otra, ellas dan al vacío un
potencial de energía no nulo. Este
concepto de energía del vacío ha sido
experimentalmente confirmado a través
del efecto Casimir, donde dos placas
conductoras descargadas se atraen una a
otra debido a las fluctuaciones cuánticas.
En relatividad general, todas las formas
de energía tienen efectos gravitatorios,
incluida la energía del vacío, por tanto la
constante cosmológica.
el intervalo de k a k+dk. La suma se
vuelve integral:
E0 = 1/4π h L3∫w/ (2π)3 d3k
Para evaluar la integral debemos imponer
un máximo al vector de onda kmax para
que sea mucho menor de 2πm/h.
Entonces tenemos:
ρvac = lim E0/L3 = h K4max/32 π3
L→∞
La densidad de energía del vacío diverge.
Esto es debido a la contribución de moles
con muy alta k Esta divergencia no es
demasiado preocupante, sin embargo,
porque sabemos que una teoría de baja
energía no se espera sea cierta a altas
energías, donde debe incluirse una nueva
física.
El problema de asociar la constante
cosmológica con la energía del vacío de
la mecánica cuántica aparece cuando
hacemos incluso una simple estimación
de su valor. La siguiente estimación fue
hecha por Carrol en 1992. Un campo
relativista puede ser entendido como una
simple
colección
de
osciladores
armónicos, cada uno con una energía del
punto cero:
Podemos, por tanto, estimar el valor de
ρvac hasta la escala de energía que
seguramente requerirá de una nueva
teoría para describirla. Esta energía es la
energía de Planck (1019 GeV), donde se
estima que las teorías de la física
convencional fallan, y donde una nueva
teoría de gravedad cuántica deberá
introducirse. Si imponemos esta energía
como máxima, obtenemos:
E0 = 1/4π hw
Para un campo escalar de masa m, la
energía del vacío es la suma de todas las
energías del punto cero de todos los
osciladores armónicos simples:
ρvac ≅ 1092 ergs/cm3 o Ωλo≅10120
Se cree que tan alto valor de la constante
cosmológica es seguramente absurdo.
Debemos argüir que se ha escogido un
valor demasiado elevado, puesto que para
satisfacer las observaciones debe usarse
una energía de 10-2 eV.
E0 = Σj 1/4π hwj
Donde w2 = k2+4 π2 m2/h2 (k = 2π/λ;
siendo λ la longitud de onda) para el
campo escalar. Esta suma puede ser
evaluada poniendo el sistema en una caja
de volumen L3, y haciendo a L tender a
infinito. Las condiciones frontera de la
caja requiere que la longitud de onda
cumpla que halla valores discretos de k en
Es posible que la contribución de todos
los diferentes campos asociados con las
partículas
del
modelo
estándar
contribuyan a producir una constante
cosmológica más pequeña. Más, ¿cómo
podría cancelarse una parte entre 10120?
28
teoría cuántica, algo impensable hasta
hace poco. Nos sigue diciendo Krauss que
un prodigio de sintonía fina ha de
eliminar las energías de las partículas
virtuales hasta el lugar 123, pero dejando
intacto el 124, lo que supone una
precisión no vista en ninguna otra parte
de la naturaleza.
Incluso cuando los cálculos teóricos de la
constante cosmológica no sean del todo
entendidos, permanece el hecho de que
verdaderamente la energía del vacío
exista.
Es
interesante
citar
aquí
las
consideraciones de Lawrence M.Krauss
sobre el tema (Ver la revista
Investigación y Ciencia de marzo de
19999).
Eso sí, apunta que ciertos grupos han
imaginado, en cambio, que alguna forma
de energía cósmica imita a una constante
cosmológica, aunque va variando con el
tiempo.
Krauss nos dice que “de los
descubrimientos de Tytler y Burles
midiendo la abundancia primordial del
deuterio observando la absorción de la luz
de los cuásares por las nubes de
hidrógeno intergaláctico se desprende que
la densidad media de la materia ordinaria
está entre el 4 y el 7% de la necesaria
para que el universo sea plano”.
Concluye afirmando que el universo o es
abierto o está lleno de una energía
desconocida. En su opinión, las
observaciones apuntan a favor de lo
segundo, aunque, de cualquier forma cree
que ambas conclusiones "impondrían una
visión de la física radicalmente nueva”.
Añade que uno de los misterios que
rodean a la constante cosmológica es la
“coincidencia cósmica”. Y es que se nota
una discordancia entre la densidad media
de la materia ordinaria que disminuye con
la expansión cósmica y la densidad
equivalente representada por la constante
cosmológica que es fija. Sin embargo,
hoy día, ambas densidades tienen casi el
mismo
valor
pese
a
estos
comportamientos antagónicos. Krauss nos
dice que dicha concordancia, o es puro
azar, precondición de la existencia
humana, lo que supone el principio
antrópico débil, o es “una indicación de
que actúa un mecanismo cuya naturaleza
no se vislumbra hoy por hoy”.
4.Ley de Hubble
Con la ley de Hubble nació
verdaderamente la cosmología científica.
Hubble obtuvo una relación entre el
desplazamiento al rojo z y la distancia D:
c z = H0 D
; donde c es la velocidad de la luz y H0 la
constante de Hubble que se expresa en
Km.s-1 Mpc-1 (El megaparsec vale unos 3
millones de kilómetros). Esta relación,
por extrapolación directa, indica una
relación lineal entre la velocidad y la
distancia. Lo anterior puede ser
interpretado como que el universo está en
expansión, por una ley de la forma:
Como ya dijimos y como, también,
apunta Krauss, la constante cosmológica
aporta del 40 al 70 por ciento de la
energía necesaria para que el universo sea
plano. Hay una constante cosmológica
mayor que cero, pero como hemos visto,
mucho menor que la predicha por la
v = H D
conocida como relación
velocidad-distancia y confundida, muchas
veces, con la ley de Hubble.
29
1+z = λ0/λe
Consecuencia de lo anterior es que la
expansión es homóloga, es decir, no
cambia la forma de las estructuras del
universo; también, que todos los
observadores, en cualquier lugar del
universo, ven la misma ley.
Es común convertir el desplazamiento al
rojo en velocidad a través de la relación v
= c z, siendo c la velocidad de la luz,
aproximación válida para velocidades
mucho menores que c, coincidiendo con
la
interpretación
Doppler
al
desplazamiento al rojo en este intervalo
de velocidades.
Evidentemente, para una distancia lo
suficientemente grande, un objeto podría
alejarse con velocidad mayor que la de la
luz, así que de alguna forma, debe haber
un tipo de horizonte cosmológico. Este
horizonte es el que corresponde a esta
velocidad máxima, c, y se denomina radio
de Hubble. Su valor es:
Si se determina que una galaxia tiene sus
líneas de espectro desplazadas un 1%
hacia el rojo (z=0,01), se moverá a 1% de
la velocidad de la luz (3000 Km/s.).
D= c/H0 = 3000 h-1 Mpc.
Para cualquier desplazamiento al rojo, la
interpretación válida es que el
alargamiento de la longitud de onda de la
luz se debe al cambio de escala en las
distancias, por efecto de la expansión del
universo. Es decir, debe cumplirse:
; h es un número adimensional que vale
h= H0/100.
Si la expansión se extrapola hacia atrás en
el tiempo, las galaxias se irán acercando,
aumentando la densidad del universo
indefinidamente.
1+z = a(t0)/a(t)
donde a(t0) es el
parámetro de expansión, o factor de
escala hoy día, y a(t) el del momento en
que la galaxia emitió la luz.
El tiempo de expansión denominado
tiempo de Hubble, es la inversa de la cte.
de Hubble:
Hay que decir que, realmente, la
expansión cósmica no es más que el
incremento de la distancia entre cualquier
par de galaxias lejanas a lo largo del
tiempo.
tH = 1/H0= 9,78 h-1 Gaños; 1 Gaño=
109años.
Al observar el espectro de las galaxias
más lejanas se observa que las líneas
espectrales están desplazadas con
referencia a las que se observan en los
laboratorios terrestres.
La obtención de las ecuaciones de la
evolución del universo puede hacerse con
argumentos clásicos debido al principio
cosmológico,
que
afirma
la
homogeneidad e isotropía del universo a
gran escala, lo que permite aplicar la
dinámica newtoniana con excelente
aproximación.
Se define el desplazamiento al rojo z de
una línea espectral como la diferencia
entre las longitudes de onda observada
(λ0) y emitida ( λe) en unidades de onda
emitida. Es decir:
Elegimos una región esférica del
universo, lo suficientemente grande para
que rija en ella el principio cosmológico
(una esfera de unos 100 Mpc es
z = (λe- λo)/λe = 1- λ0/λe
30
suficiente), pero lo bastante pequeña para
que las velocidades con que se alejan las
galaxias se mantengan muy por bajo de c.
Un famoso teorema asegura que pueden
ignorarse las fuerzas gravitatorias
producidas por el resto de la masa del
universo, y aplicar la mecánica
newtoniana a dicha región esférica.
Imaginemos una galaxia en el borde de
dicha esfera moviéndose con velocidad v,
y apliquemos el principio de conservación
de la energía.
Para k>0, el universo es espacialmente
cerrado, puesto que su volumen es finito.
La expansión se detendrá y empezará una
fase de contracción.
Energía cinética+ Energía potencial = cte.
;donde H(t) es la cte. de Hubble para
cualquier instante t del universo, o sea, H
=v/R.
La constante k está relacionada con la
densidad de materia del universo. Si
calculamos el valor de la densidad para
un universo plano, k=0, al sustituir en la
ecuación anterior queda:
ρ(t) = 3/8 H2(t)/πG
½ v2 – G M/R = constante donde R es el
radio de la esfera, G la constante
gravitatoria newtoniana y M la masa de
dentro de dicha esfera.
A esta densidad se denomina densidad
crítica. En el presente esta densidad
crítica vale:
ρ0 = 3/8 H02/πG = 1.879 h2 .10-29 g/cm3
(que corresponde a una densidad de 2 o3
átomos de hidrógeno por metro cúbico).
La densidad media de la esfera será ρ.
Luego M = volumen×ρ.
M = 4/3 π ρ R3 y v =dR/dt
El parámetro de densidad Ω, como vimos
con anterioridad, es la relación de la
densidad del universo en unidades de
densidad crítica, es decir, Ω = ρ/ρc. Si la
densidad de materia actual del universo es
igual a la densidad crítica, o sea, Ω =1,
universo plano, estamos ante el modelo
de Einstein-de Sitter, el más sencillo
posible.
De donde por sustitución:
v2 = (dR/dt)2 = 8/3 π G ρ R2 – k c2
Siendo k una constante de integración
pero que está relacionada con la
geometría local del universo. La ecuación
anterior se ha deducido de las ecuaciones
newtonianas, pero resulta la misma
aplicando un tratamiento rigurosamente
relativista, aunque ahora k sí tiene un
significado preciso.
Se suele poner R(t) = a(t).R, donde a(t) es
un factor adimensional conocido como
parámetro de expansión o factor de
escala, que no depende de los objetos
concretos que se elijan.
Para k<0, el universo tiene una geometría
espacial local hiperbólica y estará siempre
en expansión.
Si definimos a(t0) =1, siendo t0 el
momento presente, sustituyendo en las
ecuaciones anteriores, llegamos a la
ecuación de evolución del parámetro de
expansión:
(da/dt)2-8/3 πGρa2 =constante (14)
Para k=0, el universo tiene geometría
espacial plana o euclídea y estará,
también, siempre en expansión, aunque el
ritmo de esta última irá disminuyendo con
el tiempo.
31
otra cosa, pues la velocidad permanece
casi
constante
hasta
el
límite
observacional
externo
galáctico.
Entonces, sólo existen dos explicaciones
posibles: 1.Existe una distribución de
materia diferente a la de la materia
visible.2.La teoría gravitatoria o las leyes
dinámicas aplicadas a esas escalas no son
correctas.
5.Materia oscura y antimateria
A. Materia oscura
A principios del siglo XX se creía que la
masa del universo residía prácticamente
en el interior de las estrellas, sin embargo,
un siglo más tarde la situación es la que
aparece a continuación.
Fracción de masa en
Componente Función densidad crítica
Existe una teoría dinámica alternativa
llamada MOND (Modified Newtonian
Dynamics), propuesta por Mordehai
Milgrom, que consiste básicamente en
modificar la 2ª ley de Newton en la forma
F = m.a2/a0, es decir, la fuerza sería
proporcional al cuadrado de la
aceleración,
introduciéndose
una
constante a0 con unidades de aceleración.
(El problema de la teoría es que no tiene
una extensión en relatividad). También,
existe alguna teoría de gravitación
alternativa como la de la gravedad
conforme, que es una modificación de la
relatividad general, apartándose de la
misma en la forma como la masa-energía
afecta a la estructura geométrica espaciotemporal. A bajas energías esta teoría
conduce a un potencial newtoniano del
tipo V(r) = -a/r+br (con a y b constantes).
(En relatividad general el potencial es del
tipo V(r) = -a/r).
Estrella y gas neutro...................≅ 1%
Gas ionizado...............................≅ 3%
Materia bariónica(prot.y neut.)..≅ 4%
Materia oscura fría......................≅ 30%
Coste. Cosmológica u otras........≅ 66%
En los años treinta se descubrió que la
peculiar velocidad de las galaxias en
cúmulos, corresponde a una masa del
cúmulo de un orden de magnitud mayor
que la que representa toda la materia en
forma de luz observada dentro de las
propias galaxias. Esos cálculos están
basados en la fuerza gravitatoria total del
cúmulo; a mayor aceleración se alcanzan
mayores velocidades, y la velocidad
media de las galaxias de un cúmulo es
una medida de su masa. Las velocidades
son calculadas por los desplazamientos
doppler de cada galaxia del cúmulo.
Como nadie ha encontrado, aún, ninguna
desviación de las predicciones de la
relatividad
general,
debemos,
consecuentemente,
probar
otras
alternativas más simples.
En los años sesenta se observó una
situación similar en las partes exteriores
de las galaxias espirales y algunas
elípticas. Si se imagina una galaxia como
un sistema solar, con las estrellas girando
en órbitas cerradas alrededor del centro
donde está concentrada la mayor parte de
la masa, cabría esperar que las
velocidades de las estrellas fueran
disminuyendo fueran disminuyendo a
medida que la distancia al centro aumenta
siguiendo una ley del inverso de la raíz
cuadrada de la distancia (Ley de Kepler).
Sin embargo, las observaciones nos dicen
Antes del año 1980 se creía que la
“materia oscura” sería materia ordinaria
que no podía ser detectable, tal como gas,
estrellas con pequeñas masas, agujeros
negros, etc. Sin embargo, a partir de esta
fecha se pensó en otras soluciones: la
posibilidad de que la materia oscura
estuviese formada por neutrinos o alguna
32
forma de exóticas partículas aún no
descubiertas en los laboratorios de altas
energías. Y es que muchas observaciones
convergen en un valor del parámetro de
densidad de alrededor del 30% de la
densidad crítica, sin embargo, la
nucleosíntesis primigenia, o modelo de
formación de los elementos químicos de
menor peso atómico o más ligeros en los
inicios del big bang (explosión original),
indica que la cantidad
de materia
bariónica (la formada por protones y
neutrones) no fue muy diferente del 4%
de la densidad crítica. La materia
luminosa visible está por debajo de ese
valor, lo que implica la existencia de
materia no detectada en forma de objetos
compactos, los denominados MACHOS.
De una forma u otra todo nos lleva a que
al menos el 85% de la materia debería
estar formada por algún tipo de materia
“exótica”.
permite neutrinos masivos y son los
experimentos los que decidirán una u otra
circunstancia. De todas formas, si existe
la masa del neutrino es pequeñísima por
lo que se mueven a velocidades cercanas
a la de la luz, es decir, son partículas
relativistas, lo que haría de los mismos
materia oscura caliente (HDM).
Según la nucleosíntesis primigenia el
número de tipos de neutrinos es sólo tres.
Su número actual se calcula en unos 115
neutrinos de cada especie por centímetro
cúbico.
Las medidas del experimento SuperKamiokande de 1999 indican que la masa
del neutrino es probablemente menor de
10 eV. Las medidas del CERN ponen un
límite superior a la masa del más pesado
de los neutrinos de unos 9 eV.
El problema es que si se pone tanta masa
de neutrinos en el universo, por ejemplo
los supercúmulos
tienden a formarse
antes que los cúmulos de las galaxias, lo
que contradice las observaciones.
Como pretendientes a esta materia exótica
no bariónica podríamos citar los
siguientes.
El neutrino, partícula emitida en la
desintegración beta. Hay dos reacciones
básicas, al respecto:
Otros pretendientes serían los que
conforman la materia oscura fría (Cold
Dark Matter, CDM), o cualquier tipo de
partículas relativamente masivas que se
mueven a velocidades bastante inferiores
a la de la luz. Y las motivaciones básicas
de su búsqueda son:
1. Su existencia está exigida por las
teorías
de
gran
unificación
(unificación
de
todas
las
interacciones, excepto la gravedad).
2. Su inserción en las simulaciones para
la formación de estructuras galácticas
está más de acuerdo con lo observado.
1) p+ν ↔ n+e+
antineutrino
2) p+e- ↔ n+ν
La 1) expresa que un protón interacciona
con un antineutrino produciendo un
neutrón y un positrón.
La 2) dice que un protón interaccionando
con un electrón produce un neutrón y un
neutrino. Ambas, 1) y 2), pueden darse en
los dos sentidos.
Estas partículas tendrían masa de
gigaelectrónvoltio
e
interactuarían
solamente por medio de la fuerza débil y
la gravedad, por ello se les denomina
En el modelo estándar de la física de
partículas, el neutrino no posee masa,
pero una modificación de la teoría sí
33
WIMP (Weak Interacting Massive
Particles o partículas masivas débilmente
interactuantes).
implicaría un universo con geometría
espacial plana y densidad crítica.
Esta energía oscura está basada en dos
posibilidades:
1.La existencia de una constante
cosmológica que refleja la densidad de
energía del vacío. (Su ecuación de estado
es P = -ρ. Presión negativa de igual valor
que la densidad del vacío).
2.Lo que se llama Quintaesencia, como
generalización
de
la
constante
cosmológica, suponiendo que existe un
campo que produce una densidad de
energía que varía con el tiempo, y que no
implica una distribución uniforme. Su
ecuación de estado sería P/ρ = w con
-1<w<0, y siendo w una función del
parámetro de expansión.
WIMPs podrían haber sido producidos en
el incipiente universo en reacciones del
tipo:
Positrón+electrón→WIMP+antiWIMP
e+ e-→X X+ y en sentido inverso.
El número de WIMPs que podrían
atravesar un detector podría ser de un
millón por cm2 y segundo para una
WIMP de 1 GeV, cantidad que disminuye
en proporción a la masa de la partícula. El
problema es que su intersección con la
materia es muy débil, por lo que es
preciso construir detectores con gran
cantidad de material.
Se están realizando experimentos de
detección de MACHOS en la actualidad.
Existen
varios
proyectos
en
funcionamiento capaces de detectar
WIMPs, entre ellos: the HEIDELBERGMOSCOW
SEARCH
(HDMS)
Experimente, GENIUS, etc.
Cuando un objeto compacto del Halo
Galáctico como un planeta gigante, una
enana marrón, una enana blanca, etc. pasa
por delante de una estrella distante (por
ejemplo, situada en las Nubes de
Magallanes), se produce un fenómeno
denominado
microlente
gravitatoria
(similar a las lentes gravitatorias).
Tanto la relatividad general como la
newtoniana permite la existencia de un
término, como vimos, que puede producir
una repulsión gravitatoria a gran escala,
que incluso podría estar acelerando la
expansión. La evidencia experimental se
basa
en
tres
observaciones
independientes:
1.La relación desplazamiento al rojodistancia aplicada al brillo de las
supernovas tipo Ia.
2.De las anisotropías de la radiación del
fondo cósmico de microondas.
3.Del estudio de la estadística de las
imágenes obtenidas de las lentes
gravitatorias.
El efecto de interposición de un MACHO
produce una concentración de la luz de la
estrella y se manifiesta como un aumento
de brillo; realmente un anillo luminoso
alrededor del objeto formado por los
rayos de luz que convergen en el
observador. Dicho anillo se denomina de
Einstein. Su radio vale:
RE = 2/c Raíz [ GM Lx (1-x)]
X = l/L =distancia al MACHO/dis.estrella
Los estudios indican que esta componente
de masa o energía oscura contribuye a las
2/3 partes de la masa del universo, lo que
; siendo M la masa del objeto, L la
distancia a la estrella y l al MACHO; c la
34
velocidad de la luz y G la cte.
gravitatoria.
aniquilarían al entrar en contacto con
dichos electrones liberando energía. Dirac
recibió por esto el premio Nobel en el año
1933.
El factor de amplificación A viene dado
por:
Y es que el año anterior, 1932, Carl
Anderson, del Instituto Tecnológico de
California, confirmó la teoría de Dirac al
detectar la existencia de un positrón en el
choque de rayos cósmicos.
A = (u2+2)/u(u2+4)1/2 con u = r/RE =
parámetro de impacto/radio del anillo de
Einstein, del orden de 1 a 1,5 magnitudes
para las estrellas de la Gran Nube de
Magallanes.
El año 1955 un equipo de la Universidad
de Berkeley formado por los físicos
Emilio Segre, Owen Chamberlain
(premios Nobel en el 59), Clyde
Weingand y Tom Ypsilantis lograron
hallar el primer antiprotón. Un año más
tarde en las mismas instalaciones, otro
equipo formado por Bruce Cork, Oreste
Piccione, William Wenzel y Glen
Lambertson
ubicaron
el
primer
antineutrón.
Existen varios proyectos de observación
que buscan este tipo de eventos: el
proyecto MACHO, el EROS y el OGLE.
Las conclusiones básicas extraídas de las
observaciones de estos últimos son:
1.Se han observado varios eventos de
microlentes gravitatorias.
2.El número de eventos observados
implica que el halo galáctico no puede
estar formado sólo de MACHOs de masa
subestelar.
3.Parece inevitable la existencia de
materia no bariónica en nuestra galaxia.
Posteriormente en el año 1965, el físico
Lederma junto con un equipo soviético
lograron detectar la primera partícula
compleja de antimateria, el antineutrino,
formado por dos partículas básicas; más
tarde, con el mismo acelerador se detectó
el antihelio.
B. Antimateria
Hasta 1928 ni siquiera como concepto se
había desarrollado la misma idea de
antimateria. Todo comenzó con los
trabajos de Paul Dirac publicados en el
año 1929, un período que en cierto modo
fue de los más exotéricos de la física
(fuerza débil, fuerza fuerte, mecánica
ondulatoria, principio de incertidumbre,
etc.).
En el Centro de Investigación de Alta
Energía (CERN) de Ginebra en el año
1978 se pudo lograr el antititrio, y en
1981 pudo realizarse allí el primer choque
controlado entre materia y antimateria.
En 1922, Brodsky y Schmidt publicaron
unos trabajos que sugirieron la fórmula de
un método para producir antiátomos, o
sea, la forma de unir antielectrones y
antiprotones.
Concretamente Dirac señaló que si el
átomo tenía partículas de carga negativa
llamadas electrones, debían existir
partículas
que
fueran
“electrones
antimateria”, a los que se les llamó
positrones, con la misma masa del
electrón y carga opuesta, y que se
En enero de 1996, el CERN anunció el
éxito de la obtención en un proceso de
experimentación de nueve antiátomos de
hidrógeno.
35
magnetismo se impide que toque sus
paredes para que no explote en rayos
gamma.
El método que propusieron Brodsky y
Schmidt consistía en hacer chocar un haz
de antiprotones con un gas, en cuyo
proceso se producirían pares electrónpositrón. Una pequeña fracción de esos
positrones viajaría casi a la misma
velocidad de los antiprotones, lo que
implicaría que los positrones pueden ser
capturados por un antiprotón, lo que haría
que ambas partículas se combinaran
formando un antiátomo.
La NASA con vistas al futuro ha
desarrollado un proyecto para instalar en
la estación espacial Alpha, en el año 2002
un detector de antipartículas denominado
Espectómetro Alfa Magnético (AMS), a
partir de los rayos cósmicos que a la
velocidad de la luz bombardean
intensamente la Tierra.
El experimento del CERN usó hidrógeno
como elemento de trabajo. El acelerador
LEAR, utilizado en el experimento,
disparó un chorro de antiprotones a través
de una nube de gas xenón. Los
antiprotones rompieron los núcleos de
xenón, creando algunos pares electrónpositrón. Una fracción de estos pares ( de
positrones) fue capturada por los
antiprotones, es decir, empezaron a
orbitar alrededor de los mismos; entonces
se crearon antiátomos de hidrógeno. Los
antiátomos, al ser neutros, no son
desviados por el campo magnético del
acelerador, continuando en trayectoria
recta, atravesando a gran velocidad una
barrera de silicio. Mientras, el antiprotón
continúa su camino, y positrón y electrón
chocan entre ellos, aniquilándose ambos.
La emisión de rayos gamma que choca
contra la barrera de silicio delata lo
ocurrido.
La detección de la antimateria generada
en el cosmos es tarea fácil. Solamente,
hasta el momento, se ha podido observar
una nube de positrones detectada cerca de
un torrente de rayos gamma, situado en
las cercanías del centro de la Vía Láctea,
monitoreado por el espectómetro OSSE.
No se conocen las fuentes del origen, que
debería ubicarse en algún lugar en el
entorno del centro de la galaxia.
La nube detectada de partículas de
antimateria podría haberse formado
debido a múltiples explosiones de
estrellas, también por eyección de
antimateria desde un disco de acreción de
un agujero negro situado cerca del centro
de la Vía Láctea, por la fusión de dos
estrellas de neutrones, u otras causas
diferentes.
Se piensa que la antimateria en general es
rara en el universo, aunque hay varias
formas para generar positrones en
particular. Una de ellas es por la
descomposición natural de los elementos
radiactivos que pueden originarse en una
serie de fuentes astrofísicas como
supernovas, novas o las estrellas WolgRayet de violenta actividad en sus
superficies. Otra forma para la generación
de positrones es en la caída de materia
sobre los altos campos de gravitación de
los agujeros negros; la temperatura se
Un problema a resolver fue establecer
cómo poder atrapar la antimateria, para
que no explotara al tomar contacto con la
materia. La solución del CERN fue usar
un envase diseñado por el Laboratorio
Nacional de los Álamos de EE.UU. Un
ciclotrón puede frenar un antiprotón de
modo que puede ser capturado, detenido y
paralizado por medio de campos
magnéticos. Una vez frenado, el
antiprotón se introduce en un envase que
posee un gran vacío en su interior, y por
36
con más fundamento en la existencia de
estrellas o galaxias de antimateria, con la
implicación subsiguiente en la supuesta
asimetría bariónica del universo.
incrementa tanto que pueden generar
pares de positrones y electrones, y, a su
vez, dispararlos después fuera a
velocidades altísimas. Mientras que el
número de positrones creados por
descomposición radiactiva es constante
durante largo tiempo, el número de los
que se crean en un agujero negro depende
de la cantidad de materia que le insufle su
estrella compañera.
El AMS que se situaría en la estación
espacial Alpha tendrá muchas más
posibilidades de descubrir antimateria en
los rayos cósmicos que los actuales
satélites, por el aumento sustancial de su
tiempo de exposición a los mismos.
Como tercera posibilidad para la creación
de esos positrones sería la fusión de dos
estrellas de neutrones, donde también se
crearían las condiciones para que se den
los fenómenos de las explosiones de
rayos
gamma
que
tanto
han
desconcertado a los científicos.
Como en el momento del big bang
debería haber habido la misma cantidad
de materia que de antimateria, la casi
extinción de esta última se presentaba
como un misterio hasta que el físico ruso
Andrei Sakharoc en 1967 explicó que
esto se debía a una pequeña asimetría en
las leyes de la física conocida como
violación CP.
El universo parece tener más materia que
antimateria, por eso en un mundo de
materia como el nuestro el positrón se
desintegra pronto al chocar con la misma,
por ello posee un período de existencia
muy corto. La aniquilación del positrón
por el electrón genera rayos gamma con
un rango energético de 511 KeV.
La asimetría, según Sakharoc, comenzó
en el primer segundo del big bang. En ese
instante, según la Teoría Unificada física,
todas las fuerzas conocidas de la
naturaleza se fundían en una sola, por
intermedio de la partícula X. Cuando el
universo se enfrió posteriormente y las
partículas X decayeron, la asimetría había
dejado una pequeña proporción más de
partículas que de antipartículas. Se
calcula mil millones más “una” partícula
por cada mil millones de antipartículas.
Como las antipartículas se habrían
aniquilado con las partículas (dejando
sólo una partícula por cada mil millones)
inmediatamente
produciendo
una
“bocanada” de rayos gamma, el universo
sólo habría quedado formado por materia.
La fuerza de gravitación depende de la
masa-energía de un objeto, y como la
materia y la antimateria tienen ambas
energía positiva, las dos tienen el mismo
comportamiento
en
un
campo
gravitatorio.
El antifotón es igual que el fotón, pues el
fotón es su misma antipartícula.
La detección de antiátomos fuera del
laboratorio no es trabajo fácil, puesto que
los antifotones que emitiría un antiátomo
son indistinguibles de los fotones (son la
misma partícula). Tampoco es sencillo
rastrear señales de su presencia en los
rayos cósmicos; ahora bien, si se llegara a
descubrir dentro de los mismos tan sólo
un núcleo de antihelio, podría pensarse
El trasfondo de radiación que llena el
universo (la radiación de fondo de
microondas), cerca de mil millones de
fotones por partícula de materia,
confirmaría este supuesto.
37
Aún cuando en la Tierra no hay fuente
alguna de antimateria y la exploración del
sistema solar tampoco la ha encontrado
hasta ahora, y se prevé tampoco exista en
otros campos siderales, no por ello hay
que descartar la hipótesis de un cosmos
simétrico, que incluye galaxias tanto de
materia como de antimateria, como lo
sugieren los físicos suecos H.Alfvén y
O.Klein.
Por otra parte, experimentos realizados en
los últimos años han permitido
comprobar las predicciones cuánticas que
suponían un enlace casi mágico, o
misterioso, entre las partículas y las
antipartículas así creadas, puesto que la
destrucción de uno de los componentes de
estos pares supone la desaparición del
otro, situado, a veces uno de otro a
kilómetros de distancia (algo fuera de la
comunicación “einsteniana” entre los
mismos, limitada a la velocidad de la luz).
C. Crítica a la interpretación clásica de
Dirac
La especulación anterior, o interpretación
de Dirac, le permitió anticipar el positrón.
La ciencia vivió durante muchos años con
la interpretación de Dirac del “mar” de
partículas de masa negativa con todos los
niveles saturados, masa que provenía de
la raíz cuadrada que aparecía en las
ecuaciones relativistas [±(1-v2/c2)1/2].
Y esto que supuso un hito en la Ciencia
(se concedió el premio Nobel a Paul
Dirac), y que supuso un claro desarrollo
de la misma, en mi opinión no es más que
la comprobación del antiguo aserto de
que, a veces, de un error puede obtenerse
ventajas imprevistas, fruto de la simple
casualidad.
La antimateria, en dicha visión, aparecía
como resultado del desplazamiento de
una de estas partículas de masa negativas
a nuestro mundo real (positivo) por efecto
del “choque” de los cuantos de una
radiación sobre ella. El “hueco” creado en
este mar de partículas negativas se
interpretaba en nuestro mundo como una
negación de la menos masa, es decir, -(m), lo que suponía una masa positiva
(antimateria); al suponerse el mar de
partículas neutro, la ausencia de una carga
-, al pasar a nuestro mundo la misma
como partícula “energetizada”, producía
la aparición de una carga positiva en el
mar de partículas, adornando dicha carga,
pues, al “hueco” antimaterial. El
resultado: una partícula de carga positiva
y masa positiva, el llamado positrón,
obtenido a partir de un “electrón” del
“mar” de partículas de masa negativa.
La anticipación del positrón y con ello la
antimateria, estuvo basada en la
suposición de un mundo infinito de masa
negativa con “todos” los niveles de
energía ocupados.
Mi reflexión actual es que es
“innecesario” aceptar tal hipótesis.
Imaginemos que los hechos fuesen los
siguientes. La radiación provoca en la
“fluctuación” del vacío la aparición de
una partícula de masa positiva en nuestro
mundo de coordenada temporal positiva,
junto con otra partícula de masa negativa
en “otro” mundo con coordenada
temporal negativa. Es como si el efecto
de la radiación hiciese “brotar” por
fluctuación
cuántica
un
“campo
particular” caracterizado por: un instante
inicial (al que podemos etiquetar cero),
una partícula material positiva que
viajaría en el tiempo positivo que
En otras palabras, los cuantos de
radiación han sido transformados en una
partícula
y
su
correspondiente
antipartícula.
38
masa negativa (creada tras la irrupción de
la radiación), en sentido del tiempo
positivo, algo que puede ser posible
gracias a que nos encontramos en un
“sistema cuántico” creado tras el hecho
de la “creación” de materia (positiva y
negativa) a partir de la radiación.
conocemos, y una partícula material
negativa que viajaría en el tiempo
negativo. Ambas partículas nacen en el
instante cero compartido por las dos
escalas de tiempo (definidas precisamente
a partir de ese instante cero de su
creación) positiva y negativa. La “vida”
de la partícula de masa positiva se
circunscribe a los instantes 0,1,2... hacia
el infinito. La “vida” de la partícula de
masa negativa a los instantes 0, -1,2,....hacia el menos infinito.
Como todo sistema cuántico, la
ocupación de ese “hueco”, o esa
“ausencia” en nuestro sistema cuántico
“particular” por otra partícula (por
ejemplo, un electrón del ambiente),
produciría la “aniquilación” del mismo, la
radiación
subsiguiente,
y
la
“destrucción”, también, de ese sistema
cuántico particular. La consecuencia,
entonces, sería la destrucción, también, de
lo que supone el sistema cuántico, es
decir, la desaparición inmediata de la
partícula de masa positiva, originada en la
creación inicial, y la partícula de masa
negativa. En ese momento se mediría un
“tiempo de vida”, por ejemplo, de la
partícula de masa positiva de t, y “un
tiempo de vida” de la partícula de masa
negativa de –t; siendo t el instante
correspondiente, en nuestro universo, de
la aniquilación de la antipartícula.
Existe, pues, un “mundo”, mismo
“sistema cuántico”, que representa la
partícula de masa positiva, la de masa
negativa y su instante de creación (0).
Pero, en nuestro universo habitual (el de
la realidad “observada”), ¿cómo aparece
“reflejada” la “existencia” de la partícula
de masa negativa?...Es claro que en su
universo (negativo) dicha partícula es de
masa negativa y avanza en sentido de su
tiempo negativo, que es el contrario al
nuestro... En nuestro universo, en el
instante 1 ( a partir del cero de la
“creación” del par), como la partícula de
masa negativa sólo está definida a partir
de su creación, el instante cero, en dicho
instante 1, en ese “mundo” o “sistema
cuántico” expuesto anteriormente, la
partícula de masa negativa, está definida
por su “ausencia”, es decir, por una
negación de la masa negativa, o lo que es
lo mismo, como una masa positiva. Si la
carga de la partícula de masa negativa
fuese también negativa (por ejemplo, un
electrón de masa negativa) dicha
ausencia, en cuanto a la carga, equivaldría
a una carga positiva.(*) En resumen,
estamos ante la aparición del positrón en
nuestro universo. Y todo ello sin
introducir la hipótesis del “mar” de
partículas de masa negativa con niveles
infinitos totalmente ocupados.... La
antipartícula sería sólo la consecuencia de
“retrotraer” hacia atrás la partícula de
Se ve claramente, entonces, a partir del
comportamiento de la antipartícula, que
ésta es como la partícula de masa
negativa navegando hacia atrás, es decir,
en sentido contrario a su tiempo
correspondiente (negativo, en este caso).
Y ese aparente misterio del colapso de la
partícula por el aniquilamiento de la
antipartícula se difumina rápidamente si
nos fijamos en que la antipartícula
(ausencia de la partícula de energía
negativa), es nuestra misma partícula de
energía positiva trasladada a ese “mundo
de masa negativa y tiempo negativo”;
lógicamente, si se aniquila la antipartícula
lo hará su igual, es decir, ella misma, que
39
de las propiedades de la misma
antimateria, puesto que, al fin y al cabo,
la antimateria es el reflejo en nuestro
universo de aquel otro.
es nuestra partícula. El único efecto es la
transformación en energía de las masas de
la materia de la partícula y la
antipartícula, y la desaparición, por
consiguiente, de estas últimas.
(*) Aclararemos mejor esa relación entre
los dos mundos, a saber, el de materia
positiva y el de materia negativa.
De igual modo, la energía de la radiación
inicial no se invierte en la creación de las
partículas de masa positiva y negativa,
pues la “suma” de ambas es nula, sino
que se refleja en lo “que aparece” en
nuestro universo, o sea, la masa de la
partícula y la de la antipartícula.
El mundo al que llamaremos positivo
para simplificar, va a caballo del tiempo
positivo. En el mundo positivo la
partícula de masa positiva en el instante t
(contado
desde
el
origen
cero
correspondiente al instante de la creación
de los pares a partir de la radiación) no
puede relacionarse con el par creado de
masa negativa (que internamente va
cabalgando, entonces, en el instante –t).
Sólo puede relacionarse con dicho par
cuando
éste
posea
su
misma
“simultaneidad”, es decir, se encuentre en
ese mismo tiempo t. Como en ese instante
t la partícula negativa “no existía”, esta
“no” existencia equivale a una negación
de la misma, es decir, -(-m) = +m. En
resumen, nuestra partícula positiva sólo
puede
“interrelacionarse”
con
el
“opuesto” a la partícula negativa, que
también puede construirse “invirtiendo”
el tiempo, es decir, haciendo progresar la
partícula de masa negativa en dirección
temporal opuesta a la que realmente tiene.
En esto consiste la antipartícula.
La desaparición de la partícula de masa
positiva de nuestro universo se acompaña,
de igual forma, con la de la partícula de
mas negativa del otro universo.
El “sistema cuántico particular” supone,
pues, que todo efecto producido en la
partícula de masa positiva se transmita de
inmediato a la partícula de masa negativa;
y al revés.
E hilando más el rizo, podríamos decir
que el fenómeno de la creación del par
partícula-antipartícula por la radiación, es
lo mismo que asegurar que la radiación se
“transforma” o se “materializa” en dos
mundos opuestos, uno de masa positiva y
otro de masa negativa, o, de otra forma,
en una “materia” que tiene su existencia
con un pie “en un tiempo positivo” (en
nuestro universo positivo), y el otro “en
un tiempo negativo” (en el otro universo
negativo).
Si nos fijamos, “aniquilar” la partícula
consiste en introducir, por ejemplo, la
partícula de materia positiva en el
“hueco”, la “ausencia” que es la
antipartícula. Luego, la irrupción en el
tiempo t de una partícula de masa positiva
en el “mundo” de las partículas de masa
negativas, ocasiona la “aniquilación” de
la
partícula
de
masa
negativa
(equivalente) que “vive” en el instante –t.
Queremos decir que la radiación “al
materializarse”, lo hace, a la vez, en dos
universos, uno de materia positiva, y otro
de
materia
negativa,
adornados,
respectivamente, de la coordenada de
tiempo positivo y negativo.
Las propiedades de ese universo oculto de
masa negativa, pueden adivinarse a partir
40
considerarse
“continuamente” en:
El instante cero de la creación de los
pares, produce la separación de la
coordenada temporal en valores positivos
o
negativos
que
definen
dos
correspondientes “universos”, “nacidos” a
partir de ese “origen” particular, que es el
de la transformación de unos precisos
fotones de radiación en materia.
hν
transformada
hν/2
hν/2
(- hν/2)
+hν/2
⇒
⇒
hν
En el universo
En nuestro universo
Complementario de tiempo negativo
O sea, el cuanto o corpúsculo de la
radiación, al igual que el par partícula y
antipartícula se divide en dos “cuantos”,
uno de energía positiva en nuestro
universo positivo y otro de energía
negativa
en
el
universo
“complementario”; este último “se
observa” en nuestro universo positivo
como
una
antipartícula
o
una
antirradiación, que en el caso de las
radiaciones es idéntica a su partícula, ya
que para el fotón (partícula del campo
electromagnético-luz) la partícula y la
antipartícula son idénticas. Al ser
idénticas partícula y antipartícula, a
continuación
ambos
fotones
se
“reconstituyen”, volviendo a dar el fotón
de energía hν. Como fotón y antifotón
son idénticos, “en todo momento” está
produciéndose una “virtual” división del
fotón en fotón y antifotón, luego no hay
un “punto cero” del tiempo donde se
produzca esa bifurcación, ya que “al
mismo tiempo” podríamos decir que se
“reconstituye” el fotón inicial; el
resultado es que no puede definirse el
origen del tiempo (0) del sistema cuántico
particular de la radiación, o sea, de inicio
de los tiempos positivo y negativo. En la
materia común (partículas comunes y sus
antipartículas), al existir el “origen”
cuántico de la aparición de “masas y
tiempos”,
puede
diferenciarse
perfectamente la partícula y la
antipartícula, pudiéndose “actuar” sobre
cada una de ellas, aún cuando la
“aniquilación” de uno de los elementos
del par origine la aniquilación del otro.
¿No será que ambos elementos del par no
La “radiación”, pues, se transforma en
materia: pares partícula de masa positivapartícula de masa negativa. O en la
versión (unilateral) sobre nuestro propio
universo: partícula-antipartícula.
Los universos paralelos y opuestos
creados a partir de esa transformación de
radiación en materia desaparecen o
fenecen de igual forma cuando, a su vez,
esa materia se transforma en radiación,
que equivale a la desaparición del
“sistema cuántico” que formaban los
pares creados, tras la aniquilación de los
mismos.
Como sistema cuántico, los tres tipos de
partículas (realmente son sólo dos), a
saber: la antipartícula y las partículas de
masa positiva y negativa, están
íntimamente relacionadas, y cualquier
alteración en una de ellas se transmite de
inmediato a las otras dos, sin importar
tiempo y espacio (también se dice que son
no locales), lo que siempre llamó la
atención a los relativistas obsesionados
con la limitación de la transmisión de la
información en la velocidad de la luz.
Todos estos resultados tienen una
repercusión trascendental en el tema
cosmológico que nos ocupa, si
consideramos el universo como un
sistema cuántico gigantesco.
Toda radiación hν (siendo h la cte. de
Planck y ν la frecuencia) puede
41
implosión)- Antimateria y tiempo
negativos.
-Universo
complementario
(en
expansión)- Materia y tiempo positivos.
son más que una sola partícula (de ahí
que la aniquilación de una de ellas,
equivalga a su “propia” destrucción)?
¿La partícula y la antipartícula, no serían
una sola partícula “actuando” en dos
mundos distintos a la vez?... Esos mundos
se crearían para cada partícula, al
“aparecer” su antipartícula. A efectos
prácticos, entonces, la antimateria en
nuestro universo simplemente sería
residual y no la “base” del mismo.
El ciclo completo interviniendo los dos
universos sería:
-
-
Ahora sugeriremos el siguiente cuadro
respecto al tiempo y los ciclos expansivos
e implosivos del universo, consecuencia
de las implicaciones que suponen en este
último todo lo expuesto anteriormente.
El símbolo ⇔ indica una conexión entre
ambos universos a la que se hará
referencia cuando hablemos en los
últimos capítulos de la Teoría M.
-El tiempo positivo acompañaría siempre
a la expansión.
-El tiempo negativo estaría asociado a la
implosión.
Como observamos, pues, el universo
complementario en la fase expansiva
realiza el mismo papel que el nuestro en
la actualidad, es más, sería nuestro
universo el que poseería, entonces, el
carácter complementario.
Y respecto a la masa-energía.
- La materia-energía positiva existiría en
nuestro universo conocido expansivo.
- La antimateria de energía positiva
existiría en nuestro universo sólo en
forma residual.
- La antimateria de energía negativa
existiría en el universo “complementario”
negativo en implosión.
- La materia de energía negativa
correspondería
al
universo
“complementario” negativo sólo en forma
residual.
Podríamos especular en el sentido de que
al parecer la “vida” se limitaría sólo a las
fases expansivas. En ese sentido
podríamos señalar que, quizás, nuestro
universo en implosión n o estaría dotado
de vida; sería solamente el “mecanismo”
(igual
que
ahora
el
universo
complementario) necesario para el cierre
de una fase dotada de vida, y abrir la
posibilidad al alumbramiento de un nuevo
ciclo.
De otra forma:
-
Universo conocido en expansión
(materia-energía positiva)⇔ Universo
complementario
en
implosión
(antimateria-energía negativa).
Universo conocido en implosión
(antimateria-energía
negativa)⇔
Universo
complementario
en
expansión (materia-energía positiva).
Universo actual (en expansión)Materia y tiempo positivos.
Nuestro universo (en implosión)Antimateria y tiempo negativos.
Universo complementario (en
Volvamos,
ahora,
al
tema
“comportamiento” de la radiación.
del
¿Qué característica deben poseer esos
mundos ( el nuestro y el complementario
para que en un caso la misma radiación
42
creadas ambas. Ese sistema cuántico
particular termina en el instante propio ∆t
en que una de las dos partículas
desaparece por aniquilación o “suceso”
físico que les ataña.
aparezca como positiva y en el otro
negativa?
Como los cuantos de radiación valen hν =
h. 1/T (siendo T el período o tiempo), es
el “tiempo” el que hace que esta magnitud
sea positiva o negativa, según sea el
tiempo positivo o negativo.
Es la radiación la que prefigura y define
el universo (nuestro) actual. Y es la
radiación “negativa” la que define el
“otro” universo complementario del
nuestro. La aparición de la antipartícula
supone la “existencia” de la partícula de
masa negativa. Lo mismo ocurre para la
radiación, también existe la radiación de
energía negativa. El “otro mundo” de la
radiación es un universo único de
radiación negativa.
En este universo (en la fase expansiva) el
tiempo es positivo y la radiación es
positiva, en el otro el tiempo es negativo
(en su fase implosiva) y la radiación
negativa.
La expansión del tiempo positivo, en el
negativo equivale a una implosión.
También sabemos que la antimateria es
como la materia recorriendo el tiempo
hacia atrás, es decir, con tiempo negativo.
Como con las partículas materiales, la
radiación puede considerarse la misma
radiación pero “en dos mundos distintos”.
En el primer mundo, llamado de la
energía-masa positiva, la radiación
“aparece” como positiva; en el mundo
complementario la radiación “aparece”
como negativa.
En el ciclo expansivo la desintegración
del protón es más lenta que la del
antiprotón (Ver **, un poco más
adelante). En la implosión sucede lo
contrario, por ello la antimateria sería “la
preponderante” en la implosión de
nuestro universo.
Es conveniente en este momento
acometer las sugerencias de Paul Davies
en su libro “Superforce” sobre la
existencia o no de las ondas “avanzadas”.
Para la radiación, al no existir ese instante
de “creación” (del par partículaantipartícula), el cuanto permanecerá de
modo continuo en ambos mundos. Como
sucede lo mismo para todos los cuantos,
todos ellos poseen los mismos “ambos
mundos”, o lo que es lo mismo: el
universo actual es el mundo de “toda” la
radiación. Más, ¿podríamos decir lo
mismo acerca de las otras partículas
materiales y sus correspondientes
antipartículas?... La realidad es que la
aparición de una antipartícula supone la
creación, como dijimos, de un mundo
cuántico particular en el que “cohabitan”
o son sus componentes: la partícula de
masa positiva, la partícula de masa
negativa y el “instante” (0) en que son
Nos cuenta Paul Davies que la idea de
enviar señales al pasado se la sugirió el
astrónomo Fred Hoyle al oír una
conferencia del mismo celebrada en la
Royal Society de Londres, en la que
afirmaba que las famosas ecuaciones del
campo electromagnético de Maxwell que
describen la propagación de las ondas
electromagnéticas,
encerraban
la
posibilidad de que las mismas pudieran
viajar hacia atrás en el tiempo. Y es que
los procesos físicos que controlan las
ondas son perfectamente reversibles, pues
cada porción de onda puede moverse
hacia atrás.
43
Wheeler y Feynman demostraría que no
era así.
El carácter unidireccional de las
variaciones de las ondas se extiende a
todo tipo de movimiento ondulatorio
imprimiendo en el universo una
“dirección temporal”, o sea, una
distinción entre pasado y futuro, pues
debido a la conexión entre movimiento
ondulatorio y dirección del tiempo,
imaginamos que las ondas que “se alejan”
van hacia el futuro, mientras que las que
llegan (convergen) están invertidas en el
tiempo, es decir, van hacia el pasado. Las
primeras (con las que estamos
familiarizados) se denominan “ondas
retardadas”, ya que llegan “después” de
ser enviadas, mientras que las últimas se
llaman ondas “avanzadas”, pues llegan
“antes” de ser emitidas.
Las ondas avanzadas que abandonan el
transmisor viajando por el espacio
(retrocediendo en el tiempo), a la larga
tropezarán con materia, con las partículas
eléctricamente cargadas del “tenue gas”
del espacio intergaláctico. Las ondas
pondrán esas cargas en movimiento,
generando las mismas otras ondas
secundarias de la misma frecuencia, pero
la mitad de ellas retardadas y la mitad
avanzadas. La parte retardada de estas
últimas viajará hacia adelante en el
tiempo, creando un débil eco en el
transmisor en el mismo instante de la
transmisión de las ondas iniciales. Se
obtiene así un complejo entramado de
vibración y ecos que saltan hacia delante
y hacia atrás tanto en el espacio como en
el tiempo.
Desde Maxwell se ha creído que estas
ondas avanzadas son posibles, pero como
parece que no tienen entidad física, por su
apariencia de ir en contra de la lógica, la
mayoría de los científicos las han
rechazado.
El eco de una partícula cargada sería
pequeñísimo debido a su gran distancia
del transmisor, pero si el universo
contuviera tantas partículas para ser
opaco
a
las
radiaciones
electromagnéticas, la acumulación de
todos los ecos tendría tanta potencia
como la señal original. El análisis más
detenido muestra que el eco que atraviesa
la onda avanzada original en cualquier
localización del espacio, se encuentra
exactamente desfasado con respecto a la
misma. El efecto es la cancelación
completa de la onda adelantada por
interferencia destructiva, o sea, todas las
señales enviadas al pasado (ondas
adelantadas) serían totalmente canceladas
por sus propios ecos. Por eso, en un
universo opaco, sólo hay ondas
electromagnéticas retardadas, aún cuando
“cada partícula cargada radiara, de igual
forma, a la vez, ondas avanzadas y
retardadas”.
Pero hay excepciones importantes, como
la que representan John Wheeler y
Richard Feynman, cuya solvencia
científica está fuera de toda duda
(Feynman consiguió el premio Nobel por
su
formulación
de
la
EDCelectrodinámica cuántica).
Ambos a fines de la 2ª Guerra Mundial
publicaron un ensayo donde intentaban
explicar por qué las ondas retardadas son
la norma, y la posibilidad de la existencia
de las ondas avanzadas. En su trabajo
Wheeler y Feynman investigan lo que
ocurriría en un “mundo” donde las ondas
electromagnéticas avanzadas y retardadas
existieran en el mismo plano de igualdad.
En este mundo, su transmisor de radio
enviaría señales hacia el pasado y hacia el
futuro. Se esperaría que se encontrasen
conclusiones absurdas, pues el trabajo de
44
implosivo, en un tiempo absoluto, por el
mismo razonamiento, que es anterior a T
(comienzo de su andadura y pasado
absoluto del mismo). Así, de una u otra
forma,
ninguna
señal
(onda
electromagnética)
proveniente de
cualquiera de las fases del ciclo puede
pasar a la otra de modo que pudiera
“enviarse” ninguna información que
representase una paradoja en el desarrollo
normal
de
una
sucesión
de
acontecimientos (historia).
Este
resultado
aparentemente
“sorprendente” del análisis de Wheeler y
Feynman es consistente, porque la
actividad electromagnética de cualquier
partícula cargada es inseparable del resto
del universo: las ondas producidas en un
punto no pueden separarse de los ecos
inducidos por las mismas, procedentes de
todas las regiones del cosmos. (Esto
podría tener aplicación al “eco”
gravitatorio necesario para producir la
fuerza de inercia, ya que las señales
avanzadas se propagan hacia atrás en el
tiempo, no habiendo retraso en el regreso
del eco).
También,
como
el
universo
complementario (el negativo) tiene un
tiempo negativo (en la fase implosiva), en
él dominan las ondas adelantadas (en
sentido
del
tiempo
negativo).
Indirectamente, pues, el estudio de
Wheeler y Feynman dan consistencia
matemática a la posibilidad de la
radiación negativa ( la que se mueve con
el tiempo negativo).
Estos resultados de Wheeler y Feynman
pueden sernos útiles para la propagación
de las ondas en nuestro universo entre las
fases de expansión y contracción, puesto
que podría argüirse que una onda
avanzada (hacia el pasado) de la fase
posterior a nuestra fase actual de
expansión pudiera enviarnos señales
desde el futuro.
Llegados a este punto, hay que señalar
dos apuntes importantes:
1. La equivalencia entre la materia y la
“correspondiente” más negativa del
otro universo sólo se produce a
energías altas; a energías más bajas se
rompe la simetría en el mismo sentido
de la distinta desintegración del
protón y el antiprotón (ver ***, a
continuación).
2. Es evidente, y no muy difícil de
resolver, el proceso del “impacto” de
la fase de implosión a la de explosión
(algo así, con la salvedad de la
entropía del sistema, como un agujero
negro gigantesco al desintegrarse en
radiación). Sin embargo, el proceso
contrario del “cambio” de la fase de
expansión a la de implosión, que se da
al final de nuestro universo, necesita
de causas “ajenas”, y queremos
expresar con esto la necesaria
colaboración
del
universo
El estudio de Wheeler y Feynman nos
ayuda a resolver la cuestión.
En este ciclo del universo (expansióntiempo positivo) las ondas adelantadas se
“anulan” por las interferencias anteriores
(realmente pasan al otro ciclo, donde no
son anuladas); entonces, en el ciclo
implosivo son las ondas retardadas las
que se anulan por interferencia (tiempo
negativo) quedando solamente las
adelantadas. Como consecuencia: “pasa”
a este universo las ondas retardadas
(futuro) de “algo” que es el futuro
“absoluto” nuestro (cada fase expansiva e
implosiva poseen un tiempo o edad
máxima T; el ciclo completo será 2T), por
encima de T.
Nuestras ondas adelantadas (pasado), de
igual forma, pasan a la fase del ciclo
45
complementario en dicho proceso, sin
cuyo concurso no sería posible. Es
precisa una “conexión” cuántica entre
los universos positivo y negativo; eso
permite que el primer proceso
comentado (desarrollado, esta vez, en
el universo complementario negativo)
pueda “influenciar” de forma decisiva
en nuestro propio universo, haciendo
realizable el salto de una fase a otra,
permitiendo esa fase implosiva la
posibilidad de un nuevo colapso (big
crunch). Este sería el papel sustancial
del universo complementario negativo
(aparte, como veremos, de dar
consistencia a la teoría supersimétrica
de partículas, que lo sustentaría, lo
que veremos en los últimos capítulos
de la obra), de ahí, también, la
necesidad de su existencia.
de energía negativa desaparecería (igual
que en nuestro universo desaparece la
antimateria inicial, o mejor, los
antiquark).
Ahora bien, el hecho “singular” frente a
la creación de los pares materiaantimateria por la radiación, es que la
“creación” de materia (en nuestro
universo)
y
antimateria
(en
el
complementario)
propuesta
anteriormente, no produce la “conexión”
o “entrelazamiento cuántico” que sí
ocurre en la creación de los pares
anteriores.
En los procesos de creación de materia y
antimateria expresados en las fórmulas
anteriores (que suponen, en sí, la no
conservación de los números bariónicos y
antibariónicos), no hay entrelazamiento
cuántico entre p y e+, en el primer caso, y
p- y e-, en el segundo; simplemente se
“realiza el proceso” en cada uno de los
universos, por separado. De esa forma, la
creación (al imaginar los procesos al
revés) del protón (o quark) en nuestro
universo positivo “no produce” la
inmediata creación de un protón negativo
en el universo negativo. Por ende, la no
creación de ese protón negativo en el
universo negativo no produce por la
“retroacción” del tiempo (cambio de
tiempo negativo a positivo) la aparición
de un antiprotón. Así es posible la
“aparición” de la materia en nuestro
universo, y no la antimateria; o dicho de
otra forma, el que la desintegración del
protón sea más lenta en nuestro universo
que la del antiprotón. Lo contrario sucede
en el universo negativo: su menos materia
queda constituida de nuevos antiprotones,
de nuevos antiquarks.
(***) El apunte 1. anterior tiene una
importancia trascendental.
La posible desintegración del protón en la
forma propuesta:
p ⇔ ν + e+ (en un positrón y radiación)
; debe poseer la característica de
realizarse únicamente en nuestro universo
positivo.
Para
el
universo
negativo
(complementario) proponemos para el
antiprotón (negativo) la siguiente
desintegración:
p-
⇔ ν- + e- (siendo ν- el cuanto
negativo propuesto)
Y, en este universo negativo, el que se
desintegra con una vida media más larga
sería el antiprotón de masa negativa. Este
universo
negativo,
pues,
estaría
compuesto
primordialmente
de
antimateria negativa, puesto que el protón
La aparición de la materia en nuestro
universo (y la antimateria de masa
negativa en el otro) es consecuencia
46
misma frecuencia que la que posee la
radiación de fondo de microondas del
universo, es indistinguible de la misma, y
debe poseer, también, su propio sistema
cuántico particular extendido en el
tiempo, es inmediato pensar que ambos
sistemas cuánticos deben coincidir, el
particular de la radiación actualmente
producida y el más grande, el propio
universo complementario. Ahora bien, la
inclusión del primero en el segundo,
como lo mismo sucede con toda radiación
producida en nuestro universo a lo largo
de toda su historia, esta “inclusión2 debe
producirse, precisamente, en los puntos
de “entrelazamientos cuánticos” de
nuestro universo y su complementario (en
la búsqueda del mismo acudimos, como
veremos en los últimos capítulos a las
teorías de supercuerdas).
directa
del
“no-entrelazamiento
cuántico”, entre los dos universos en los
procesos de desintegración expresados
por las fórmulas anteriores. En realidad lo
que sucede es, simplemente, que nuestra
materia de la fase expansiva y la
antimateria de la implosiva (universo
complementario) son “la misma”.
Es momento de acometer un problema
que habíamos dejado pendiente: el
análisis del sistema cuántico del par
partícula-antipartícula. En primer lugar,
cuando estas partículas forman parte de la
radiación o las ondas electromagnéticas
desplazándose a la velocidad de la luz, c,
los llamados cuantos, se da una diferencia
sustancial respecto a la formación general
de
pares
materiales
partículaantipartícula. El que con este tratamiento
general de formación de pares el fotón sea
idéntico al antifotón en todo momento (el
fotón es su misma antipartícula), lo que
ocurre también con el gravitón (que
transmite el campo gravitatorio), origina
que en este tipo “especial de pares” (con
identidad partícula-antipartícula) el tercer
componente del “sistema cuántico
particular”, el origen de tiempos (o
instante en el que se “forma” el par) no es
único, sino que se “extiende” durante
todo el tiempo de existencia de la
partícula. Entonces, la única solución es
que este sistema cuántico sea compatible
con toda la trayectoria de la partícula, es
decir, el sistema cuántico particular debe
“contener” la partícula desde su creación
hasta su destrucción, así que si la
radiación es, por ejemplo, la primordial, o
sea, la que se produjo en el big bang
inicial y que compone hoy día la
radiación de fondo de microondas, el
sistema cuántico particular en este
momento sería el propio universo
complementario al nuestro, que por las
razones anteriores es único. Como una
radiación producida actualmente, a la
En principio lo más fácil será suponer
que, dado que en nuestro universo
complementario domina el tiempo
negativo, y nuestro universo está en
expansión, este universo complementario
debe estar en contracción y “debería
corresponder” su instante T (máximo de
su futuro, y, como hemos visto, definido
esencialmente por la radiación) a nuestro
instante 0. Al cabo del período de tiempo
propio T, el universo complementario
estaría en el instante T-T = 0, y el
universo en el que vivimos en el 0+T = T.
El instante, por ejemplo, T- T/4 =3/4 T
del
universo
complementario,
correspondería al instante 0+T/4 = T/4 del
nuestro, que sería el instante a partir del
cual (3/4 T) quedaría incluido el sistema
cuántico particular de la radiación
producida en nuestro universo en el punto
T/4.
Ahora bien, los sistemas cuánticos
particulares constituidos por los demás
pares
partícula-antipartícula,
se
diferencian sustancialmente del de la
47
pueden ocurrir también en el universo
complementario, pero de igual forma no
se confunden o equivalen al mismo. El
sistema cuántico particular de los pares,
con carácter general, no coincide con el
universo complementario; puede coincidir
con él en algún punto (que pudiera
ocasionar, casualmente, la aniquilación
del elemento del par de energía negativa y
por ello de todo el par), igual que puede
coincidir casualmente con el sistema
cuántico particular de otro par. Ello no
quiere decir que tanto la partícula como la
antipartícula tengan su “trayectoria”, es
decir, existan “permanentemente” en
nuestro universo, puesto que todo el
planteamiento anterior se refiere al
“espacio que sustenta" al elemento del par
de
masa
de
energía
negativa;
evidentemente, cuanto decimos se supone
se cumple, también, para “cualquier
observador” (si existiera) del universo
complementario negativo, eso sí,
haciendo la pertinente transposición a
valores opuestos contrarios.
radiación, puesto que el tercer
componente de los mismos está
nítidamente definido: solamente hay un
instante de creación del par partículaantipartícula, que junto al mismo define
de forma “precisa” el sistema (no hay
“difuminación” a lo largo de su
trayectoria). Este sistema cuántico
particular
desaparece,
también,
completamente a partir del instante que
cualquiera de los componentes del par
desaparece. Aunque, por ejemplo, el
electrón formado en uno de estos pares
sea indistinguible de otro creado
posteriormente en otro par, uno y otro son
perfectamente reconocibles, con carácter
absoluto, por los otros componentes de
los pares respectivos. De igual forma, los
“instantes” de creación de ambos pares
están sustancialmente conectados a sus
respectivos pares, formando, pues,
mundos totalmente “disjuntos” (lo que no
sucede con la radiación). Precisando
mejor, sí pueden coincidir “por azar” en
algún
instante
o
localización
(precisamente, la aniquilación de los
pares electrón-positrón se produce por el
encuentro del electrón con el positrón de
otro par o el suyo propio), pero sólo lo es
en algún “punto” del espacio-tiempo sin
que exista “superposición” de sistemas
cuánticos que suponga alguna suerte de
identificación o paralelismo, como ocurre
con la radiación. Desde otro punto de
vista, también cabe la interpretación de
que los sistemas cuánticos particulares
correspondientes a la radiación pueden
superponerse al no haber lapsos de
tiempo positivos o negativos, a partir de
un origen (0), que deban recorrer fotones
y antifotones, al ser estos posibles lapsos
nulos por la bifurcación y reconstitución
continua que se produce en la radiación.
En resumen, todo lo más que podemos
decir de la partícula de energía negativa
componente de un par, obtenido a partir
de la radiación (cuya imagen en nuestro
universo es la antipartícula), es que
“habita” en un mundo (o sistema cuántico
particular) que no es el universo
complementario de la radiación. Por ello,
ahora puede explicarse cómo la
aniquilación de las partículas de energía
negativa, formadas a partir de la radiación
primigenia (situadas, como acabamos de
decir, en sistemas cuánticos particulares),
no
conlleva
“necesariamente”
la
aniquilación de las mismas en dicho
universo complementario, lo que ocurriría
por “simetría” si dichas partículas
“habitaran” de continuo en el mismo. O
también, dicho de otra forma, las
partículas
producidas
según
las
reacciones
que
expresamos
con
Estas coincidencias únicas o puntuales
entre sistemas cuánticos particulares y
nuestro propio universo como conjunto,
48
desintegra, tanto de las partículas como
de las antipartículas; de aquella, la
correspondiente a la aniquilación de los
pares entre sí vuelve a producir radiación.
Como el ritmo de decaimiento de las
partículas es mayor que el de las
partículas, al final sólo quedan partículas
en nuestro universo positivo en expansión
(En el universo negativo quedará aquello
“igual a lo anterior”, es decir, la
antimateria de masa negativa en
implosión por tener tiempo negativo).
anterioridad, y no por producción de
pares, son posibles por la no-coincidencia
entre el sistema cuántico “radiativo”
(universo
complementario
negativo
procedente de la radiación) y los sistemas
cuánticos particulares de los pares de
partículas. Lo anterior puede expresarse
de otra forma diciendo que existe un
“entrelazamiento cuántico” entre nuestro
universo y el complementario, al menos
en los siguientes puntos espaciotemporales: uno y fundamental que es el
inicio del big bang, y el big crunch, y
otros los que corresponden a la creación y
aniquilación de los pares partículaantipartícula, que para la radiación abarca
toda la trayectoria.
Entonces, el origen del tiempo positivo
será el del inicio de la “explosión de luz”,
continuado, de inmediato, por la
formación de pares, y el resultado del
“decaimiento” en materia.
El futuro T de la finalización o
“terminación” de nuestro universo se ve
reflejado, en cierto modo, al inicio del
tiempo (T) en el otro universo –el tiempo
negativo en este universo, hemos dicho,
empieza en T y acaba en 0. De alguna
forma, la “creación” (de nuevas
dimensiones físicas, y de una nueva
“historia” del universo) es producida,
tanto en el final de nuestro universo T,
como en su origen 0, aún cuando se vea
“preñada” toda la secuencia creativa (de 0
a T), por estas interacciones o
“entrelazamientos cuánticos”. Así, cada
nuevo ciclo del universo estaría
“construido” con la aportación de las
leyes físicas vigentes (configuradas en
cada big bang), el azar, y las interacciones
(“entrelazamientos cuánticos”) entre los
universos positivo y complementario,
tanto de los instantes iniciales (big bang y
big crunch) como de la radiación y los
pares partícula-antipartícula.
Y es que cuando se “crean” los pares
partícula-antipartícula de masa positiva
en
nuestro
universo,
en
el
complementario (negativo) se crean,
también, pares partícula-antipartícula de
masa negativa. La antimateria de masa
negativa es la misma materia positiva de
nuestro universo o partículas positivas. La
aniquilación de pares posterior, deja
como rescoldo, en este mundo negativo,
de igual forma, antimateria de masa
negativa, desapareciendo la materia de
masa negativa. Ello es consecuencia de
que en este universo complementario el
decaimiento (desintegración) de las
partículas (de masa negativa) es mayor
que el de las antipartículas (lo contrario
que en nuestro universo).
Todo esto es extensivo, por supuesto, a
los quarks y antiquarks respectivos.
El tiempo, pues, positivo y negativo, tiene
su origen en ese fogonazo inicial
perpetuado por la primera materia
primordial (antimateria en el universo
complementario).
Esquematizando todo lo anterior, la
secuencia sería esta.
Estallido de luz(radiación). Producción de
pares partícula-antipartícula. Una parte se
49
La materia(positiva) es preferente en la
expansión, que tiene un tiempo positivo.
La antimateria (negativa) es preferente en
la implosión, que tiene un tiempo
negativo. La antimateria (positiva), pues,
es residual en la expansión en nuestro
universo. La materia (negativa) es
residual en el universo complementario
implosivo.
El “entrelazamiento cuántico” se produce
entre el instante cero de la materia y el –t
(final en el universo complementario de
su tiempo). Y tiene que ser desde el final
porque al cambiar el tiempo debe
“empezarse” por el final para que pueda
“montarse” toda la secuencia completa
del “tiempo absoluto” t.
2. Proceso
en
complementario.
Parece que la “vida” sólo está circunscrita
a las fases explosivas, por cierto, con
masa-energía positivas. (Haciendo la
salvedad de la energía gravitatoria
considerada negativa, equilibrando, en
este sentido, en un universo plano, a esa
energía positiva).
Materia negativa Universo N.
Emisión cuanto negativo -hν/2
-t←----------0
Antimateria negativa
(Tiempo interno)
Emisión cuanto negativo -hν/2
(Creación
por -hν en
universo N.)
0←---------+t
En el sistema cuántico particular de la
creación de materia-antimateria por la
radiación ( que consta de partícula de
masa positiva, partícula de masa negativa
e instante nulo cero inicial) debería
“añadirse” o, más bien, hacerse una
precisión respecto a la “construcción” de
la antimateria. Y es que al aplicar la
“retroacción” al tiempo de la partícula de
masa negativa, la “correlación” no se
establece entre nuestro instante cero y el
cero de la partícula de masa negativa,
sino, hablando de antimateria o de
“ausencia”, la correlación debe ser entre
nuestro instante cero del tiempo positivo,
y el tiempo –t del tiempo “interno” de la
partícula de masa negativa; ello es debido
a que si el tiempo del universo
complementario va desde “su” origen
cero a su “futuro”, -t, (según su secuencia
o “movimiento”) el sentido contrario del
tiempo, aquí, irá desde “su futuro”, -t,
hasta “su pasado”, 0.
En el universo actual.
0
t⇒
+ t Materia positiva
----------------→
⇒
0 Antimateria positiva
Tiempo interno –t
En el universo complementario.
⇐
Universo negativo
-t ------------- 0
0------------- +t Universo positivo
⇒
Secuencia
completa
1. Proceso en nuestro universo.
Materia positiva
universo
Devolución energía -hν
Un simple gráfico aclaratorio de nuestra
teoría sobre la antimateria y su
repercusión cosmológica se expone a
continuación.
-t --------------0-------------- +t
el
“Devolución” de energía hν
0--------------→+t Se destruye (Emite su cuanto hν/2)
Ausencia de antimateria
en 0 del tiempo positivo
Así que, si en un universo hay “al final”
materia (positiva), y en el otro antimateria
(negativa), de las explicaciones de 1. y 2.,
la
antimateria
del
universo
complementario comenzará “su tiempo”
-t--------------→0 Aquí emite su cuanto hν/2, pues al
ir el tiempo interno hacia atrás la creación se transforma en
destrucción.
50
Nuevamente hemos de expresar que las
secuencias de “acontecimientos internos”
son idénticas en ambos universos, aunque
el efecto de cada universo sobre otros
sistemas cuánticos particulares, por ser
ellos mismos distintos, es diferente.
Nunca se sabe si un “suceso”
determinado es efecto de la “actuación” o
“proceso” producido “en o por” uno u
otro de los universos.
en +t, dirigiéndose hacia 0. La materia de
nuestro universo comienza su tiempo en 0
y se dirigirá hacia +t.
Luego el “entrelazamiento cuántico”
finalmente se produce en nuestro universo
en expansión de o a +t y, como
consecuencia de lo anterior, en implosión
de +t a 0.
51
a(t0)=1) y a(t) el factor de escala en el
momento de la emisión.
Capítulo III.
INFLACIÓN
De la relación velocidad- distancia:
1.Universo de Einstein- de Sitter
H(t) = v/a = 1/a (da/dt) = d(ln a)/dt=2/(3t)
De la ecuación (14) se obtiene el universo
de Einstein- de Sitter como caso
particular en el que la tendencia a la
expansión y la atracción gravitatoria están
en el punto crítico de manera que la
energía total es cero.
2
Y por tanto, el tiempo de expansión en la
actualidad es:
t0 = 2/(3H0) = 6,52 h-1 Gigaños.
De(16) t=t0(1+z)-3h =6,52 h-1 (1+z)-3/2 Gi.
, que nos indica el tiempo o edad de una
galaxia con desplazamiento al rojo z.
2
Entonces: 0 = (da/dt) - 8/3 π G ρ a
(da/dt)2 = 8/3 πGρ a2 = v2 = H2 a2 (15)
(Habiendo utilizado la relación velocidaddistancia v = H a)
Así que: H2 = 8/3 πGρ ; en t, que tiene
que cumplirse para cualquier tiempo, y en
particular en t0 (tiempo actual).
O sea: H02 = 8/3 πGρcrit. ; siendo ρcrit. la
densidad crítica, hoy.
El valor de la constante de Hubble para
un desplazamiento al rojo z es:
H(z) = 2/3t ={2/3t0} (1+z)3/2 = H0 (1+z)3/2
2.Universos dominados por materia
fría de tipo general
ρcrit. = 3 H02/8πG = 1.879 h2 10-29 g/cm3;
siendo h = H0/100
La ecuación de conservación de la
energía puede ser reescrita para el caso
general en la forma:
Como la densidad es inversamente
proporcional al volumen, que es
proporcional al cubo del parámetro de
expansión a3, entonces, la relación (15) se
satisface para un parámetro de expansión
que es proporcional a t2/3, y por tanto:
H2/H02 = (1/a2) (1-Ω0)+(1/a3) Ω0 ; donde
Ω0 = ρ0/ρcrit., y también a(t0)/a(t) = 1+z
y H(t) = d(lna)/dt = -d(ln(1+z))/dt.
Y tendremos:
a(t0)/a(t) = (t0/t)2/3 = 1+z (16) ; donde z es
el corrimiento al rojo y t0 el tiempo
transcurrido desde el big bang medido por
el observador.
H0 dt = (1+Ω0 z)-1/2 (1+z)-2 dz
E integrando esta ecuación para el
corrimiento al rojo desde 0 a infinito,
obtenemos el tiempo de expansión. Para
Ω0 = 1 obtenemos el caso anterior del
universo de Einstein- de Sitter, H0 t0 =
2/3. Para Ω0 = 0 obtenemos el caso
particular del universo vacío de materia,
donde H0 t0 = 1.
Y esta es la interpretación estándar de la
expansión:
1+z = λ0/λe = a(t0)/a(t) ; siendo λ0 la
longitud de onda observada, λe la
longitud de onda emitida, a(t0) el factor
de escala en el momento de la
observación (definido de forma que
52
Cuya 1ª integración nos conduce de
nuevo a la ecuación de la energía:
3.Universo dominado por radiación
Es un universo dominado por radiación o
partículas con velocidades relativistas
(materia caliente). Habrá que considerar
la densidad de energía y también la
contribución de la presión.
E = (da/dt)2 – 8/3 πGρa-2 siendo ahora E
el doble de la energía total. El parámetro
de expansión para un universo crítico
dominado por la radiación se mueve
como t1/2.
La ecuación del movimiento entonces es:
d2a/dt2 = -4/3 πG (ρrad +3 Prad/c2)a
4.Universo dominado por la densidad
de energía de vacío. Universo de de
Sitter
La densidad es sustituida por el tensor
energía-impulso de la ecuación de campo
einsteniano. (El factor 3 se introduce para
considerar la densidad de momento que
está en un volumen unidad en cada
dirección espacial).
La densidad de energía de vacío (asociada
perfectamente
a
la
constante
cosmológica) contribuye con una presión
negativa medida por el trabajo.
dW = P dV = -3 ρvacío c2 4/3 π R2 dR
Pero la presión de un gas de partículas
relativistas de densidad de energía u viene
dada por la expresión:
Que hay que restar a la energía total
4/3 πR3 ρvacío c2, y por tanto:
P = u/3 = ρrad. c2/3
d[R3ρvacío] = 3R2 ρvacío dR⇒ρvacío = cte.
Y la presión produce un efecto añadido de
disminución de la densidad medida por el
trabajo:
; o sea, la densidad de energía del vacío
es cte. durante la expansión, ya que las
fluctuaciones cuánticas del vacío no
deben depender de lo que suceda en el
universo. La ecuación dinámica en este
caso es:
dW = P dV = ρrad. c2 4/3 π R2 dR
Que se resta a la energía total 4/3 πR3
ρrad. c2; y por tanto:
d2a/dt2 = 4/3 πG (2ρvacío) a ; que tiene la
solución exponencial del tipo a(t)α
exp[Ht], donde H = (8/3 πG ρvacío)1/2 y H
no depende del tiempo.
d[R3 ρrad.] = - R2 ρrad. dR ⇒ d[ log (ρrad.)]
= - 4 d[log B] ⇒ ρrad. α R-4
El resultado anterior puede entenderse
como que se produce una disminución de
la densidad por un factor R-3 debido al
aumento del volumen, más un factor
adicional R-1 por el factor de aumento de
la longitud de onda consecuencia de la
expansión. La dinámica se convierte
entonces en:
5.Caso general
En el caso general donde existen
contribuciones de materia fría, materia
caliente y densidad de energía de vacío,
puesto que dichas contribuciones a la
energía potencial se suman linealmente,
se obtiene la ecuación para la energía
total del sistema:
d2a/dt2 = -4/3 πG (2ρ0) a-3
53
H2 a2 = E+8/3 πG a2 (ρvo+ρmo a-3 +ρro a-4)
; donde ρvo, ρmo, ρro son las densidades de
energía de vacío, de materia fría y
radiación, respectivamente, para t = 0.
Ecuación que también puede escribirse
como:
-
7.El modelo clásico del Big Bang
H2 = H02 ([1-Ωvo-Ωmo- Ωro ] [1+z]2 +Ωvo
+Ωmo [1+z]3 +Ωro [1+z]4)
Se demuestra que un universo que sea:
- Homogéneo e isótropo
- Esté en expansión (según la ley de
Hubble)
- Sea un fluido perfecto
- Y esté gobernado por la relatividad
general (que funciona perfectamente
hasta el tiempo de Planck)
; tiene una singularidad al principio de su
existencia llamado big bang.
Y para la variación del tiempo con
respecto a la desviación hacia el rojo:
H0 (1+z) dt/dz = ([1-Ωvo-Ωmo-Ωro] [1+z]2
+Ωvo+Ωmo[1+z]3+Ωro[1+z]4)-1/2
6.Parámetro de desaceleración
Desarrollando en serie de potencias, el
parámetro de expansión puede ponerse
como:
Se asume que la métrica más general
obedece a la métrica de RobertsonWalker, en la que el “intervalo de
universo” vale:
a(t0+∆t) = a(t0) { 1+ H0 ∆t –1/2 q0 (H0∆t)2
+.....}
; donde se ha introducido el nuevo
parámetro q0 llamado de desaceleración,
que puede definirse como:
2
2
Universo crítico dominado por
radiación q0 = 1
Universo vacío q0 = 0
Universo dominado por la densidad
de energía de vacío q0 = -1
d s2 = (c dt)2- a(t)2 [d r2/(1-k r2) + r2 (dθ2
+sen2 θ dφ2)]
El factor de escala a es una medida del
tamaño del universo y k es el factor de
curvatura del universo.
-2
q0 = -a (d a/dt ) (da/dt)
La ecuación del movimiento en el caso
general puede escribirse entonces:
En un universo homogéneo e isótropo el
tensor energía- momento es el que
corresponde a un fluido perfecto:
d2a/dt2 = -4/3 πG (ρ+3p/c2) a-2
Y como: H = (1/a) (da/dt), se tiene
Gα,β = -8πG/c4 Tα,β
Q0 = 4/(3H0)2 πG (ρ0+3p/c2) = 1/2Ωmo
+Ωro-Ωvo
; y las ecuaciones de movimiento de
Friedmann- Robertson- Walker (FRW) se
vuelven:
Los
valores
del
parámetro
de
desaceleración para los diferentes tipos de
universo son los siguienetes:
ä = -4/3 πG (ρ+3p/c2) a
a2 = -kc2+8/3 πGρ a2 ; siendo a la
derivada de a respecto del tiempo, y ä la
2ª derivada.
-
Universo de Einstein- de Sitter q0 = ½
54
Tij es el tensor masa-energía, Gij el tensor
de Einstein (una descripción general de la
curvatura del espacio-tiempo) y k la
curvatura.
observadas.
Por
ejemplo,
los
monopolos tienen una masa de unos
1016 GeV, y una densidad tal que Ω
debería ser de alrededor de 1016, y no
la unidad.
¿Qué había antes de la singularidad?
Como ρ+3p/c2 >0, el universo se decelera
(ä<0). O sea, como el universo se
expande (a>0), las ecuaciones FRW del
movimiento indican que hay una
singularidad para a = 0, lo que como
hemos dicho se llama big bang.
-
Cuando el tamaño del universo era
comparable a la distancia de Planck
(lP∼1,7 *10-33 cm.) no puede asumirse la
isotropía y homogeneidad, debido a la
incertidumbre cuántica y necesitamos de
una nueva teoría de la gravedad cuántica
para describir su evolución. En ese
momento la temperatura del universo era
mayor que TP∼1,2 * 1019 GeV o 1,4 *1032
K. Desde ese momento el universo se ha
ido haciendo más grande, enfriándose y
en expansión.
a2 = -kc2+8/3 πGρ a2
; asumimos la existencia de un campo
escalar Φ dominado por la densidad de
energía (por ejemplo: ρ =½ (dφ/dt)2+V(φ)
Se asume, también, que la energía
potencial V(φ) es mucho mayor que los
gradientes espaciales y la energía cinética
(derivadas del tiempo). Bajo estas
condiciones:
Esta imagen estándar explica la expansión
del universo, la radiación del fondo de
microondas, la nucleosíntesis cósmica y
la asimetría bariónica del universo, por
ejemplo,
pero
subsisten
algunos
problemas importantes como:
El
universo
se
expande
"cuasiexponencialmente”
(φ
varía
lentamente durante la inflación).
-
-
-
8.Universo inflacionario
En la 2ª ecuación del movimiento de
FRW:
a2 = 8π/3mρl2 ρ a2; y α(t)α exp
(8πρ/3m2ρl)1/2 t = exp(8π V(Φ)/3mρl2)1/2 t
Se cree que el universo en los instantes
iniciales creció muy rápidamente, es la
llamada época inflacionaria. Se piensa
que esto sucedió en la época de la GTU,
t∼10-37 segundos (lo que corresponde a
una energía de 1015 GeV), o incluso antes,
en la época de Planck (t∼10-43 s, 1019
GeV, con un factor de expansión de al
menos e60∼1026. Al final de la expansión
el universo apareció a muy alta
temperatura, lo que requería la
nucleosíntesis. Después la evolución
procedió como predice la teoría estándar
del big bang.
El campo de inflación φ se asume que
obedece a la ecuación clásica del
movimiento:
Cómo las regiones separadas 180º en
nuestro horizonte pueden ser tan
similares, estando situadas fuera del
cono de luz.
Puede demostrarse que si el universo
no
hubiese
sido
inicialmente
extremadamente plano ( Ω igual a 1,
con una aproximación de 1 parte en
1057) el universo hoy día estaría
altamente curvado con un Ω muy
diferente de 1, no entre 0,2 y 2 como
se mide.
Muchas teorías de Gran Unificación
(GTU) predicen partículas como
monopolos, que no han sido nunca
55
d2φ/dt2 +3 H dφ/dt + dV/dφ = 0
y temperaturas extremas; desde entonces
se expande, a la vez que se enfría.
Esto supone una transición desde un
campo cuántico a uno clásico. La fase
lenta dura el tiempo durante el que la
energía cinética del campo es mucho
menor que la energía potencial. La
aceleración (d2φ/dt2) es mucho menor que
el término de fricción y φ se mueve
lentamente bajo el potencial de superficie.
Esto queda cuantificado generalmente
con las condiciones de rodadura lenta:
La baja densidad de monopolos
magnéticos (un monopolo es un polo
magnético, norte o sur, aislado) que
predice el modelo inflacionario resultaría
compatible con las observaciones.
La inflación también resuelve el llamado
problema del horizonte, planteado porque
la distancia del horizonte, distancia total
que debe haber recorrido una señal de luz
desde el inicio del universo, durante la
mayor parte de su historia, es mucho
menor que el radio del universo
observable. En el modelo inflacionario, la
distancia del horizonte (al crecer el
diámetro en un factor quizás 1050 veces
mayor que el estándar), en cualquier
tiempo, es mucho mayor que el radio
observable del universo.
V” ≤ 9H2 = 24πV/m2pl
V/V≤(48π)1/2/mpl
; lo que significa que en la inflación
clásica el potencial es muy plano.
Los
campos
escalares
aparecen
naturalmente
en
las
teorías
supersimétricas (SUSY) descritas por el
universo temprano. Es, por ejemplo,
posible que la transición de fase
comprometida en la inflación sea aquella
en la que la supersimetría se rompe, o que
φ aparece después de que la supersimetría
se ha roto. Esto indica que la
supersimetría ocurre en la escala del
tiempo de la GTU. Desde luego, φ podría
haber tenido otro origen.
Durante la fase inflacionaria la densidad
de materia permanece constante, aunque
desciende la temperatura, estabilizándose
alrededor de los 1022 grados por efectos
cuánticos que aparecen en el contexto de
la relatividad general.
La violación de la tercera hipótesis del
modelo estándar, que suponía que los
cambios ocurridos en la materia o la
radiación eran tan suaves que tuvieron un
despreciable efecto en la historia
termodinámica del universo, constituye la
clave de la inflación.
Según la teoría inflacionaria, en ese
pequeño período que duró una pequeña
fracción de segundo, pudo haberse creado
toda la materia y energía del universo,
virtualmente a partir de la nada. También,
si el modelo es correcto, el universo que
observamos es una porción muy pequeña
de lo que es en toda su integridad.
Cuando se combinan las teorías de gran
unificación con el modelo de la gran
explosión, el exceso de materia sobre
antimateria percibido puede producirse
con naturalidad por medio de las
interacciones entre partículas elementales
a temperaturas un poco por debajo de la
temperatura
crítica de la transición de
fase. Como en las teorías de la gran
El modelo estándar del big bang comparte
muchas características con el modelo
inflacionario. Ambos comenzaron, o
tuvieron su origen hace unos 10.000 o
15.000 millones de años partiendo de una
bola de fuego primigenia, con la densidad
56
El mecanismo a través del cual se
produce la ruptura espontánea de la
simetría en las GTU´s es la introducción
de un conjunto especial de campos en la
formulación de la teoría, conocidos por
campos de Higgs (llamados así en honor
de Peter W.Higg, de la Universidad de
Edimburgo). Si todos los campos de
Higgs son nulos no se rompe la simetría,
sino cuando uno al menos de los mismos
toma valores no nulos. Podemos formular
la teoría de modo que un campo de Higgs
tenga un valor no nulo en el estado de
densidad de energía más bajo, que se
denomina vacío verdadero. Para una
temperatura superior a 1027 grados, las
fluctuaciones térmicas dan el valor cero
como el de equilibrio del campo de
Higgs, con lo que hay una transición
hacia la fase simétrica.
unificación, los cálculos dependen de
muchos parámetros arbitrarios, una
elección razonable de valores para los
mismos puede explicar esa asimetría entre
materia y antimateria. Ahora bien, la
combinación de las dos teorías, a saber de
la gran unificación y el big bang, conlleva
un gran número de defectos que aparecen
durante la transición de la fase simétrica,
a la de simetría rota. Algo similar a la
cristalización de un líquido, pues regiones
diferentes pueden iniciar su cristalización
con orientaciones diferentes de sus ejes
de cristalización. Hay una suavización de
las diferencias de orientación en las
fronteras de dichas regiones, no obstante
es una suavización imperfecta, quedando
defectos locales.
En estas teorías GTU´s, los defectos
puntuales y los superficiales plantean
problemas cosmológicos. Entre los
primeros
están
los
monopolos
magnéticos; entre los segundos, las
llamadas paredes de dominio. Y es que un
dominio interrelacionado en la fase de
simetría rota no puede ser bastante mayor
que
la
distancia
del
horizonte
correspondiente a ese tiempo; de esto,
puede calcularse el número de defectos
que ocurren durante la transición. El
problema es que habría tantos defectos
después de esta transición que su masa
dominaría la densidad de energía del
universo, acelerando la evolución
subsiguiente de forma que la temperatura
actual de 2,7 grados Kelvin de la
radiación de fondo de microondas se
habría alcanzado a los 30.000 años de la
gran explosión, y no a los 10.000
millones de años. Este, pues, es un
problema que habrá que abordar en
cualquier modelo de inflación que
adoptemos;
debe
suprimirse
drásticamente, por algún mecanismo, la
producción de monopolos magnéticos y
paredes de dominio.
El modelo inflacionario fue propuesto por
Alan H.Guth en el año 1980. En un
principio Guth propuso que el universo
contenía, al menos en alguna región, un
gas muy caliente en comparación con la
temperatura crítica de la transición de
fase y además estaba en expansión. En
esas regiones el campo de Higgs era nulo.
La propia expansión provocaría un
descenso de temperatura, originando las
condiciones favorables para que el campo
de Higgs tomara valores no nulos, con lo
que el sistema pasaría a la fase de
simetría rota.
La transición de fase transcurriría más
lentamente que la velocidad de
enfriamiento, así que el sistema podría
enfriarse bastante más de los 1027 grados,
aún cuando, también, el campo de Higgs
sería nulo. (El sobreenfriamiento es
corriente en la física de la materia
condensada
–El
agua
puede
sobreenfriarse hasta 20º grados por
debajo del punto de congelación.
También el vidrio se obtiene mediante
57
verdadero vacío, que crece dentro de una
región del falso vacío. Como la presión
del vacío verdadero es mayor que la del
falso, obliga a la burbuja a aumentar de
tamaño; la presión del vacío verdadero es
nula por lo que la del falso debe ser
negativa. Entonces, la presión negativa es
como una fuerza gravitacional que es en
realidad repulsiva: la expansión de la
región quedaría acelerada y crecería
exponencialmente, doblando su diámetro
cada 10-34 segundos. O sea, que si la era
inflacionaria duró unos 10-32 segundos, el
diámetro del universo se multiplicó por
un factor 1050 o superior. Tras esta
colosal expansión, se presupone que se
produjo la transición a la fase de simetría
rota. Se liberó, entonces, la densidad de
energía del falso vacío obteniéndose una
enorme producción de partículas. El
recalentamiento de la región supuso un
aumento de la temperatura hasta los 1027
grados. A partir de aquí, el modelo sigue
exactamente el del big bang, es decir,
expansión y enfriamiento. La región sería,
entonces, más grande que el universo
actualmente observado, con lo que se
elimina inmediatamente el problema del
horizonte.
sobreenfriamiento rápido de un líquido
hasta una temperatura bastante inferior al
punto de congelación).
Así que ese sobreenfriamiento hará tender
la materia hacia un estado peculiar
llamado "falso vacío". Este estado, no
observado aún, posee propiedades que se
deducen con claridad de la teoría cuántica
de campos.
La densidad de energía del estado,
entonces, se concentra en el campo de
Higgs, y un valor nulo de este campo
implica una gran densidad de energía para
el falso vacío. En una teoría clásica dicho
estado sería absolutamente estable, aún
cuando no fuera el estado de mínima
densidad de energía. Estos últimos
estados estarían separados del falso vacío
por una barrera intermedia de energía, no
habiendo energía disponible para permitir
que el campo de Higgs superara dicha
barrera. Más, en la versión cuántica, el
falso vacío no es absolutamente estable,
pues en la teoría cuántica todos los
campos poseen una fluctuación, así que,
como ya indicó Coleman, de la
Universidad de Harvard, una fluctuación
cuántica sería la responsable de que por
azar, el campo de Higgs de una pequeña
región del espacio atravesase por el
llamado “efecto túnel cuántico” la barrera
de energía anterior, sirviendo de núcleo
generador de una “burbuja” de la fase de
simetría rota. Desde aquí, la burbuja
empezaría a crecer a una velocidad que,
con rapidez, iría acercándose a la
velocidad de la luz, transformando ese
“falso vacío” en la fase de simetría rota.
Además, el problema de la curvatura nula
se solventa, igualmente, al imaginar que
la rapidez de la expansión provoca un
aplanamiento del espacio, igual que la
superficie de un globo se aplana cuando
se hincha. Es decir, el valor del cociente
Ω tiende rápidamente a uno.
En el año 1981, y para resolver las
inhomogeneidades en las fronteras de los
dominios se creó un modelo inflacionario
llamado “nuevo universo inflacionario”.
Sus creadores fueron, por un lado
A.D.Linde, del Instituto de Física
P.N.Lebedev de Moscú, y de otro, e
independientemente Andreas Albrecht y
Lo más característico del falso vacío es el
valor de la presión, muy grande y
negativo. El crecimiento es favorecido, ya
que el vacío verdadero tiene densidad de
energía más baja que el falso. El proceso
es la formación de una burbuja de
58
cero a los distintos campos de Higgs, las
distintas regiones del universo primitivo
darán lugar a diferentes, también, estados
de simetría rota, formando cada región un
dominio de radio inicial igual,
aproximadamente, a su distancia del
horizonte (unos 10-24 centímetros). Como
el factor de multiplicación del radio de la
región aumenta en unos 1050, el tamaño
del dominio después de la inflación
superará los 1026 centímetros.
Paul J. Steinhardt de la Universidad de
Pennsylvania.
En este nuevo planteamiento, lo
fundamental es dar una forma especial a
la función de densidad de energía descrita
por el campo de Higgs. A diferencia del
caso típico, no hay barrera de energía que
separe el falso vacío del verdadero; se
habla entonces de una transición de caída
lenta en rotación desde el falso vacío al
verdadero.
La energía almacenada en la región sería
la almacenada en el campo de Higgs, que
puede describirse como un estado con
gran densidad de partículas de Higgs.
Pero, las partículas de Higgs serían
inestables y se desintegrarían rápidamente
en otras más ligeras, que interaccionarían
entre sí, desintegrándose posteriormente.
El sistema sería pronto un gas caliente de
partículas elementales en equilibrio
térmico, como sucede en el modelo
estándar.
La situación inicial del universo, y de las
regiones calientes del mismo es igual que
en el modelo anterior. La diferencia
estriba en que la intensidad de la
transformación de fase es “muy baja”,
comparada con la intensidad de
enfriamiento, así que el sistema se
sobreenfriará hasta una temperatura más
bien despreciable, manteniéndose el
campo de Higgs en su valor cero, es
decir, en el falso vacío.
Entonces,
serían
las
pequeñas
fluctuaciones térmicas residuales las que
provocarían que el campo de Higgs
dejase de ser nulo. Al no haber barrera de
energía, el valor del campo de Higgs
crecerá uniformemente, asimilándose la
intensidad del mismo al que presenta la
velocidad de una bola rodando por una
colina del mismo perfil que la curva
representativa de la densidad de energía,
sometida a una fuerza de rozamiento. Al
ser casi plana alrededor del punto en el
que el campo de Higgs se anula, el
crecimiento evolutivo es muy lento al
principio.
En este último modelo trata de evitarse
cuidadosamente el punto débil del modelo
inflacionario original. Aquí, las burbujas
aisladas que aparecen en el modelo
original se reemplazan, ahora, por los
dominios. Los dominios de la lenta
transición de caída estarían rodeados no
por el falso vacío sino por otros dominios.
Es decir, no tiende hacia la esfericidad,
evitándose el término “burbuja”. La
diferencia es que ahora cada dominio
sufre la inflación durante su formación,
dando lugar a una región enorme
prácticamente homogénea.
La asimetría materia-antimateria se
produciría por interacciones entre
partículas, después de la transición de
fase. La variabilidad del modelo
inflacionario depende, fundamentalmente,
de la misma variabilidad de las teorías de
Igual que hay muchas posibles
orientaciones para los ejes de un cristal,
hay muchos estados de simetría rota, que
corresponden a los distintos campos de
Higgs al tomar valores no nulos. Por ser
aleatorias las fluctuaciones que sacan del
59
partículas, que como las GTU´s no
conservan el número bariónico.
paredes se mantendría la fase simétrica de
las teorías de gran unificación. Aquellos
protones y neutrones que atravesaran la
pared se desintegrarían al instante. Con el
tiempo estas paredes de dominio se
aplanarían, y los dominios más pequeños
desaparecerían, mientras crecerían los
más grandes.
Al ser las fronteras que separan los
dominios mucho más grandes, los
defectos que se forman en los mismos
como los monopolos caerían a distancias
muy
por
encima
de
nuestras
observaciones. Sin embargo, la necesaria
transición teórica de caída lenta en
rotación exige un ajuste preciso de los
parámetros, lo que supone un cierto
aspecto negativo en la teoría.
En otras versiones de las GTU´s no habría
una formación definida de paredes de
dominio. Estados diferentes de simetría
rota de dos dominios vecinos, se van
entremezclando suavemente y en la
separación de ambos dominios, densidad
y velocidad de la materia poseerían
discontinuidades, o sea, se podrían
encontrar algunos polos magnéticos.
Muchos científicos creen que el nuevo
modelo inflacionario allana el camino
hacia
el llamado “problema de la
suavidad”. Y es que muchos cosmólogos
imaginan que es necesario un “espectro
de inhomogeneidades” (necesarias para la
formación de galaxias, etc., bajo la lenta
acción de la gravedad), casi igual para
todas las escalas de longitud con
significado astrofísico. El nuevo modelo
inflacionario predice la magnitud de las
inhomogeneidades de la densidad, aún
cuando el valor obtenido de la gran
unificación es demasiado grande y no
concuerda con la “uniformidad” que se
observa en la radiación cósmica de fondo
de microondas. Ahora bien, de las nuevas
teorías supersimétricas se deducen
transiciones de fase decaída lenta en
rotación, sin ningún ajuste fino de los
parámetros involucrados.
Otra posibilidad distinta es la que supone
la densidad de energía de los campos de
Higgs, en la que existe una pequeña
barrera de energía, alrededor del punto
cero de Higgs del falso vacío. En esta
variante, el falso vacío se desintegraría
mediante la formación “aleatoria” de
burbujas, que caerán, igual que en la
segunda versión, evolucionando de forma
muy lenta, y la expansión acelerada
seguiría, aunque bastaría una sola burbuja
para albergar todo el universo observado.
Como la intensidad de creación de
burbujas se supone baja, escasearán las
colisiones entre ellas. Las burbujas llenan
una parte del espacio con densidad
cercana a la unidad cuando el sistema
evoluciona, pero el espacio se expande
tan rápidamente que la parte que
permanece en estado de falso vacío
aumenta con el tiempo. Eternamente irán
formándose universos burbuja, y no se
sabrá cuanto tiempo pasará antes de
aparecer la burbuja. Así que ante nosotros
se configura una descripción de modelo
cosmológico que se parece en cierta
forma al del modelo estacionario (que
veremos más tarde) a muy grandes
El modelo inflacionario permite diversas
posibilidades para la totalidad de la
estructura del universo. Para todas, el
universo observable es sólo una parte
pequeña del total, pues el límite de
nuestro dominio estaría a más de 1035
años luz. Una posibilidad es que los
dominios estén en contacto unos con
otros llenando todo el espacio. Los
dominios estarían separados por paredes
de dominio, y en cada una de estas
60
escalas. Aunque nada impide que dentro
de cada burbuja, la evolución sea la de la
gran explosión con su fase inflacionaria.
inflación puede ocurrir naturalmente con
un potencial φ0 arbitrario.
Consideremos,
como
ejemplo,
el
potencial de inflación V =1/4 λ φ4. Si el
universo es inicialmente no homogéneo y
dominado por las fluctuaciones cuánticas
(como sucede durante la era de Planck),
puede esperarse una distribución de φ0
entre –mpl/λ1/4 y mpl/λ1/4. Esto hace que la
lambda tiene que ser bastante pequeña,
siendo fácil obtener regiones en las que φ0
es más pequeña que unas pocas Mpl y casi
homogéneo. En tales regiones las
condiciones de caída lenta, V”/V =12/φ2
<24π/mpl2 y V/V = 4/φ <(48π)1/2/mpl , se
satisfacen y ocurre bastante inflación para
resolver los problemas del horizonte y la
curvatura nula.
Filosóficamente
la
idea
más
revolucionaria del modelo inflacionario
es la de que toda la materia y la energía
del universo observable puede haber
aparecido de la “casi” nada.
9.Inflación caótica
Como sabemos, la imagen de la inflación
estándar del universo incluye un
necesario
ajuste
del
potencial
inflacionario en las condiciones iniciales.
Tampoco es satisfactorio la existencia de
texturas, paredes de dominio y otros
defectos
inobservables.
Finalmente,
incluso la singularidad no pude ser
evitada.
La visión sería: diferentes regiones del
universo se “inflan” más que otras, y a
diferentes rangos, dependiendo de φ0.
Entonces el universo es globalmente no
homogéneo con regiones con diferentes
campos de inflación. Cada región parece
localmente homogénea e isótropa.
Algunas se inflan más rápido que otras;
otras paran la inflación y se “termalizan”
(parecido con lo sucedido en nuestro
universo). Algunas pueden colapsar en
agujeros negros, y otras probablemente
pueden continuar en inflación para
siempre.
La inflación caótica empieza en un
universo no homogéneo, inmediatamente
antes de la época de Planck, 10-43
segundos.
En
esta
teoría
los
requerimientos para las específicas
condiciones iniciales de una determinada
forma de potencial de inflación son más
débiles y el tratamiento de las
singularidades y defectos es más
satisfactorio.
En la época de Planck, las fluctuaciones
cuánticas de la métrica y la densidad son
del orden de la unidad (dρ∼dV(φ)∼Mpl4 ;
donde Mpl es la mas de Planck). Si las
fluctuaciones de las cantidades son del
orden de Mpl4, es natural asumir que
dichas mismas cantidades son de ese
orden: Vφ∼Mpl4. Consecuentemente, el
valor inicial del potencial inflacionario φ0
es típicamente mucho mayor que Mpl (por
ejemplo
V(φ)
=
φ2/2,
luego
2
φ0∼2Mpl >>Mpl. Para casi todos los V(φ)
es fácil tener regiones con φ>Mpl).
Entonces en la inflación caótica, la
Es evidente que incluso con una
distribución
inicial
del
campo
inflacionario al azar, las regiones con más
alto φ podrían dominar pronto el volumen
del universo, y aquellas que han sufrido
inflaciones mayores que varios radios de
Hubble aparecerán homogéneas e
isótropas.
Con la inflación caótica (una inflación
eterna), podemos imaginar un estado
estable del universo, con diferentes
61
la variación de φ bajo el potencial queda
inalterado. Si, sin embargo, φ es grande
las fluctuaciones dominan y por tanto no
puede estudiarse la evolución de φ como
un problema de difusión, y discutir la
fracción del universo con un cierto valor
de φ. Esto está directamente relacionado
con la probabilidad de que un punto del
universo semejante al nuestro exista.
regiones de
continua inflación. La
singularidad puede ser evitada de varias
formas, porque no todo el universo tiene
que decrecer hasta la densidad de energía
de Planck al mismo tiempo. Como
veremos a continuación, partes del
universo pueden aumentar su densidad de
por encima de la energía de Planck y
luego re-disolverse en “espuma cuántica”
Otros universos, o partes del mismo,
pueden “acceder” a la existencia a partir
de esa espuma.
Las fluctuaciones cuánticas enφ obedecen
a una incertidumbre que avanza por saltos
de valor H(φ)/2π (Vilenkin y Ford, 1982).
(Teóricamente cada observador en un
universo de de Sitter en expansión
exponencial es rodeado por un horizonte
de sucesos, y por tanto el universo tiene
una temperatura de Hawking más
parecida a un agujero negro, igual a
H(φ)/2π). Esto da un coeficiente de
difusión D = H3/8π2. Combinando esta
difusión cuántica con el movimiento
clásico del campo se obtiene:
Un universo (o parte del mismo) en el que
la densidad de energía está por debajo del
nivel de Planck, y es por tanto
clásicamente describible, debe satisfacer
ciertas condiciones para que la inflación
sea posible. Estos requerimientos tienden
a ser bastante suaves en la inflación
caótica, mientras que pueden ser
extremadamente severos (y poner
requerimientos poco naturales en las
teorías de la física de partículas del
universo primordial) en otras variantes de
modelos inflacionarios, por ejemplo en la
“nueva” inflación. Esta suavidad proviene
primero del hecho de que la inflación
caótica ocurre mucho antes que en otros
tipos, lo que deja menos tiempo para que
los efectos de curvatura y anisotropía
destruyan el universo antes que la
inflación suceda o pueda prevenírsela, y
en segundo lugar porque hay pocos
requerimientos en la forma del potencial
inflacionario.
∂Pc/∂t=∂/∂φ1/3 (3m2pl/8πV)1/2 (8V2/3m2pl
∂Pc/∂φ+ Pc ∂V/∂φ (1+4V/m4pl)
; donde H2 = 8πV/3m2pl durante la
inflación y Pc es la distribución de φ en
coordenadas comóviles (Starobinsky
1983 en “Interacciones Fundamentales”,
y Starobinsky 1986 en “Teoría de Campo,
Gravedad Cuántica y Cuerdas”).
Casos especiales:
Caso 0: Si la evolución clásica del campo
es omitida, la solución de la ecuación del
movimiento es una distribución gausiana:
Cada región del universo con un
suficiente φ0 homogénea se inflará en e3
esferas
de
Hubbel
casualmente
desconectadas. En cada una de ellas, el
valor del campo φ inflacionario puede
cambiar debido a las fluctuaciones
cuánticas. Si φ0 es demasiado pequeño,
las fluctuaciones en un tiempo de
expansión de Hubble 1/H es mucho
menor que el cambio clásico del campo y
Pc (φ,t) = (2π/3Ht)1/2 exp(-2π2φ2/H3t)
Caso 1: Como un caso simple
consideraremos el potencial V = ¼ λφ4
con la condición inicial φ = φ0 sobre una
región del orden de 1/H (Linde 1990,
62
“Inflación y Cosmología Cuántica”). Para
t<1/λ1/2mpl la evolución clásica es
despreciable y las fluctuaciones crecen
con una anchura de ∆0 ∼ 1/ λ1/2 φ03/m3pl.
Después que el tiempo de dispersión
crezca linealmente con φ ∆(t)∼∆0 φ(t)/φ0
y la distribución en coordenadas móviles
es Pc∼[-(φ-φc(t))2/2∆2(t)] , con el campo
en promedio creciendo exponencialmente
(evolución clásica). La distribución en
coordenadas propias, por comparación,
es:
Pp=Pcexp[3∆t(H(φ)-H(φc))]∼exp[-(φφc)2/2∆2+3B(φ2-φc2)/m2pl] (B=c)
10.Inflación autorregenerante
Los lugares donde no se produce
inflación se mantienen pequeños,
mientras que los dominios donde
acontece
terminan
siendo
exponencialmente grandes, dominando el
volumen total del universo. Como los
campos escalares pueden tener valores
arbitrarios en el universo primigenio, a
este tipo de inflación se llamó caótica.
Más tarde se vio que la inflación no es un
fenómeno exótico, sino un régimen
general que tenía lugar en una amplia
clase de teorías de partículas elementales.
Por tanto, hay una fracción de universo
que tiene inicialmente un suficiente φ, en
el que φ crece continuamente, y el
volumen propio de esta fracción crece
como exp(3-ln 2)Ht. Cuando V(φ) tiende
a Mpl4, estas partes del universo no son
más grandes que la descripción clásica y
puede decirse que vuelven a la espuma
cuántica.
Si la densidad del universo difiriese
bastante de la densidad crítica, propia de
un universo plano, la cosmología
inflacionaria se vería en un aprieto. (De
posible resolución, pero complicado).
Más, algunas versiones (en especial la
teoría de Supercuerdas) de la teoría de
partículas nos llevan directamente a la
inflación, y para obtener esta última
debería requerirse nuevas ideas. Y es que
la propia teoría inflacionaria cambia con
la evolución de la teoría de partículas.
Nuevos modelos incluyen la inflación
generalizada, la inflación natural, la
híbrida y otras.
Hay muchas interpretaciones y muchas
discusiones concernientes a la evolución
de φ en un universo eterno. La inflación
caótica es, quizás, uno de los más simples
marcos en los que la inflación eterna
puede aparecer. Otro caso interesante es
el del “universo reciclado” de Garriga y
Valenkin (1997), en el que la inflación
envuelve una transición de fase desde el
falso al vacío verdadero, y las burbujas de
falso vacío pueden renuclearse en el vacío
verdadero termalizado (por ejemplo, en
partes del universo posinflacionario como
nosotros). Estas burbujas de falso vacío
luego se inflan hasta que las burbujas de
vacío verdadero se forman en ellas. Hay
también consideraciones sobre creación
de universos nacientes, en agujeros
negros o en el laboratorio.
Así se llega a la teoría del universo
inflacionario autorregenerante y eterno.
Se puede imaginar como ondas las
fluctuaciones cuánticas del campo escalar
del universo inflacionario, que al
principio se mueven en todas direcciones,
fijándose luego unas encima de otras, e
incrementando ligeramente cada onda el
valor del campo escalar en ciertos lugares
y disminuyéndolo en otros.
63
Comentario:
Comentario:
explosión es
inflacionario.
Las regiones en que se incrementa de
“forma persistente” el campo escalar,
aunque poco probables, existen, y
empiezan a expandirse con celeridad
creciente.. Y además, cuanto más suba
dicho campo, con mayor velocidad se
expande el universo; en poco tiempo esos
dominios, por un lado poco probables,
adquieren un volumen mayor que el resto.
parte
del
modelo
Y el modelo puede ser, ciertamente, más
complejo, pues, hasta ahora, sólo se ha
considerado un solo campo escalar con,
únicamente, un sólo mínimo de su
energía potencial, pero los modelos de
partículas proponen distintos tipos de
campos escalares (en las teorías
unificadas, por ejemplo, de las
interacciones
débil,
fuerte
y
electromagnética existen como mínimo
otros dos campos escalares), los cuales
presentan diversos mínimos en la energía
potencial de los mismos. Eso es lo mismo
que decir que la misma teoría puede tener
otros “estados de vacío”, referentes a
diferentes tipos de ruptura de simetría, y
consiguientemente, diferentes leyes de
baja energía.
De
la
teoría
inflacionaria
autorregenerante se infiere, que si existía
en origen un dominio inflacionario de
suficiente
tamaño,
seguirán
produciéndose
nuevos
dominios
inflacionarios. Aunque en algunos puntos
puede acabar deprisa, en otros continuará
su expansión. Así que el volumen total de
todos estos dominios va creciendo, o sea,
se crean más burbujas, que a su vez
producen más burbujas, por eso Linde
llamó inflación eterna a este proceso. Se
mantiene como una reacción en cadena,
produciendo una estructura fractal; así
que el universo global es inmortal. Cada
región podría surgir en una singularidad
del pasado y terminar en otra singularidad
en el futuro; pero en conjunto no hay fin
para la evolución del universo. O sea,
universo
estacionario
globalmente,
aunque el interior de cada burbuja se
describa por la teoría del big bang.
Así que es fácil imaginar que, después de
la inflación, el universo podría quedar
partido en dominios exponencialmente
grandes, los cuales poseerían, cada uno,
leyes de baja energía distintas.
Las fluctuaciones cuánticas grandes
pueden hacer que los campos escalares
“pasen” fuera del mínimo, incluso
podrían variar el número de dimensiones
del espacio-tiempo. La misma teoría
puede dar lugar a regiones del universo
que posean propiedades distintas, aunque
comiencen en el mismo estado. Por
ejemplo, nosotros estamos en un dominio
tetradimensional que tiene nuestro tipo de
leyes conocidas, pero que podría tener
otras, con distinta dimensionalidad y
propiedades pero con la misma
probabilidad (aunque estas últimas no
fueran compatibles con nuestra vida).
Lo que no parece clara es la cuestión del
origen. Realmente, existe la posibilidad
de que todas las partes del universo se
crearan
simultáneamente
en
una
singularidad inicial del tipo de la gran
explosión, aunque para la teoría esta
hipótesis no es obvia, por el contrario, el
universo total de burbujas en inflación va
creciendo exponencialmente con el
tiempo, dentro de ese “árbol cósmico”.
Ahora parece más lógico pensar que no es
la inflación la que forma parte del modelo
estándar, sino, al revés, que la gran
Linde elucubra en el sentido de que,
quizás el entendimiento de todas las
propiedades de nuestro dominio requiera
64
no sólo conocimientos de física sino de
nuestra propia naturaleza, tal vez de
nuestra consciencia. Añade que “nuestra
casa cósmica crece,fluctúa y se reproduce
eternamente de todas las maneras
posibles, como si se ajustara por sí misma
a todas las posibles formas de vida que en
ella puedan habitar”.
65
Como el radio de curvatura no puede
cambiar con el tiempo, sólo puede ser
infinito, o sea, la geometría espacial es la
misma que en un universo de densidad
crítica de dicho modelo del big bang.
Capítulo IV.
OTROS MODELOS COSMOLÓGICOS
1.Modelo del estado estacionario
Este modelo fue propuesto por Herman
Bondi, Tommy Gold y Fred Hoyle en el
año 1948. Se basa en una discusión
filosófica sobre el llamado “Principio
Cosmológico Perfecto” en el que el
universo, además de ser homogéneo en el
espacio, presenta el mismo aspecto medio
en cualquier tiempo. Hoyle trató de
enmarcar esta idea en un modelo físico
introduciendo un campo de creación
continua de materia, lo que se llamó
campo C. En la idea original ello
implicaba la creación de un átomo de
hidrógeno por metro cúbico en un período
de 1010 años. Posteriormente Hoyle y el
astrónomo hindú Narlikar, buscaron esa
creación continua de materia en regiones
del
universo
con
intensidades
significativas del campo gravitatorio
como el núcleo de galaxias activas y
cuásares. La teoría nació para resolver
problemas del momento como la
incompatibilidad de las medidas de la
constante de Hubble y la edad del
universo obtenida de los objetos celestes
en él contenidos.
Para que el universo muestre el mismo
aspecto en cualquier instante, la densidad
de materia ρ debe ser constante en el
tiempo. Puesto que un volumen dado del
universo aumenta en un instante dt
proporcionalmente a 3 a2 da, la cantidad
de materia n por unidad de volumen
variará con el tiempo como:
dn/dt = -3n a-1 da/dt+ dn(creada)/dt
Como la variación por unidad de volumen
debe ser cero (densidad cte.), será:
dn(creada)/dt =+3n a-1 Ha = 3nH
Esto implica que un observador ve un
ritmo de creación de materia de forma
que en un tiempo de Hubble se renueva la
misma en promedio tres veces. Así que la
edad media de las galaxias no puede ser
mucho mayor en promedio de 1/3H.
Este modelo, pues,
predicciones precisas:
hace
algunas
1. Creación de materia. No ha sido
observada, puesto que la tasa es tan baja
que
puede
quedar
perfectamente
desapercibida.
2. Homogeneidad temporal del universo
a gran escala. Sin embargo parece que las
observaciones muestran una diferencia
entre la parte del universo con
desplazamientos al rojo del orden de 2-3,
donde es observada una mayor densidad
de cuásar, y las zonas del universo con
bajo desplazamiento al rojo.
3. Incremento del número de fuentes
luminosas con la distancia. En una
distribución homogénea de objetos del
Si el universo tiene el mismo aspecto en
cualquier época, la cte. de Hubble debe
ser “realmente” constante, o sea:
V = da/dt = Ha que tiene una solución
exponencial para el parámetro de
expansión: da/a = H dt que integrada da
l(a)+C =H(t), es decir a(t) = exp[H(t-t0)]
Esa expresión es del mismo tipo que la
del modelo de Sitter, aunque aquí se
obtiene a partir de un principio de
simetría, y no de una de las posibles de
las ecuaciones de Friedman del big bang.
66
mismo brillo, para un flujo 4 veces menor
se cuentan 8 veces más objetos. En el
modelo del big bang, las fuentes caen por
debajo de esa predicción en un factor
aproximado de (1+z)-4.
2.Modelo relativista del big bang
Esta predicción asume que el número de
fuentes se conserva, o sea, que una
sección del universo contiene el mismo
número de fuentes en cualquier instante
del universo. Como el volumen del
universo disminuye según un factor
(1+z)-3 al superarse la densidad de fuentes
cte., la corrección en este modelo debe ser
de un factor (1+z)-7.
Afirma que el modelo estándar del big
bang tiene los siguientes problemas:
Firmado por Laymans en la Web, estamos
ante un modelo que aplica la relatividad
hasta sus últimas consecuencias.
1. El proceso por el que empezó el big
bang y la física envuelta en ese primer
momento están sujetos a debate. El
modelo estándar no da una respuesta
directa, sino que simplemente presupone
un número de condiciones específicas que
incluyen un estado comprimido a alta
temperatura basado en la evidencia.
Algunas fuentes de este estado inicial lo
suponen como un globo de partículas
atómicas, otras suponen un estado muy
comprimido donde la temperatura es tan
alta que toda la materia de la totalidad del
universo está comprimida en un tamaño
menor que un átomo. El modelo
inflacionario del big bang dice que la
fuente es un “falso vacío”.
2. El problema del horizonte. Algo ya
expuesto con anterioridad y que se
supone resuelto por el modelo
inflacionario.
3. El futuro del universo mismo está en
cuestión. Sabemos que el modelo
estándar parte primero de la ley de
Hubble, y después de la ecuación de la
suma total de energía del universo que
incluye la energía cinética y la potencial
Etot = EK-Ep = mv2+GMm/r, que ya ha
sido suficientemente expresada.
El big bang tiene déficit de fuentes
débiles que puede subsanarse relajando la
conservación del número de fuentes por
la existencia de un exceso de radiofuentes
entre 1 y 3 Gigaños después del big bang.
Sin embargo, el modelo del estado
estacionario tiene un déficit de fuentes
débiles aún mayor, sin que tengan ningún
parámetro ajustable para corregir tal
error.
Más el descubrimiento de la radiación del
fondo cósmico de microondas ha
supuesto un duro golpe a este modelo del
estado estacionario, pues en éste el
universo fue siempre igual, sin que
hubiera lugar para que se produjera esta
radiación de fondo de microondas con
característica térmica de cuerpo negro.
Podría invocarse la existencia de
partículas de longitud milimétrica en el
espacio intergaláctico, que pudieran
absorber la radiación producida por
fuentes galácticas muy luminosas, pero,
quizás, esta hipótesis sea demasiado
forzada.
De acuerdo con la formulación
matemática derivada de H y Etot, el
universo puede o no expandirse por
siempre. Si no hay bastante masa, o, si el
universo tiene menos masa que la
densidad crítica se expandirá para
siempre. Si el universo tiene la densidad
crítica, su expansión será tan alta como
67
hoy día. Si la densidad está por debajo de
aquella, el universo retrocederá en su
movimiento y eventualmente colapsa en
el llamado “big crunch”, con lo que
podría concebirse un nuevo principio o un
nuevo período de expansión repitiendo el
big bang (parecido al modelo de George
Gamow). Esto nos daría la respuesta a la
“causa” del big bang. Existiría por
siempre.
Laymans nos dice que la velocidad inicial
de escape sea infinita (más grande que la
velocidad de la luz).
4. La velocidad de la luz es considerada
sólo un fenómeno local con implicaciones
en la expansión del espacio.
5. La aparente edad del universo está en
cuestión. Los astrónomos están tratando
de explicar la aparente madurez de los
primitivos objetos del universo. Muchas
galaxias profundas parecen ser muy
similares a nuestros más viejos “vecinos”.
El espectro de muchos viejos objetos
enseña la misma distribución de
elementos pesados que nuestros vecinos.
Los elementos pesados son sólo creados a
través de la creación y decaimiento de
estrellas, lo que requiere billones de años
para la aparición de esos elementos.
Recientes observaciones indican un rango
de expansión más alto en el universo más
joven, así que el universo debería ser más
joven todavía.
De acuerdo con estas ecuaciones, el único
universo que puede definirse que no esté
decelerando, es un universo vacío que
contiene luz pero no masa. La cantidad
conocida de masa restante en nuestro
universo presenta un efecto de
desaceleración, pero no lo bastante para el
big crunch. Recientes observaciones
indican que la expansión del universo no
se retarda, es más “puede estar
acelerándose”. La comunidad científica se
inclina a adscribir este efecto a la llamada
“contante cosmológica”(que ya vimos).
Este modelo relativista del big bang
asume un big bang inicial y un espacio en
expansión donde se aplica la constante de
Hubble, sin embargo, en él la velocidad
de la luz se toma como absoluta,
siguiendo las matemáticas de la teoría
especial de la relatividad.
Algunas ecuaciones de la Etot pretenden
derivarse de ecuaciones usadas en
relatividad general, aunque Laymans cree
que no son derivadas de forma rigurosa
de las mismas, ya que deberían justificar
la eliminación de los factores relativos a c
y los altos campos gravitacionales., y
justificar cómo esos factores no tienen
efectos sobre los resultados. (En este
sentido, esta teoría explica que las
ecuaciones usadas en la relatividad
general pueden ser relacionadas con las
utilizadas en la restringida si y sólo si los
campos de gravitación son débiles).
Obviamente, las velocidades son muy
altas (al menos c) y los campos de
gravitación están cercanos a infinito en el
big bang. Como la distancia se aproxima
a 0, Ep se aproxima a infinito, porque algo
dividido por 0 es infinito. La energía
cinética, por tanto, debe volverse infinito
para que la Etot se mantenga positiva.
Concretando, este modelo asume lo
siguiente:
A. El universo empieza como una
pequeña “singularidad” caliente,
posiblemente un fotón con toda la
masa/energía del universo; su fuente
es desconocida.
B. Las leyes de la teoría especial de la
relatividad (TSR) son aplicadas en su
totalidad. Las matemáticas de la TSR
son aplicadas rígidamente a la
velocidad de la luz. Es una velocidad
máxima absoluta para todas las
entidades en el universo. Es un
fenómeno galáctico no un fenómeno
68
local como se supone en la teoría
estándar y la inflacionaria.
C. Las leyes de la relatividad general
(TRG) son aplicadas; la velocidad de
propagación del campo gravitatorio
es c.
D. La constante de Hubble aplicada es v
= H*r, en cualquier época, aunque el
actual valor de H cambia en cada
período.
c, justo como un “universo vacío”. Éste es
el corazón de la teoría.
La relatividad general añade otro factor a
k definiendo los efectos relativistas de la
gravedad.
Por último, resumir las respuestas dadas
por la teoría:
1. El modelo estándar no da la fuente del
big bang. Podrían ser los campos de
Higgs como sugiere Alan Guth en la
teoría inflacionaria, pero ¿entonces,
cuál es la fuente de los campos de
Higgs?
2. El problema del horizonte. La teoría
no cree razonable asumir que el
universo progresaría hacia un estado
de uniformidad en rangos de
expansión lento. Esta teoría evita el
problema del horizonte asumiendo
una condición inicial de fuente simple
y un rango de expansión c, durante el
tiempo de formación del resto de la
masa. Después de ese período, el
universo se mantiene homogéneo por
los efectos de la gravitación relativista
con un pequeño, pero rápido
crecimiento de la escala. Esta última
se disipa al cabo de un tiempo de
alrededor del 10% de la edad del
universo.
3. El futuro del universo es conocido. El
universo se expande y crecerá para
siempre (los científicos están llegando
a la misma conclusión, pero están
forzados a aceptar la constante
cosmológica o de hecho la
antigravedad).
4. En esta teoría, el espacio no se
expande independientemente de los
objetos situados dentro y no hay
velocidades infinitas. La velocidad
máxima es la velocidad de la luz, c,
que está en total acuerdo con la teoría
relativista especial de Einstein.
En el principio del big bang se considera
que sólo existía un fotón con toda la
masa/energía del universo y a una
temperatura en el rango de 1036 Kelvin.
El universo empezaría en expansión en c,
porque es la normal y única velocidad
medible incluso aunque el espacio
estuviese altamente curvado al ser el
campo gravitacional extremadamente
alto.
Dicho universo comenzaría con un alto
grado de uniformidad por partir de una
sola “fuente” en su condición inicial (un
fotón) y la precisa expansión relativista c.
Como el universo se expande, se enfría
hasta los 1026 Kelvin donde la síntesis
podría ocurrir. Debido a que el universo
era tan uniforme por la simplicidad de sus
condiciones iniciales, se desarrollarían
pocos monopolos magnéticos.
Cuando los parámetros relativistas de
STR son tomados en cuenta en su
totalidad, la ecuación para la energía
cinética es Ek = kmc2-c2, donde k=1/(1v2/c2)5. Cuando v se aproxima al valor de
c, k se aproxima a infinito y hace que Ek
se aproxime a un infinito positivo. Luego
Etotal siempre se vuelve positiva, como se
requiere para permitir que el universo
continúe expandiéndose. Esta condición
persiste a través de la vida de nuestro
universo. Por tanto el universo empieza y
continúa expandiéndose con la velocidad
69
“Aunque las leyes del espacio gobiernan
todo dentro del universo, éstas
gradualmente no se debilitan y disipan;
existen o no existen. Donde las leyes no
existen ninguna masa o energía puede
existir, por tanto no hay espacio. El borde
del universo no es una barrera, es
simplemente donde las leyes del universo
acaban."
5. La edad del universo no depende de la
densidad del mismo, sino de H. El
universo tiene entre 15 a 20 billones
de años y es más viejo en el 50% que
lo que el modelo de densidad crítica
del modelo estándar predice.
La velocidad de expansión en este
modelo es c, la velocidad de la luz,
que es también la velocidad del
modelo estándar en el caso especial
de masa nula. La edad del universo en
esta teoría es simplemente la misma
que el radio en años luz (20 billones
de años hoy) basado en una cte. de
Hubble de 50 km/s Mpc.
“El universo es como una esfera con las
leyes de la naturaleza dentro, gobernando
y unificando todo dentro de la esfera. Las
leyes de la naturaleza crean espacio como
sabemos. Fuera de la esfera, más allá del
borde del universo, nada puede existir, ni
las leyes del espacio, por tanto nada
puede existir. Incluso el espacio mismo
no existe”.
3.Modelo de la aceleración de la
expansión
Este modelo
L.Hamilton.
es
debido
a
“Dentro del universo no hay sitio donde
podamos ir sin ser constantemente
bombardeados por la radiación, las
partículas de alta energía o sin sentir los
efectos de la inercia. Siempre estamos
bajo la influencia de las leyes universales
del espacio. Mientras los más poderosos
telescopios nos adentran más de 10
billones de años luz en el espacio, el
tamaño actual del universo es mucho
mayor, quizás de cien billones de años
luz”.
Donald
Según el autor, los resultados del
experimento de Michelson, Morley (base
de la relatividad restringida einsteniana)
indican, realmente, que la materia no se
mueve respecto al espacio, por lo que no
serían necesarias las contracciones de
Fitzgerald/Lorentz. Lo que sucede es que,
aunque los cuerpos no se mueven
relativamente al espacio mismo, su
masa/energía fluctúa a diferentes “niveles
de energía del espacio”. El cambio en
“masa relativista” de un cuerpo indica
cambios en el “nivel de energía del
espacio” del cuerpo.
“La inercia es un requerimiento del
“espacio universal” (“Espacio universal”
es todo el espacio del universo). Es el
mismo “espacio universal” el que
requiere que una fuerza sea ejercida sobre
un cuerpo, para acelerarlo. Es el
“requerimiento inercial del espacio”.
La “masa en reposo” sólo indica la masa
del cuerpo en la tierra, dentro de nuestra
porción de nuestra galaxia. En otras
galaxias o incluso en otras partes de
nuestra galaxia la masa en reposo puede
ser diferente.
Y seguimos añadiendo
comentarios del autor.
los
“Debe ser gastada energía en un cuerpo
para aumentar su nivel de energía. El
cuerpo debe gastar energía para bajar su
nivel de energía. El camino es éste, radiar
energía”.
propios
70
“Los cuerpos en el espacio, desde los más
pequeños a los más grandes, se mueven
sólo en relación con otros cuerpos. No
hay en absoluto movimiento entre un
cuerpo material y el espacio mismo. Esta
es la conclusión
del resultado del
experimento de Michelson-Morley”.
“La masa de un cuerpo material no tiene
nada que ver con la masa física actual del
mismo, es sólo una indicación del nivel
de energía del cuerpo en el espacio.
Ciertamente la materia de un cuerpo, por
ejemplo, podría tener mucha o poca masa
dependiendo de su nivel de energía del
espacio”.
“Un cuerpo que tiene muy bajo nivel de
energía del espacio tiene poco poder
gravitacional. El mismo cuerpo viajando
a una velocidad cercana a la de la luz
tendría tremenda masa y poder de
gravitación. Su nivel de energía del
espacio podría ser muy alta”.
“De acuerdo con las leyes de la
gravitación de Newton, la masa de un
cuerpo determina la cantidad de fuerza de
gravitación que posee el cuerpo. (Es la
masa inercial, no hay masa gravitacional
excepto cuando se usa para describir el
peso de un cuerpo). Por tanto, los
requerimientos
inerciales
son
responsables de la creación de la fuerza
de gravitación. Las leyes de inercia, por
tanto, crean gravedad y determinan la
cantidad de poder gravitacional que posee
el cuerpo. La gravedad es una fuerza
primaria de la naturaleza pero emana de
la Ley de la Inercia. La gravedad depende
de la Inercia para su existencia pero no es
equivalente a ella.”
“Debido al constante incremento de su
nivel de energía del espacio, debido a la
aceleración de las galaxias en el espacio,
las estrellas que las componen
continuamente
emiten
tremendas
cantidades de energía de radiación en
orden a estabilizar su nivel de
masa/energía. La cantidad de radiación
emitida es proporcional a la velocidad de
las galaxias. Una correlación a este
fenómeno puede ser observada en un
ciclotrón cuando una partícula acelerada
emite espontáneamente ondas de luz
cuando se aproxima a la velocidad de la
luz. Esta radiación sincrotrón causa que la
masa/energía de la partícula (nivel de
energía
del
espacio)
baje
automáticamente”.
“La masa y el poder gravitacional de un
cuerpo crece con la velocidad en el
espacio. Un cuerpo con un bajo nivel de
energía tiene poco “requerimiento
inercial”, y por tanto muy poca atracción
gravitacional”.
“Lo anterior puede ser la razón por la que
las estrellas sólo se forman en galaxias. El
polvo y gas intergaláctico puede no tener
bastante masa (bastante nivel de energía
del espacio) y por tanto, suficiente poder
de gravitación para formar estrellas. Sólo
cuando una galaxia “acelera” esta
materia, su masa y por tanto la atracción
gravitatoria se vuelve más fuerte para
formar una gran protoestrella y con la
compresión suficiente para empezar una
reacción de fusión nuclear”.
Y como conclusión nos dice lo siguiente.
“Al contrario que en el big bang estándar
que depende de una tremenda explosión
inicial para producir el universo, en esta
teoría “simplemente” las galaxias caen
(acelerándose) hacia las fronteras (borde)
de nuestro universo finito. ¡Alguna suerte
de fuerza está originando que las galaxias
se aceleren!” (Según las últimas
informaciones las galaxias parecen
acelerarse).
71
Hoyle (uno de los creadores de la teoría
del estado estacionario).
“Hay una “Fuerza Super Atractiva” en el
borde del universo que potencia el
universo. Es la principal fuente de toda la
energía del universo. Aunque es similar a
la gravedad no es gravedad. Una
diferencia principal es que esta
Superfuerza atractiva ejerce su fuerza en
la materia misma, no en la masa de la
materia, como hace la gravitación”.
Sin embargo, la teoría de Lemaître
anterior fue criticada en el sentido de que
debido a la gravitación universal, la
velocidad inicial de los cuerpos del
universo iría disminuyendo, llegando a
cero y posteriormente cambiando su
sentido, concentrándose nuevamente toda
esta materia para volver a estallar de
nuevo en un movimiento cíclico de largo
período. Estaríamos entonces en un
universo “pulsante”.
“La Superfuerza origina que todas las
galaxias se aceleren hacia el borde del
universo bajo la completa influencia de la
inercia (el inercial requerimiento del
espacio). Como los cuerpos se aceleran,
adquieren masa y por tanto poder
gravitatorio”.
Quien primero habló de un universo
pulsante u oscilante fue el físico Richard
Tolman, del Instituto Tecnológico de
California, cuyos trabajos se publicaron a
primeros de los años 30. Un universo
pulsante es cerrado, y no desaparece
después de colapsar, sino que inicia un
nuevo ciclo de expansión; el proceso se
reitera, pasando por muchos ciclos. Si el
universo fuese pulsante sería más viejo
que el actual, pues se calcula una
duración sólo de la fase de expansión de
10.000 millones de años.
4.Modelo del universo pulsante
Hace 75 años Georges Lemaître,
astrónomo belga, propuso su famosa
teoría en la que hace miles de millones de
años toda la materia y energía estaban
comprimidas
en un gran átomo
primigenio, ocupando un espacio
semejante al de una esfera cuyo diámetro
era la distancia de la Tierra al Sol. Los
cálculos decían que su temperatura, si
fuera de energía, debería alcanzar 10
millones de grados, y si estaba compuesto
de materia, ésta habría tenido propiedades
totalmente distintas a las que observamos
ahora.
En cada ciclo se producen colapsos
gravitatorios de conjuntos que se
comprimen y vuelven a disiparse, para
volver seguidamente a materializarse. El
sistema trabajaría en sistema cerrado
dentro de un universo pulsante, es decir,
en un eterno retorno, sin fin dentro del
tiempo pero cuyo límite espacial quedaría
fijado por las más lejanas regiones hasta
las que llegarían las explosiones al
detenerse e iniciar las contracciones.
Toda esta materia quedó esparcida tras
una fantástica explosión. La condensación
de la materia posterior debida a la
gravitación, había creado galaxias y
estrellas, continuando su expansión para
siempre. El universo no tendría límites.
El modelo presenta la dificultad evidente
de la segunda ley de la termodinámica
que afirma el incremento de la
desorganización interna de cualquier
sistema aislado, hasta el estado de
máximo desorden. Después de numerosos
En los años cuarenta del pasado siglo
George Gamow revisó la misma, siendo
rebautizada en plan despectivo como
teoría del big bang por el astrónomo Fred
72
ciclos, debería esperarse que un universo
pulsante fuese más caótico que el
universo observado. Tolman que conocía
el problema, opinaba que era casi
imposible aplicar como un todo al
universo “el estado de máximo
desorden”.
5.Modelo cósmico de la “fuerza
nuclear”(o “teoría unificada del
espacio-tiempo-masa”)
Este modelo fue presentado por el
“Ghassemi Institute For Technology
Transfer” (GIFTT) a la American
Physical Society en Long Beach en el año
2000.
La máxima popularidad de este modelo
fue a fines de los años cincuenta y
comienzos de los sesenta del siglo XX,
hasta el punto que llevó a Robert Dicke a
predecir la radiación cósmica de fondo de
microondas. En opinión de Dicke el
universo en las fases de contracción
máxima
de cada ciclo tendría que
alcanzar al menos los 10 millones de
grados para que pudieran desintegrarse
todos los elementos pesados y reconvertir
la materia del mismo en hidrógeno puro;
si no hubiese sido así, las reacciones
nucleares en las estrellas habrían ya
transformado gran parte de la materia del
universo en los elementos pesados, algo
no observado en la actualidad. A esta
temperatura de 10 millones de grados, las
reacciones de las partículas subatómicas
tendrían la velocidad necesaria para
producir una radiación antirradiante.
La teoría propone una solución para la
materia “perdida” del universo. Establece
que la fábrica del espacio-tiempo es otro
estado de la materia que equivale a masa.
Por tanto, la nueva fábrica del espaciotiempo se “llena” del vacío del universo.
La simple prueba de esta teoría se basa en
todas las presentes observaciones
científicas y cálculos de la moderna
astronomía y física, que dicta la
existencia de alguna clase de materia
oscura o neutrinos masivos. La materia
oscura es necesaria para explicar el 80%
de la masa perdida del universo.
El problema es que, incluso los neutrinos
masivos y la materia negra puede no
explicar el total de la masa perdida del
universo. El volumen del espacio-tiempo
es masivo porque esta lleno de materia.
Por tanto, el 80% de la masa perdida del
universo es realmente la masa equivalente
del espacio-tiempo total que llena el
cosmos entero.
Pero el modelo cayó en desgracia
definitivamente cuando un trabajo de
Roger Penrose y Stephen Hawking (de la
Universidad de Cambridge), probó la
“inexistencia” del mecanismo “plausible”
capaz de producir dichas pulsaciones. El
trabajo de Penrose y Hawking, en
realidad, no eliminaba los universos
pulsantes, sino que simplemente suprimió
los modelos de universos pulsantes u
oscilantes existentes hasta ese momento,
al anular la justificación científica de los
mismos.
La hipótesis de la teoría, llamada de la
masa-espacio-tiempo unificada, explica
un universo en el cual todo (materia,
energía, espacio, tiempo) está hecho de
cada uno de los otros y todos son de la
misma naturaleza.
Otra prueba de esta teoría es la existencia
de la fuerza nuclear. En realidad, los
misteriosos “gluones” que se presume
mantienen unidos a los núcleos, no
73
existen. La presión universal del espaciotiempo es la responsable de la fuerza
nuclear observada.
relación entre la métrica y el espacio y el
tiempo debería permanecer constante
durante la expansión cosmológica y todas
las localizaciones cosmológicas en el
tiempo podrían ser equivalentes, si la
métrica de ambos espacio y tiempo se
expande. La teoría de la expansión de la
escala del tiempo afina los modelos de
universo que observamos y ofrecen una
simple y directa explicación para muchos
enigmas cosmológicos.
El espacio-tiempo tiene masa y presión, y
matemáticamente tiene propiedades de un
líquido.
Se propone un modelo de universo
parecido a una estrella gigante; la relación
entre la fuerza nuclear “P” y la masa y
radio del universo puede ser calculada.
En este modelo la expansión del universo
que en el modelo estándar hacía cambiar
la métrica del espacio con el tiempo,
posee otro modo de expansión que no
implica un acontecimiento de tipo
creación por el big bang.
Si el universo es una gigantesca estrella
parecida al Sol, la presión en el centro del
universo Pu está dada por:
Pu = 1,23 * 1016 (R sol/Ru)4 (Mu/Msol)2
En esta teoría, la métrica del espacio y el
tiempo están multiplicadas por el mismo
factor positivo, la “escala” del
espaciotiempo se dice es cambiada por un
“factor de escala”.
; donde Rsol y Msol son el radio y la
masa, respectivamente, del Sol. Ru y Mu
son el radio y la masa, respectivas, del
universo.
Esta presión Pu es igual a la Pn de la
fuerza nuclear fuerte, Pu = Pn.
El “espaciotiempo absoluto” denota un
espaciotiempo con constantes métricas
para ambos espacio y tiempo. Si sólo la
métrica del espacio es constante, el
espaciotiempo es llamado “espacioabsoluto” y si solamente la métrica del
tiempo es constante, “tiempo-absoluto”.
El espaciotiempo del universo de Newton
es absoluto. Usualmente se asume que el
universo tiene un tiempo-absoluto pero
no espacio-absoluto. En la teoría de la
expansión de la escala del cosmos, en el
universo no hay espacio ni tiempo
absolutos.
Y poniendo los valores de Rsol y Msol
queda:
Pn = 5,89 * 10-26 Mu2/Ru4
La fórmula anterior es la primera relación
clásica entre la fuerza nuclear, la masa y
el tamaño del universo.
6.Modelo de la expansión de la escala
del cosmos
Este modelo se debe a C.Johan Masreliev,
y de forma resumida nos dice lo
siguiente.
Una “localización fundamental” es una
localización en el espacio en reposo
relativo al promedio de las partículas en
el universo.
El modelo del big bang asume que el
universo se expande continuamente
cambiando la relación entre la métrica del
espacio y el tiempo. Sin embargo, la
Un “observador fundamental” es un
observador
estacionado
en
una
74
“localización fundamental”. “El tiempo
natural” en cualquier localización
fundamental es el tiempo medido por un
reloj atómico estacionario.
Hay en la teoría
fundamentales:
dos
y la relación de las líneas espectrales. En
efecto, debido a la constancia de la
velocidad de la luz postulada en P2, el
paso del tiempo debe decrecer cuando la
métrica espacial se expanda. Esto sugiere
que la métrica natural del espacio y el
tiempo se expande simultáneamente y que
la expansión cosmológica puede tener
lugar cambiando continuamente la escala
del espaciotiempo. El cambio de escala
del espaciotiempo, por tanto, implica
cambiar la escala de los objetos
materiales.
postulados
P1. Se aplica el principio de equivalencia
(Todas las localizaciones en el universo
son equivalentes).
P2. La medida de la velocidad de la luz es
constante
relativa
a
todos
los
observadores fundamentales.
La escala de la expansión es simétrica en
el espacio y el tiempo. El paso del tiempo
es controlado por la expansión espacial y
viceversa. Un observador fundamental en
la expansión de la escala del tiempo,
experimentará exactamente el universo
como lo experimentamos. La distancia de
las galaxias parecen retroceder con
velocidades que crecen linealmente con la
distancia.
La
expansión
cosmológica
es
comúnmente visualizada como galaxias
en recesión con velocidades que crecen
linealmente con sus distancias de acuerdo
con la Ley de Hubble (Hubble, 1929). El
tiempo natural en las localizaciones
fundamentales se asume como absoluto.
Sin embargo, esta imagen implica que las
propiedades del espaciotiempo deben
cambiar con el tiempo que viola el
postulado P1. De acuerdo con este
postulado las distancias entre los
observadores fundamentales no pueden
cambiar con el tiempo. Sin embargo, el
cosmos observable parece expandirse. El
único camino en el que la expansión
puede tener lugar sin cambiar las
distancias es cambiando continuamente la
métrica del espacio sin cambiar las
posiciones coordenadas relativas. Esto
implica que puede no ser una métrica
espacial absoluta.
Aunque la teoría de la expansión de la
escala del tiempo es una teoría de estado
estacionario, no se crea un vacío
intergaláctico (como en la teoría del
estado estacionario, ya citada) entre las
distancias
coordinadas
de
los
observadores fundamentales y los
tamaños relativos de los objetos
permanecen los mismos mientras la
escala del espaciotiempo se expande. Por
tanto, no hay necesidad de creación de
materia en esta teoría, que para abreviar
llamaremos SEC. En SEC, el universo
está en equilibrio térmico, lo que explica
la radiación CMB.
Por otro lado, de la observación de las
fuentes distantes se concluye que las
leyes de la física no cambian con el
tiempo. Por tanto, si la métrica espacial
está cambiando para las partículas
elementales, la métrica temporal debe
también cambiar en orden de preservar la
función de onda de la mecánica cuántica
La SEC se expande continuamente
cambiando la escala del espaciotiempo.
De acuerdo con el postulado P1 esto debe
implicar que las escalas del espacio y
tiempo son equivalentes, lo cual es
consistente con la teoría de la relatividad
75
general de Einstein. En efecto esto se
realiza comparando el espaciotiempo en
la métrica gij, a la del espaciotiempo con
la escala métrica b2gij, donde b es alguna
constante arbitraria.
coordenadas espaciales. De la extensión
del principio de equivalencia se sigue que
dos épocas correspondientes a los
tiempos t y t+t0, donde t0 es algún
intervalo de tiempo cte., son equivalentes.
Si b(t) es una función de valor real del
tiempo, se sigue de lo dicho
anteriormente
que
gij(t+t0,x)
es
equivalente a gij (t,x) si:
Las relaciones de la relatividad general
einsteniana son:
Rij –1/2 gij R = k Tij
gij(t+t0,x) = b2(t0) gij(t,x)
Rij es el tensor de Ricci, R el escalar de
Einstein, Tij el tensor de energíamomento y k la constante de Einstein.
Cuando aplicamos esta relación a la
escala métrica encontramos que la cte. b
cae fuera del lado izquierdo que describe
la geometría del espaciotiempo. Este lado
izquierdo de esa relación sólo depende de
la métrica gij. Esto implica que a la
derecha de la expresión, el tensor Tij de
energía-momento es idéntico para las
escalas del espacio, independientemente
de la forma que tome Tij. Las escalas de
tiempo son, por tanto, equivalentes.
Esta relación se satisface si:
h(t+t0) = h2(t0) h(t)
g´ij(t+t0,x) = g´ij (t,x)
Por la extensión del principio de
equivalencia debemos requerir que estas
relaciones sean ciertas para todos los
tiempos, t. Esto “sugiere” una
dependencia con respecto al tiempo de la
forma:
h(t)=C e2t/T
g´ij (t,x) = g´ij(x) ; siendo c y t ctes. El
factor de escala b(t0) es:
Dando un cierto tensor de energíamomento la correspondiente escala del
espaciotiempo
está
indeterminada;
ninguna
escala
particular
tiene
preferencia. Esto significa, también, que
la escala puede cambiar sin cambiar la
distribución de energía cosmológica
incluida la frecuencia de las líneas
espectrales.
b(t0) = eto/T
Como C es una cte. de escala podemos
poner C = 1 sin merma de generalidad.
También, como t0 es arbitrario el tiempo t
puede ponerse igual a cero en cualquier
época, por ejemplo para el presente:
Como las diferentes escalas son
equivalentes, debería concluirse que la
expansión de la escala sería inobservable.
Sin embargo, la expansión del
espaciotiempo causa efectos inerciales
con ricas consecuencias.
gij(x+x0) = f(x0) g´ij(x)
El caso más simple es cuando todos los
elementos de g´ij(x) son ctes., por
ejemplo, si g´ij(x) es la métrica de un
espaciotiempo plano. Por tanto, la
posibilidad más simple de elemento de
línea en este modelo es:
Asumiendo que la métrica gij (t,x) tiene la
forma h(t)*g´ij(t,x), donde h y g´ij son
funciones de valores reales, t se refiere al
tiempo coordenado y x las tres
ds2 = e2t/T (dt2-dx2-dy2-dz2)
76
las ecuaciones de Einstein. La geometría
del espaciotiempo siempre permanece la
misma
y todas las épocas son
equivalentes.
Si hacemos, según es costumbre, c = 1, la
expresión en coordenadas esféricas se
vuelve:
ds2 = e2t/T (dt2-dr2-r2 dΩ2) ; donde dΩ es
dΩ2 = dθ2 +sen2(θ) dϕ2
El elemento de línea anterior es similar al
elemento de línea de de Sitter (de Sitter,
1917).
El espacio plano, sin el factor de escala
e2t/T,
se
le
denomina
“espacio
coordenado”. En el tiempo t = 0 el
elemento de línea del espacio coordenado
coincide con el elemento de línea de SEC
porque el factor de escala es igual a uno.
Sin embargo, el crecimiento continuo del
factor de escala causa varios efectos
dinámicos en la escala de expansión del
cosmos. “La cantidad ds debería ser
interpretada como tiempo propio en un
imaginario sistema de referencia con una
escala física, y dt se refiere al tiempo
natural, lo que coincide con ds en t = 0.”
ds2 = dt2-e2t/t (dr2+r2 dΩ2)
El primer elemento de línea es un modelo
de expansión del espaciotiempo; el
segundo es un modelo de expansión del
espacio.
El tiempo pasado, u, desde t = - ∞ a
alguna época anterior en el tiempo, t, es
medido en el tipo de tiempo presente,
poniendo dr = dΩ = 0 e integrando:
u = ∫-∞t ey/T dy = T et/T = T a(t) ; a(t)=et/T
Como no hay tiempo absoluto, es
conveniente usar siempre el tiempo
presente como referencia.
a(t) es la escala del universo y el tiempo t
relativo al tiempo presente donde t = 0 y
a=1. Encontramos que u = T y t = 0,
enseñando que la edad del universo
medida con la escala del tiempo presente
es finita e igual a T. Como el tiempo
puede ser puesto igual a cero en cualquier
época, ésta es también la edad del
universo relativa a todos los observadores
estimados de todas las épocas. “La edad
del universo T es por tanto una constante
universal”.
El elemento de línea es relativo a la
escala cosmológica de la época presente,
la cual es renormalizada a uno. Como el
mismo elemento de línea se aplica en
cualquier época, hay continuamente un
proceso de renormalización. Este proceso
se basa en el hecho de que el elemento de
línea con un factor de escala
exp[(t+∆t)/T] es equivalente al mismo
elemento de línea con el factor de escala
exp(t/T). Por tanto, la escala de expansión
podría ser modelada considerando un
intervalo pequeño de tiempo [t, t+∆t]
durante el cual el elemento de línea se
aplica. Y al fin en este intervalo el
elemento de línea es re-normalizado
como se describe y el proceso se repite
por un nuevo intervalo [t, t+∆t],
continuándolo
sucesivamente.
Esto
permite al universo expandirse sin
cambiar el elemento de línea aplicando
Diferenciando la última expresión en t
=0, dt = T da. Esto dice que la escala de
la
expansión
está
íntimamente
relacionada con la progresión del tiempo.
También, t = T ln(a). Obteniéndose para
la edad, ta, de un objeto:
ta = 0-t = T [ln(1)-ln(a)] = T ln(1/a)
77
ds2 = (dt´2 –dr´2 – e2t/T r2 dΩ2)
Esto implicaría que la edad de dos objetos
estelares puede ser más viejas que el
universo, puesto que es posible que ta>T.
Y el espaciotiempo definido por r´, t´ es
“radicalmente” plano, y tiene varias
propiedades interesantes.
Por ejemplo, 20 billones de años de edad
tendría una estrella para a = 0,14,
asumiendo T = 10 billones de años. La
época a = 0,14 se refiere al tiempo donde
la escala del universo era el 14% de la
escala corriente. En el tiempo presente
esta época cae en: 10(1-0,14) = 8,6
billones de años atrás en el tiempo.
Para valores pequeños de t´ y r´ las
transformaciones anteriores se vuelven:
t´= T+ t
r´= r
Las coordenadas del espacio, por tanto,
localmente
coinciden
con
el
espaciotiempo r´, t´(excepto por la
traslación T).
El elemento de línea de la SEC en base a
u sería:
ds2 = [du2-a(dr2+r2 dΩ2]
Y diferenciando las transformaciones de
Milne, resulta la siguiente expresión para
la velocidad dr´/dt´:
Esta es una línea elemental del tipo de
Robertson-Walker, pero obviamente,
aunque matemáticamente equivalente a la
expresión que vimos en capítulos
anteriores es diferente a la misma, pues
aquella describía un universo sin un
principio del tiempo, mientras ésta tiene
un comienzo del universo en u = 0.
(Siendo u = T a).
dr´/dt´=[dr/dt+tanh(r/T)]/[1+dr/dt
tanh(r/T] ; como r´/t´= tanh(r/T)
dr´/dt´= (dr/dt+r´/t´)/(1+dr/dt r´/t´)
; si dr/dt es nula, se tiene dr´/dt´= r´/t´
, o sea, dr´/dt´= tanh(r/T).
Las dos ecuaciones anteriores son
formalmente la ecuación de adición de
velocidades relativistas, entre la velocidad
coordenada dr/dt y la velocidad de
expansión r´/t´.
Formalmente tratando a u como un
parámetro del tiempo de desviación hacia
el rojo, será:
z+1 = T/u = e-t/T = 1/a
Y la distancia correspondiente a
desviación al rojo es:
La velocidad de expansión crea un
corrimiento al rojo tipo “Doppler” dado
por:
esta
z+1 = (1+v)1/2/(1-v)1/2 = (1+tanh(r/T)1/2/
(1-tanh(r/T)1/2 = er/T
r = T ln(z+1)
Si se introducen las transformaciones de
Milne:
Debido a la continua re-normalización del
elemento de línea, un observador en el
espaciotiempo r´, t´ está siempre
localizado en r´ = 0, t´= T. Significaría
esto que todas las localizaciones en el
universo estarían comunicadas siempre:
no habría horizonte de las partículas
t´ = T cosh(r/T) et/T
r´ = T senh(r/T) et/T
La línea elemental anterior quedará:
78
T00 = 3/8πGT2
T11=T22=T33= -1/8πGT2
(dejaría de existir el enigma del
horizonte). También, la constante de
Hubble sería siempre la misma, H = 1/T.
La suma de los elementos de la diagonal
principal es cero.
Normalmente se dice que las ecuaciones
de la relatividad general de Einstein
quieren decir que la curva del
espaciotiempo es causada por la densidad
de energía. Sin embargo, dichas
ecuaciones también pueden ponerse en la
forma equivalente:
La densidad de masa equivalente
corresponde a la densidad de energía de
componentes T00 igual a la densidad
crítica. Por tanto, si el Principio de
Equivalencia extendido es válido no hay
masa perdida; el espaciotiempo mismo
contiene energía equivalente a la densidad
de masa crítica.
Tij-1/2 gij T = k-1 Rij
Esta relación puede interpretarse como
que la distribución de energía del
universo es causada por la curvatura del
espaciotiempo. La imagen de que la
geometría del espaciotiempo define el
tensor energía-momento es tan válida
como la de que el tensor energíamomento decide la geometría del
espaciotiempo. Ambas visiones son
igualmente válidas.
El tensor Tij podría ser el fundamental
tensor energía-momento del cosmos –el
tensor energía-momento del vacío, al que
se llama “tensor de energía cósmica”. Es
invariante para todos los observadores
fundamentales con indiferencia de su
localización o época.
La energía equivalente gravitatoria
correspondiente al tensor de energía
cósmica es cero puesto que la suma de los
elementos de la diagonal es cero. Esto
sugiere la posibilidad de que, aunque la
energía contenida en el vacío es cero, el
tensor momento-energía del vacío no es
idénticamente igual a cero. El Principio
de Equivalencia ampliado implica un
tensor de energía cósmica con energía
neta
nula consistiendo en dos
componentes, los cuales contribuyen con
igual cantidad de energía positiva y
negativa. La expansión espacial, que
corresponde al elemento de línea de de
Sitter crea una constante cosmológica
(igual a 3/T2) con energía equivalente
negativa. Esta energía negativa está en la
SCR balanceada por la expresión
temporal, la cual tiene el efecto de
generar una presión cosmológica con la
densidad de energía positiva
En vez de postular algún tensor energíamomento,
y
luego
derivar
el
correspondiente elemento de línea, se
hace lo contrario, se asume que una cierta
curvatura del espaciotiempo determina el
tensor energía-momento del vacío. Esta
curvatura del espaciotiempo es generada
por la expansión de la escala y el tensor
energía-momento para el vacío es el
tensor que satisface las ecuaciones de la
relatividad general de Einstein dado el
elemento de línea de la SEC.
El tensor energía-momento para el vacío,
por tanto, se sigue directamente del
Principio de Equivalencia.
Sustituyendo la métrica SEC dada por el
elemento de línea dentro de las relaciones
de Einstein se encuentra que son
satisfechas por el siguiente tensor
energía-momento Tij haciendo c = 1:
79
Entonces, el Principio de Equivalencia
ampliado sugiere que el espaciotiempo
del vacío puede contener la energía que
corresponde a la densidad de masa crítica,
lo cual implica que el espaciotiempo por
el mismo, no la materia o la radiación,
contiene la “masa perdida” y es la
primera fábrica del universo.
Hemos visto que las conclusiones de
Boltzmann permiten “oscilaciones” que
“podrían” producir ciertos movimientos.
Hay varios modelos para estas
oscilaciones. Veamos las que representa
el siguiente gráfico:
I
7.Modelo de la oscilación entrópica
Este modelo lo ha desarrollado el chileno
Juan López de la Universidad de Chile.
La conversión de la energía mecánica en
energía
térmica
equivale
a
la
transformación de unos movimientos
organizados en movimientos caóticos, es
decir, en un incremento del caos del
sistema. Según Ludwig Boltzmann este
caos puede medirse en base a un
parámetro llamado entropía del sistema.
Cuando toda la energía del universo se
convierte en calor, se alcanza el estado de
máxima entropía, el cual no podría variar
más. Aún así, en un estado de máxima
entropía, evoluciones de tipo aleatorio
son posibles.
Aunque en principio, podríamos pensar
que la entropía aumenta en cada ciclo, lo
que conllevaría una disminución de la
amplitud de la oscilación, este modelo
predice exactamente lo contrario.
Introduciendo el valor de v=0, se tiene:
-const´ = GMn/R
En este modelo se calcula la masa del
universo como M = (3/4)πRmax ϕ.
De aquí:
La energía total del universo puede
ponerse,
como
hemos
expresado
repetidamente:
dRmax2 = const´´
Lo anterior, sumado al hecho de que el
radio de curvatura del universo varía
igual que una esfera de radio R, se tiene
que:
E = Ek+EP = mv2/2 – GMm/R = const.
Entonces, para E>0, v puede ir creciendo,
mientras R puede tender a infinito. Si
E<0, las fuerzas gravitatorias frenan la
expansión del cosmos. Para v = 0, el radio
máximo será:
dLmax2 = const´´´
Por otro lado, el volumen del espacio es
del orden de L al cubo. Así en el
momento de máxima expansión se tiene:
Rmax = GMm/E
Einstein propuso que el espacio está
curvado debido al campo gravitatorio,
que significa que E<0, es decir const <0.
dLmax3 = M
Y dividiendo las dos últimas ecuaciones
resulta:
80
Fourier. Por tanto, para casos como
estos, la configuración del espacio y la
estructura del espacio de Hilbert pueden
ser especificados a priori.
Lmax = M/const´´´
De esta forma y en concordancia con el
principio de equivalencia einsteniana de
masa y energía, la energía térmica del
universo crece en cada ciclo; la masa del
universo crece también, y por tanto Lmax.
Sin embargo, hay buenas razones para
sospechar que las teorías cosmológicas no
pueden fácilmente especificar la totalidad
de la configuración o espacio de Hilbert.
Por ejemplo, se sabe que el espacio de
configuraciones de la teoría que
implementa las nociones relacionadas del
espacio son bastante complicadas, véase
el
modelo
de
Barbour-Bertotti(N
partículas en un espacio euclídeo d
dimensional).
Se supone que la energía necesaria para
que estas oscilaciones tengan lugar se
toma del potencial de energía gravitatorio
negativo.
Para este universo oscilatorio se formula
el siguiente modelo matemático:
L(t) = At sen2(b t1/2) ; siendo A y B ctes.
A determinar.
Todos estos problemas sugieren la
siguiente pregunta: ¿Podría ser una teoría
tan complicada que su espacio de
configuraciones no fuese construible a
través de un procedimiento finito? (Hay
una analogía con la teoría biológica. El
problema es que no parece que un
paquete de pre-especificaciones de
“funcionalidades” exista en la misma).
La amplitud aumenta con el tiempo, así
como cada oscilación es, también, de más
larga duración.
Se tiene:
Lactual = Atactual sen2 (B t1/2actual)
No conocemos si en efecto la
configuración del espacio de la
relatividad general es finitamente
especificable.
Y derivando (d Lactual/dt)t=hoy = A sen(B
t1/2actual) + A/2 t1/2actual sen(2B t1/2actual)
El sistema de ecuaciones anterior permite
encontrar los valores de A y B.
Si la configuración del espacio no es
constructible
a
través
de
un
procedimiento finito, entonces no hay un
procedimiento finito para definir como
normalizable la función de ondas en el
espacio.
8.Modelos para la solución del llamado
“problema de la desaparición del
tiempo”
Esta es una solución reiteradamente
buscada por parte de Stuart Kauffman y
Lee Smolin.
En el caso de que la totalidad del
conjunto del llamado “problema del
tiempo” falle, es decir, si el espacio de
Hilbert de los diomorfismos invariantes
no son construibles, no puede formularse
una teoría cuántica cosmológica en esos
términos. Puede haber algo así como una
correspondiente “función de ondas del
Para un sistema de N partículas en un
espacio euclediano d dimensional, uno
puede encontrar la correspondencia
básica del espacio de Hilbert por
enumeración simple de los modos de
81
En la mecánica cuántica la situación es
bastante similar. Hay una t en la ecuación
de estado cuántica de Schröedinger, pero
es un tiempo medido por un reloj externo,
el cual no es parte del sistema. Por tanto,
cuando escribimos:
universo”, pero no puede ser un vector en
un espacio construible de Hilbert.
Si el espacio no es construible de forma
finita, habría que preguntarse si la
segunda ley de la termodinámica puede
aplicarse a escala cosmológica, puesto
que, entonces, no está clara la hipótesis de
que la entropía esté bien definida o sea
útil. Nunca pueden ser aplicadas las
formulaciones estándar de la mecánica
estadística, porque es necesaria una nueva
aproximación a la física estadística
basada sólo en el conjunto de envolventes
de posibilidades generadas por la
evolución a partir de un estado
inicialmente dado. Es posible especular si
podría formularse en dicho contexto una
“cuarta ley” de la termodinámica, en la
que la evolución extremice la dimensión
del posible adyacente, que es el conjunto
de estados accesibles al sistema en
cualquier estado en su evolución.
Podemos advertir otra razón para suponer
que una teoría cuántica cosmológica debe
incorporar algunos mecanismos análogos
a la autoorganización del sistema
completo. Por ejemplo, esto puede ser
necesario para ajustar el sistema al
comportamiento preciso para la existencia
del “límite clásico”.
i h df/dt = H f(t)
el hamiltoniano es referente a la
evolución, como sería medido por un
observador externo. El estado cuántico
puede ser representado como una función
f sobre el estado de configuraciones, el
cual es normalizable en algún producto
interno.
Cuando volvemos hacia el tema de la
construcción de una teoría cosmológica
topamos con un problema, que es que no
hay reloj externo. No hay, por definición,
nada fuera del sistema, y esto significa
que la interpretación de la teoría debe
hacerse sin referencia a algo que no es
parte del sistema. En la teoría
cosmológica clásica, tal como la
relatividad general, u otros modelos tales
como la cosmología de Bianchi o el
modelo de Barbour-Bertotti, esto se
expresa diciendo que la dinámica tiene
una invarianza de “gauge”, la cual incluye
reparametrizaciones arbitrarias de las
trayectorias clásicas (En relatividad
general esto es parte del dimorfismo
invariante de la teoría). Como resultado,
la teoría clásica es expresa en un camino
que no hace referencia a cualquier
parametrización de trayectorias.
Un reloj externo está representado en la
configuración de la descripción del
espacio
como
una
especial
parametrización de cada trayectoria, de
forma que las ecuaciones del movimiento
son satisfechas. Por tanto, puede decirse
que no se percibe como “algo” físico
representado en la mecánica clásica; el
problema es pospuesto, de forma que el
tiempo es representado como el marcado
por un reloj que existe fuera del sistema
físico modelado por las trayectorias en la
configuración del espacio.
Este es el sentido en el cual puede decirse
que el tiempo desaparece de las teorías
cosmológicas. Nada hay en la teoría que
se refiera a un tiempo particular; la teoría
habla sólo en términos de la totalidad de
la historia o trayectoria.
82
En la teoría cuántica hay un fenómeno
correspondiente. Como no hay t externo,
la medida de la evolución de un estado
cuántico en vez de por la ecuación de
Schröedinger, el cuanto viene constreñido
por la ecuación H f = 0, donde f es ahora
justo una función de la configuración del
espacio. En vez de describir el volumen,
se generan parametrizaciones arbitrarias
de las trayectorias. La función de onda
debe ser normalizada bajo un producto
interno, dando alguna densidad en la
configuración del espacio. El espacio de
los estados físicos es luego dado por la
ecuación, obligada a cumplir la condición
de que el estado sea normalizable.
totalidad del universo, la cual explicaría
su evolución, y ha inventado un método
por el que la selección natural debe operar
en la escala cósmica.
Vemos, pues, que el tiempo ha
desaparecido
completamente
del
formalismo, lo que se llama el “problema
del tiempo en cosmología cuántica”, lo
que conlleva sólo dos posibilidades: A)
encontrar una interpretación de la teoría
que restaure un rol para el tiempo; B)
proveer una interpretación de acuerdo con
que el tiempo no es parte fundamental de
la descripción del mundo, que sólo
reaparece al nivel de un límite clásico.
Una idea de Smolin está asociada a la
“selección natural” de los universos. Dice
que en algún sentido el universo que
permita complejidad y evolución se
reproduce el mismo más eficientemente
que otros universos. Cuando las estrellas
mueren, algunas forman agujeros negros.
Smolin afirma que las leyes de la
naturaleza en el nuevo universo están
relacionadas con el universo anterior.
Esto difiere de la idea de Andrei Linde de
un ensamble por azar, porque Smolin
supone que el nuevo universo retiene las
leyes físicas, no demasiado diferentes de
su universo “padre”. Porque eso podría
significar que los universos bastante
grandes y complejos para permitir la
formación de estrellas, su evolución y
muerte, y que pueden, por tanto, producir
agujeros negros, podrían tener más
“descendencia”, ya que cada agujero
negro pudiera entonces crear un nuevo
universo; mientras que un universo que
no permite la formación de estrellas y
agujeros negros podría no tener
descendencia. Por tanto, Smolin reclama
que el “ensamblaje” de universos puede
no envolver azar, sino alguna selección
darwiniana, a favor de universos
potencialmente complejos.
El cosmólogo Sir Martin Rees anota en
“La Tercera Cultura” que “una de las
llaves en física es reconciliar gravedad
con principios cuánticos y fuerzas
microfísicas. Hay varias escuelas: la
escuela de Stephen Hawking, la de Roger
Penrose, y otras. Mi opinión es que habrá
un largo camino para un consenso en este
campo, pero Smolin y Ashtekar han
inyectado importantes ideas nuevas en
este debate”.
Mientras algunos cosmólogos especulan
que las leyes de la física deben explicar el
origen del universo, el origen de las leyes
mismas es un problema tan inefable que
raramente es discutido. ¿Hay un camino
en el que el universo puede organizarse a
sí mismo? ¿El “principio antrópico” o la
noción de existencia de observadores
inteligentes parece en algún sentido un
factor de existencia en el universo o juega
un papel importante en cosmología?
El físico teórico Lee Smolin está
interesado en el problema de la
gravitación cósmica o de la reconciliación
de la teoría cuántica con la teoría
gravitacional de Einstein. Smolin está
creando lo que llama una teoría de la
83
espaciostiempos euclídeos (en los que el
tiempo como dirección está en igualdad
con las direcciones espaciales), es posible
que el espaciotiempo sea finito en
extensión y que, no obstante, no tenga
ninguna singularidad que represente una
frontera o borde. (Por ejemplo, la
superficie de la Tierra es finita en
extensión, pero no tiene una frontera o
borde). Al no existir ninguna singularidad
de este tipo, no hay ninguna necesidad de
especificar el comportamiento en la
frontera, es decir, no habrá ninguna
singularidad en la que las leyes de la
física fallen y haya que establecer
condiciones
de
contorno
del
espaciotiempo. Mejor: “la condición de
contorno del universo es que no tiene
ninguna frontera”. El universo estaría
totalmente autocontenido, y no sería
afectado por nada que estuviera fuera de
él: no necesita de algo “externo” que lo
“cree”, ni de nada que lo destruya.
Simplemente “es”.
Stuart Kauffman es un biólogo teórico
que estudia el origen de la vida y el
origen de la organización molecular.
Hace 25 años, desarrolló los modelos
Kauffman, los cuales son estructuras de
azar que exhiben una clase de
autoorganización que denomina “orden
por libertad”. Sus modelos no son fáciles,
son rigurosamente matemáticos y muchos
de sus colegas a veces encuentran
dificultades para entenderlos. Una llave
para su punto de vista es que la noción de
convergencia, más que la divergencia,
juega un decidido papel en la evolución
de la vida. Con su colega Christopher G.
Laugton, cree que los sistemas complejos
que mejor son capaces de adaptarse son
los situados fuera del equilibrio en el
borde entre el caos y el desorden.
Kauffman se pregunta: ¿ Si la selección
opera todo el tiempo, cómo construir una
teoría que combine autoorganización
(orden por libertad) y selección? La
respuesta es una “nueva” biología, en
algo similar a la propuesta por Brian
Goodwin, en que la selección natural es
unida al estructuralismo.
Con la condición de que no haya ninguna
frontera, se halla que la probabilidad de
encontrar que el universo sigue la mayor
parte de las historias posibles es
despreciable, sin embargo, hay una
particular familia de historias mucho más
probables que otras. Esta historia pude
imaginarse comparándolas con el símil de
la superficie terrestre. La distancia desde
el polo norte representaría el tiempo
imaginario y el tamaño de un círculo a
modo de paralelo, representaría el tamaño
espacial del universo. El universo
“empezaría” en el polo norte (big bang)
como un punto. A medida que nos
movemos hacia el sur, a distancia cte. del
polo norte (paralelos), estos paralelos van
haciéndose más grandes, y corresponden
al universo expandiéndose en el tiempo
“imaginario”. El universo tendría un
tamaño máximo en el ecuador, y se iría
contrayendo con ese tiempo imaginario
Kauffman y Smolin llevan trabajando
juntos desde hace más de un año y los
resultados de esta colaboración aparecen
en el trabajo titulado “Una posible
solución para los problemas del tiempo en
cosmología cuántica”.
9.Modelo de Stephen W. Hawking
Según Hawking, en la teoría clásica
gravitatoria, basada en el espaciotiempo
real, sólo hay dos formas en las que puede
comportarse el universo: o ha existido
durante un tiempo infinito, o tuvo un
principio en una singularidad en el pasado
(en un tiempo finito). Sin embargo, en la
teoría cuántica de la gravedad surge otra
nueva tercera posibilidad. Al emplearse
84
creciente (dirigiéndose hacia el sur), hasta
un único punto en el polo sur. Aunque el
universo tendría tamaños nulos en los
polos sur y norte, estos puntos no serían
singularidades, pues las leyes físicas
serían válidas, también, en los mismos.
ha calculado en modelos simplificados
que esta probabilidad es alta, lo que es
consistente con las observaciones de la
radiación de fondo de microondas.
Lógicamente, la historia del universo en
el tiempo real tendría aspecto diferente.
Hace unos diez o veinte millones de años
tendría un tamaño mínimo, que sería
equivalente al radio máximo de la historia
en el tiempo imaginario. En tiempos
reales sucesivos, el universo se expandiría
como en el modelo inflacionario caótico
de Linde. Es decir, el universo se
expandiría hasta alcanzar un tamaño muy
grande, colapsándose de nuevo en lo que
parecería una singularidad en tiempo real.
Solamente representándonos el universo
en términos de ese tiempo imaginario, no
habría ninguna singularidad.
Ya apuntamos en el capítulo II 5.c, al
hablar de la antimateria y la
interpretación clásica de Dirac, nuestra
crítica hacia la misma y nuestra propuesta
que posee implicaciones de orden
cosmológico.
A
continuación
expondremos casi el resto de nuestro
modelo cósmico, a falta del último apunte
relacionado con las Supercuerdas que
abordaremos en los últimos capítulos.
10.Nuestro modelo cosmológico
Nuestro modelo adopta las ideas del
modelo relativista del big bang (descrito
en el punto 2. de este capítulo) en el
sentido de que la constancia de la
velocidad de la luz no es considerada una
“propiedad local”, sino que rige de lleno
todo el campo cosmológico. Es por ello
por lo que, en unión a las implicaciones
que supone la evidencia de la recesión de
las galaxias y la ley de Hubble,
consideramos que el universo no se
“extiende” más allá del “radio de Hubble”
correspondiente a ese instante de la edad
del mismo. Así que el radio de Hubble
contendrá (sin que por ello sea frontera)
toda la masa del universo (del universo en
que vivimos).
Aunque esto último pudiera parecer que
iría en contra del teorema sobre
singularidades, deducido por el mismo
Hawking y Penrose, según Hawking la
importancia de ese teorema estribaba
realmente en demostrar que el campo
gravitatorio se hace tan fuerte en esos
puntos que los efectos gravitatorios
cuánticos no pueden ser ignorados. Esto,
sin embargo, ha conducido a la idea de
que el universo podría ser finito en el
tiempo imaginario, pero sin fronteras o
singularidades.
El radio de Hubble en el instante t, RH(t),
para que la masa no “escape” del mismo
(radio al que hemos considerado por los
razonamientos anteriores el máximo del
universo), valdrá, teniendo en cuenta que
el universo tiene como límite de
expansión la velocidad de la luz, c:
La propuesta de no frontera, más el
método de la suma de historias (utilizado
con frecuencia en mecánica cuántica,
según la primitiva idea de Feynman),
puede servir para averiguar qué
propiedades del universo es probable
puedan darse juntas. Por ejemplo, para
calcular la probabilidad de que el
universo se expande a la misma velocidad
de promedio en todas las direcciones. Se
(1i) RH(t) = RHi+ c t ; siendo RHi el radio
de Hubble en el instante inicial del big
bang, t = 0.
85
Por la relación de Hubble, c = H* R,
sustituyendo en la ecuación anterior:
Así de la expresión (2i) (1/Ht = 1/Hi +t):
(8/3 πGt ρt)-1/2 = (8/3 πGiρi)-1/2 + t
c/Ht = c/Hi + c t (Aquí no consideramos
la cte. de Hubble constante a lo largo del
tiempo; únicamente su constancia lo es
para cada instante t). Es decir:
Si hacemos por simplicidad p = (Giρi)1/2,
multiplicando por (8/3 π)1/2:
(Gtρt)-1/2 = p-1 +(8/3 π)1/2 t
1/Ht = 1/Hi + t (2i)
(Gtρt)1/2 p/[1+p(8/3 π)1/2 t]
La no constancia de la cte. de Hubble se
deduce de la conocida expresión de H,
H2 = 8/3 πGρ, siendo G la cte.
gravitatoria y ρ la densidad media del
universo. Esta expresión se obtiene
fácilmente igualando el potencial
gravitatorio con la energía cinética por
unidad de masa de cualquier objeto del
universo, para que la energía total sea
nula. Así:
Gt ρt = p2/[1+p(8/3 π)1/2]2 (3i)
La masa total del universo encerrada en
el radio de Hubble se conservará a lo
largo del tiempo, pues ninguna materiaenergía “puede viajar a más velocidad
que la de la luz”, que es lo que expresa
indirectamente (1i). Entonces:
M = Vi ρi = Vt ρt
4/3 πRHi3 ρi = 4/3 πRHt3 ρt
RHi3/RHt3 = ρt/ρi
Et = 0 = Ep + Ec
-GM/R + v2/2 =0
Si se considera el principio cosmológico,
homogeneidad e isotropía, la densidad
será cte. en todo el universo a escalas
grandes. Como la masa es igual al
volumen por la densidad, será M = V ρ.
El volumen de una esfera de radio R igual
a la distancia del “observador” al objeto
vale V = 4/3 π R3 (el resto de la masa del
universo a partir de esta distancia no
influye en el potencial gravitatorio sobre
el objeto). Así que:
La relación de Hubble dice:
RHi Hi = RHt Ht = c ; y sustituyendo estos
valores en la expresión anterior:
(Ht/Hi)3 = ρt/ρi con lo que ρt = ρi (Ht/Hi)3
O sea, las constantes de Hubble al cubo
están relacionadas con las densidades
medias del universo. Y sustituyendo en la
última expresión las H por su valor H2 =
8/3 πGρ:
M = 4/3 π R3ρ , y sustituyendo en Et=0
0 = -G 4/3 π R3ρ/R + v2/2
relación de Hubble v = HR:
ρt =ρi [(8/3 πGtρt)/(8/3 πGiρi)]3
y por la
ρt = ρi (Gtρt/Giρi)3/2
-4/3 πGρR2 + H2R2/2 = 0 ; y dividiendo
por R2 queda:
H2 = 8/3 πGρ
demostrar.
Operando resulta:
1 = (Gt/Gi)1/2 (ρt/ρi)1/2
como queríamos
Elevando al cuadrado la última expresión:
86
1= (Gt/Gi)3 ρt/ρi ; ρt = ρi (Gi/Gt)3
R/Ri = 1+Hi t
Y sustituyendo el valor anterior en (3i):
R = Ri(1+Hi t) Y R es lineal en t
Gt ρt = [p/(1+pt(8π/3)1/2]2
Como RHi/RHt = Ht/Hi será:
Gt ρi (Gi/Gt)3 = [p/(1+pt(8π/3)1/2]2
Ht = Hi/(1+Hi t)
Y haciendo operaciones queda:
Además, como vt = Ht Rt y (2i)
1/Ht = 1/Hi +t = (1+Hi t)/Hi
Gt = ρi1/2 Gi3/2 [1/p + (8π/3)1/2t]
(4i)
Gt = K´+K´´ t ; siendo p = (Gi ρi)1/2
Luego:
vt = [Hi/(1+Hi t)] Rt = [Hi/(1+Hi t)] Ri
(1+Hi t) = Hi Ri=Ht Rt
Para t=0 resulta Gt = Gi
De (4i) se deduce que la cte. gravitatoria
aumenta de forma lineal con el tiempo,
resultando K´= Gi y K´´ = Hi Gi .
O sea: Gt = Gi +Gi Hi t = Gi (1+Hi t)
Sorprendentemente v es constante en
valor absoluto, y es la misma que en el
inicio (big bang), cuando el “objeto
celeste” está a la distancia Ri (del teórico
centro de la “bola” inicial o posición del
observador). En otras palabras, cada astro
o galaxia no aumenta su velocidad; es la
misma que cuando se inicia la “explosión
inicial”, por consiguiente, no hay
aceleración (la velocidad se conserva), y
el espaciotiempo en todo momento tiene
curvatura nula: es euclídeo o plano.
Gi = Gt/(1+Hi t) Esta expresión implica
una obligada corrección de las ecuaciones
de la relatividad general, puesto que la
cte. gravitatoria cambia con el tiempo.
Calculemos, ahora, cómo varía el radio de
expansión con el tiempo.
De la ecuación: v =HR , R(t) = Ht R(t)
Siendo Ht = (8π/3 Gt ρt)1/2
Y como (Gt ρt)1/2 = p/[1+pt(8π/3)1/2] ,
sustituyendo:
Es importante fijarse en que las
velocidades de Hubble definen un
“campo de velocidades”, de ninguna
forma de aceleraciones. Esto es debido,
como hemos visto, a que la velocidad de
cualquier astro se mantiene constante y
sólo es función de Hi y Ri que son los
valores de la constante de Hubble, y la
distancia al “observador” (teórica
distancia al centro de la “bola inicial” que
explota en el big bang -que no tiene por
qué ser cero) en el momento inicial, t = 0.
Al no haber aumento de velocidad con
respecto a los instantes posteriores, no
existe aceleración. Realmente lo que
sucede es que la aceleración gravitatoria o
el campo gravitatorio es anulado por la
“expansión cósmica”, quedando un
universo totalmente plano.
R(t) = (8π/3)1/2 [p/(1+pt(8π/3)1/2] R(t)
Haciendo operaciones queda:
R(t) = [Hi/(1+Hit] R(t)
dR(t)/dt = [Hi/(1+Hi t)] R(t)
dR(t)/R(t) = [Hi/(1+Hi t)] dt e integrando
L R(t)+C = ∫[Hi/(1+Hi t)] dt
Para t=0 LRi +C = 0, C= -LRi
Así que: L R/Ri = L (1+Hi t)
87
Como la energía potencial (negativa) de
cada punto del campo de velocidades se
va haciendo más negativa (por ser la
densidad igual en todo el universo) a
medida que se aleja de nosotros, para que
la energía se mantenga cte. (nula en
nuestro caso) es preciso que la energía
cinética se incremente en la misma
cantidad, para que Ep+Ec = 0. Luego, el
“campo de velocidades” es “necesario”
para que el universo se mantenga en
“equilibrio”. La existencia de la
gravitación, por la energía potencial
negativa que origina en el espaciotiempo,
precisa por compensación o equilibrio de
la existencia del campo de velocidades,
que “se oponga” de alguna forma a esa
gravitación produciendo una energía
positiva. Otra forma de que existiera
equilibrio sería el de un universo estático
(sin recesión) en el que no existiría
gravitación.
Y como:
R12 =(t´-t) v1 R13 =(t´´-t) v1
R22 =(t´-t) v2 R23 =(t´´-t) v2
(De la consabida fórmula, espacio =
velocidad *tiempo)
Dividiendo estas últimas expresiones:
R12/R22 = v1/v2
R13/R23 = v1/v2
O lo que es lo mismo:
v1/v2 = R11/R21 = R12/R22 = R13/R23 (ii*)
Como (i*) e (ii*) son idénticas, la
constancia de la velocidad apuntada es
consecuente.
Para el cálculo de la constante inicial de
Hubble Hi , dada la incertidumbre actual
en el conocimiento de Ht , es mejor partir
de la expresión:
Ahora veremos si la constancia de la
velocidad a lo largo del tiempo (ausencia
de aceleración) es consecuente.
(Ht/Hi)3 = ρt/ρi
Así que:
Hi = (ρi/ρt)3 Ht
Para que se “conserve” la velocidad v1
será:
; donde tomaremos para ρi la densidad de
Planck, para ρt la densidad actual y para
Ht la que va calculándose en el presente
cada vez con más exactitud.
v1 = Ht R11 = Ht´ R12 = Ht´´ R13
Y para la conservación de la velocidad v2:
Para finalizar esta nueva entrega de
nuestra teoría, volviendo a recalcar que la
parte de la misma correspondiente a la
teoría
Supersimétrica
y
de
las
Supercuerdas se verán en los últimos
capítulos de la obra, podemos adelantar lo
siguiente.
v2 = Ht R21 = Ht´ R22 = Ht´´ R23
Ht , Ht´ y Ht´´ son las constantes de
Hubble para los instantes t, t´ y t´´,
respectivamente. (El elegir v1 y v2 no
restringe la generalidad, pues es
indiferente para cualesquiera otras
velocidades)
La visión cósmica del universo en la
presente teoría se basa en estor tres
puntos fundamentales:
Si dividimos entre sí las dos expresiones
anteriores será:
1º) No es precisa la inflación en la misma
(aunque no iría en contra de ella). La
v1/v2 = R11/R21 = R12/R22 = R13/R23 (i*)
88
contrayendo hacia cero, va incrementando
su densidad. Al llegar a cierto límite se
produce lo que llamamos una “inversión
del tiempo”, lo que se traduce en el
comienzo de una expansión en ese otro
universo, que “arrastrará” al nuestro
debido a esa conexión apuntada
(interpretación
de
Witten)
que
denominamos “cuántica del instante
cero”. Esa inversión del tiempo se
produce entonces, también, en nuestro
propio universo. El resultado es el inicio
de una contracción, con tiempo negativo
y entropía negativa, hasta llegar a un
estado de densidad máxima, comienzo de
una nueva expansión. El que las leyes
físicas cambien o no en cada uno de esos
instantes de densidad máxima en uno u
otro universo es una hipótesis posterior.
supuesta inflación supone una cte. de un
campo escalar que actuaría durante cierto
tiempo;
dicha
especulación
se
“incrementa” con un posterior “ajuste”
para lograr obtener lo que previamente se
propone. En nuestra opinión ésta es un
posición forzada.
2º) Los elementos se van “sintetizando” a
partir de una densidad fabulosa, suficiente
para que la teoría Supersimétrica (y
posterior teoría M) pueda “ejercer su
acción”.
3º) El universo comienza cuando empieza
la expansión, no de un punto minúsculo
sino de una “cantidad de masa” que
comprende un radio de Hubble inicial que
sólo depende de la densidad existente en
ese instante. Ese momento inicial es el
“instante cuántico” en el que queda
encerrada, dentro del mismo “sistema
cuántico”, toda la masa del universo que
comienza la expansión, así como toda la
masa negativa de otro universo
(complementario) unido a éste por medio
de las ecuaciones de Witten (Ver la teoría
M al final del libro). Nuestro universo
crece en el sentido del tiempo positivo y
la entropía positiva. El “otro” se mueve
en sentido del tiempo negativo y la
entropía negativa. Mientras el universo en
que estamos se expande, el otro se
contrae. Los radios máximos de ambos
universos están relacionados por la
dualidad T (nuevamente acudamos a los
últimos capítulos del texto); es decir:
d = 1/d, con la corrección a la idea
de Witten de que en el otro universo las
“normas” (o distancias) son negativas, o
sea, si en un universo la distancia se d, en
el otro será –1/d, es decir, se mueve en el
intervalo (-∞, 0).(La distancia d se mueve
en el nuestro en el intervalo (0, +∞).
Acabando con nuestras sugerencias, en
esta ocasión, hacia la construcción de una
nueva teoría cosmológica, nos conviene,
no obstante, aclarar sin más dilación unos
apuntes que consideramos importantes
acerca de los conceptos de radiaciónenergía y materia que en nuestra opinión
implican una amplia revisión de nuestros
mismos conceptos de espacio y tiempo.
Algo tan conocido años antes de la
enunciación de la famosa fórmula
einsteniana de equivalencia entre la masa
y la energía, E =mc2, como la dualidad
onda-corpúsculo, por obra y gracia del
prestigio intelectual de un Albert Einstein
o la tremenda fuerza de una explosión
nuclear, provoca un hito en la ciencia del
todo inmerecido por su poca novedad,
siendo como es una reedición de lo
anterior. Diríamos que el mérito habría
que buscarlo entre el grupo de físicos y
químicos que hicieron posible la
comprensión de ese extraordinario
fenómeno que es el de la naturaleza dual
de la luz como onda y corpúsculo a la
vez. Y decimos que hay una estrecha
Nuestro universo es plano; si no hubiese
una “fuerza” que lo contrajera se
extendería hacia el infinito. Sin embargo,
el otro universo, el negativo, al irse
89
otro). Sin embargo, la pretendida
equivalencia entre masa y energía, según
la fórmula E = mc2, no es tal. Esta
fórmula simplemente indica cómo se
relacionan ambas, en ningún modo es
una equivalencia, puesto que presuponer
la misma es cometer un error tan tosco
que incide directamente en lo que
llamamos “realidad”. Dicha equivalencia
significaría una identificación entre
determinación (realidad, materia) e
indeterminación
(posibilidad,
probabilidad, energía).
conexión, más bien una identificación
entre los pares de conceptos ondacorpúsculo y energía-materia por lo
siguiente. La energía, cuya mejor
identificación es la radiación, está unida
estrechamente a la noción de onda. Todo
corpúsculo, por otra parte, posee las
propiedades más evidentes de eso que
llamamos materia. No hace falta, pues,
especular más sobre el tema. Eso sí, cupo
a Einstein cuantificar (formular) la
equivalencia o relación entre unas y otras.
La dualidad onda-corpúsculo es básica en
mecánica cuántica, puesto que la onda es
consustancial a la radiación ( sin
detrimento, no obstante, de la onda que
acompaña a toda partícula en su
movimiento) y el corpúsculo es sinónimo
de materia. Así en la cuántica se dice que
la onda se “resuelve” (la onda de
probabilidad), se materializa o pasa a ser
“determinista” al quedar “elegida” una de
las posibilidades, algo así como la entrada
en la “realidad” de la energía, gracias a su
“corpuscularidad” o materialidad.
Materia y energía son “sustancialmente”
distintas. El tensor energía-momento de
Einstein junta en una misma magnitud la
energía y la materia, lo que puede ser
indiferente en cuanto a su aplicación en
relatividad general, pero no en otros
ámbitos en los cuales dichos conceptos
poseen papeles radicalmente distintos.
Por ejemplo, existe un problema
cosmológico en la teoría estándar que
reside en el concepto de expansión
cósmica. Dicha expansión viene dada por
la relación de Hubble, v = Hd, ahora bien,
esa expansión o dilatación del espacio
debe tener un límite a distancias no
cosmológicas, pues si hubiese una
dilatación, también, del “metro” con el
que medimos, nunca hubiese podido
medirse, ni siquiera percibirse esa
dilatación o expansión cósmica, ya que
“relativamente” las distancias cósmicas y
no
cósmicas
conservarían
sus
proporciones a lo largo del tiempo.
Indudablemente nuestro metro “de medir”
no sufre este proceso de dilatación. ¿Y
qué es nuestro metro de medir sino las
distancias o proporciones de la materia
que nos rodea (dimensiones del protón,
del electrón, es decir, de la propia
materia)?...Así que la materia debe
conservar sus dimensiones o constantes
físicas a lo largo del tiempo, sin participar
Observamos, pues, que hay un trasfondo
“filosófico” totalmente dispar entre
energía–radiación-onda
y
materiacorpúsculo. Esta última está unida a lo
que en términos humanos o para nuestra
mente llamamos “realidad”. La ondaradiación-energía
define
sólo
posibilidades, probabilidades: es “algo”
indeterminado.
La dualidad onda-corpúsculo, tan difícil
de asimilar en principio para nuestra
mente, no obstante, induce menos a error
que la famosa fórmula anterior de
Einstein de equivalencia entre masa y
energía. La luz podía conducirse
(comportarse) como onda o como
corpúsculo, pero no eran equivalentes
estos últimos pues sus propiedades eran
muy diferentes (además, uno excluía el
90
de expansión no de contracción
(gravitación). Ahora bien, la contraccióngravitación abarca la gama completa
desde lo más ínfimo hasta lo mayor, lo
cósmico. Sin embargo, el ámbito de la
expansión de Hubble tiene el límite por
abajo en la cuántica, en la materia
cotidiana que nos rodea... Esta no se ve
afectada por la misma... Así que la
expansión actúa sobre el espaciotiempoenergía-radiación pero no sobre la materia
(cuántica). ¡La expansión dilata el
“espacio” entre “ciertos objetos”, que son
los
más
“definidos”,
aquellos
“dominados” por la cuántica, la pura
materia, dejando incólumes los mismos!..
Así que la expansión de Hubble –para
algunos la llamada “quintaesencia”- es la
clave para la conexión entre la teoría
cuántica y la gravitatoria. La expansión
de Hubble, pues, no es asimilable a la
constante cosmológica λ de la ecuación
de la relatividad general einsteniana, es
más bien otra “fuerza” contraria a la
misma gravitación (¿quintaesencia?) que
tiene la particularidad de que aplicada a la
“materia pura” (la definida en los
términos
anteriores,
relacionada
íntimamente con la física cuántica) es
capaz de anular la influencia ejercida por
la
gravitación
en
dimensiones
cosmológicas, de forma tan perfecta que
desaparece todo atisbo de gravitación en
la métrica del espaciotiempo, originando
un universo plano en todo momento, a lo
largo de la historia completa del universo.
En otras palabras, gravitación y mundo
cuántico están “unificados” en lo que
podríamos llamar esta “quintaesencia”,
cuyo efecto más evidente es la expansión
cósmica de Hubble.
en dicha expansión cósmica. La materia,
pues, unida íntimamente a “nuestra
realidad” posee características constantes
con el tiempo. La radiación, la energía, el
mismo espacio sufre la dilatación de la
expansión cósmica. Por ello la radiación
que procede de todo el espacio por su
“dilatación” tiene una tendencia al
corrimiento hacia el rojo.
La gravitación, unida a la relatividad
einsteniana, está inmersa, al igual que la
métrica del espaciotiempo, en esa
dilatación cósmica; ¡por ello la cte. de
gravitación sí puede verse involucrada en
un proceso de cambio con el tiempo!
¿Pueden sernos todas estas ideas
interesantes para encontrar un vínculo o
conexión entre la “teoría de la materia”, a
la que identifico con la física cuántica,
propiciatoria de la “realidad” como
interrelación
entre
el
mundo
submicroscópico y el macroscópico, y la
gravitación o teoría, a nuestro juicio, de la
radiación-energía?
La gravitación ejerce su dominio desde lo
más pequeño a lo más grande, por su
“control” sobre la métrica del mismo
espaciotiempo, o de las dimensiones del
“marco”.
La
cuántica
domina
particularmente sobre lo pequeño, lo
microscópico, lo subatómico.
¿No será la expansión cósmica “la
expresión” o manifestación de la teoría
que conecta las anteriores ambas teorías
gravitatoria y cuántica?
La expansión de Hubble en cierta forma
se opone a la gravitación. Es un proceso
91
Capítulo V.
-
ASTRONOMÍA OBSERVACIONAL
1.Estimaciones de interés
-
-
-
-
-
-
En el instante de la gran explosión se
calcula un límite superior para la
entropía de 108 (Entropía de alrededor
de 1 la muestran los sistemas en el
entorno terrestre), lo que supone unos
108 fotones por cada nucleón.
Se calcula que las galaxias se habrían
formado en tiempos que equivalen a
corrimientos al rojo de entre 10 y 100,
habiéndose reunido con posterioridad
en cúmulos. Un corrimiento hacia el
rojo de 1010 correspondería a un
universo con tan sólo unos segundos
de edad y una temperatura de unos
1010 grados Kelvin. Los procesos
físicos en esos momentos estarían
gobernados por los procesos de
desintegración radiactiva de las
interacciones débiles.
El modelo estándar del big bang,
junto con la fuerza débil hace la
predicción de una abundancia de helio
primitivo en el universo de entre el 25
y el 30%.
Como no se conoce con precisión la
edad del universo se fija en términos
de corrimiento al rojo, medida del
grado de compresión del universo en
expansión. En estos primeros
momentos la fórmula que se toma
para el corrimiento al rojo
(velocidades
relativistas)
es
(1+v/c)/(1-v2/c2)1/2 –1.
En el tiempo de Planck (10-43
segundos) el corrimiento al rojo se
estima en 1032 y empezó la creación
de partículas.
Para la edad hadrónica, aniquilación
de parejas protón-antiprotón, el
corrimiento al rojo se calcula en 1013
-
-
y corresponde a un tiempo cósmico de
10-16 segundos.
Para i segundo de edad empieza la era
leptónica, aniquilación de parejas
electrón-positrón, y corresponde a un
corrimiento al rojo de 1010.
La era de la radiación empieza al
minuto de edad, con la nucleosíntesis
del helio y el deuterio (el corrimiento
al rojo era de 109).
A los 10.000 años de edad (104 de
corrimiento al rojo) en el universo
predomina la materia.
El universo se hace transparente a los
300.000 años (corrimiento al rojo de
103).
Entre los 10-35 y 10-4 segundos los
bariones y antibariones se aniquilan
en fotones, quedando solamente
1+10-8 bariones por antibarión.
(Todos estos cálculos están sacados del
artículo de John D. Barrow y Joseph Silk
“Estructura del universo primitivo” –
Investigación y Ciencia. Junio 1980).
-
-
-
92
La densidad de los quasars hace unos
15.000 millones de años se cifra en
unas 100 veces la de hoy, según los
cálculos de Maarten Schmidt (Ver
“Los quasares, sondas del universo
distante y primitivo”, por Patrick S.
Osmer. Investigación y Ciencia. Abril
1982).
La densidad crítica de la materia
necesaria para frenar la expansión y
“cerrar” el universo es de unos 5 *
10-30 gramos por centímetro cúbico –
unos tres átomos de hidrógeno por
metro cúbico (Del artículo “Materia
oscura en galaxias espirales” de Vera
C. Rubín. Investigación y Ciencia.
Agosto 1983).
Excepto en la luminosidad, hay una
discrepancia importante entre todas
las propiedades de las galaxias
hipotéticas y las reales. En las
-
hipotéticas la velocidad orbital fuera
del núcleo disminuye en forma
kepleriana y la masa integral alcanza
un valor límite. En las reales la
velocidad orbital alcanza un valor
constante, y la masa integral crece
linealmente con el radio (Del mismo
artículo anterior).
A medida que el universo se
expandió, el chorro de partículas
elementales que brotó, de forma
aleatoria en todas direcciones, eliminó
todas las fluctuaciones iniciales que
no superaron un tamaño crítico; las
únicas que permanecieron fueron las
que hicieron fluctuar, comprimiendo o
enrareciendo, masa de por lo menos
1015 o 1016 veces la del Sol.
q0, parámetro de deceleración
Λ k
>0 >0
>0 >0
>0 >0
>0 >0
>0 >0
>0 >0
>0 >0
>0 >0
+1/c2 0
>0
0
>0 <0
>0
<0
0
>0
0
0
0 <0
0 <0
<0
>0
<0
0
<0
<0
<0
<0
>0
>0
(Del artículo “Macroestructura del
universo” , por Joseph Silk, Alexander S.
Szalay y Yakov B. Zel´dovich.
Investigación y Ciencia. Diciembre 1983)
-
La masa de Planck es la m. resultante
de la combinación apropiada de las
tres constantes fundamentales h ( de
Planck, c (velocidad de la luz) y G (de
gravitación universal)(hc/G)1/2≅10-5g.
Esta cantidad de masa colocada dentro
de la longitud de Planck que vale (hG/
c3)1/2 ≅10-33 cm., crearía una densidad
de unos 1093cm3 densidad del universo
que correspondería a unos 10-43seg.: el
tiempo de Planck.
- Un megaparsec (Mpc), unidad muy
utilizada en la cte. de Hubble y en
toda la astronomía, vale 3,26 millones
de años luz.
2.Parámetros cosmológicos
distintos modelos relativistas
de
q0
Tipo
Ω0
0
< -1 M2; de Sitter
>0<Ωc < -1 M2; de Sitter
Ωc <-1 A2;caso Lemaître
de Sitter
>Ωc ≤-1
M1; de Sitter
>0 -1<q0<1/2 M1; de Sitter
>Ωc
>1/2 M1; de Sitter
Ωc
>1/2 A1; Einstein
<Ωc
>1/2
0
0
-1
de Sitter
>0 -1<q0<1/2 M1; de Sitter
>0 -1<q0<1/2 M1; de Sitter
0 -1<q0<0 M1; de Sitter
>0
>1/2
0
½
½ M1;Einstein-de Sitter
>0 0<q0<1/2
M1
0
0 M1; caso de Milne
>0
>1/2
0
>0
>1/2
0
0
>0
0
>0
>0
0
Ωc=∞
∞
Einstein
(Del
artículo
“Cosmología
y
observaciones. Un análisis crítico”, por
Mariano Moles Villamate. Investigación
y Ciencia. Julio 1981)
3.Valores
de
cosmológicos
los
parámetros
A.Sobre la constante de Hubble H0
MÉTODO _ VALOR _ REFERENCIA
Supernovas 60±10Rev1998 David Branch
Tipo Ia
66±2 HST Distance Scale Key
55±10 Allan Sandage-Tammann
los
Λ, constante cosmológica
k, curvatura espacial
Ω0, parámetro de densidad
Ωc, parámetro de densidad crítica
Supernovas Ia 65±3 Adam Riess, William
usando curvas
Press Robert Kirsher
de luz varios colores
1996
93
MÉTODO _ VALOR _ REFERENCIA
Lentes gravitatorias >0,38 Falco 1998
Supernovas Tipo II 73±13 Schmidt 1994
Evolución entropía
Cúmulos
<0,75 Kay y Bower 1998
TULLY-FISHER
73±10 Mould,J.R.
69±5 Giovanelli 1997
65+20-14 Watanabe 1998
Evolución función
distribución temp. <0,3 Viana y Liddle
rayos X cúmulos
1999
Cefeidas en galaxias
Y grupos cercanos 75±15 Madore 1998
Gigantes rojas más
brillantes en galaxias 77±8
y grupos cercanos
Abundancia cúmulos
galaxias y evolución 0,45±0,2 Eke 1998
Distribución espacial;si ΩΛ=0 Roukema y
tangen. cuásares ΩM=0,24+0,05-0,15Mamon
; si ΩΛ=1-ΩM ΩM=0,3±0,15
Harris 1998
Lentes gravitatorias 66±15 Falco 1997
Efecto SunyaevZeldovich
60±20? Birkinshaw1998
Veloc. Media rel. pares
galaxias del Survey 0,35±0,15 2000
Mark III
Juszkiewicz
•
Función masa/
luminosidad
0,16±0,05 Bahcall 2000
•
De los valores anteriores, se deduce
como intervalo más aceptable 65±15.
(Los valores anteriores vienen dados
en Km/s/Mpc).
Análisis eigenmodal
examen desviaciones <0,5 Takaniko 1999
rojo Las Campanas
B.Sobre el parámetro de densidad Ω0
(suponiendo ΩΛ=0)
*La mayoría de los datos apunta a Ω0<1
con una estimación de 0,2<Ω0<0,6. Los
datos de Supernovas de alta desviación al
rojo apuntan hacia la existencia de una
constante cosmológica distinta de cero.
Se obtiene estadísticamente de nueve
medidas independientes Ω0=0,31±0,07
(valores obtenidos de la página Web de
Geocities), con una cte. cosmológica
diferente de cero.
MÉTODO _ VALOR _ REFERENCIA
Estructuras a
gran escala 0,3±0,1 Bahcall
(Varios métodos)
1997
Lentes gravitatorias
producidas por
∼0,3 Bartelman 1997
cúmulos de galaxias
C.Sobre el parámetro de densidad debido
a una cte. cosmológica ΩΛ
Explosiones de Supernovas Perlmutter
a alta desviación al rojo <0,6±0,2 1998
Datos combinados
Supernovas gran
desviación al rojo
*Aunque los datos son escasos, se tiende
a un valor tan alto como ΩΛ∼0,7.
<0,1 A.G.Kim 1998
No obstante, a continuación expondremos
algunos valores medidos.
94
MÉTODO _ VALOR _ REFERENCIA
Lentes gravitatorias <0,62
4.Verificaciones y problemas en el
modelo estándar
“
A.Verificación de la teoría estándar
Anisotropías radiación
de fondo
0,62±0,16 J.D.Cohn 1998
Amplitud espectro
potencias distribución = 0
galaxias
Una predicción fundamental de la teoría
del big bang ha sido finalmente
verificada: Ha sido realizada una medida
de la temperatura de la radiación de fondo
de microondas cuando el universo tenía
sólo unos 2,5 billones de años.
“
Observaciones >0 (ΩΛ∼0,6-0,7 Riess1998
Supernovas
ΩM∼0,3-0,4) 1999,2000
Perlmutter97,Schmidt98
A.G.Kim 1998
Esta difícil y fundamental observación ha
sido realizada por un equipo de
astrónomos de la India, Francia y la ESO.
Han obtenido un espectro detallado de un
cuásar en el universo distante, usando el
instrumento UVES en el telescopio ESO
8,2 m. VLT KUEYEN en el observatorio
Paranal.
Anisotropías radiación Melchorri 1999
fondo (Boomerang) 0,85<ΩM+ΩΛ<1,25
Distribución tangencial Roukema y
cuásares con estudio
Mamon
supernovas 0,55<ΩΛ<0,95 1999
Si el universo fue formado en realidad en
el big bang, como muchos astrofísicos
creen, el resplandor de esta bola de fuego
primordial habría sido más caliente en el
pasado. Esto es exactamente lo que se ha
encontrado en las nuevas medidas.
D.Sobre la edad del universo T0
MÉTODO _ VALOR _ REFERENCIA
(en gigaaños)
El análisis del espectro VLT del cuásar
distante, no sólo da la prueba definitiva
de la presencia de los vestigios de la
radiación en el universo temprano, sino
que
también
enseña
que
era
significativamente más caliente que lo es
hoy, como predice la teoría.
Abundancia Torio
en la estrella halo >15±4 Cowan 1998
CS 22892-052
Cúmulos
globulares
>12±1
Gratton 1997
>11,5±1,7 Chaboyer 1997
Edad enanas
Oswalt,Smith,
blancas más >9,5+1,1-0,8 Wood y Hintzen
viejas
1996
Una de las predicciones fundamentales de
la teoría del big bang caliente para la
creación del universo es la existencia de
la radiación de fondo de microondas
(CMBR).
*A estas edades se añadirían las que
provienen del tiempo de evolución de las
estrellas pobres en metales desde su
formación. Se obtendría una edad mínima
del universo que estaría entre los
9,6<T0<15,4 Gigaaños (1 Gigaaño=109
años).
Este residuo de radiación de la primitiva
bola de fuego, como sabemos, fue
descubierto en el año 1964 por la
observación de ondas de radio por los
físicos americanos Arno A. Penzias y
95
Algunas débiles líneas de absorción de
los átomos de carbón neutros son
especialmente prometedoras, en el sentido
de que pronostican ser muy sensibles al
entorno de temperaturas. Sin embargo,
previas generaciones de telescopios más
pequeños han sido incapaces de conseguir
un espectro de suficiente calidad de estas
imperceptibles líneas de absorción de los
objetos remotos del temprano universo.
Robert W. Wilson, quienes recibieron por
ello el Premio Nobel de 1978.
La precisión de las medidas del satélite
COBE enseñó que esta antigua radiación
llena el universo, con una temperatura
actual de menos de 3 grados sobre el cero
absoluto (2,7 K).
Esta radiación viene de todas las
direcciones y es extremadamente
uniforme. Sin embargo, han sido medidas
ligeras variaciones de la temperatura en
diferentes direcciones, más recientemente
por observaciones de un globo sobre la
Antártida (el experimento Boomerang).
Hace unos años, el telescopio Keck de 10
m. (Mauna Kea, Hawai, USA) obtuvo un
espectro de un cuásar que tiene el
suficiente detalle para determinar un
límite superior a la temperatura de la
CMBR en la época correspondiente a los
3,4 billones de años después del big bang.
Como el universo se expande, debe haber
sido mucho más denso en el pasado. Una
predicción particular de la teoría del big
bang es también que la temperatura de la
CMBR debe haber sido más alta en los
primeros tiempos.
La
mayor
dificultad
de
tales
observaciones es la necesidad de excluir
otras fuentes de excitación (calientes). Es
bien conocido que algunos otros procesos
pueden afectar a las líneas de absorción
observadas, tales como una colisión entre
átomos y el calor de la luz ultravioleta
emitida por estrellas jóvenes y calientes.
Pero aunque se han hecho bastantes
intentos, no ha habido confirmaciones
observacionales más adelantadas. En
efecto, la mejor observación hecha hasta
ahora sólo ha sido capaz de establecer un
límite por arriba de la temperatura
cósmica en épocas tempranas.
El problema principal es, por tanto,
desenredar los variados efectos en orden a
aislarlos del CMBR. Esto sólo puede
obtenerse
por
significativos
y
excepcionalmente limpios y detallados
espectros de estos débiles objetos, una
dura y absorbente tarea.
Contra más lejos miramos en el universo,
más lejos vemos en el tiempo.
Hace más de treinta años que se predijo
que el crecimiento de la temperatura con
la distancia (desviación al rojo) podría ser
comprobada por la observación de líneas
específicas en el espectro de los cuásars
distantes. La idea es simplemente que en
épocas tempranas la CMBR no era
bastante caliente para excitar ciertos
niveles atómicos, y por tanto, para dar pie
a líneas de absorción en el espectro de los
objetos del espacio.
Por estas razones, todas las medidas
previas sólo han sido capaces de poner un
límite a la temperatura de la CMBR.
El nuevo espectro VLT del cuásar PKS
1232+0815 provee el esperado gran
avance en esta importante área de la
investigación cosmológica.
La luz de este objeto distante es absorbida
por material, entre otros, por una nube
96
indicio de un cosmos más caliente en el
pasado. (Del artículo “Fundamental Big
Bang Prediction is Finally Verified” de la
página Web de la UNISCI).
gaseosa en una galaxia de alto
corrimiento al rojo (z = 2,34). Esta
distancia corresponde a un tiempo
cósmico en el que el universo era cinco
veces más joven que en la actualidad.
B.Divergencias respecto a la teoría
estándar
Sumando a las líneas de carbón sensibles
al CMBR, el resultado del espectro único
aparece una extraordinaria riqueza de
otras líneas de absorción, revelando la
presencia de varios elementos en varios
estados de excitación. Hay, en particular,
un gran número de líneas de hidrógeno
molecular.
I.ACELERACIÓN DEL UNIVERSO
*Según Craig J. Hogan, Robert P.
Kirshwer y Nicholas B. Suntzef (Ver
“Exploraciones
del
espacio-tiempo
mediante Supernovas”. Investigación y
Ciencia. Marzo 1999), las últimas
mediciones sugieren que la expansión se
está acelerando, debido posiblemente a
una constante cosmológica no nula.
La multitud de información derivada de
esas líneas eran la llave para deducir la
temperatura del CMBR que afecta a la
galaxia.
También afirman que una segunda
explicación a la inesperada debilidad de
las Supernovas remotas se atribuiría a que
las mismas se encontrarían más alejadas
que lo que sus corrimientos al rojo
sugieren, es decir, las Supernovas
situadas a esas enormes distancias
mostrarían menos corrimiento al rojo que
lo que cabría atribuirles. Los cosmólogos
están postulando que la expansión del
universo procedió con mayor lentitud de
lo que se supone en los primeros tiempos,
y por ello hubo un menor desplazamiento
global del universo, también, de la luz
que viaja en su seno.
Un subsiguiente análisis detallado
permite la determinación de las
condiciones físicas en la nube; la
presencia de las líneas del hidrógeno
molecular es crucial para esto. El análisis
enseña claramente que los procesos de
excitación de las colisiones atómicas no
pueden ser los únicos responsables de la
forma y fuerza de las líneas de absorción
observadas. Una fuente adicional de
excitación debe, por tanto, estar presente
en el pasado distante.
Además, es posible “constreñir” el
resultado por el efecto de otros procesos
posibles de excitación. Esto hace posible
que los astrónomos deriven la
temperatura T de la CMBR en esta gran
distancia y temprana época cósmica,
poniendo un límite más bajo a esta
temperatura.
*Sobre el mismo tema, Pilar RuizLapuente, Alex G. Kim y Nicholas
Walter afirman lo siguiente, en su artículo
“Supernovas y expansión acelerada del
universo” (Investigación y Ciencia.
Marzo 1999).
El resultado final es que T es más caliente
que 6 K y más fría que 14 K; esto está
totalmente de acuerdo con la predicción
del big bang de T= 9 K. Esta es la
primera prueba real de que la CMBR es
La presión aumenta con la densidad de
radiación p = 1/3 ρ.
La densidad de materia decrece de forma
inversa al aumento del volumen, es decir,
97
según una ley de T-3. Sin embargo, la
densidad de radiación decrece con
potencia mayor, ley de T-4.
En su opinión, otro candidato a
componente con presión negativa lo
constituirían los efectos topológicos en la
textura del espacio-tiempo, que podrían
llevar asociados una densidad de energía
enorme.
El universo dibujado por la observación
de Supernovas muy lejanas es un
universo muy vacío y dominado por una
componente de energía de presión
negativa. La energía asociada a una
constante cosmológica llena el espacio
con densidad constante, y no haría mucho
pasó a dominar sobre la materia en la
evolución del universo, de la misma
forma que la materia pasó a dominar
sobre la radiación en algún momento del
primitivo cosmos.
II.PROBLEMAS CON LA SIMETRIA
ROTACIONAL DEL UNIVERSO A
ESCALAS CÓSMICAS
Según los investigadores Borge Nodland
de la Universidad de Rochester y John P.
Ralston de la Universidad de Kansas, hay
evidencias de que el principio de simetría
rotacional puede ser violado en el
cosmos. Medidas de la luz de las galaxias
distantes, nos dicen, varían dependiendo
de la posición de las galaxias en el
espacio.
Se calcula en un 30% la materia del
universo y en un 70% la energía del
vacío.
Esta constante cosmológica es una forma
exótica de materia cuya densidad no
cambia al variar el volumen que lo
contiene.
Einstein, Newton e incluso Kepler
siempre habían asumido que el espacio
posee una propiedad llamada simetría
rotacional, o sea que las medidas de los
eventos dentro deben dar en cualquier
sentido los mismos resultados.
La ecuación de estado para la energía del
vacío,Λ, es p = -ρ. Para la materia
ordinaria (salvo a velocidades cercanas a
la de la luz) la presión es insignificante.
Si existe materia y energía del vacío
como componentes del universo, la
deceleración viene dada por la ecuación
q0 = ½ Ωm-Ωv (siendo Ωm el parámetro de
densidad de la masa y Ωv el parámetro de
densidad del vacío). En dichos términos
han presentado los autores sus resultados.
Sin embargo, otros teóricos dudan de
estos resultados, entre ellos Sean M.
Carroll y Sandy Hill.
Nodland y Ralston investigaron si la luz
polarizada de galaxias remotas cambia su
dirección o distancia. (La luz polarizada
típica oscila dentro de un plano
preferentemente a todas direcciones,
como en la luz ordinaria del Sol, y puede
ser producida por una variedad de
fenómenos). La luz polarizada a menudo
se tuerce cuando se propaga a través del
espacio como resultado de sus encuentros
con campos electromagnéticos; este
conocido fenómeno se llama efecto
Faraday. Pero Nodland y Ralston se
preguntan si habría efectos adicionales a
los anteriores.
Los resultados de “la aceleración” de la
expansión, no obstante, serían también
compatibles con la presencia de una
forma de energía distinta de la del vacío,
que tendría como ecuación de estado
P=wp, con w negativo, pero distinto de –
1. En esta hipótesis, la energía del vacío
podría anularse.
98
Para encontrarlos, se concentraron en
estudios de las galaxias que emiten gran
cantidad de radiación sincrotón, una
forma de polarización electromagnética
generada por partículas cargadas pasando
a través de un fuerte campo
electromagnético. Después de analizar la
literatura publicada, Nodland y Ralston
compilaron los datos de polarización de
160 galaxias.
preferente. El universo, en su opinión,
pudiera no ser “tan perfecto, simétrico e
isótropo como pensamos”.
Su investigación se movía alrededor de
una gran suposición, que el ángulo inicial
de polarización de la luz relativa al plano
de cada galaxia era el mismo para todas
las 160 galaxias. Dada esta suposición y
la distancia estimada de las galaxias
(inferida de sus corrimientos al rojo),
Nodland y Ralston podían calcular si la
luz sufrió algún retorcimiento distinto del
causado por el efecto Faraday.
C.En defensa del big bang
Otros astrónomos sospechan que esta
imperfección radica en el análisis de
Nodland y Ralston.
(De la Web “Scientific American
Exploration: Twist and Shout”. 1997)
Muchos de los supuestos problemas que
rodean al big bang, pueden ser achacados
no al propio modelo, sino a algunos
parámetros libres, como pueden ser la
constante de Hubble o la densidad de
materia.
La relación de Hubble, predicción teórica
del modelo estándar, es un hecho fuera de
toda duda observacional. Después de las
medidas del telescopio espacial Hubble,
pocos dudan que la cte. sea menor que 50
y mayor que unos 80 (65 es el valor más
probable), lo que apenas deja unos 10.000
millones de años para la edad del
universo (asumiendo el tiempo del
modelo de Einstein-de Sitter como
2/3H0), tiempo escaso para la formación
de las estructuras que se observan hoy
día. El problema existe, pero no parece
que sea un problema del modelo estándar,
pues podría ajustarse el modelo, por
ejemplo,
introduciendo
la
cte.
cosmológica para que encajasen los
resultados; también en la medida de dicha
cte. están implicadas muchas disciplinas
astrofísicas, y un error en cualquiera
derribaría todo el edificio metodológico.
De hecho la nueva calibración de
distancias efectuada por el satélite
Hipparcos parece haber resuelto, bastante,
el conflicto.
Los cálculos de los investigadores
enseñan que la luz polarizada de las
galaxias en realidad exhiben una rotación
extra, en una cantidad proporcional a la
distancia de las galaxias desde la Tierra.
El hecho de que los efectos varíen con la
distancia, dice Nodland, descarta la
posibilidad de que fuera local, derivando
de fenómenos que ocurrieran en la
vecindad del sistema solar.
Pero la principal sorpresa es que la
cantidad de rotación depende de la
dirección de cada galaxia en el cielo.
Nodland y Ralston definen este efecto en
términos de distancia angular entre cada
galaxia y la Constelación Sextante. El
giro aparece con más fuerza cuando la
dirección de la galaxia está casi paralela a
la del eje Tierra-Sextante, y más débil
cuando la dirección es perpendicular. El
efecto puede derivar de una partícula
indetectada, fuerza o campo, sugiere
Nodland, o incluso una propiedad del
espacio mismo que tenga una dirección
99
En el modelo estándar quedan aún sin
resolver algunas cuestiones como el
origen y formación de las galaxias, pero
ninguna parece contradecir el modelo
dentro del nivel de conocimiento actual.
Por ejemplo, si detectáramos algunos
objetos extragalácticos con fracciones de
helio bastante diferentes del 24%
predicho
por
los
cálculos
de
nucleosíntesis
primordial,
o
se
descubrieran nuevos objetos con fuertes
corrimientos al azul que violaran la
cinemática sustancial del modelo, o se
encontrasen cúmulos estelares con edades
evolutivas de unos cien mil millones de
años que pondrían la cte. de Hubble muy
lejos del rango permitido por las
incertidumbres del modelo, entonces sí
habría razones de peso para proceder a un
recambio sistemático del modelo
estándar. ¡Y es que las propuestas
aducidas hasta el momento, quizás, no
sean lo suficientemente descabelladas
para que se tengan totalmente en
consideración!
El modelo estándar tampoco dice
absolutamente nada sobre el instante de la
creación del universo, simplemente
remonta el tiempo hasta una fase de alta
densidad y temperatura dominada por
radiación térmica. Y es que hay tres
hechos confirmados: las abundancias
cósmicas primordiales de los elementos
ligeros, la existencia de la radiación
electromagnética
de
fondo
correspondiente a una emisión térmica a
unos 2,73 grados Kelvin, y la existencia
de tres familias de neutrinos, relacionado
con el modo de llevarse a cabo la
nucleosíntesis primordial y confirmado en
los aceleradores de partículas.
El profundizar más en el tiempo es más
un problema de física fundamental y no
del propio modelo estándar. De los
teoremas de Hawking-Penrose, el modelo
tiene una singularidad inicial, pero
cualquier explicación de lo que pasa en
ese “instante inicial” está más allá de lo
que se sabe en física fundamental. Y es
que las soluciones a los problemas con la
singularidad inicial no parecen estar, aún,
en el buen camino.
100
101
científicos, al convencerles de la
posibilidad de que las distintas fuerzas de
la naturaleza fueran manifestaciones de
un solo campo unificado.
Capítulo VI.
TEORÍAS UNIFICADAS (GTU´S)
1.Introducción
De esos esfuerzos ven la luz las teorías de
campo que unifican las tres fuerzas
(electromagnética, débil y fuerte),
denominándose
“Grandes
Teorías
Unificadas” o GTU. Las GTU no se
proponen una unificación del campo total
al no incluir la gravedad, mucho más
débil que las cuatro anteriores. Estas
teorías, aunque no resuelven todos los
problemas de la Física, han significado un
gran avance en la unificación de toda la
física de partículas.
Hemos visto como casi todas las teorías
basadas en el modelo estándar tienen en
común el inicio de la expansión en una
singularidad, la cual se caracteriza por un
aumento desmesurado de la densidad, con
una tendencia hacia el infinito y una
subsiguiente temperatura que alcanza los
millones de grados; con ello se entra en
un mundo que va más allá de la
relatividad general de Einstein y de la
propia mecánica cuántica, lo que la
mayoría llama la buscada “gravedad
cuántica”.
Hay
una
idea
general
en
el
convencimiento de los físicos de que
aunque las GTU han aclarado la dinámica
del universo primordial, mientras no
exista una teoría del todo unificada con la
inclusión, por consiguiente, del campo
gravitatorio, no se puede describir el
origen del universo, que requiere del
descenso o contracción de distancia hasta
la escala de Planck (10-33 cm.)
Claro que la meta de esta “gravedad
cuántica” debe pasar por unas fases
previas, que son las síntesis parciales
hasta llegar a la síntesis general que
representaría la anterior.
Pues esos pasos previos es lo que son,
justamente, las GTU´s o teorías
unificadas.
A continuación nos iremos introduciendo
en este mundo de las GTU.
Esta vía fue abierta por el propio Einstein,
el que partiendo de su teoría de la
relatividad general que describía la
gravedad, y la teoría de Maxwell para el
electromagnetismo, buscó, por cierto sin
conseguirlo, una teoría unificada más
amplia que integrase ambas fuerzas.
Cuando Einstein hizo este intento era
poco lo que se conocía de la fuerza débil
y fuerte, fuerzas que hoy en día se cree
tan fundamentales como la gravedad y el
electromagnetismo. Einstein creía que la
teoría del campo unificado surgiría de la
fusión entre la mecánica cuántica y su
relatividad general. Einstein no pudo
elaborar esta teoría del campo unificado,
pero sí sus trabajos inspiraron a otros
Para los químicos del siglo pasado los
átomos eran simples pequeños pedazos de
materia de forma esférica de un tamaño
aproximado de 10-8 cm. (o sea,
1/100.000.000 de centímetro).
La primera cuestión fue entonces
preguntarse si estos átomos tenían
estructura o no. El resultado fue positivo,
y la primera imagen de Bohr fue el símil
de un sistema planetario o un centro-Sol
que era el llamado núcleo y los planetas
que daban vueltas alrededor del centro,
los electrones; ahora bien, las órbitas de
estos electrones poseían ciertas reglas
102
debido a su pequeñez, lo que las hacía
diferentes de las órbitas de los planetas.
La
diferencia
es
que
estaban
“cuantizadas”, lo que quería decir que
sólo eran permitidas aquellas que poseían
solamente cierta energía, definida por E=
h ν, siendo h una constante llamada de
Planck y ν la frecuencia de ese
movimiento (ν=1/T, siendo T el período
de la onda que va acompañando a esos
electrones).
“nucleones”). La masa de los nucleones
es de unos 940 MeV, o sea, unas dos mil
veces mayor que la de los electrones. El
neutrón es ligeramente más pesado que el
protón; sólo 1,3 MeV más pesado.
Al tener los electrones carga, según las
leyes de la electrodinámica, todo objeto
cargado eléctricamente moviéndose en
una órbita circular, debería emitir
radiación constantemente, lo que haría
reducir la energía de dichos electrones
cayendo hacia el núcleo en un período
muy corto, menor de un segundo. El que
ello no suceda, como enseña la
experiencia
representaba
una
contradicción, superada por la mecánica
cuántica que establece entre sus leyes que
los electrones puedan moverse sobre
trayectorias
específicas
(estados
estacionarios cuantizados), tales que en
las mismas éstos no emitan radiación,
siendo dichas trayectorias totalmente
estables. Los cambios del electrón de una
a otra de estas órbitas se producen a
través de la captación o emisión de
radiación cuantizada hν. Existe una órbita
de energía más baja, dentro de las
estacionarias, es el llamado estado
fundamental; fuera de estos estados los
átomos están excitados, por las órbitas
excitadas de los electrones. Se accede
meramente al estado fundamental por
emisión de energía en forma de luz, como
acabamos de decir. Pero para definir las
órbitas de los electrones no basta tan sólo
la energía; se necesita también saber el
momento angular de los mismos. (El
momento angular describe lo rápido que
se mueve el elcetrón alrededor del
núcleo). En la teoría cuántica este
momento
angular,
también
está
cuantizado, y sólo puede valer un
múltiplo del momento angular mínimo,
dado por el llamado cuanto de acción de
Planck que vale h/2π =h. Así los posibles
Bombardeando los átomos con partículas
α (partículas cargadas positivamente y
obtenidas a partir de sustancias
radiactivas naturales que las emiten) se
vio que el átomo, realmente, estaría muy
“vacío”, pues el 99% de toda la masa total
del átomo estaba en su centro o núcleo.
En física de altas energías se expresa la
masa en unidades de energía (debido a la
equivalencia masa-energía de la ecuación
relativista, vista con anterioridad,
E=mc2). En estas unidades la masa del
electrón vale 0,5 MeV (MeV es el
llamado megaelectronvoltio, que vale un
millón de electronvoltios; y este último
es, a su vez, la energía necesaria para
mover un electrón en un potencial
eléctrico de un voltio). Y es que se usan
estas unidades por la pequeñez que
representarían estas masas de las
partículas en nuestras unidades ordinarias
(un electrón tiene de masa 9 * 10-28
gramos). Como los electrones tienen
carga negativa (igualmente cuantizada), y
los átomos son neutros, los núcleos
poseen carga positiva de valor igual y
contraria a la de los electrones que le
rodean.
El núcleo resultó harto complicado,
formado por dos tipos de partículas
elementales, los protones cargados
positivamente y los neutrones sin carga
(ambos reciben el nombre general de
103
mesones π de spin cero, o los mismos
fotones (partículas de luz) de spin 1.
momentos angulares son h, 2h, 3h, etc.,
además de cero.
Ocurre que el electrón tiene, también, la
posibilidad de girar sobre sí mismo, es
decir, tiene un momento angular
intrínseco. (Imaginemos al electrón como
una pequeña bola girando sobre sí misma,
pero con energía, de igual forma,
cuantizada). El momento angular
intrínseco del electrón es siempre ½ h, o
sea, la mitad del momento angular
mínimo del mismo. Ahora bien, el
momento angular se define como un
vector, y este puede apuntar en dos
direcciones contrarias, así que este
momento angular intrínseco del electrón
puede valer +1/2 h y –1/2 h. A este
momento angular intrínseco del electrón
se le ha denominado “spin”. De modo que
hasta el momento un electrón de un
átomo (de la corteza atómica) viene
caracterizado unívocamente por varios
números, como son su momento angular
y su spin. Estos números se denominan
“números cuánticos”.
El átomo más simple es el del hidrógeno
que posee un núcleo formado por un
protón y sólo posee un electrón en su
corteza atómica.
Existe otro sistema curioso llamado
“positronio” que está formado por un
electrón y su antipartícula, el positrón. Y
es también un estado ligado como el
átomo de hidrógeno, ya que la carga
eléctrica del positrón es igual a la carga
eléctrica del protón. La diferencia entre
ambos sistemas es que la masa del protón
es 2.000 veces (aproximadamente) que la
del electrón, y electrón y positrón tienen
la misma masa, orbitando uno alrededor
del otro. Claro está, la vida del hidrógeno
es prácticamente infinita, mientras que la
del positronio es menor de una
millonésima de segundo.
El estado del positronio puede ser
descrito a través del momento angular de
ambos constituyentes. Lo que importa es
la orientación relativa de los spins del
electrón y del positrón. Existen dos clases
de estados posibles de spin para el
positronio: que la orientación de ambos
spins sea contraria (parapositronio), o que
la orientación sea la misma - en la misma
dirección (ortopositronio). La vida del
parapositronio es mucho más corta que la
del ortopositronio. Esto es consecuencia
del hecho de que la aniquilación de
electrón
y
positrón
(materia
y
antimateria), en el positronio se efectúa
mediante interacción electromagnética.
Con el tiempo se demostró que dos
electrones en un átomo no pueden poseer
nunca dos mismos números cuánticos, es
lo que se ha denominado “principio de
exclusión de Pauli” (regla enunciada en
los años veinte del siglo pasado por el
físico Wolfgang Pauli). En los años
cuarenta se encontró que el principio de
Pauli era una consecuencia necesaria de
la mecánica cuántica cuando se considera
juntamente con la teoría de la relatividad.
Este principio es válido (una regla
similar) para todas aquellas partículas
como protones y neutrones cuyo spin no
sea entero, es decir, sea 0, 1, 2, 3,... (A
menudo
se
toma
la
unidad
mecanicocuántica igual a 1; el spin ½ h se
pone spin 1/2). Un ejemplo de partícula
en la que no vale este principio es para los
Como
es
sabido
el
campo
electromagnético está descrito por las
llamadas ecuaciones de Maxwell
(formuladas en el año 1861 por el físico
escocés James Clerk Maxwell).
104
de estructura fina, α, (introducida
inicialmente por el físico Sommerfeld) sin
dimensiones y de valor 1/137,036.
Las ecuaciones de Maxwell son válidas
que sepamos en órdenes de magnitud tan
altos como los poderosos campos
electromagnéticos observados en las
galaxias, hasta los que tienen sólo 10-36
cm. de extensión (10.000 veces menores
que el núcleo atómico).
Recordemos que tanto la electricidad
como el magnetismo se presentaban como
independientes con anterioridad a
Maxwell y Faraday, por ello la teoría de
Maxwell podríamos considerarla como la
primera teoría unificada de la electricidad
y el magnetismo.
En lenguaje más moderno ( de la
mecánica cuántica y la teoría cuántica de
campos) que el original de los tiempos de
Maxwell, decimos que las ecuaciones de
Maxwell describen la propagación de
cuantos electromagnéticos, fotones, en el
espacio. En igual forma se describe la
atracción o la repulsión entre objetos
portadores de carga.
La electrodinámica cuántica (de exactitud
admirable) nace de la fusión de la
mecánica cuántica con las ecuaciones de
Maxwell.
Poco después de la formulación de la
mecánica cuántica por Heisenberg,
Schrödinger, Born, Pauli y otros, Dirac
combinó esa teoría con la relatividad y las
ecuaciones de Maxwell. El resultado fue
una ecuación del movimiento de
partículas cargadas con propiedades
curiosas, que describe de forma
satisfactoria las propiedades de los
electrones; pero esa ecuación implicaba la
existencia de otra partícula, con la misma
masa que el electrón y con carga opuesta,
positiva (el positrón). Anderson, del
Instituto Tecnológico de California, la
descubrió posteriormente.
Por ejemplo, dos electrones se influyen
mútuamente por medio de su repulsión
eléctrica intercambiando quantums de
fotones, en este caso “virtuales”, para
distinguirlos de los llamados fotones
reales (los de la luz visible, por ejemplo).
En la siguiente figura se indica esta
“dispersión” por los llamados esquemas
realizados inicialmente por Richard
Feynman (diagramas de Feynman).
Es usual (en física cuántica) describir la
intensidad de una interacción mediante un
parámetro llamado “constante de
acoplamiento”. Para constantes mayores
que 1 (grandes) se habla de interacción
muy fuerte. Si dicha constante es mucho
menor que 1, estamos ante una
interacción débil. La constante de
acoplamiento
de
la
interacción
electromagnética se denomina constante
Al igual que el electrón, todas las
partículas descritas por la ecuación de
Dirac deberían tener una “antipartícula”.
Los diagramas de Feynman de la
desintegración del positronio, en sus dos
versiones es la siguiente:
105
constante de acoplamiento α, lo que
implica que la intensidad de la
desintegración del ortopositronio es
inferior en un determinado factor en
relación
con
la
intensidad
de
desintegración del parapositronio. La
consecuencia es el alargamiento de la
vida del ortopositronio.
Para
2.La intensidad fuerte
En un núcleo como el del uranio con 92
protones (y el mismo número de
neutrones), es muy difícil en el marco de
la electrodinámica concentrar en un
volumen tan pequeño como el núcleo un
número tan elevado de protones. La
repulsión eléctrica a estas distancias es
tan enorme que se esperaría la explosión
de dicho núcleo en breve tiempo, a no ser
que hubiese “otras fuerzas”, además de
las eléctricas, que pudieran estabilizar el
núcleo. Dichas fuerzas existen y son las
llamadas fuerzas nucleares o fuertes
(interacciones fuertes), y que actúan sólo
en el interior del núcleo, es decir, a
distancias del orden de 10-13cm.
Orto
La desintegración del parapositronio se
describe mediante un diagrama en el cual
el electrón y positrón llegan por la
izquierda y se aniquilan mutuamente,
creándose al mismo tiempo dos quantums
de fotones. Todo ello es consecuencia
especial de las ecuaciones de Maxwell,
puesto que se demuestra que dos
quantums de fotones no pueden formar
nunca en estado con momento angular 1
(en unidades h).
Por ejemplo, dos protones se repelen
mutuamente hasta que al acercarse a
menos de 10-13 cm. prevalece la fuerza
nuclear, atrayéndose los protones entre sí.
Ello es la causa de que se formen los
núcleos atómicos y de que el tamaño de
los mismos sea típicamente de 10-12..10-13
cm.
El ortopositronio (con los vectores de
spin apuntando en el mismo sentido) es
un estado de momento angular 1. El
parapositronio es un estado de momento
angular cero (vectores de spin apuntando
en sentido puesto). Por este motivo el
ortopositronio no puede desintegrarse en
dos fotones, sino en tres o más, al
contrario que el parapositronio.
En el marco de
cuántica, por cada
reacción hay que
adicional en forma
La
interacción
entre
cuerpos
eléctricamente cargados puede ser
descrita en términos de intercambio de
fotones virtuales, entonces no era muy
difícil suponer que lo mismo podía
suceder para la interacción fuerte. En esta
dirección apuntaron las primeras ideas de
los años treinta del siglo pasado por
medio del japonés Yukawa. Éste propuso
que las interacciones fuertes entre
la electrodinámica
fotón extra de la
pagar un precio
de un factor de la
106
nucleones se realizaban gracias
intercambio de una nueva partícula.
al
intercambio de un solo mesón. La teoría
de perturbaciones es inaplicable, y con
ello el tratamiento de Yukawa.
En la teoría cuántica existe una clara
relación entre la masa de la “partícula
intercambiada”
y el alcance de la
interacción correspondiente. Por ejemplo,
la interacción electromagnética y la
gravitatoria tienen alcance ilimitado
porque los fotones y gravitones carecen
de masa. Entonces, dado el pequeño
alcance de las fuerzas nucleares la
partícula
intercambiada
en
esta
interacción debe ser muy masiva. Y así
es, resultando masas que en unidades de
energía valen 100...150 MeV (o sea, unos
1/7 o 1/9 de la masa del protón).
Así que el procedimiento ha tenido que
variar de forma radical, y los
conocimientos
adquiridos
más
recientemente han conducido a una teoría
de la interacción fuerte llamada
cromodinámica cuántica (QCD, Quantum
Chromodynamics), teoría que se ocupa de
los llamados quarks.
La peculiar partícula llamada “neutrino”
fue predicha por Wolfgang Pauli a raíz de
resultados extraños obtenidos en el
estudio de la llamada desintegración β
que, realmente, es un tipo especial de
interacción llamada interacción débil.
Diez años después de la propuesta de
Yukawa
se
descubrieron
experimentalmente dichas partículas, los
mesones π (que no tienen spin - partículas
escalares- y poseen una masa de unos 140
MeV). Hay tres mesones π distintos: uno
cargado positivamente (π+), otro con
carga negativa (π-) y un tercero neutro
(π0). También se tiene que la partícula πes la antipartícula del π+, mientras que π0
es su propia antipartícula.
La solución propuesta por Pauli para la
desintegración del neutrón en un protón y
un electrón fue la del diagrama:
νe-
n
e-
Pero resulta que la constante de
acoplamiento para la interacción fuerte es
mucho mayor que la de acoplamiento
electromagnético,
α
(α=1/137,036),
mayor que 1 (aproximadamente 10); así
que no es posible construir la teoría de la
interacción fuerte por analogía con la de
la electrodinámica cuántica, que resuelve
el problema del intercambio de dos o más
fotones, mediante la llamada “teoría de
perturbaciones” (del proceso básico, que
es el intercambio de un fotón).
p
νe- fue la partícula propuesta, “neutrino”
(bautizada así por el físico Fermi),
necesaria para la conservación de la
energía. Realmente, conviene rebautizar
el neutrino que aparece en la ecuación
anterior como “antineutrino electrónico”
(νe-). (También existen otros tipos de
neutrinos).
La desintegración β anterior puede
escribirse en la forma:
Y es que la probabilidad de que dos o
más mesones π tomen parte en la
interacción fuerte de dos nucleones es
mucho mayor que la probabilidad del
n
107
p + e-+ νe-
Y el “zoo” de partículas con la
construcción de los aceleradores creció
sin cesar.
π-
Las
partículas
que
interaccionan
fuertemente se denominan hadrones. Y
dentro de los hadrones hay dos familias
distintas: mesones y bariones.
Λ
p
Como consecuencia de una ley de
conservación importante: la ley de
conservación del número bariónico, que
dice que “el número de bariones menos el
número de antibariones se conserva en
todo proceso físico”.
Otros mesones (además del π) son los
mesones K, de masa alrededor de la mitad
de la masa del protón, y los mesones ρ,
cuya masa es ¾ de la del protón.
De forma matemática se asigna a cada
barión el número bariónico A=+1 y a
cada antibarión el número bariónico A=1. A los mesones se les atribuye el
número bariónico 0; y lo mismo a los que
no interaccionan fuertemente como los
electrones. Así que, el número bariónico
se mantiene constante en todo proceso
físico.
Todos los mesones son inestables y se
desintegran al final en electrones,
positrones, fotones y neutrinos. También
poseen spin entero. El mesón ρ tiene spin
1 (mesón vectorial) y hay otros de spin 2,
3, 4, etc. Se sabe que la masa de los
mesones aumenta con el spin. (Hoy se
cree que existen casi infinitos mesones
con spin arbitrariamente grande).
Esta ley de conservación es análoga a la
ley de conservación de la carga eléctrica.
Junto con los nucleones conocidos
existen una serie de partículas
emparentadas como los hiperones (Λ, Σ,
Ξ) y las llamadas partículas ∆, que son
más pesadas que los nucleones. Por ello
todas estas partículas se denominan
bariones (de “baryos”, “pesado” en
griego). Su característica especial es un
spin no entero, en general de spin ½ (los
∆ tiene spin 3/2). Existen otros bariones
con spin 5/2, 7/2, etc.; cadena de
partículas que crecen de forma indefinida
con spines arbitrariamente elevados.
La conservación del número bariónico
garantiza que el protón sea una partícula
estable. O sea, la conservación del
número bariónico exige, pues, la
estabilidad del protón. Y es que la
conservación del número bariónico y la
estabilidad de la materia guardan
conexión mutua.
Sin embargo, la no conservación del
número bariónico es, en el marco de las
modernas teorías de campos de partículas
elementales, algo perfectamente natural,
esperándose para la vida media del protón
unos 1031 años (por el contrario, la edad
del universo actual es de unos 1010 años).
Todos los bariones, excepto el protón son
inestables, de forma que al final queda un
protón, junto con otras partículas como
los electrones.
En el grupo de partículas dotadas de spin
½ como el electrón y el neutrino, están
los leptones ( de “lepto” – ligero -,
aunque existan leptones más pesados que
El hiperón Λ (masa 1116 MeV) se
desintegra en la forma:
108
partículas ∆ (∆++,∆+, ∆- y ∆0). En
particular existe una partícula elemental
de carga +2, a saber, la partícula ∆++.
También hay partículas sin “socios de
isospin”, como el mesón η. Otros, los
mesones ρ, de spin 1 y masa 2/3 de la del
nucleón. Existe, también, el mesón
neutro, w, de spin 1.
el protón). Entre ellos están el muón µ y
el neutrino asociado a él, el neutrino
muónico νµ.
Los leptones parecen estar emparentados
de modo que cada pareja está formada por
un neutrino y un leptón cargado. Así:
νe νµ ντ
e-  µ- τ- 
La razón física de la existencia de la
simetría de isospin es consecuencia de la
estructura interna de las partículas que
interaccionan fuertemente. La simetría de
isospin es una simple consecuencia de la
estructura de quarks de los hadrones.
El leptón tiene una masa de 1,8 GeV, y no
se sabe si la masa de los neutrinos es
nula.
Hay muchos más hadrones que leptones,
pues sólo se conocen seis leptones y, sin
embargo, algunos cientos de hadrones. De
aquí puede concluirse que los leptones
son de carácter más fundamental que los
hadrones, puesto que los hadrones
resultaron ser “sistemas” formados por
unos constituyentes elementales: los
quarks.
(Concepto
propuesto
originalmente por Murray Gell-Mann y
Georges Zweig en el año 1964).
Es fácil construir mesones a base de
subunidades de spin ½. Lo más fácil son
los mesones con una subunidad de spin ½
y con una antipartícula. El sistema, pues,
tiene spin entero (0, 1, 2, 3,...).
La posibilidad más simple, es tener dos
constituyentes distintos a los que
llamaremos quarks u y d (up –arriba- y
down –abajo-). Con dos quarks q
distintos pueden construirse cuatro
sistemas quark-antiquark diferentes,
concretamente uu, ud, du y dd. / En
particular los mesones suelen aparecer en
grupos de cuatro. Ejemplo, el grupo π+,
π0, π-, η o el grupo ρ+, ρ0, ρ-, w). Luego
los mesones pueden se sistemas quarkantiquark.
El modelo de quarks de los hadrones ha
pasado de ser una hipótesis a convertirse
en la teoría de los hadrones.
Heisenberg propuso que la interacción
fuerte es invariante bajo el intercambio de
protones y neutrones entre sí. Esta
invariancia se denomina “simetría de
isospin”. (Que se cumple para la
interacción fuerte pero no, por ejemplo,
para la interacción electromagnética).
Si los bariones son sistemas formados por
varios quarks, necesitamos para la
construcción de un nucleón más de un
quark. Pero, como es imposible construir
un barión a partir de dos quarks, ya que el
spin de un sistema de dos quarks no pude
ser semientero como lo es el spin de un
nucleón, es necesario, pues, interpretar
dichos bariones como sistemas formados
por tres quarks.
Entonces, los hadrones pueden ser
distribuidos en distintos grupos según
esta simetría de isospin. Los miembros de
un grupo tienen todos el mismo spin, el
mismo número bariónico, y casi la misma
masa, pero distintas cargas eléctricas.
Ejemplos de estos grupos de isospin son
los mesones π (π0, π-, π+) y las llamadas
109
Si nos fijamos en las partículas ∆, sólo
existen cuatro alternativas distintas para
construir sistemas qqq con los quarks u y
d. A saber: uuu, uud, udd y ddd. Las
cuatro partículas ∆ tendrían estas cuatro
configuraciones:
La respuesta es que no se han tenido en
cuenta el spin de los quarks. Los mesones
π tienen spin 0, así que ambos spines se
orientan en sentido contrario. Los
mesones ρ, de la misma configuración de
quarks que el π, tiene spin 1, porque los
spines de ambos quarks están orientados
en la misma dirección (lo mismo que
sucedía con el positronio con sus dos
configuraciones). El mesón π corresponde
en su estructura de spin al parapositronio
y el mesón ρ a la del ortopositronio. Las
partículas ∆ tiene spin 3/2, lo que se
consigue cuando los spines de los tres
quarks apuntan en la misma dirección. En
el núcleo con spin ½, dos de los quarks
tienen los spines orientados en la misma
dirección, y el otro en dirección opuesta.
∆++=(uuu), ∆+=(uud), ∆0=(udd), ∆-=(ddd)
Con esta identificación procuraremos
determinar las propiedades de los quarks,
en particular sus números cuánticos. El
número bariónico del quark debe ser la
tercera parte del número bariónico del
nucleón, o sea, 1/3. (El nº bariónico de un
quark no es entero). Como ∆++= (uuu), la
carga eléctrica del quark u es 2/3. De la
misma forma, la carga del quark d es –
1/3. Por primera vez nos encontramos en
la física objetos cuyo número bariónico y
cuya carga eléctrica no son enteros. El
protón, que tiene carga eléctrica +1, debe
ser interpretado como un sistema cuya
estructura de quarks es uud: el neutrón
tendría la estructura udd.
Ahora sólo falta suponer que la fuerza
que actúa entre los quarks debe ser tal que
los spines en un mesón se orienten,
naturalmente, en direcciones opuestas y
que se necesita energía para orientarlos en
la misma dirección (es el caso del mesón
ρ). La diferencia entre la masa del mesón
ρ y la del mesón π no es más que la
energía “a aportar” para “invertir” el spin
de uno de los quarks en el mesón π, para
obtener el mesón ρ. Algo análogo
sucedería para todos los bariones.
Veamos ahora los mesones. La carga
eléctrica del sistema ud es –1, puesto que
la carga del anti-u es –2/3. De igual
forma, la carga del sistema du es +1, y la
carga de uu o dd es uno. Así
identificamos:
Un problema que parecería sustancial en
un principio, es el hecho de que los
propios quarks no han sido observados
nunca como partículas reales. Y es que
cabría imaginar que la estructura de quark
de los nucleones sería similar a los
núcleos
atómicos,
formados
por
nucleones, e igual que en éstos poder
extraerlos de dichas estructuras (como un
nucleón de un núcleo atómico).
π+= (du), π-= (ud), ρ+= (du), ρ-= (ud)
Los sistemas neutros π0 y η o ϕ0 y w
tienen estructura más complicada, ya que
estos sistemas son superposiciones de
varias configuraciones de quark-antiquark
neutras.
Sin embargo, todas estas partículas tienen
masas muy distintas, así que, ¿cómo es
posible describir partículas de masas tan
distintas
mediante
las
mismas
configuraciones de quarks?
Lo anterior se ha intentado en numerosos
experimentos, mas, en ningún caso, fue
110
A este tipo de comportamiento (fuerzas
de interacción fuerte se tornan débiles a
gran energía) los físicos teóricos le han
denominado “asintóticamente libre”. Y es
que la teoría cromodinámica tiene esta
propiedad, puesto que según la teoría
cuántica, a distancias menores que un
nucleón, unos 10-13 cm, los quarks se
comportan como partículas que existen
libremente.
posible extraer quarks como partículas
independientes de la unidad nucleónica.
La teoría denominada “cromodinámica”
resuelve todos los problemas apuntados, y
en ella los quarks aparecen como los
objetos fundamentales de la física
hadrónica,
aunque
aparezcan
permanentemente confinados en el
interior de los hadrones.
Por experimentos de difracción de
electrones puede analizarse el propio
protón. Dichos experimentos dan como
resultado que la carga eléctrica en el
protón esté concentrada en unos pocos
puntos, que son los mismos quarks que
actúan como portadores de la carga
eléctrica, y que se determinó en 2/3 y –
1/3, respectivamente.
En el año 1950 se veía que los leptones y
quarks podían reunirse en una sola unidad
utilizando la notación simbólica:
Al calcular la contribución de los quarks
al impulso total del protón cuando éste se
mueve a gran velocidad, se encuentra que
la suma de los impulsos de los quarks da
solamente la mitad del impulso del
nucleón, así que debe haber otros
componentes en el nucleón a parte de los
quarks, que no portan cargas eléctricas.
Pues bien, estos nuevos “objetos” son los
llamados “gluones” (del inglés “glue”,
pegamento), responsables de la unión de
los quarks a los hadrones.
La partícula neutra Λ no se producía sola
sino que aparecía siempre en compañía de
otra partícula, el mesón K. El fenómeno
de la creación de nuevas partículas se
llama producción asociada.
νe : u 
e : d 
pero, entonces, no había sitio para el
muón y su neutrino.
Finalmente se encontró que junto al
isospin existe otro número cuántico, al
que
se
denominó
“extrañeza”
(“strangeness”). La extrañeza es un
número que puede asociarse a cada
partícula, análogo al número bariónico.
Es cero para las partículas normales como
los nucleones, mesones π, etc. Sin
embargo, a la partícula Λ se le atribuyó
extrañeza –1.
Es curioso que los quarks que se observan
de forma indirecta en los experimentos de
electrones y los realizados por neutrinos,
no tienen en apariencia estructura, como
los leptones, algo extraño puesto que
aquellos
interactúan
“fuertemente”.
Parece como si los quarks se “olvidaran”
de esa interacción fuerte en cuanto
reciben el impacto de un electrón o
neutrino de gran energía (comportamiento
llamado “scaling”).
En un proceso de interacción fuerte se
mantiene constante la extrañeza. Por
ejemplo, si al principio en un proceso de
interacción fuerte es cero, al final también
la extrañeza debe ser cero, lo que explica
que las partículas extrañas sólo pueden
producirse por pares; si se crea una
partícula de extrañeza –1, debe,
simultáneamente, crearse una partícula de
111
extrañeza +1, para que la extrañeza total
siga siendo cero.
interaccione con ella y, sin embargo,
continúe siendo un neutrino?
La extrañeza se relaciona con la
existencia de otro quark al que se llama
quark “extraño” s. En particular,
identificamos la partícula Λ con el barión
en el cual se encuentran los tres quarks:
Λ= (uds). Como la carga eléctrica de la
partícula Λ es cero, se infiere que la carga
eléctrica del quark s vale –1/3, igual que
la carga eléctrica del quark d. El quark s
es un hermano pesado del quark d (la
diferencia es de unos 150 MeV).
Existe y es la siguiente:
νµ
νµ
El neutrino incidente transfiere parte de
su energía e impulso al hadrón (por
ejemplo, un protón en un núcleo). Este
último se excita y se desintegra a
continuación en hadrones. El neutrino
conserva su identidad.
Por fin, todos los hadrones descubiertos
en el laboratorio hasta 1964 podían
interpretarse como sistemas constituidos
por los quarks u, d y s. Ya se mencionó
que podía existir un paralelismo entre
leptones y quarks. En especial se
relacionó el electrón y su neutrino con los
quarks u y d. Como había que relacionar
el número s con el muón, y junto al muón
existe el neutrón muónico, resulta que se
asocian cuatro leptones con los tres
quarks, en la forma:
El proceso anterior sólo puede producirse
si existe una nueva fuerza débil que haga
posible que el neutrino no se transforme
durante la interacción débil. Dicha
interacción recibe el nombre de
“interacción de la corriente neutra”.
νe: νµ ↔ u: s
 e : µ
d: 
Y es que con la ayuda de la interacción de
la corriente neutra se puede desarrollar
una teoría unificada de las interacciones
débiles y electromagnéticas.
El esquema anterior sería más
satisfactorio si existiese otro quark. E
incluso se propuso un nombre para este
eventual número quark: “encanto”.
Cuando se descubrió la interacción de la
corriente neutra sólo existía un
mecanismo posible que era la existencia
de un nuevo quark de carga eléctrica 2/3.
Para el año 1974 se descubrió una nueva
partícula llamada ψ que tenía una masa
de unos 3.100 MeV y con un tiempo de
desintegración muy alto, pues vivía mil
veces más de lo esperado. La
interpretación más probable del fenómeno
sería el “encanto”.
Así que la curiosa asimetría entre
leptones y quarks expuesta anteriormente,
quedaría resuelta en la forma:
u : c
d : s
νe : νµ
 e- : µ-
Ahora bien, la masa efectiva del quark c
debe ser mucho mayor que la del quark s.
¿Habría una reacción en la que un
neutrino incida sobre la materia,
112
Consecuencia de lo anterior es que
existirían estados cc, o el nuevo quark
unido a su propio antiquark (como el caso
del quark s, con el estado ss del mesón
Φ). Los estados con estructura cc se
denominaron charmonio (del inglés
“charm”, encanto).
energía. Muchos de tales estados tenían
una masa de 1,86 GeV.
Pero, ¿qué hay de los bariones
encantados? El barión “extraño” más
ligero es la partícula Λ de composición
uds. La versión “encantada” de la Λ seria
una partícula cuya composición será udc.
A esta partícula se le dio el nombre de Λc,
aunque la carga de la misma es +1, no
como la de Λ que es nula. Al ser el quark
c más pesado que el s, la masa de Λc debe
ser mayor que la de Λ, es decir, debe
superar, por lo menos en 1 GeV, la masa
de la partícula Λ; esto es, debe valer unos
2,2 o 2,3 GeV.
Como dijimos, en noviembre de 1974 se
encontró la partícula ψ, y que fue
nuevamente localizada en el anillo
SPEAR en Stanford, llamándose J
(símbolo que representa en chino el
nombre del investigador Ting). ¡Así que
la partícula quedó bautizada como J/ψ!.
Esta partícula representa el espectro de
los estados del “charmonio” (los
formados por el quark c y el antiquark c,
unidos por interacción fuerte, como ya
hemos dicho). El momento angular total
de la misma es 1. Si los spines tienen
orientaciones opuestas se tiene una
partícula pseudoescalar llamada ηc, con
una masa de unos 3.000 MeV.
Hasta 1979 no se obtuvo esta partícula Λc
, encontrándose una masa de 2.273 MeV.
Fue observada en las desintegraciones:
Λc
Λ π+ π+ π- y pK-π+
3. Cromodinámica cuántica QCD
(Quantum Chromodynamics)
Pero solamente la idea del “encanto” sería
correcta si se encontraran partículas
“encantadas”, formadas por el nuevo
quark c y uno o varios de los ya
conocidos. La más ligera de las nuevas
partículas encontradas sería la partícula
D0, compuesta por el sistema µc, nuevos
mesones que llevan el número cuántico
“encanto”.
Ahora es momento de analizar la
enigmática partícula ∆++.
La partícula ∆++ tiene una masa de 1232
MeV y consta de tres quarks u. Posee
momento angular igual a 3/2, debido a
que los tres quarks u tiene sus spines
dirigidos en la misma dirección. Como
∆++ es la partícula más ligera con carga
eléctrica +2, se espera que los tres quarks
u en el estado ∆++ se encuentren más o
menos en reposo mutuo. Este estado
recibe el nombre de estado fundamental
del sistema formado por dichos tres
quarks u.
Un mesón D debería transformarse con
ayuda de la interacción débil en un estado
que contenga un quark s, que contendría
partículas “extrañas”, como por ejemplo
un mesón K. Una posible configuración
final que se obtiene es el estado formado
por el mesón K y los mesones π (Kππ).
La figura siguiente representa ∆++.
Los físicos de Stanford lograron
identificar partículas “encantadas” al
determinar la masa de los estados Kππ,
creados en la aniquilación e+e- de gran
113
configuración ∆++ de modo que ésta sea
antisimétrica con relación al intercambio
de los quarks. Sólo habría que asegurarse
que la configuración es antisimétrica en
los números cuánticos de color; es decir,
escribimos la configuración ∆++ como una
superposición de seis posibilidades
distintas. Cada una está relacionada con la
adyacente por el intercambio de dos
quarks de color; se obtiene la segunda a
partir de la primera por intercambio de los
quarks rojo y verde, mientras que el quark
azul sigue igual. Como los signos de los
seis términos se van alternando, la suma
de todos los términos es antisimétrica
frente al intercambio de cualquier par de
quarks, como exige el principio de Pauli.
Si intercambiamos entre sí dos de los
quarks u, obtenemos lo mismo que antes.
O sea, la configuración ∆++ es simétrica
respecto al intercambio de los quarks.
Los quarks son objetos de spin ½ como
los electrones, y éstos últimos siguen la
ley descubierta por Pauli, que dice que
dos objetos de spin ½ no pueden hallarse
en configuración simétrica, sino sólo en
configuración antisimétrica. Así que no
existe ningún motivo para creer que este
principio no valiera, también, para los
quarks. Por lo tanto, la configuración ∆++
debería ser antisimétrica respecto al
intercambio de dos quarks y no simétrica.
Esta idea puede generalizarse a todos los
bariones, exigiendo que todas las
configuraciones de tres quarks sean
totalmente antisimétricas respecto al
número cuántico de color.
Ningún color es más privilegiado que
otro. Dichas configuraciones se les llama
singletes de color, o bajo el grupo de
color, es decir, bajo un grupo de todas las
transformaciones
matemáticas
que
pueden realizarse en el espacio de color.
Como existen tres colores, este grupo de
denomina grupo SU(3).
Parece, pues, que debería existir un
principio especial que difiere del
principio
de
Pauli,
llamado
“paraestadística de rango tres”, que
explicaría por qué el estado ∆++ es
simétrico y no antisimétrico con relación
al intercambio de quarks. En el año 1970
Harald
Fritzsch
y
Gell-Mann,
reconsideraron esta idea y la modificaron.
Introdujeron un número cuántico, el
número cuántico “color”, que condujo a
la moderna teoría de la interacción fuerte,
la cromodinámica cuántica.
Se toma para caracterizar cualquier estado
de un quark por dos índices distintos: su
color y su tipo. El índice de color va de
uno (rojo) a tres (azul), mientras que el
tipo denota u, d, s o c.
La trialdad del número cuántico de color
está íntimamente ligada al hecho de que
los bariones están formados por tres
quarks.
En esta teoría se supone que cada quark
puede existir en tres variedades, que
descubriremos como colores (una
variedad roja, una verde y una azul).
A continuación exponemos un ejemplo de
interacción gluónica entre dos quarks.
Si los quarks se dan en tres colores
diferentes, es muy fácil construir la
114
Los colores de los quarks cambian por la
interacción con un gluón.
En la teoría de grupos que rige en la
Cromodinámica, resulta que los singletes
de color son los estados ligados de la
teoría, igual que los singletes de carga
forman los ligados de la electrodinámica.
En otras palabras, los quarks tienen
tendencia a permanecer en estados
singletes de color cuando las fuerzas entre
quarks vienen dadas por la carga de color.
Ahora la cuestión es encontrar una teoría
análoga a la electrodinámica cuántica
(QED=
quantum
electrodynamics),
basada en la teoría de Maxwell, en la que
las cargas de color jueguen el mismo
papel que la carga eléctrica en la última.
rojo
verde
gluón
Verde
q
Rojo
q
En un símil con la electrodinámica en el
espacio de los colores, el papel de la
carga eléctrica lo desempeña ahora las
cargas de color en donde los fotones son
sustituidos por los gluones.
Veamos la equivalencia entre conceptos
en ambas teorías.
Los distintos gluones se caracterizan por
sus propiedades de transporte de color.
Con los tres colores existen nueve
posibilidades distintas de acoplamiento
de los gluones a los quarks:
rojo
rojo
verde
verde
azul
azul
rojo
verde
azul
QED
Electrón.............................Quark u
Muón.................................Quark d
........................................................
Carga eléctrica...................Carga de color
Fotón.................................Gluón
Átomo...............................Mesón, barión
verde
azul
rojo
azul
rojo
verde
verde
verde
azul
Ahora bien, la diferencia esencial entre
ambas teorías radica en que existen ocho
cargas de color distintas, y una sola carga
eléctrica. Las ocho cargas de color
forman el grupo SU(3) de color o grupo
de aforo de la electrodinámica y como
este grupo no es abeliano, se conoce a la
teoría de la Cromodinámica como teoría
de aforo no abeliana. (Este tipo de teoría
fue estudiado por primera vez en 1953
por los físicos Yang y Mills)
En las tres últimas no hay cambio de
color. Existe una posibilidad que es
totalmente simétrica con respecto al
color, específicamente la superposición:
Rojo
rojo+ verde
verde+ azul
QCD
azul
Un hecho importante es que los propios
gluones llevan cargas de color, por lo que
tienen las mismas propiedades que las
cargas de color.
Esta posibilidad hay que descartarla pues
representa un singlete de color. Las otras
posibilidades restantes forman las ocho
cargas de color SU(3), y para cada carga
de color hay un gluón especial; es decir,
hay ocho gluones distintos.
La
forma
de
representar
una
transformación del color de un quark por
115
(Se juntan un gluón rojo- verde y un
gluón rojo- azul para formar un gluón
verde- azul)
un gluón (lo que se llama un vértice
quark- gluón), viene representado en la
siguiente figura:
No existe ninguna línea de color que
termine o empiece en punto alguno.
L
q(verde)
q(rojo)
En
la
cromodinámica
sólo
las
configuraciones incoloras, es decir, los
singletes de color, se presentan como
partículas aisladas. Tanto quarks, como
gluones, o todos los objetos de color
existen sólo en el interior de partículas
“blancas” (confinamiento).
Gluón
También en cromodinámica existe una
interacción entre los llamados gluones
coulombianos y los llamados gluones
magnéticos. Así que, por ejemplo, es
posible que un gluón coulombiano se
divida en otro coulombiano y uno
magnético,
pudiéndose
unir
posteriormente en un único gluón
coulombiano (ver figura).
(El gluón viene representado por esta
línea discontinua roja- verde, que implica
qué color se transforma en cuál otro)
En electrodinámica, sin embargo, la
partícula responsable de la existencia de
fuerzas
eléctricas,
el
fotón,
es
eléctricamente neutro (no posee carga
eléctrica, en contraste con el gluón).
La ausencia de carga del fotón permite
que las ondas electromagnéticas, ondas de
luz, se muevan en la misma dirección sin
influirse mutuamente. (Si tuviesen carga
se atraerían o repelerían entre sí, algo
parecido a lo que ocurre en
cromodinámica).
Al ser los gluones objetos de color, existe
una interacción directa no solamente entre
gluones y quarks, sino entre gluones entre
sí; es decir, hay un vértice entre tres
gluones distintos.
Los estados ligados de quarks pesados
poseen la propiedad de que ambos
constituyentes (quark- antiquark) están
muy cerca el uno del otro. Se estima su
tamaño en 10-15 cm, unas 50 veces más
pequeños que un protón. Cuando los
quarks pesados están tan cerca uno de
otro, pueden despreciarse los efectos
producidos por la nube gluónica
resultante de lo que se llama la
“polarización del vacío, con lo que la
fuerza entre los quarks es esencialmente
la ley de Coulomb; así que los mesones
azul
verde
rojo
Vértice trigluónico.
116
líneas de campo por esa atracción
cromomagnética, las líneas quedaran más
densamente distribuidas en el espacio de
lo que había que suponer con la ley de la
fuerza coulombiana. Entonces, como hay
mayor polarización del vacío a mayores
distancias, la carga de color de los quarks
debería crecer.
pesados serían muy parecidos en su
estructura a los estados ligados electrónpositrón, o también al átomo de
hidrógeno.
La situación, sin embargo, no es del todo
la misma, porque los gluones que rodean
permanentemente a los quarks juegan un
papel, aún en estos sistemas quarkantiquark muy pesados.
Pero, ¿qué pasaría si en este sistema
pesado quark- antiquark fuésemos
separando lentamente dichos quarks, más
aún que lo dicho anteriormente?
Entonces, al irse comprimiendo más y
más las líneas del campo cromodinámico,
se llega a una configuración en la cual
todas las líneas de campo serían paralelas
(como las líneas del campo eléctrico de
un condensador plano –ver figura). Esto
sucede para distancias mayores de 10-13
cm. (El símil sería una “cinta de gluones”
que
representarían
las
líneas
cromoeléctricas).
Puede describirse la fuerza coulombiana
entre dos quarks pesados mediante líneas
de campo cromoeléctricas, que son
enteramente análogas a las líneas de
campo electrodinámicas. Estas líneas
nacen siempre en un quark y mueren en el
antiquark correspondiente. Igual que en la
electrodinámica, cuanto menos densa es
la distribución de líneas en el espacio,
más débil es la fuerza de color en el punto
en cuestión.
Consideremos, ahora, los efectos de la
“polarización del vacío” causada por los
gluones. El interaccionar directamente, en
cromodinámica cuántica, como hemos
dicho con anterioridad, dos quantums
coulombianos
con
los
quantums
magnéticos, ello significa que hay una
atracción cromomagnética entre las líneas
de campo cromoeléctrico (esta atracción
es debida a los quantums magnéticos que
saltan de una línea de campo a otra –ver
figura).
El resultado es que la fuerza entre los
quarks a distancias mayores de los 10-14
centímetros es constante, y se necesita
mucha energía para separar dos quarks,
así que es casi imposible separar quarks a
distancias macroscópicas. (Las fuerzas
son incluso mayores que las de las
interacciones fuertes de las fuerzas
nucleares responsables de la cohesión de
los núcleos).
El resultado es claro, al comprimirse las
q
q
q
q
Como hemos visto, por el contrario, la
fuerza entre quarks se debilita a distancias
muy pequeñas, lo que se llama “libertad
117
asintótica”, que garantiza que los quarks
se
comportan
como
partículas
prácticamente libres a dichas distancias
cortas.
cargas eléctricas se mueven en círculo,
por eso una partícula cargada y con spin
posee un campo magnético muy similar al
campo magnético de un imán.
Estudiemos, ahora, la existencia de las
fuerzas nucleares. Sabemos que si dos
átomos pasan muy cerca uno de otro, los
electrones de ambas cortezas atómicas
provocan una fuerte repulsión entre
ambos átomos, por ello la materia
ordinaria no se deja comprimir
indefinidamente. Estas fuerzas se las
conoce como fuerzas de Van der Waals.
Dos electrones con spines apuntando en
la misma dirección ejercen una mutua
atracción magnética, repeliéndose cuando
dichos spines apuntan en sentido
contrario.
Para partícula y antipartícula, como el
electrón y el positrón (sistema que ya
hemos visto, llamado “positronio”), la
situación es contraria: si los spines
apuntan en la misma dirección se atraen.
Pues se cree que las fuerzas nucleares son
como las fuerzas de Van der Waals de la
Cromodinámica. Los hadrones son
singletes de color, por ello las fuerzas de
color superintensas no actúan sobre ellos,
solamente sobre quarks y gluones. Sin
embargo, las fuerzas de color entre
quarks, en el caso de que los
constituyentes de color en el interior de
los de los hadrones estén repartidos (no
concentrados en un punto), generarán de
igual forma que en el símil de los átomos,
fuerzas efectivas entre estos objetos
singletes de color (hadrones). Como con
las fuerzas de Van der Waals, es de
esperar que las correspondientes de la
cromodinámica
decrezcan
muy
rápidamente al aumentar la distancia entre
los hadrones (distancia característica 10-13
cm), sintiéndose únicamente a distancias
relativamente cortas.
Veamos qué sucede con los mesones, que
en cierto modo es el equivalente al
positronio en la QCD. Es de esperar que
las fuerzas cromomagnéticas entre los dos
quarks de un mesón sean completamente
análogas a las fuerzas magnéticas del
positronio, y así los mesones en los cuales
los spines de los quarks apuntan en la
misma dirección deben ser más pesados
que aquellos en los que los spines tiene
direcciones contrarias. Esta es la causa de
que los mesones vectoriales, en concreto,
sean más pesados que los mesones
pseudoescalares correspondientes.
Las fuerzas cromomagnéticas de los
quarks en el interior de los bariones se
suman de forma análoga a como se hace
con las fuerzas cromoeléctricas. Así como
existen
ocho
tipos
de
fuerzas
cromoeléctricas correspondientes a las
ocho cargas de color distintas, existen
también ocho fuerzas cromomagnéticas
distintas.
O sea, aquello que se creyó como
fundamental, que eran las fuerzas
nucleares, quedan como un subproducto
de las fuerzas superintensas de la
cromodinámica. (Tan poco fundamentales
como pueden serlo las fuerzas de Van der
Waals en la física atómica).
Si se calculan los efectos de las ocho
fuerzas cromomagnéticas distintas para
los bariones, se obtiene que las fuerzas
magnéticas son repulsivas cuando los
spines de los tres quarks apuntan en la
La existencia de un momento angular en
una partícula con cargas implica que las
118
misma dirección, y atractivas cuando dos
de los spines apuntan en direcciones
opuestas.
Se esperan bolas de gluones de 1 GeV a 2
GeV, que se desintegrarían con facilidad
en varios mesones π.
Los físicos han intentado obtener alguna
subestructura del electrón, pero ha
resultado hasta el momento presente un
objeto puntiforme, es decir, sin estructura
hasta distancias de, por lo menos,10-7 cm.
En el año 1977, investigando con un haz
de protones de unos 400 GeV de energía
dirigido contra un pedazo de materia, en
el centro de investigaciones americano
Fermilab de Chicago, se obtuvieron
muchísimas parejas de muones, producto
claro de la desintegración de una nueva
partícula de masa gigantesca, 9,5 GeV.
Sin embargo, por otro lado, sabemos que
el electrón se rodea de una nube de
polarización del vacío, que, en cierto
modo, es una subestructura derivada de su
interacción electromagnética, que pude
calcularse exactamente dentro de la QED.
A esta estructura se denomina “estructura
fina del electrón”.
En el año 1978, en el laboratorio DESY
de Hamburgo, se confirmó el mismo
resultado. Se trataba de un nuevo grado
de libertad (de un nuevo quark). La nueva
partícula recibió el nombre de Υ
(ypsilón). La carga de este nuevo quark es
1/3 y recibió el nombre de b.
Con ayuda de los experimentos de
dispersión de electrones y neutrinos ha
podido determinarse el valor de la
constante de acoplamiento de QCD que
vale aproximadamente 1/3. (Mucho
mayor, pues, que la cte. de estructura fina
electrodinámica, α).
El mesón Y, pues, era un estado ligado de
estructura bb, siendo tres veces más
pesado que el mesón J/ψ.
Como hemos visto, la cromodinámica de
los quarks y los gluones es el prototipo de
una teoría de aforo. Donde el grupo
SU(3) de los colores juega el papel de
grupo de aforo. Y es que las teorías de
campo de aforo parecen jugar un papel
fundamental en la descripción de la
Naturaleza.
De la cromodinámica se deduce que debe
haber hadrones formados solamente por
gluones. Dos gluones, por ejemplo,
pueden formar un singlete de color. O
sea, el estado gluónico más simple consta
de dos gluones. También, es posible
construir objetos singletes de color con
tres o más gluones. A esta clase de
hadrones se le ha llamado “bolas de
gluones” (pedazos de materia gluónica
pura, una especie de bola de fuego
formada por energía gluónica).
4.La interacción débil
Se ha visto que también las interacciones
débiles
y
electromagnéticas
son
susceptibles de ser descritas por una
teoría de campos de aforo.
Al ser los gluones eléctricamente neutros
y no tener tampoco interacciones débiles,
estos objetos parecen ser “partículas sin
propiedades”.
Los procesos de la interacción débil
pueden dividirse en dos clases distintas:
a) Procesos en los que la carga eléctrica
cambia en una unidad. Ejemplo, la
119
desintegración β (reacciones de las
corrientes cargadas):
νe
νe
p+ e-+ νe
n
e-
b) Procesos en los que la carga eléctrica
no experimenta cambio (reacciones de
las corrientes neutras) como la
dispersión de neutrinos:
Z
e-
νµ + p
νµ + p
Hay una constante, llamada constante de
Fermi, que da la intensidad de la
interacción correspondiente, en las
reacciones de las corrientes cargadas. Su
valor es 1,16 * 10-5 GeV-2 =(294 GeV)-2 y
tiene dimensiones del inverso de una
energía al cuadrado. Este pequeño valor
de la constante es la razón por la que la
interacción débil es mucho más débil que
la interacción electromagnética.
El neutrino electrónico incidente emite un
bosón Z virtual que, a su vez, entra en
interacción con el electrón.
Los dos procesos anteriores podrían
representarse en la forma:
En el segundo proceso sería el bosón Z el
que haría el mismo papel.
El primer proceso sería análogo al de la
interacción electromagnética entre dos
electrones producida mediante el
intercambio de un fotón virtual. Sólo
habría que cambiar el fotón virtual por la
partícula virtual W.
νe-
n
La masa del bosón W está relacionada
con la constante de Fermi. La energía
crítica de 294 GeV no es más que la masa
del bosón W dividida por la constante de
interacción entre los fermiones y el bosón
W. La masa de estos bosones ha de ser
más pesada que unos 40 GeV.
We
p
Los bosones W y Z actuarían de modo
análogo al fotón en QED, así que podría
haber alguna relación profunda entre la
QED y la interacción débil.
El electrón incidente emite un bosón W
virtual y se transforma en un protón. El
bosón W se desintegra de inmediato en un
electrón y un antineutrino.
Por
un
lado,
la
interacción
electromagnética viene descrita por una
constante universal, la constante de
estructura fina α. Y es que todas las
cargas eléctricas que aparecen en la
naturaleza son múltiplos de la carga
120
elemental eléctrica, e (igual a la carga
eléctrica del positrón).
En general existe una invariancia de las
leyes de la Naturaleza a las
transformaciones de paridad mas, ¿sería
este caso, también, en la interacción
débil?
Pues, de igual forma, se introduce una
carga de la interacción débil designada
como carga débil. La carga débil describe
con qué intensidad interacciona una
partícula con el portador de las fuerzas
débiles, el bosón.
En el año 1956 la profesora Wu de la
Universidad de Columbia, demostró que
esto no era así. Para ello se estudió la
desintegración débil del isótopo de
cobalto 60 en níquel. La desintegración
era:
Existen en la teoría dos bosones W: W+ y
W-. Un electrón puede convertirse en un
neutrino electrónico por emisión de un
bosón W virtual. De forma recíproca, un
neutrino electrónico puede transformarse
en un electrón por emisión de un bosón
W+. En estos procesos la carga eléctrica
se conserva estrictamente.
60
Co
60
Ni + e- +νe
que es producida porque dentro del
núcleo de cobalto se produce la
desintegración β de uno de los neutrones
resultando un protón, un electrón y un
antineutrino.
Es decir, podemos decir que la “carga
débil” transforma un electrón en un
neutrino, y viceversa. Y lo mismo
sucedería para los quarks.
Como los átomos de cobalto poseen un
momento angular (giran sobre sí
mismos), aplicando un campo magnético
es posible orientar dichos momentos
angulares de forma que todos los átomos
de cobalto giren en el mismo sentido, o
todos a la derecha, o todos a la izquierda.
Si consideramos como plano especular el
plano formado por los átomos de cobalto,
los electrones deberían ser emitidos tanto
hacia arriba como hacia debajo de dicho
plano si la paridad se conservase.
Si ponemos los leptones y quarks en la
forma:
νe u
 e- d
se desprende, que el papel de las cargas es
sencillo,
pues
transforman
los
componentes superiores en los inferiores,
y viceversa. A este respecto recordemos
las propiedades de las cargas de isospin,
que transformaban un quark u en un
quark d, y al contrario. Así que, las cargas
débiles parecen emparentadas, de algún
modo, con el isospin.
El resultado de la señora Wu demostró
que los electrones eran emitidos
preferentemente hacia abajo, o en la
dirección contraria a los momentos
angulares
de
los
núcleos
(aproximadamente un 30% más de
electrones hacia abajo que hacia arriba):
¡la interacción débil viola la paridad!
La interacción electromagnética es
invariante bajo la métrica de la reflexión
especular, a la que llamamos paridad. Y
no solamente la electrodinámica, sino
también lo es la mecánica clásica.
Un electrón diestro es una partícula cuyo
spin apunta en la dirección de su impulso
(por la regla del sacacorchos, por
ejemplo), sin embargo, en un electrón
121
zurdo su spin apunta en dirección
contraria a su impulso. Por una reflexión
especular un electrón diestro se
transforma en un zurdo, y al revés.
Entonces, es posible estudiar la violación
de la paridad en la interacción débil
estudiando reacciones de fermiones
zurdos y diestros. Como la interacción
electromagnética conserva la paridad, la
interacción de un fotón con un electrón
zurdo es la misma que la de su
interacción con un electrón diestro.
Del estudio de la simetría de isospin de la
interacción fuerte se sabe que el grupo
SU(2) tiene tres cargas distintas. Dos de
ellas son las que transforman la
componente superior del doblete débil en
la componente inferior y viceversa, o sea,
dL y νe
e. La tercera carga es
uL
eléctricamente neutra.
La teoría conduce a que los bosones W y
Z son los bosones de aforo de la teoría, es
decir, los equivalentes de los gluones en
la cromodinámica. Pero los gluones en
QCD no tienen masa como los fotones, y
sin embargo, los bosones W y Z sí la
tienen y muy grande (80 y 90,
respectivamente), y no es fácil introducir
una masa para los bosones de aforo
correspondientes. El truco consiste en
introducir, junto a los bosones de aforo,
objetos adicionales como los bosones
escalares. La interacción de esos objetos
escalares con los bosones de aforo se
construye de forma que dichos bosones
de aforo adquieren una masa efectiva. A
este tipo de generación de masa se llama
“ruptura espontánea de simetría”, por lo
que al mismo tiempo es rota la simetría
de aforo correspondiente. La posibilidad
de que pueda realizarse el procedimiento
sin que se produzcan resultados absurdos
a altas energías, fue demostrada por
Gerard´t Hoof en el año 1971.
Sin embargo, para la interacción débil
solamente los fermiones zurdos participan
en las interacciones de las corrientes
cargadas.
(Los
diestros
son
sistemáticamente
ignorados).
En
consecuencia, los bosones W reaccionan
exclusivamente con los fermiones zurdos.
Como los bosones W pueden transformar
un electrón en un neutrino y viceversa,
los bosones W se comportan de forma
análoga a las cargas débiles. Por ello, al
igual que el intercambio de papeles entre
los gluones y los colores de los quarks,
podría creerse en un grupo de aforo
(parecido al grupo de aforo SU(3) de la
cromodinámica) para la interacción débil.
En la última, leptones y quarks aparecen
siempre como dobletes:
νe u etc. (L significa levógiro)
 e L dL
La teoría de aforo para la interacción
débil utiliza el grupo de aforo del isospin
débil comentado – el grupo SU(2). Los
quarks y leptones zurdos son dobletes en
relación a ese isospin débil. Los
fermiones diestros al no participar en la
interacción débil, son considerados
singletes respecto de SU(2). Se obtienen
tres bosones de aforo interpretados como
los dos bosones W (W+, W-) y el bosón Z.
El grupo de simetría correspondiente es,
pues, el conjunto de transformaciones
dentro de un doblete. Y esta es la simetría
que vimos en la interacción fuerte, el
grupo de simetría (isospin) SU(2) que
describe todas las transformaciones en el
doblete (ud). Luego el grupo de aforo para
la interacción débil es el grupo SU(2)
conocido como “isospin débil”.
Ahora bien, en una teoría unificada de las
interacciones electromagnéticas y débiles
122
(electrodébiles) debe haber cuatro
bosones de aforo: los dos bosones W, el
bosón Z y el fotón; luego debe ampliarse
el anterior grupo de aforo de la
interacción débil. La posibilidad más
simple es añadir otro grupo U(1). Tal
grupo es aquel que corresponde a una sola
carga. Se obtiene así el grupo de aforo
SU(2)×U(1), esto es, un grupo formado
por el producto de otros dos.
W debe ser unos 80 GeV y la de los
bosones Z unos 90 GeV.
Los físicos del CERN en enero de 1983
detectaron bosones W producto de
colisiones de quarks y antiquarks de alta
energía,
que
se
desintegraban
inmediatamente, por ejemplo, en un
electrón (o positrón) y un neutrino. (Esta
última desintegración es la observada, y
la masa de los bosones W se calculó en
81 GeV).
Se toma el anterior grupo como punto de
partida y se generan las masas de los
bosones de aforo con ayuda del
mecanismo de ruptura espontánea de
simetría. Entonces los bosones W
adquieren cierta masa, que puede elegirse
arbitrariamente. Los otros dos bosones de
aforo (eléctricamente neutros) resultarán,
uno con una masa algo mayor que la
masa del W, que se identifica con el
bosón Z, y otro sin masa que sería el
fotón. En particular, el fotón y el bosón Z
en esta teoría están tan íntimamente
relacionados que no pueden existir el uno
sin el otro.
Los demás leptones y quarks (aparte de
los u y d, el electrón y el neutrino) pueden
incluirse con facilidad en el esquema
añadiendo nuevos dobletes de isospin
débiles:
νe ,νµ ,ντ Los leptones diestros
 e L,µ L, τ L son los singletes de
SU(2)
Y para los quarks s y c se escribe:
u 
d´L
La intensidad de la interacción de los
bosones W y Z en esencia viene definida
por la interacción electromagnética.
c 
s´L
Pero los quarks d´ y s´ inscritos dentro de
los
dobletes
son
en
realidad
superposiciones de los quarks d y s,
porque el bosón W no siempre transforma
un quark u en un quark d, sino a veces,
también, en un quark s (con un 5% de
probabilidad). Tampoco el bosón W no
siempre transforma el quark c en un quark
s, sino a veces, también, en un quark d
(5% de probabilidad igualmente). A esto
se llama mezcla de d y s.
La interacción de corriente neutra
(relacionada
con
la
interacción
electromagnética) depende de un
parámetro
que
debe
ser
fijado
experimentalmente, y que se caracteriza
por un ángulo que se denomina ΘW o
ángulo de Weinberg. (Este ángulo
determina
en
qué
medida
se
interrelacionan
las
interacciones
electromagnéticas y débiles). Los
experimentos determinan un valor de ΘW
entre 27º y 30º.
No se conoce la razón del anterior
comportamiento pero es importante,
puesto que sin dicha mezcla d - s algunas
partículas extrañas tendrían casi tanta
vida como el mismo protón.
En la teoría, las masas de los bosones W
y Z quedan fijadas si se conoce el
parámetro ΘW; así la masa de los bosones
Como sólo hay dos dobletes de quarks y
tres de leptones es útil introducir otro
123
doblete de quarks. Ya hemos citado la
existencia del quark b, por lo tanto debe
existir un compañero pesado del mismo
con carga eléctrica 2/3. A este quark se
denomina t. (Los nombres t y b hacen
referencia a las palabras inglesas “top” y
“botton”, o también “truth” y “beauty”).
Así que habría tres dobletes de quarks:
5.Resumen de las teorías GTU
A continuación, como resumen, haremos
un rápido repaso para sentar ideas.
En mecánica cuántica, el movimiento de
una partícula cargada en el seno de un
campo electromagnético se describe por
una ecuación deducida de la clásica, en la
cual figura el potencial del que derivan
los campos eléctrico y magnético. Pero
este potencial no está fijado de modo
único, porque a partir de potenciales
distintos puede obtenerse los mismos
valores del campo. La operación que
permite pasar de un potencial a otro sin
modificar el campo electromagnético es
un caso particular de lo que se denomina
“transformación de gauge”. La función de
onda de una partícula cargada a resultas
de dicha transformación (la función de
ondas es la representación matemática de
un campo asociado a esta partícula, que
depende
de
las
coordenadas
espaciotemporales), queda multiplicada
por un factor de fase que depende
también
de
las
coordenadas
espaciotemporales; la transformación es,
pues, local. Se dice, entonces, que una
“teoría gauge” es una teoría “invariante
local”: la electrodinámica cuántica sería
invariante respecto a las transformaciones
gauge locales.
u  c  t 
d´ s´ b´
En junio de 1983 se descubrió el bosón Z
en el CERN. La masa resultó ser de unos
93 GeV.
Existen, por consiguiente, tres familias de
quarks y leptones:
1ª familia νe : u u 
 e+ :

 e- : d d 
2ª familia  νµ : c c 
 µ+ :

 µ:ss 
3ª familia  ντ : t t 
 τ+ :

 τ- : b b 
Quarks
Matemáticamente, las transformaciones
del
campo
electromagnético
por
multiplicación de un factor de fase
forman el grupo de transformaciones
designadas con el símbolo U(1). Hay
leyes de transformación mucho más
complejas que corresponden a grupos de
transformación mayores, como el SU(2),
SU(3), etc. Estos grupos son utilizados
para describir propiedades de simetría
global. Yan y Mills demostraron que sólo
suponiendo la existencia de ciertos
“campos de fuerza” puede satisfacerse la
u (arriba) 2/3
d (abajo) –1/3
c (encantado) 2/3
s (extraño) -1/3
t (cima o verdad) 2/3
b (fondo o belleza) –1/3
124
condición de invariancia local. Estos
campos son los que se establecen entre
partículas interaccionando entre sí. Su
número y propiedades quedan definidas
por la naturaleza del grupo de simetría de
la interacción salvo una constante
arbitraria
llamada
“constante
de
acoplamiento”. Es decir, sólo se precisa
un grupo de simetría y dicha constante
para que la condición de invariancia local
determine completamente la forma de la
interacción.
Los constituyentes de spin ½ se dividen
en leptones y quarks. Los leptones,
sabemos, son sensibles únicamente a las
interacciones electrodébiles, los quarks
también a las gluónicas.
El modelo estándar precisa que quarks y
leptones formen familias. (Las tres
expresadas anteriormente). Cada una de
ellas comprende dos leptones, uno neutro
y el otro cargado negativamente, y seis
quarks, tres de carga eléctrica 2/3 y tres
de carga –1/3. Cada quark existe en tres
versiones según su color (verde, azul o
rojo). Y es que en el marco de una
simetría de tipo SU(3) el color desempeña
un papel de carga, igual que la carga
eléctrica para la simetría de tipo U(1).
(De ahí el nombre de Cromodinámica).
El modelo “clásico” o estándar define un
grupo de simetría más amplio, el formado
por el producto de tres grupos
elementales: U(1)×SU(2)×SU(3). La
condición de invariancia para la
componente U(1)×SU(2) exige la
existencia de cuatro campos de fuerza: el
electromagnético, y los tres que dan lugar
a las interacciones débiles. Cada campo
de fuerza tiene una partícula asociada: el
fotón para el primero, y las tres partículas
W+, W- y Z0 de la interacción débil.
A diferencia de los electrones o los
neutrinos, los quarks nunca se
manifiestan como partículas libres, sino
siempre como componentes de otras
partículas. A dicho fenómeno se llama
“confinamiento de los quarks”.
El grupo de simetría SU(3) requiere ocho
campos de fuerza asociados a ocho
gluones.
El confinamiento de los quarks es un
problema derivado del comportamiento
de los gluones a distancias relativamente
grandes (del orden del tamaño del protón,
10-12 cm) puesto que a distancias más
pequeñas, menos de 10-13 cm, el
comportamiento de los quarks es sencillo,
pues la fuerza que les une obedece a una
ley
inversamente
proporcional
al
cuadrado de la distancia, que es similar a
la fuerza de Newton o la de la fuerza
electrostática. El papel de la constante de
gravitación G
de
Newton
está
desempeñado en la electrostática por la
llamada constante de estructura fina y
vale α = 1/ 137,04. El de las fuerzas
gluónicas no es constante sino que varía
en función de la distancia, decrece al
disminuir r, primero rápido y luego
lentamente. A esta propiedad se llama
En el modelo estándar aparece una
primera clasificación entre los “campos
de fuerza”, o sea: fotón, W+, W-, Z0 y
gluones, y las demás partículas o
“constituyentes”. Estos últimos se
clasifican, a su vez, en partículas de spin
nulo y partículas de spin ½. Los
constituyentes de spin nulo se llaman
“partículas de Higgs”, partículas que no
han sido observadas aún, pero que
desempeñan un papel esencial en el
modelo, pues se necesita al menos una de
ellas para explicar el que las partículas W
y Z puedan poseer masa. La masa de las
partículas de Higgs deben estar
comprendidas entre seis y doscientas
veces la del protón.
125
“libertad asintótica”. (Para distancias
tendentes a cero, los quarks se comportan
como “partículas libres”).
En el seno de este grupo se obtiene,
también, una descripción correcta de los
fermiones.
Veámoslo,
considerando
solamente los fermiones más ligeros, o
sea, electrón, neutrino y los quarks u y d.
El principio de incertidumbre cuántico
establece una relación entre la energía
máxima disponible en un acelerador y la
distancia más pequeña que puede
explorarse. Para una energía de unos 1000
GeV, por ejemplo, no pueden explorarse
distancias inferiores a 10-16 cm.
Éstos pueden escribirse (incluyendo los
antifermiones y los tres colores) en la
forma:
νe , e+, u u u , (u u u) , (d d d)
 e-
d d d
La dificultad de obtener energías tan
elevadas pueden en cierto modo
soslayarse
extrapolando
los
conocimientos actuales hacia esas
mayores energías. Un fenómeno que
puede extrapolarse es el comportamiento
de las constantes de acoplamiento del
modelo estándar.
Que son en total 15 fermiones.
Separémoslos, ahora, en dos sistemas:
νe :
 u u u : u u u
 e- : d d d   d d d : e+ 
El primer sistema contiene 5 fermiones y
el segundo 10. Estos dos sistemas de
fermiones,
matemáticamente,
son
representaciones distintas del grupo
SU(5). Es notable que se obtenga de
forma exacta los leptones y quarks que se
necesitan. Las cargas de estos fermiones
ya no pueden elegirse arbitrariamente,
puesto que están perfectamente fijados.
Ya hemos mencionado la constante (α) de
estructura fina de la interacción
electromagnética. Por su parte, el
coeficiente (a3) de las fuerzas gluónicas
vale aproximadamente 0,2. La tercera
constante (aW) es la de las interacciones
débiles. Como resultado de efectos
ligados a la naturaleza cuántica de la
teoría estándar, las tres constantes de
acoplamiento no son relativamente
constantes, pues varían con la distancia (o
sea, con la energía). Extrapolando todas
estas constantes (sus evoluciones; las de
sus inversos en particular son rectas,
aproximadamente), se encuentra que las
tres rectas se cortan hacia una energía del
orden de 1014 GeV, lo que parece indicar
la existencia de una “gran unificación” de
las tres interacciones. Es el resultado,
comentado antes, del grupo único,
U(1)×SU(2)×SU(3), que contiene como
“subgrupos” los anteriores. Y hay varias
formas posibles para este supergrupo. La
más simple es la del grupo de simetría
SU(5).
El primer sistema formado por electrón,
neutrino y tres quarks anti-d se
transforman respecto del grupo SU(5)
como la citada representación.
Una teoría gauge fundada en SU(5)
requiere veinticuatro campos de fuerza
(24 cargas distintas) y tiene una sola
constante de acoplamiento (α5). Y es que
cuanto mayor es un grupo más cargas
posee.
La carga de un grupo tiene la propiedad
de que se obtiene 0 cuando se suman las
cargas de los elementos de una
representación. Como la carga eléctrica
del neutrino electrónico es cero, se
126
obtiene que Q (e-) = 3 Q (d). O sea, la
carga del quark d es –1/3. También, de
igual forma, se obtiene la carga eléctrica
del quark u con un valor de 2/3. Así que
en el marco de la teoría SU(5) las cargas
eléctricas están cuantizadas.
En esta desintegración del protón, éste se
transforma en un mesón π y un positrón.
En el proceso elemental se transforman
dos quarks (u, d) del protón en un
antiquark (u) y un positrón (e+). En las
teorías de la gran unificación la
transformación se efectúa mediante el
intercambio de una partícula X
superpesada.
De los veinticuatro campos de fuerza,
doce son ya conocidos (ocho gluones, las
partículas W+, W-, Z0 y el fotón). Los
otros doce campos no han sido
observados hasta el presente, puesto que
las masas de las partículas asociadas a
ellos, que llamaremos X, tendrían una
enorme masa, Mx.
La vida media del protón es mayor de
1029 años y depende, en la teoría SU(5),
de las masas de los doce nuevos bosones
de aforo mencionados.
Es sorprendente que se obtenga este valor
de 1014∼1015 para la desintegración del
protón y la extrapolación de las ctes. de
acoplamiento (α5).
Para energías muy inferiores a Mx, el
modelo se comporta con buena
aproximación como si las partículas x no
existieran, es decir, como el modelo
estándar. Sin embargo, para energías muy
superiores a Mx los veinticuatro campos
estarían
“vigentes”,
dándose
una
constante de acoplamiento única (las tres
constantes de acoplamiento se fundirían
en una). Esto es lo que ocurre, por lo que
puede atribuirse a Mx un valor
aproximado de 1014 GeV. Para llegar a
esta energía habría que alcanzar una
distancia de 10-27 cm.
La desintegración del protón no es más
que un caso particular del fenómeno
general de la “no conservación del
número bariónico”. (Triple de la
diferencia entre el número de quarks y
antiquarks, o también, diferencia entre el
número de nucleones -protones y
neutrones- y el de antinucleones).
El físico soviético Sakharov fue el
primero que tuvo en cuenta dicha
posibilidad (la desintegración del protón)
y en indicar las condiciones necesarias
para su realización. La primera es la
existencia de una “ligera” diferencia entre
materia y antimateria, diferencia llamada
“violación de CP”. La segunda, la no
conservación del número bariónico.
Actualmente esto es una verdadera
predicción de las teorías de la gran
unificación. Otra predicción de las
mismas es la existencia de los monopolos
magnéticos.
La intensidad efectiva de un campo de
fuerzas es inversamente proporcional al
cuadrado de la masa de la partícula
correspondiente. Así que, las fuerzas
correspondientes a las partículas X serían
extremadamente
débiles,
aunque
suficientes
para
provocar
transformaciones de quarks en leptones
como, por ejemplo, u + d
u + e+, lo
que
puede
manifestarse
en
la
desintegración de un protón (uud) en un
mesón π0 (uu) y un positrón (e+).
Quark up umesón
 Quark up u Antiquark up uπ0
protón Quark up u Intercambio par.X
 Quark down d
e+positrón
En el año 1974 G.´t Hooft y G. Polyakov
demostraron que una clase entera de
teorías cuánticas predicen la existencia de
127
tales monopolos, entre ellas las teorías de
gran unificación. En las últimas, los
monopolos no son partículas (campos)
elementales sino configuraciones estables
de otros campos elementales (campos de
fuerza y campos de Higgs) de la teoría.
Resulta una masa del monopolo de unas
1016 veces la masa del protón. (Existe la
posibilidad de que alguno de tales
monopolos hubiera sido creado durante el
big bang).
diferencia de forma notable de las
anteriores, en el sentido de que tiene una
escala interna, la escala dictada por la
constante de gravitación de Newton.
Si traducimos la constante de Newton a
unidades de energía, resulta una energía
de unos 1019 GeV, que se denomina
energía de Planck (la correspondiente a
una longitud característica de unos 10-33
cm), o sea, una energía mayor que los
1015 de la gran unificación encontrada
antes.
Si se ha mencionado la teoría SU(5) ha
sido sólo como un simple ejemplo de
teoría de campos unificada. Otros físicos
barajan
diferentes
grupos
como
candidatos a la misma, por ejemplo, el
grupo SO(10) que es algo mayor que el
SU(5). (Y aún se han contemplado otros
mayores).
De todas formas todas estas teorías de la
GTU siguen teniendo, todavía, una serie
de problemas e inconsistencias, al margen
de la no incorporación de la gravedad.
Una de las dificultades persistentes es el
problema de la jerarquía de las masas de
los fermiones.
Ahora bien, fuera de todas estas teorías
unificadas de campos queda aún la
interacción gravitatoria. Y es que es un
problema extremadamente difícil, sobre
todo porque la interacción gravitatoria se
El problema puede resolverse mediante la
introducción de la supersimetría, que
debe romperse a energías menores de
1000 GeV, por medio de una especie de
subterfugio llamado Supergravedad.
128
129
en el caso de la fuerza débil la razón
había que buscarla en la simetría. Una vez
que se construyó una potente simetría de
estimación, los infinitos desaparecieron.
Capítulo VII.
SUPERSIMETRÍA.SUPERGRAVEDAD
Ya dijimos que la gravedad quedaba fuera
de la unificación de los otros tres campos
fundamentales (GTU´s), y es que esas tres
fuerzas pueden representarse por campos
de fuerza que se extienden por el
espaciotiempo, pero la gravedad es el
mismo espaciotiempo, puesto que es un
campo de curvatura en la geometría del
espaciotiempo, algo así como vacío
“distorsionado”.
La experiencia anterior guió a los físicos
teóricos hacia la búsqueda de otra
simetría más potente que la anterior,
capaz de resolver la gravedad del “pozo”
de la renormalización; así se descubrió la
“Supersimetría”.
Lo esencial de la Supersimetría es el
concepto de spin físico, que va más allá
del símil de la noción de esfera girando
alrededor de su eje. En realidad, el spin
tiene sorprendentes propiedades. Por
ejemplo, una partícula dotada de spin
posee como una visión en “doble imagen”
del universo, algo fuera de la intuición
geométrica.
Una partícula cargada emite y luego
reabsorbe su propia partícula mensajera,
un proceso de “autoacción” que dota de
energía a la partícula. Matemáticamente,
la cantidad de energía que produce el
bucle de la partícula es infinita. Ahora
bien, hay muchos procesos de autoacción
más complicados que, de igual forma,
conducen a efectos de energía infinita. La
QED elude matemáticamente todos estos
efectos mediante una simple operación de
sustracción,
la
llamada
“renormalización”.
Y es tan fundamental el spin a la
naturaleza de las partículas que las divide
en dos clases o tipos distintos. A uno
pertenecen los “bosones”, que no tienen
spin – spin cero -, como la hipotética
partícula de Higgs, o, que lo tienen
entero, como el fotón, la partícula W y la
partícula Z (las tres con spin unidad), y el
gravitón que lo tiene de valor 2.
Así que, de igual forma, la gravedad
gravita, puesto que es en sí misma una
fuente de gravedad. Por ejemplo, dos
gravitones experimentan una fuerza
gravitatoria mutua por intercambio de un
tercer gravitón mensajero. Esto permite la
producción de procesos con complejas
redes de bucles de gravitones que dan
lugar a términos infinitos incontrolables
en la descripción matemática de la
llamada
“gravedad
cuántica”,
convirtiendo a la misma teoría en algo
esencialmente inútil.
El otro tipo o clase de partículas son los
“fermiones”, que poseen unidades
semienteras de spin. Por ejemplo, los
quarks y leptones son fermiones que
poseen spin ½, que significa la propiedad
de doble rotación.
Esta distinción entre bosones y fermiones
es de importancia transcendental en
física. Los fermiones están inmersos en el
llamado “principio de exclusión de Pauli”
que prohibe que dos electrones compartan
el mismo estado cuántico. Lo mismo
ocurre para neutrinos y neutrones.
Gracias a ello se da la estabilidad general
La situación recuerda a la fuerza débil
antes de su unión con el campo
electromagnético en la teoría electrodébil.
Ambas teorías no son “renormalizables”;
130
La unión de bosones y fermiones une en
una misma familia partículas de distintos
spines, unos con spines enteros y otros
con spines semienteros, de forma que la
familia resulte supersimétrica en su
conjunto. Si se afirma que la gravedad es
una teoría supersimétrica, el gravitón, con
un spin 2, no puede existir solo. Debe
pertenecer a una familia de partículas
relacionadas con el spin 2 a través de una
operación supersimétrica. Entre éstas las
hay de spin 0, ½, 1 y, también, 3/2.
de los átomos, la conducción eléctrica, la
fuerza que sostiene a enanas blancas y
estrellas de neutrones, etc.
En contraste, nada se opone a que muchos
bosones se “apiñen” en el mismo lugar;
esto
provoca
un
comportamiento
cooperativo, pudiendo trabajar juntos. Por
ejemplo, los fotones pueden unirse
coherentemente para dar lugar al
movimiento electromagnético de una
onda de radio. De ahí, que pese a que
todas las partículas, en particular los
electrones, posean una onda asociada,
nunca vemos ondas macroscópicas de
electrones. Así que se asimilaron los
bosones a las partículas mensajeras, es
decir, a la fuerza, y los fermiones a la
materia (quarks y leptones son
fermiones). Por ello resultó más chocante
el hecho de que la supersimetría pudiera
unir a ambos, bosones y fermiones
(partículas con papeles, en apariencia, tan
distintos).
La descripción de la gravedad en esos
términos constituye lo que se denomina
“teoría de la Supergravedad”, que difiere
de la gravedad ordinaria en que el
gravitón no es la única partícula
responsable de la transmisión de la fuerza
gravitatoria. Hay toda una familia
supersimétrica, con la ayuda de estas
enigmáticas partículas de spin 3/2 que los
físicos han llamado “gravitinos”.
La representación más potente de la
supersimetría
se
conoce
como
Supergravedad N=8. En ella existe una
familia de partículas muy numerosa: 70
con spin nulo, 56 con spin ½, 28 con spin
1 y 8 con spin 3/2, además del gravitón
con spin 2.
Esta unión puede realizarse acudiendo a
una simetría aún más poderosa que la de
Lorentz-Poincaré, la que se encuentra en
la base de la teoría de la relatividad.
Matemáticamente,
una
operación
supersimétrica es parecida a la extracción
de una raíz cuadrada de la simetría de
Lorentz-Poincaré, lo que corresponde,
físicamente, a la transformación de
fermión en bosón y a la inversa.
La supergravedad ofrece una descripción
unificada de la fuerza y la materia. Del
mismo modo que los gravitones poseen
asociados los gravitinos, los demás
componentes (partículas) del grupo de los
mensajeros (fotones, partículas W,
partículas Z y gluones) se acompañan de
nuevas partículas como los fotinos,
winos, zinos y gluinos.
Si se realizan de forma sucesiva dos
operaciones supersimétricas, se obtiene
una operación geométrica similar a un
cambio de posición espacial. De hecho,
matemáticamente la supersimetría se
califica como la raíz cuadrada de la
geometría. La geometría curvada de la
gravedad se expresa naturalmente en el
lenguaje supersimétrico, brindando su
naturaleza de campo de gauge de forma
poderosa.
La existencia de todos esos “inos” que
son fermiones, de alguna forma, dan lugar
a términos infinitos de opuesto signo a los
infinitos debidos a los bosones, con lo
que hay una tendencia a la cancelación:
131
En el año 1747, ya el filósofo Kant
reconoció la profunda conexión entre la
ley general de la inversa del cuadrado
(que define la fuerza gravitatoria,
eléctrica
y
magnética)
y
la
“tridimensionalidad” del espacio.
los infinitos negativos del bucle
correspondiente al gravitino se anularían
con los infinitos positivos del bucle del
gravitón.
Los
infinitos
se
supersimetrizarían hasta anularse.
Theordor Kaluza en el año 1921 se
inspiró en la capacidad de la geometría en
la descripción de la gravitación, al
extender el trabajo de Einstein para
incluir el electromagnetismo en la
formulación geométrica de la teoría de
campo. Su solución fue brillante, mostró
que el electromagnetismo es una forma de
gravedad, aunque no la gravedad familiar
que conocemos. Es la gravedad de una
dimensión no visible del espacio.
Dichas ecuaciones de los campos
gravitatorio o eléctrico se generalizan con
facilidad a otras dimensiones.
En un espacio de n dimensiones hay que
tratar con una ley inversa de las potencias
n-1. Por eso, en tres dimensiones, n-1=2,
será la ley inversa del cuadrado. En
cuatro dimensiones, n-1=3, será la ley
inversa del cubo, y así para las demás
dimensiones. Puede demostrarse que si un
planeta generara un campo gravitatorio de
la inversa del cubo, sus satélites trazarían
una rápida espiral hacia él, siendo
absorbidos. Lo mismo ocurriría con los
átomos, aún teniendo en cuenta los
efectos cuánticos los electrones no
poseerían órbitas estables en espacios de
más de tres dimensiones, con lo que la
química (inorgánica y orgánica) y, por
tanto, la misma vida sería imposible.
Los físicos ya estaban acostumbrados
(desde la relatividad) a considerar el
tiempo como la cuarta dimensión. Kaluza
fue más lejos y postuló que existe aún
otra dimensión adicional del espacio:
cuatro dimensiones espaciales y cinco
(con el tiempo) dimensiones en total. Con
esas cinco dimensiones Kaluza demostró
que el “campo gravitatorio” de este
universo pentadimensional se comporta
exactamente como la gravedad conocida
más el campo electromagnético de
Maxwell,
contemplado
desde
la
perspectiva de las cuatro dimensiones. Lo
que decía Kaluza con su conjetura es que
la ampliación del universo a cinco
dimensiones equivale, simplemente, a la
existencia de un solo campo de fuerza, la
gravedad. (El electromagnetismo sería
sólo esa parte del campo gravitatorio que
opera en la postulada quinta dimensión).
Otro
fenómeno
que
depende
sensiblemente de las dimensiones del
espacio es la propagación de las ondas.
En un espacio con un número par de
dimensiones se demuestra que existirían
efectos de reverberación, con lo que la
onda no se propagaría con nitidez. Un
ejemplo es la dificultad de transmitir
señales bien definidas en una superficie
de dos dimensiones como una lámina de
caucho.
No habría fuerzas en absoluto, solamente
existe
la
curvada
geometría
pentadimensional
con
partículas
serpenteando a través de una estructurada
“nada”.
Para el físico Oscar Klein, la quinta
dimensión aparece “enrollada” de forma
que su tamaño es imperceptible, como el
símil de una manguera que desde lejos
parece una simple línea. Un punto de la
misma de cerca se despliega en un
132
círculo. Lo que se toma como un punto en
el espacio tridimensional es en realidad
un pequeño círculo en torno a otra
dimensión del espacio. Desde cada punto
del espacio parte un pequeñísimo bucle
en una dirección que no es arriba, ni
abajo, ni ninguna otra en el espacio
“sentido” por nuestros sentidos (valga la
redundancia).
operaciones de simetría necesarias para
esa gran fuerza unificada requiere siete
nuevas dimensiones: en total diez
dimensiones, once con el tiempo. Por
tanto, la versión moderna de la teoría de
Kaluza-Klein postula un universo de once
dimensiones.
De nuevo es preciso suponer que las siete
dimensiones
adicionales
están
“enrolladas” de modo que su tamaño es
tan pequeño que no podemos percibirlas.
La única forma de enrollar una dimensión
adicional es un círculo, pero hay muchas
formas de “enrollar” espacios de más
dimensiones. En dos dimensiones, por
ejemplo, pueden unirse los extremos para
formar la superficie de una esfera, o la
superficie de un donut (un toro). Ambas
son estructuras cerradas y pueden hacerse
muy pequeñas, aunque difieren en su
“topología”. (El donut posee un agujero
que lo atraviesa, por lo que no puede
reducirse de ninguna forma a la superficie
de la esfera topológicamente).
Klein calculó la circunferencia de los
bucles en la quinta dimensión partiendo
de los valores de la unidad de carga
eléctrica de los electrones y otras
partículas, y de las fuerzas gravitatorias
entre las distintas partículas. El valor que
resultó fue 10-32cm (10-20 veces menos
que un núcleo atómico). Un átomo, pues,
no puede moverse en la quinta dimensión,
es más bien la quinta dimensión la que se
encuentra dentro del átomo.
La teoría Kaluza-Klein quedó apartada de
la ciencia (con el descubrimiento de las
fuerzas débil y fuerte) hasta finales de los
setenta, ya con las GTU y la
Supergravedad.
Con siete dimensiones el número de
topologías posibles es muy grande.
Particularmente
el
análogo
heptadimensional de una esfera –la
heptaesfera- es atractiva. En este caso,
cada punto del espacio tridimensional es ,
de hecho, una diminuta “hiperesfera” de
siete dimensiones que, además, es la
elección más simple (la disposición
matemática más sencilla).
Vimos que en las GTU, la propiedad
central de los campos de fuerza es la
presencia de algunas simetrías abstractas,
lo que da poder y elegancia. Esta
presencia de simetrías sugiere algún tipo
de geometría oculta. Precisamente en la
teoría de Kaluza-Klein revitalizada, las
simetrías del campo de gauge se vuelven
concretas: son las simetrías geométricas
que viven asociadas a las nuevas
dimensiones espaciales.
La esfera es una figura muy simétrica, y
la heptaesfera posee simetrías adicionales
no encontradas en la esfera corriente. Con
éstas se pretende identificar las simetrías
de gauge que subyacen en los campos de
fuerza. En la teoría de Kaluza-Klein la
“interrupción de las simetrías” (necesarias
para la aparición de las partículas
observadas a bajas energías) se consigue
distorsionando
la
estructura
Como en la idea central de Kaluza-Klein
las fuerzas se acomodan introduciendo
más dimensiones espaciales en el
espaciotiempo; como hay varias fuerzas
para acomodar ello requiere la
introducción de varias dimensiones
adicionales. El recuento del número de
133
operaciones de supersimetría para generar
todas las proyecciones de spin requeridas
para la edificación de toda la superfamilia
de partículas. También hay ocho especies
de gravitinos.
heptadimensional, con lo que la esfera no
es exacta, adquiriendo una forma
“achatada”.
Es concebible que la configuración de la
heptaesfera sea sólo una de las
disposiciones
posibles
de
este
espaciotiempo de once dimensiones. En
otros posibles “dominios” del universo
pudiera haber un número distinto de
dimensiones enrolladas, por ejemplo,
cinco normales y cinco enrolladas, etc.
Como la estructura de los campos de
fuerza depende de las simetrías
geométricas
de
las
dimensiones
comprimidas, dichas fuerzas variarán de
un dominio a otro, con lo que conllevaría
un sin fin de problemas sobre órbitas
estables, movimiento ondulatorio, etc. En
esta situación, quizá, pudiéramos aplicar
el “principio antrópico”, que nos
permitiría afirmar que nosotros, como
observadores, hemos “seleccionado” con
nuestra presencia el dominio del universo
donde
sólo
es
perceptible
el
espaciotiempo de tres dimensiones
espaciales, debido a que no podríamos
“vivir” en ningún otro.
La teoría de la Supergravedad se
simplifica si hay más de tres dimensiones
disponibles. Y da la casualidad que la
descripción más simple se obtiene con la
versión de once dimensiones, puesto que
en ella las ocho operaciones distintas de
simetría de la supergravedad N=8 se
reducen a una sola, la supergravedad
“N=1”.
Entonces, la vía que procede de la
Supergravedad, o la de la construcción de
simetrías cada vez más generales para la
unificación de las fuerzas, como una
extrapolación de las GTU´s y la teoría de
Kaluza-Klein,
sobre
la
multidimensionalidad de la geometría del
universo, en la vía iniciada por el mismo
Einstein, coincidiría en un mundo de once
dimensiones, que representaría, de
confirmarse, “la unificación completa y
definitiva de todas las fuerzas” en
palabras de Salam.
Acabamos de ver al principio del capítulo
que la formulación más prometedora de la
Supergravedad era la N=8, y que la
operación de supersimetría relaciona
partículas con distinto spin en una
superfamilia de 163 partículas, familia
“cerrada” bajo estas operaciones de
supersimetría. Y esto es así si no existen
partículas con spin mayor que 2.
En los años 60, el físico John Wheeler
construyó una teoría completa del mundo
basada en la geometría del espaciotiempo
vacío, al que llamó “geometrodinámica”,
con el objetivo de explicar tanto las
partículas como las fuerzas en términos
de estructuras geométricas. Según este
modelo, una partícula cargada es una
especie de entrada o portal a un pequeño
túnel que comunica un punto del espacio
con otro, algo así como un puente
espacial sobre otra dimensión. En el otro
extremo del túnel aparecerá como otra
partícula de carga eléctrica opuesta. (Los
dos extremos del “agujero de Wheeler”
pueden ser, por ejemplo, un par electrónpositrón). Las “líneas de fuerza” se
N=8 hace referencia al número de
posibles operaciones de conexión entre
partículas con distinto spin. Como el spin
puede apuntar tanto para arriba como para
abajo, su proyección puede variar de +2
(hacia arriba) a –2 (hacia abajo) en pasos
“semienteros”. Hay ocho de estos pasos
entre +2 y –2, es decir, se necesitan ocho
134
1014 veces la masa del protón. La energía
requerida equivale a 1019 veces dicha
masa del protón (en la cual también
quedaría “unificada” la gravedad). Esta
energía corresponde a la energía de
Planck, quien la descubrió originalmente.
concentrarían a lo largo de la partícula
cargada para emerger intactas al otro
lado, así que no harían falta fuentes de
electricidad, sino agujeros en el espacio
para atrapar a los campos eléctricos.
Dicha teoría no acabó de funcionar pues
se restringía solamente a cuatro
dimensiones. La ampliación a once
dimensiones
incrementaría
extraordinariamente el campo, aunque no
parece que las partículas sean “agujeros”
en el espacio, sino más bien
“excitaciones” de una geometría de once
dimensiones.
Así que, en la teoría unificada de las
fuerzas pueden distinguirse tres umbrales
cruciales, tres escalas de energía. La
primera es la energía de Weinberg-Salam,
unas noventa veces la masa del protón, a
partir de la cual las fuerzas
electromagnética y débil se funden en una
sola fuerza, la electrodébil. La segunda, la
energía de unificación, 1014 masas del
protón, que inicia la física de las GTU.
Finalmente, la energía de Planck, con sus
1019 masas del protón, que es la escala de
energía a partir de la cual la física
adquiere una asombrosa simplicidad. Un
problema abierto es explicar, en
particular, la enorme brecha existente
entre la primera y segunda cantidad.
Como en física cuántica se asocia una
escala de energía-masa a una escala de
longitud, ¿qué cantidad de energía sería
necesaria para “penetrar” en la
heptaesfera y poder explorar esas otras
dimensiones del espacio? Según la teoría
de Kaluza-Klein, es necesario ir más allá
de la energía de unificación (de las GTU),
135
ocultas, curvándose sobre sí, formando
una estructura inobservable.
Capítulo VIII.
SUPERCUERDAS Y TEORÍA M
Es probable que el tamaño de estas seis
dimensiones
enrolladas
sea
aproximadamente el mismo que la
longitud de la cuerda, así que la cuerda
aparece en nuestro mundo como una
partícula puntual.
1.Supercuerdas
En la teoría de Supercuerdas como en
cualquier teoría de cuerdas, las partículas
elementales no son puntiformes, sino que
se asemejan a cuerdas.
La equivalencia de ondas y partículas en
la mecánica cuántica exige que una onda
gravitatoria (una perturbación en el
campo gravitatorio), se identifique con
una partícula llamada gravitón. De igual
forma, en la teoría hay un campo que
depende de la configuración de la cuerda:
“el campo de cuerda”.
Esta teoría combina la teoría de cuerdas
con
la
estructura
matemática
supersimétrica.
Estrictamente las cuerdas no son
partículas independientes moviéndose en
algún espacio fijo o de fondo. En la teoría
de la relatividad general einsteniana, a la
que la teoría de Supercuerdas debe
aproximarse, el espacio y el tiempo se
unifican en el continuo tetradimensional
llamado espaciotiempo. La gravitación
queda determinada por la curvatura del
espaciotiempo. Las partículas se mueven
a lo largo de geodésicas, que son las
trayectorias
más
cortas
en
el
espaciotiempo curvado. Las partículas
ejercen una recíproca influencia sobre el
tejido del espaciotiempo, provocando
ondas gravitatorias que perturban las
propias geodésicas. Las ecuaciones
relativistas einstenianas determinan tanto
las trayectorias de las partículas, como la
estructura del espaciotiempo en las que
estas se desplazan.
El número de posibles configuraciones de
una cuerda es mucho mayor que el
número de puntos en el espacio. Dicho
campo de fuerzas se relacionará, pues,
con una nueva geometría que complica
enormemente la idea de espacio. De igual
modo, la partícula de tipo cuerda será una
perturbación “ondulatoria” en este
espacio gigantesco.
Históricamente la teoría de Supercuerdas
se relaciona con el modelo de resonancias
duales desarrollado a fines de los años
sesenta para explicar las propiedades
observadas en las partículas sometidas a
la interacción fuerte, los hadrones.
Gabriele Veneziano intuyó una fórmula
(independiente de la teoría cuántica de
campos) que expresaba muchos rasgos de
éstas interacciones de los hadrones.
En la teoría de Supercuerdas, la gravedad
se define en un mundo de nuevas
dimensiones espaciales y la dimensión
temporal, en total 10 dimensiones. El
movimiento se desarrolla, igualmente, a
lo largo de geodésicas, pero éstas ahora
son superficies de área mínima en diez
dimensiones. Como sólo se observan
cuatro dimensiones (tres espaciales y el
tiempo), las otras seis deben permanecer
Más tarde se demostró que la aplicación
de la fórmula de Veneziano equivalía a
describir a los hadrones como cuerdas. La
propuesta era que los armónicos de las
vibraciones de una cuerda correspondían
a los hadrones observados. Podía decirse
136
a buscar esquemas más altos de
unificación. Tales esquemas no se
fundaban en teorías de cuerdas sino en
simetrías llamadas de gran unificación.
Dichos esquemas de gran unificación, que
ignoraban la gravedad, estaban asociados
a grupos de simetría llamados SU(5),
SO(10) o E6. Como sabemos, estas
grandes simetrías pueden romperse en
simetrías menores asociadas al grupo
SU(3) de la QCD, y al SU(2)×U(1) de la
teoría electrodébil.
que las cuerdas servían para mantener
ligados a los quarks, constituyentes de los
citados hadrones. En la forma original,
este modelo de resonancias duales
solamente podía explicar partículas como
el mesón π, por ejemplo, cuyo spin es
entero, es decir, bosones.
En el año 1971, Pierre M. Ramond y
André Neveu desarrollaron una variante
de la teoría general que incluía, ya,
fermiones. Esta variante, llamada teoría
de la cuerda girante, fue la precursora de
todas las teorías supersimétricas.
Las temperaturas necesarias para la gran
unificación –terreno de la llamada
“gravedad cuántica”- estan entre los 1030
y 1032 grados centígrados, temperaturas
sólo conocidas entre los 10-43 y 10-38
siguientes a la gran explosión.
No obstante, estas dos primeras teorías de
cuerdas presentaban ciertos problemas.
Primero, el comportamiento mecánicocuántico de la teoría para bosones sólo
adquiría sentido para un espaciotiempo de
26 dimensiones. Para la teoría de la
cuerda girante (también las actuales
teorías de supercuerdas), el número de
dimensiones del espaciotiempo es 10.
Segundo, las teorías presentaban el
problema de que los estados de energía
más baja de la cuerda eran “taquiones”,
unas partículas cuya velocidad era
superior a la de la luz. Y por último,
ambas teorías requerían la existencia de
partículas sin masa de spin 1 y 2 que no
se correspondían con los hadrones
observados. Más bien, sus propiedades
recordaban las de los bosones de aforo
débiles de la fuerza débil (fotón y
gravitón). Todos estos problemas
parecían incoherencias insuperables, lo
que dejó de momento en suspenso dichas
teorías de cuerdas.
Sabemos que muchas de estas nuevas
teorías de gran unificación incorporan la
supersimetría que transforma bosones y
fermiones entre sí, es decir, unifica las
partículas de spin entero y semientero.
También, la combinación de la teoría de
la relatividad general de Einstein con la
supersimetría ha dado lugar a otras teorías
llamadas de Supergravedad, una clase de
teorías de aforo en la que el gravitino con
spin 3/2 constituye la partícula de aforo
responsable de la supersimetría. La
Supergravedad se ha formulado en un
espaciotiempo de 11 dimensiones (las
cuatro conocidas y siete dimensiones
espaciales adicionales).
En el año 1976 Ferdinando Gliozzi,
Scherk y David A. Olive sugirieron que la
teoría de la cuerda girante era susceptible
de supersimetrización.
En los años setenta, como hemos visto en
el capítulo VII, se asistió al resurgimiento
del interés por las teorías de campos
cuánticos
(basadas
en
partículas
puntuales), las citadas GTU´s.
El éxito de todas estas teorías llevó a
muchos científicos, como ya apuntamos,
En el año 1980 Schwarz y Green
empezaron a construir teorías de cuerdas
con supersimetría.
137
El principio de incertidumbre de
Heisenberg a escalas de distancia
inferiores a 10-15 metros, conlleva
fluctuaciones de energía manifestadas en
la creación de partículas “virtuales”,
partículas y antipartículas que se
materializan a partir del vacío en un
intervalo brevísimo antes de aniquilarse
entre sí.
Una tal teoría fue formulada por Grass,
Harvey, Martinec y Rohm, de la
Universidad de Princeton: es la
denominada teoría heterótica. En dicha
teoría se introducen las cargas de las
fuerzas de Yang-Mills difuminándolas a
lo largo de toda la cuerda heterótica. En
este tipo de cuerda las ondas que viajan
en el sentido de las agujas del reloj son
ondas de una teoría de Supercuerdas en
10 dimensiones; las que avanzan en
sentido contrario al mismo pertenecen a
la teoría de cuerdas original en 26
dimensiones. Las 16 dimensiones
suplementarias son consideradas internas
y responsables de las fuerzas de YangMills.
Cuando la resolución espacial no llega a
los 10-35 metros, dichas fluctuaciones son
de tal magnitud que se deben formar
agujeros negros virtuales. La energía de
estas fluctuaciones llega a los 1019 GeV,
que es la energía de Planck. Así que el
espaciotiempo a distancias muy pequeñas
debe considerarse muy curvado, casi
espumoso.
Al moverse una cuerda, barre una
superficie
bidimensional
del
espaciotiempo, denominada “hoja del
universo”, igual que una partícula puntual
recorre la llamada “línea del universo”.
En relatividad general las partículas se
mueven a lo largo de la línea de universo
que minimiza la denominada “acción de
la partícula” (energía a medida que se
mueve en el tiempo). La acción es
proporcional a la longitud de la línea del
universo, por lo que una trayectoria de
mínima acción es una geodésica
(distancia más corta entre dos puntos del
espaciotiempo).
El tratamiento mecánico-cuántico de una
cuerda conduce a limitaciones sobre
cualquier teoría de supercuerdas de la
gravedad en varias dimensiones.
Las cuerdas son de dos tipos: abiertas y
cerradas. Las abiertas tienen extremos a
los que se asocian cargas conservadas,
relacionadas con las fuerzas de YangMills. A este tipo de cuerdas están
asociadas partículas de aforo de masa
nula y spin 1, pero entre ellas no está el
gravitón. Los dos extremos de una cuerda
abierta pueden unirse para formar una
cuerda cerrada. Entre los estados
vibracionales de una cuerda cerrada sí
está el gravitón, de masa nula y spin 2.
Para la cuerda, similarmente, la acción es
proporcional al área barrida por la cuerda,
con lo que la hoja de universo será una
superficie de área mínima.
Entonces, en cualquier teoría de cuerdas
abiertas habrá, también, cuerdas cerradas,
y en las mismas hay que considerar la
fuerza de la gravitación. En consecuencia,
si las fuerzas de Yang-Mills como las del
electromagnetismo se incluyen en una
teoría de cuerdas, quedaran unificadas
con la gravedad.
Hay una simetría implicada en esta
condición de que el movimiento de la
cuerda quede determinada por la
minimización del área de su hoja de
universo. El área es independiente de la
designación de los puntos de la hoja
bidimensional. Se dice que la física es
simétrica bajo redesignaciones arbitrarias
138
de las coordenadas de dicha hoja del
universo.
1019 GeV al cuadrado, lo que equivale a
una fuerza de 1039 toneladas.
Debido a esta simetría, carecen de
significado las distorsiones tangentes a la
superficie de la hoja en cualquier punto.
Las que si lo tienen son las ondulaciones
de la hoja del universo perpendiculares a
su superficie. Entonces, si la cuerda se
mueve en d dimensiones, hay dos
direcciones de vibración sin realidad
física, con lo que las vibraciones reales
son vibraciones transversales en d-2
dimensiones.
Las
frecuencias
de
los
modos
vibracionales normales de la cuerda están
separadas por intervalos muy grandes: las
partículas que corresponden a los estados
más bajos son de masa nula, pero los
siguientes estados vibracionales presentan
una masa ingente. Para frecuencias más
altas, las masas crecen sin límite.
Los estados de masa nula de la teoría de
Supercuerdas incluyen el gravitón, las
partículas de aforo de spin 1, 0 y 1/2 , y
además el gravitino (como dijimos,
partícula de aforo de spin 3/2 asociada a
la Supergravedad). O sea, las partículas
de masa nula de la teoría de Supercuerdas
son las que hay en las teorías de la
Supergravedad.
Pero,
en
mecánica
cuántica
el
movimiento de las partículas no está
definido con precisión; cualquier
partícula “intenta” tomar todas las
trayectorias posibles entre su estado
inicial y su estado final. La probabilidad
de cada trayectoria tiene un peso, por lo
que se asigna una probabilidad mayor a
las trayectorias de menor acción: la
trayectoria clásica, de mínima acción, es
la más probable. Esta formulación de
comportamiento
cuántico,
llamada
método de suma sobre historias, fue
propuesta por Richard P. Feynman.
En virtud de la naturaleza de la
interacción de una cuerda con su fondo, el
movimiento de una cuerda sólo puede
describirse coherentemente si la curvatura
del espacio de fondo está severamente
restringida.
Si la suma de historias de la hoja del
universo ha de ser coherente, las seis
dimensiones deben curvarse de algún
modo especial. Se dice que forman una
clase de espacio llamado espacio de
Calabi-Yau, y una generalización de
dicho espacio denominada variedad de
órbitas (“orbifold”). Y es que una gran
parte del interés de estas teorías de
supercuerdas se debe a la rica estructura
que se obtiene de la exigencia de
coherencia interna de la teoría. Hay otra
restricción empírica de la teoría que es la
necesidad de que conduzca a la quiralidad
observada en la fuerza débil, y sólo
cuando el espacio tiene un número impar
de dimensiones (espaciotiempo de
dimensiones par) cabe definir el concepto
En la teoría de Supercuerdas, la adición
de historias exige sumar todas las
superficies posibles que unen los estados
inicial y final de una cuerda, o de cuerdas
de una interacción.
Las frecuencias vibracionales de una
Supercuerda vienen indicadas por su
“tensión”, medida en unidades de energía
por unidad de longitud, o de masa al
cuadrado, en unidades fundamentales.
Como la teoría debe describir la
gravedad, la tensión de la cuerda está
estrechamente relacionada con la energía
de Planck, único parámetro dimensional
de la teoría gravitatoria. Entonces, la
tensión de la cuerda debe ser del orden de
139
de quiralidad. Cuando el espacio tiene un
número impar de dimensiones, las
reflexiones especulares según cada eje
espacial dan un número impar de
reflexiones:
una
forma
orientada
levógiramente se transforma en otra con
orientación dextrógira. (En este contexto
la teoría de la Supergravedad en 11
dimensiones no puede conducir a una
teoría quiral por estar formulada en un
número par de dimensiones espaciales,
10).
diagramas prosigue por adición de
agujeros a las rosquillas: dos, tres, etc.
La
exigencia
de
simetría
bajo
redesignación de las coordenadas del toro
introduce nuevas y fuertes restricciones a
la teoría.
Una cuerda heterótica puede moverse en
el
espaciotiempo
plano
de
10
dimensiones, sí y sólo sí la simetría de las
fuerzas no gravitatorias de la teoría está
descrita por el grupo E8×E8 , el grupo spin
(32)Z2, una variante del grupo SO(32), o
el grupo O(16)×O(16). (Los mismos
grupos citados anteriormente, obtenidos
bajo la exigencia de ausencia de
anomalías quirales en una teoría
coherente de aforo quiral en 10
dimensiones).
En el año 1984, Schwarz y Green
mostraron la posibilidad de formular una
teoría quiral libre de anomalías en 10
dimensiones, si el grupo de simetría de la
fuerza de Yang-Mills es uno de dos
grupos predeterminados. El grupo debe
ser el SO(32), una generalización hasta 32
dimensiones internas de la simetría del
espaciotiempo, o el grupo E8×E8,
producto de dos grupos continuos
descubiertos por el matemático Élie
Cartan. Más tarde se ha observado otro
tercer grupo, el O(16)×O(16), que está
ausente de anomalías.
Edward Witten, de Princeton, vio que el
“arrollamiento” de las dimensiones
suplementarias y la rotura de la simetría
caminaban juntas.
En el espaciotiempo plano de 10
dimensiones, los valores medios de los
campos asociados con las fuerzas de
Yang-Mills de E8×E8 o de SO(32) son
nulos. Witten demostró que si la
curvatura del espacio no era nula en
algunas dimensiones, los valores medios
de estos campos en el espacio curvado
tampoco lo serían en esas mismas
dimensiones. Y un valor medio no nulo
de un campo indica una transición a una
fase de menor simetría; así, si seis
dimensiones del espaciotiempo plano
original se curvan fuertemente, las
fuerzas de Yang-Mills de la teoría
resultante del espacio curvado están
unificadas en una subsimetría de E8×E8,
o de SO(32).
La sencillez de la serie de diagramas de
Feynman posibles para las cuerdas
contrasta con la complejidad de los
posibles diagramas de Feynman para las
partículas puntuales.
Como ejemplo citamos los diagramas
posibles para dos cuerdas cerradas en
interacción. Ambas pueden unirse y
después separarse. El diagrama de
Feynman
de
dicho
proceso
es
topológicamente equivalente a la
superficie de una esfera.
Para una cuerda intermedia se desdobla
en dos, que después vuelven a unirse. El
diagrama equivale en su topología a un
toro, o superficie de una rosquilla. (Con
un agujero en medio). La serie de
La exigencia de que la teoría mantenga su
gran simetría bajo las redesignaciones de
140
las coordenadas de las hojas de universo
fuerza a que las dimensiones curvadas
formen un espacio de Calabi-Yau, o tal
vez una “variedad de órbitas”.
una “conexión simple”, con lo que las
líneas de potencial electromagnético
asociadas con el grupo de simetría E6
quedan atrapadas, lo que posibilita que E6
se rompa en un grupo de simetría menor,
similar al asociado al modelo estándar) en
el espacio (sólo poseen esta propiedad
unos pocos espacios de Calabi-Yau y
unas pocas variedades de órbitas) permite
que los campos asociados al grupo de
simetría E6 queden atrapados induciendo
a que la simetría se rompa más, “sin
necesidad de introducir las llamadas
partículas de gran masa de Higgs,
asociadas a tal rotura de simetría.
Philip Candelas, Andrew E. Strominger,
Gary T. Horowitz y el propio Witten
crearon
un
sugestivo
esquema,
suponiendo que seis dimensiones se
curvaran de ese modo, para explicar la
relación de la teoría de Supercuerdas con
fenómenos medidos en el rango de
energías experimentales.
En el esquema de Candelas (y sus
colaboradores), el valor medio del campo
eléctrico asociado al grupo E8×E8 se
iguala al valor no nulo de la curvatura del
espacio de seis dimensiones. Debido a
estas características de los espacios de
Calabi-Yau (o variedad de órbitas), la
simetría se rompe en el grupo E6×E8, si
perder la Supersimetría. (El grupo E6,
constituye
uno
de
los
grupos
considerados en el estudio de la
unificación de las fuerzas de Yang-Mills).
Conectado con cada agujero del espacio
de Calabi-Yau está un grupo de modelos
de vibración de cuerdas de baja energía.
Ha sido determinado que nuestras
familiares
partículas
elementales
corresponden al nivel de vibración de las
cuerdas de más baja energía, la presencia
de agujeros múltiples causa que las
formas de las cuerdas caigan en múltiples
grupos, o familias. Si el espacio de
Calabi-yau tiene tres agujeros, entonces
son observadas tres formas de vibración y
tres familias de partículas aparecen en los
experimentos.
El grupo E8 suplementario aumenta la
simetría pero no afecta directamente a las
partículas observadas. Las partículas que
transmiten las fuerzas asociadas a la
simetría E8 son neutras con respecto a las
fuerzas de Yang-Mills pero deben ejercer
atracción gravitatoria. (Se ha pensado si
la materia que forman tales partículas,
conocidas como materia en la sombra, no
sería la clave de la masa oculta del
universo).
Hay, sin embargo, un problema en este
razonamiento: nadie conoce cuáles de los
diez mil espacios de Calabi-Yau son la
forma en que están enrolladas las
dimensiones. Si el actual espacio de
Calabi-Yau tiene tres agujeros, se
encontrará una evidencia de la actual
teoría de cuerdas. Mas algunos espacios
de Calabi-Yau posibles tienen tantos
como 480 agujeros. Si encontráramos el
criterio para seleccionar una forma
específica, entonces el argumento tendría
poder de validación de la teoría de
cuerdas.
Una predicción de esta interpretación de
la teoría de Supercuerdas es la existencia
del “axión”, partícula que evitaría la
violación de una importante simetría de la
QCD.
La presencia de “agujeros” (que indica
que la “variedad de órbitas” no mantiene
141
Muchos espacios de Calabi-Yau que han
sobrevivido a este proceso de eliminación
no producen propiedades consistentes con
las observadas en nuestro universo. No
obstante, esas formas no pueden ser
completamente eliminadas porque las
ecuaciones usadas para determinar la
física de un espacio de Calabi-Yau dado
son sólo aproximaciones, las cuales
podrían causar errores significativos en el
cálculo. La física ha desarrollado cálculos
con ecuaciones que limitan y encuentran
que unas pocas formas corresponden a las
propiedades físicas observadas en nuestro
universo, pero no puede refinar esos
cálculos hasta que las técnicas no
perturbativas se hagan más exactas.
Lógicamente, ya que las cuerdas vibran a
través de todas las dimensiones, la forma
del arrollamiento afectará sus vibraciones
y, por tanto, a las propiedades de las
partículas elementales observadas. Por
ejemplo, Andrew Strominger y Edward
Witten han enseñado que la masa de las
partículas depende de la forma de la
intersección de varios agujeros en el
espacio de Calabi-Yau. En otras palabras,
la posición relativa entre uno y otro a los
agujeros y el tipo de espacio de CalabiYau, según Strominger y Witten, afecta a
las masas de las partículas en cierta
forma, y lo mismo, desde luego, para
todas las propiedades de las partículas.
Se escriben las ecuaciones “aproximadas”
de la teoría de cuerdas usando un método
llamado “teoría de las perturbaciones”, el
cual allana el camino para encontrar el
criterio requerido para seleccionar un
espacio de Calabi-Yau del vasto número
de posibilidades. La investigación se
localiza hacia métodos no perturbativos
que esperan conduzca a unas ecuaciones
más exactas, y por tanto un criterio para
seleccionar una forma.
Ya que la evidencia directa experimental
de la teoría de cuerdas es imposible de
obtener, observaciones indirectas deben
ser un buen camino hacia el soporte de la
teoría. Una de tales observaciones sería el
descubrimiento de la Supersimetría, o las
partículas predichas, aunque mejor sería
encontrar partículas cargadas con
submúltiplos de la carga fundamental,
que no son posibles en otros modelos
pero sí en la teoría de cuerdas (aparte de
los valores 2/3 y 1/3 de los quarks y
antiquarks). Dentro del armazón de la
teoría de cuerdas, las cargas eléctricas
pueden tener una multiplicidad de
valores. Est es debido al hecho de que
ciertos espacios de Calabi-Yau tienen
agujeros con una propiedad inusual:
requieren que las cuerdas “enrolladas"
alrededor de ellos puedan desenvolverse
ellas mismas sólo haciéndolo en un cierto
número de veces, lo que se manifiesta en
los denominadores de las posibles cargas
fraccionarias.
Aunque no se tiene definido un criterio
para seleccionar un espacio Calabi-Yau,
podemos acercarnos a una acotación
hacia ellos. Es lógico empezar con un
espacio de Calabi-Yau que tenga tres
agujeros, y por tanto, todavía, las tres
familias. Problemáticamente, un espacio
Calabi-Yau puede deformarse en un
infinito número de otras formas
topológicamente
equivalentes,
sin
embargo, ya que los agujeros en el
espacio de Calabi-Yau cambian en forma,
tamaño y posición a través de
transiciones, y las vibraciones de las
cuerdas que determinan las “propiedades
de las partículas” dependen de las
propiedades de los agujeros, pueden ser
eliminados esos espacios de Calabi-Yau.
Branas es el nombre dado por los físicos a
las cuerdas, desde que se descubrió que la
teoría de cuerdas no se limitaba a objetos
de una dimensión. Una un-brana es el
142
nuevo nombre de una cuerda, la cual es
un objeto uno-dimensional; una dos-brana
es una membrana de una cuerda
extendida en dos dimensiones; una tresbrana es la misma extendida en tres
dimensiones; y así sucesivamente. Éstas
surgen principalmente cuando la teoría de
cuerdas se pone en once dimensiones, no
diez, y ofrece muchas posibilidades en el
campo de las pruebas experimentales
indirectas.
Planck y decreciendo, es exactamente
idéntico al que tiene lugar cuando el radio
es mayor que la longitud de Planck y
creciendo. Esto significa que, cuando las
dimensiones
colapsan,
su
radio
disminuirá hacia la longitud de Planck y
bota
hacia
atrás
de
nuevo,
reexpandiéndose otra vez con un radio
más grande que la longitud de Planck. En
otras palabras, el efecto de la dimensión
enrollada que se encoge, causa expansión
a un tamaño menor que la longitud de
Planck.
Hay un hecho esencial de la teoría de
cuerdas que es imposible en física de
partículas: cuerdas enrolladas. Éstas son
cuerdas, envueltas sobre sí mismas; una
dimensión enrollada. Las primeras
cuerdas se mueven a lo largo de la
superficie de un cilindro, pero las
segundas se enrollan a lo largo de la
dimensión
circular
del
cilindro,
moviéndose lateralmente a lo largo de él.
Cuando una cuerda está enrollada, el
término técnico es que es un modo de
movimiento “devanado”. Claramente esto
representa una nueva área de la física,
pero este tipo de configuración es absurdo
en la física de partículas puntuales.
La energía de las cuerdas enrolladas viene
de dos fuentes distintas: el movimiento
familiar vibracional y la nueva energía de
“enroscamiento”.
El
movimiento
vibracional puede ser separado en dos
categorías: vibraciones ordinarias y
uniformes. Las vibraciones ordinarias u
oscilaciones usuales, por simplicidad, las
ignoraremos
temporalmente.
Las
vibraciones uniformes son el simple
movimiento de deslizamiento de una
cuerda de un lugar a otro. Hay dos
importantes observaciones relacionadas
con el movimiento uniforme que lidera la
esencia
de
la
relación
contracción/expansión.
Una cuerda enrollada tiene una masa
mínima determinada por el tamaño de su
dimensión encurvada y el número de
veces que encierra la dimensión (su
número de “envolvimiento”). Por la
ecuación E= mc2, podemos también ver
que la cuerda tiene una energía mínima,
llamada energía de enrollamiento. La
vibración de la cuerda determina su
energía total, más grande que esta
mínima.
Primero, las energías vibracionales
uniformes
son
inversamente
proporcionales al radio de la dimensión
rodeada.
Por
le
principio
de
incertidumbre, un radio pequeño confina
una cuerda en un área más pequeña y por
tanto crece la energía de su movimiento.
Segundo, las energías de enroscamiento
son directamente proporcionales al radio
porque el radio causa que una cuerda
tenga un mínimo de masa, que puede ser
transformada en energía. Estas dos
conclusiones enseñan que un gran radio
implica
grandes
energías
de
enrollamiento y pequeñas energías
vibracionales, y pequeños radios implican
Hay una curiosa característica de los
modos de enrollamiento a cerca del
tamaño. De acuerdo con la teoría de
cuerdas, el proceso físico que tiene lugar
mientras el radio de la dimensión
enrollada está alrededor de la longitud de
143
pequeñas energías de enrollamiento y
grandes energías vibracionales.
enrolladas son libres para moverse
alrededor de la totalidad del círculo. Por
otro lado, las cuerdas enrolladas tienen
energías mínimas proporcionales a R y
por tanto, por el principio de
incertidumbre, pueden explorar distancias
de 1/R. Sin embargo, la naturaleza de esas
distancias asegura que siempre que se
desvía mucho de 1 (la longitud de
Planck), como sucede en nuestro
universo, una medida es simple (la
correspondiente a R) y otra difícil (la
correspondiente a 1/R). Por esta razón,
definimos la distancia de manera
ordinaria sin menoscabo de la otra,
desechando el camino más difícil para
culminar la operación. Esta discrepancia
es debida a las masas de las dos
configuraciones –la de alta energía, y por
tanto pequeño tamaño, en la que las
cuerdas son extremadamente masivas, y
la de baja energía, y por tanto gran
tamaño, en la que las cuerdas son más
ligeras y por tanto accesibles a la
tecnología presente. Cuando el tamaño
del universo es medido, esta medición se
realiza con modos ligeros de cuerda,
obteniéndose una imagen de alrededor de
1061 veces la longitud de Planck. Sin
embargo, si fuese tecnológicamente
factible, deberíamos ser capaces de usar
los modos pesados de las cuerdas para
medir el recíproco de las distancias.
Esta conclusión supone esencialmente
que, para cualquier gran radio hay un
correspondiente radio pequeño en el que
las energías de enrollamiento del primero
son las energías vibracionales en el
último, y viceversa. Puesto que las
propiedades físicas dependen de la
energía total de una cuerda, no hay
diferencia física observable entre los
correspondientes radios.
Ahora consideraremos un ejemplo de los
principios precedentes. Imaginemos que
el radio de la dimensión enrollada es 5
veces la longitud de Planck (R=5). Una
cuerda puede rodear estas dimensiones
cualquier número de veces; este número
es llamado “número de enrollamiento”.
La energía de enrollamiento está
determinada por el producto del radio por
el “número de enrollamiento”. Los
patrones de la vibración uniforme, que
son inversamente proporcionales al radio,
son en este caso proporcionales a
múltiplos enteros (debido al hecho de que
la energía viene en paquetes discretos, o
cuantos) del recíproco del radio. Este
cálculo
produce
el
número
de
vibraciones. Si el radio está decreciendo
de tamaño a R=1/10, los números de
enrollamiento y vibración simplemente
“conectan”, produciendo la misma
energía total. Ver el siguiente cuadro:
Debido a este hecho la contracción más
allá de la longitud de Planck no puede
ocurrir. Si las medidas son siempre
realizadas de la manera más fácil (la
única tecnológicamente posible hoy día),
el resultado siempre será al menos la
longitud de Planck. Imaginemos que una
medida
realizada
usando
modos
enrollables revela un vasto universo en
contracción. Cuando R=1, los dos modos
se vuelven igual de fáciles, y siempre se
obtendrá el valor de la longitud de
Planck. El valor retornará al recíproco del
NºEnroll. Nº Vibra. Energía Total
Radio 10 2
3
3/10+20=20,3
Radio 1/10 3
2
20+3/10=20,3
Estos resultados nos dicen que hay dos
caminos para definir la distancia en la
teoría de cuerdas –uno relacionado con
las cuerdas desenrolladas moviéndose
libremente, y otro relacionado con las
cuerdas
enrolladas.
Las
cuerdas
144
relacionadas excepto en su formulación.
Esto parecía ser un vasto escollo entre los
físicos, separando unos de otros en cuanto
a la aceptación de la teoría favorita entre
las mismas. Sin embargo, la segunda
revolución de supercuerdas enseñó que,
en una serie compleja de dualidades, las
cinco teorías son diferentes partes de una
teoría unificada llamada teoría M.
Esencialmente, todo el trabajo está
todavía por hacer para encontrar la forma
exacta de la teoría M, pero hay dos
hechos fundamentales ya conocidos.
Primero, las diez dimensiones de las
cinco teorías básicas surgen del uso de
ecuaciones aproximadas. Justamente
como Kaluza encontró una excitante
unión de la relatividad y el
electromagnetismo por la adición de una
dimensión, los teóricos modernos
encuentran una unión de las cinco teorías
distintas añadiendo otra dimensión. En
realidad, las ecuaciones exactas de la
teoría subyacen en once dimensiones.
Segundo, la teoría M no se limita a unas
cuerdas vibrando en una dimensión, dos
membranas dos-dimensionales, pepitas
tres-dimensionales o manchas llamadas
tres-branas, y así campos de más
dimensiones quedan incluidos.
resultado
dado
por
los
modos
desenrollados, así que el resultado
implicará que el universo es otra vez más
grande que la longitud de Planck y
expandiéndose.
Hay cinco tipos de teorías de cuerdas que
son muy similares, pero diferentes en
ciertos aspectos fundamentales: Tipo I,
Tipo II A, Tipo II B, Heterótica tipo
O(32) y Heterótica tipo E8×E8 (Heterótica
–E). En el tipo II A, las vibraciones viajan
en sentido del reloj alrededor de una
cuerda idénticamente a como viajan en
sentido contrario; el resultado de esto es
que las partículas tienen spines en ambas
direcciones (tienen ambas quirilidades).
En el tipo II B, las vibraciones que van en
el sentido del reloj y el contrario son
exactamente opuestas, resultando el spin
de sus partículas en una sola dirección
(tienen una quirilidad). En las dos teoría
heteróticas, las vibraciones en el sentido
del reloj se parecen a las cuerdas de tipo
II (las vibraciones en el sentido del reloj
en II a y II B son las mismas), pero las
vibraciones en dirección contraria a las
agujas del reloj son parecidas a las de la
teoría bosónica original. Es interesante
que la teoría bosónica requiere 26
dimensiones, y la teoría tipo II requiere
10, resultando una dualidad ocasional en
la que las vibraciones en el sentido del
reloj ocurren en 10 dimensiones y las
vibraciones en el sentido contrario en 26.
Las 16 dimensiones extras deben estar
contenidas en una de las dos formas en un
toro; esto da lugar a dos teorías
heteróticas separadas. El tipo I es similar
al tipo II B excepto que incluyen cuerdas
abiertas, o cuerdas cuyos extremos están
separados o desconectados, así como las
usuales cuerdas cerradas.
Dentro de la teoría de cuerdas hay una
precisa
fórmula
matemática
que
determina la influencia de cada cuerda en
una interacción en el movimiento de otra.
(Esta fórmula actualmente difiere
ligeramente en cada teoría de cuerdas
individual, pero las diferencias no son
importantes). Sin embargo, esta fórmula
no
determina
absolutamente
las
interacciones entre las partículas: por el
principio de incertidumbre, los pares
partícula/antipartícula (o en términos de
cuerdas, dos cuerdas en modos de
vibración
opuestos)
pueden
temporalmente tomar energía y “saltar” a
la existencia por un corto período de
Antes de la segunda revolución de las
Supercuerdas, las cinco teorías parecían
completamente
distintas
y
no
145
muchos de los lazos pueden ser ignorados
y la teoría de las perturbaciones funciona
perfectamente. Sin embargo, si la cte, es
mayor que uno la estimación dada por la
teoría de las perturbaciones es más grande
que el marco porque las contribuciones de
un número creciente de lazos son más
grandes.
tiempo antes de aniquilarse entre ellos.
Estos pares, llamados pares de cuerdas
virtuales,
deben
rápidamente
recombinarse en un simple lazo de la
cuerda. Esto se llama un proceso de “un
lazo”. Obviamente, este proceso puede
continuar indefinidamente, extendiéndose
con dos, tres, quince, o cualquier número
infinito de lazos. Como para las
interacciones originales hay una fórmula
para describir cada una de esas cada vez
más complejas interacciones. Los teóricos
de cuerdas podrían entender exactamente
las interacciones entre cuerdas juntando
las expresiones de cada una de estas
interacciones, pero esto implica un
infinito número de expresiones puesto
que hay un infinito número de
interacciones, cada una con más lazos que
la precedente. Esto es claramente
imposible, por lo que los teóricos de
cuerdas tienen que usar el método de las
perturbaciones, primero calculando el
valor de la interacción simple, y luego
refinándolo añadiendo sucesivos números
de lazos hasta alcanzar la aproximación
deseada.
En el presente, nadie conoce las
constantes de acoplamiento para cada una
de las cinco teorías. Sabemos que todas
las conclusiones, por tanto, más allá de la
teoría de las perturbaciones no son
válidas si la constante es mayor que uno.
La teoría de las cuerdas incluye una
ecuación para encontrar la constante, pero
corrientemente es sólo una versión
aproximada, ya que esta ecuación está
formulada en base a perturbaciones que
asumen que la respuesta será menor que
uno.
Como reveló Witten, basado en el trabajo
previo de muchos otros, las cinco teorías
de cuerdas conocidas que parecen
completamente distintas, en la actualidad
se ven duales unas de otras. Cuando las
teorías trabajan con acoplamientos
débiles –esto es, cuando tienen constantes
de acoplamiento menores que unoaparecen distintas. Sin embargo, cuando
se analizan usando métodos no
perturbativos,
con
constantes
de
acoplamiento mayores que uno, se
observan bastante interrelacionadas.
Específicamente,
con
acoplamiento
fuerte, una teoría tiene una descripción
alternativa en el comportamiento débil de
otra.
Una constante de acoplamiento es un
número en la teoría de cuerdas que
determina la probabilidad de que una
cuerda se divida en dos, por tanto forma
un par virtual. Las matemáticas muestran
que una constante de acoplamiento más
grande que uno produce un incremento de
la probabilidad de pares de cuerdas
virtuales; constantes menores de uno
conlleva un crecimiento más bajo de
pares de cuerdas virtuales. (Para ser más
específicos, cada par de cuerdas virtuales
contribuyen con un factor que se
multiplica por la constante; si es menor
que uno, la multiplicación incrementará
las pequeñas contribuciones; si es más
grande que uno, la multiplicación
favorecerá las contribuciones más
grandes). Si la cte. es menor que uno,
Al estudiar la teoría M haremos mención
a esos métodos no perturbativos.
En mecánica cuántica está la cte. de
Planck, h ≅ 10-27 erg.s , básica en la
escala de la incertidumbre cuántica.
146
En la teoría de cuerdas hay una nueva
constante:
o posponiendo para más adelante el
problema de la degeneración del vacío.
α´ ≅ (10-32 cm)-2
Los modelos construidos hasta ahora son
bastante asimiles de las GTU, debido a
las siguientes cuestiones:
que juega un papel análogo a la anterior.
La teoría de cuerdas hace
predicciones generales sobre:
i)
ii)
iii)
1. La existencia de tres generaciones de
leptones y quarks quirales;
2. Supersimetría de baja energía;
3. Existencia de axiones;
4. Dobletes
de
Higgs
masivos
(acompañados por tripletes) que
obtienen masa debido a la simetría
espaciotemporal, y
5. Estructura de simetrías discretas
globales y locales.
tres
La gravedad
La simetría de gauge
La supersimetría
Y con un conocimiento del “vacío”, se
obtienen más respuestas. La dualidad
transforma e en 1/e, y no es posible que
ambos e y 1/e sean mucho menores que
uno.
A todo lo anterior se suma la gravedad,
imposible dentro de la teoría de campos.
Para la teoría cuántica Witten obtiene una
nueva visión del problema tradicional de
confinamiento de los quarks, la cual está
relacionada por la dualidad más que la
física estándar. Los modelos construidos
a partir de cuerdas (MCC), que se
compara con las GTU, se comportan, no
obstante, con varias características
diferenciales. Muchas de ellas que en el
Modelo
Estándar
no
encuentran
explicación, como el origen de la
existencia de tres familias de fermiones
quirales (la quiralidad de los fermiones es
una particularidad de las teorías de
cuerdas,
independiente
de
la
compactación, ya que no es derivable en
la teoría de Kaluza-Klein, etc.), con la
MCC se obtienen en términos de
propiedades geométricas y topológicas de
K. (El problema sigue siendo la selección
correcta del vacío).
En la elaboración de los modelos de
cuerdas no se contempla ni reproduce el
Modelo Estándar Minimal Supersimétrico
(MEMS), que implica soslayar los
procesos de cambios de Sabor. No se
predicen, tampoco, las relaciones usuales
entre los acoplamientos de Yukawa, sino
que
éstos
satisfacen
relaciones
topológicas y geométricas en K.
Hay problemas respecto a la cte.
cosmológica, pues los modelos cuerdistas
no explican que ésta pueda ser nula. Para
resolver la cuestión se recurre al
mecanismo “traductor” denominado
dualidades.
Una de las primeras controversias sobre
la teoría de Supercuerdas es aquella en la
que se subraya su diferencia con respecto
al Modelo Estándar, capaz de hacer
predicciones contrastadas en laboratorios,
cosa que no ha podido lograr la primera
teoría. O sea, podemos decir que tantos
esfuerzos gastados en su elaboración
La solución debe proceder del sector no
perturbativo de la teoría de cuerdas, algo
complicado pues es desconocido; por ello
muchas teorías de cuerdas prefieren
edificar modelos unificadores, soslayando
147
Sommerfeld-, son métodos que envuelven
propiedades
supersimétricas
para
determinar ciertos aspectos de la física sin
usar métodos perturbativos. Demos un
ejemplo. Supongamos que nos dicen que
una caja cerrada contiene algún objeto
desconocido con, dicen, una carga
eléctrica de +2. Este podría ser dos
protones, tres protones y un electrón, seis
quarks –up; cualquiera de ellos
compuestos por cualquier número de
neutrones o cualquier otra combinación
de partículas con carga eléctrica total +2.
Sin embargo, también se nos dice que lo
que contiene es supersimétrico y tiene
una mínima masa permitida por la carga
+2. Por tanto, contiene dos protones. Las
conclusiones de los físicos mencionados
anteriormente, una estructura tal con
supersimetría y una “constante de
minimalidad” (Brian Greene), o la
estipulación que el contenido será el de la
posible masa mínima, puede permitir que
el contenido de tal “caja” teórica sea
analizado rápida y exactamente. Los
componentes
de
masa
mínima
consistentes con el valor de la carga son
conocidos específicamente como estados
BPS.
pudieran acabar siendo un simple
ejercicio de especulación matemática.
Uno de los problemas ligados a la teoría
de Supercuerdas que más resalta es la
propia pequeñez de las cuerdas, puesto
que cuanto más pequeño es algo, menos
puede verse. Tan pequeñas son que no
hay esperanzas de hacer experimentos
que puedan acercarnos a sus dimensiones.
Y sin experimentos no pueden hacerse
comprobaciones de sus predicciones.
Para desarrollar su formulación es
necesario apelara diez dimensiones como
mínimo; y hasta 26.
La teoría, también, tiene decenas de miles
de alternativas, en principio, posibles que
no sabemos si son reales, y que
corresponden a miles de
posibles
universos. En alguna de sus versiones
predice 496 fuerzones, partículas como el
fotón, transmitiendo la fuerza 16
diferentes tipos de carga.
La explicación más frecuente sobre todo
lo anterior, es que los problemas surgen al
no existir, aún, una estructura matemática
consistente para formularla como debería.
Si hacemos un experimento mental con
una cuerda de tipo I con una constante
mucho menor que 1, la teoría de las
perturbaciones es válida y las propiedades
de la teoría pueden ser descritas
satisfactoriamente. Si el valor de la
constante crece, pero todavía es menor
que uno, la exactitud de los cálculos
decrece, pero todavía proveerá una buena
aproximación de la realidad. Cuando el
valor de la constante crece más allá de 1,
la teoría de las perturbaciones deja de ser
válida y los estados BPS deben usarse.
Basado en el análisis con BPS, el
comportamiento del tipo I fuertemente
acoplado es exactamente el mismo que el
comportamiento débilmente acoplado de
La cura para esto ha sido el desarrollo de
todo un conjunto de nuevas herramientas
que han logrado superar, en parte, las
limitaciones matemáticas de la teoría de
cuerdas. Tales herramientas son las
llamadas dualidades, que son como un
diccionario unificador que permite a los
físicos “traducir” sus cálculos desde
marcos teóricos asequibles, a otros en los
que lo convencional no funciona.
2.La teoría M
Los estados BPS, nombre de tres físicos
reconocidos por su trabajo en el área –E.
Bogomoln´yi, Manoj Prasard y Charles
148
Hay adicionalmente, un conjunto notable
de dualidades entre las teorías de cuerdas.
Recordemos la conclusión de que la
dimensión de radio R equivale a la de
radio 1/R. Específicamente esta dualidad
entre radios es esta: La física de la cuerda
de tipo II A en un universo de radio R es
la misma que la física de una cuerda de
tipo II B en un universo con una
dimensión 1/R. Lo mismo se aplica a las
cuerdas Heteróticas –O y Heteróticas –E.
las cuerdas Heteróticas –O. Los estudios
sugieren que lo contrario es también
verdad: el acoplamiento fuerte de las
cuerdas Heteróticas –O es equivalente al
acoplamiento débil de las cuerdas de tipo
I. Esta propiedad es conocida como
dualidad fuerte - débil. La tipo II B tiene
otra importante propiedad en el mismo
sentido: es dual sobre sí misma. Esto
significa
que
la
constante
de
acoplamiento II B y su recíproca describe
la misma física.
Las cuerdas de tipo II A y Heteróticas –E
son en realidad figuras dos-dimensionales
en un universo de once dimensiones. Sin
embargo, la teoría de este universo oncedimensional es virtualmente desconocida
para los teóricos. A energías bajas, es
aproximada por la Supergravedad oncedimensional, una teoría de partículas
puntuales. Esta teoría, la más firme
candidata de cuerdas para una “teoría del
todo”, ha sido denominada “Teoría –M”
por Edward Witten; sin embargo, no hay
consenso en lo que ese misterioso nombre
significa (en efecto, sugiere teoría
misteriosa). A pesar de la falta de
conocimiento de sus propiedades
detalladas, sabemos que unifica las cinco
teorías de cuerdas en un armazón por
medio de un tejido de dualidades. Esto
implica que un problema demasiado
complicado de resolver en una teoría
puede ser resuelto en la otra,
posiblemente con una mayor probabilidad
de encontrar una solución satisfactoria.
Por ejemplo, las cuerdas de acoplamiento
fuerte son dificultosas de trabajar con
ellas, siendo mucho más fáciles las de
acoplamiento débil. Por tanto, el
acoplamiento débil de las cuerdas de tipo
I deben reemplazar al acoplamiento fuerte
de la cuerda Heterótica –O en un cálculo
físico, pues ambas describen las mismas
propiedades físicas de fondo.
Antes de la aparición de las cuerdas, las
teorías más satisfactorias eran aquellas
que incorporaban supersimetría y
gravedad en la teoría del campo cuántico
usando diez u once dimensiones. Estas
teorías, como sabemos, se llamaban
teorías de Supergravedad. Al final, cuatro
diez-dimensionales
teorías
de
Supergravedad fueron desarrolladas –tres
de ellas eran de baja energía,
aproximaciones de partículas puntuales
de tipo II A, II B y cuerdas Heteróticas –
E. Sin embargo, la Supergravedad de
once dimensiones se encontró que jugaba
un mayor papel en este tejido de
dualidades.
¿Cómo
puede
corresponder
la
Supergravedad once-dimensional a la
diez-dimensional teoría de cuerdas? Los
investigadores han encontrado que el
acoplamiento fuerte de las cuerdas,
particularmente las cuerdas de tipo II A y
la Heterótica –E, tiene dos dimensiones.
Esta dimensión extra es una dimensión
espacial diez, lo que hace un total de
once. En el tipo II A, las cuerdas se
vuelven menos parecidas a una cuerda y
más parecidas a una superficie dosdimensional o una rueda de bicicleta o
tubo interno. En la Heterótica –E, la
cuerda se vuelve una membrana (o dosbrana) cuyo tamaño es gobernado por la
constante de acoplamiento.
149
enteros de ondas, correspondiendo cada
una a una partícula con una energía
determinada; las energías, pues, son
discretas, en otras palabras, están
cuantizadas.
La teoría M, y por tanto las otras teorías,
también contienen más que cuerdas oncedimensionales. La teoría incluye todas las
uno-branas a las nueve-branas. Con más
generalidad, un objeto con p dimensiones
espaciales es llamado una p-brana. Los
físicos han probado que la masa de tales
objetos, excepto las cuerdas, son
inversamente proporcionales a la
constante de cuerda de la teoría dentro de
la cual se hace el cálculo. Con
acoplamiento débil, todas las cuerdas
serán más pesadas que incluso la masa de
Planck. Puesto que una brana, por tanto,
requiere una gran cantidad de energía
para
ser
creada,
las
branas
improbablemente tengan gran efecto en
física. Sin embargo, con acoplamiento
fuerte, la masa de esos objetos extensos
se hacen más ligeros y entonces tienen un
gran efecto.
Un observador que viviera en las cuatro
dimensiones cotidianas ve solamente un
conjunto de partículas, no con energías,
sino con cargas cuantizadas. El cuanto de
carga –al que consideramos la unidaddepende del radio del círculo. Para
obtener el valor e de la carga del electrón
el círculo tendría que tener unos 10-33 cm
de radio.
Ese tamaño tan ínfimo hace que incluso
para los átomos se les escape su
existencia. Pero, aún así nos da el
electromagnetismo.
Ya vimos, que de la Supersimetría se
sigue
la
Supergravedad,
cuyas
interacciones son realizadas por una
partícula de spin 2 –el gravitón- que tiene
como compañero al gravitino de spin 3/2.
En el año 1978 Cremmer, Julia y Scherk
enseñaron que la Supergravedad es más
elegante en un espaciotiempo de 11
dimensiones (10 espaciales y 1 temporal).
El tipo del mundo “real” de nuestras
cuatro dimensiones, depende de cómo se
desarrollan, a la forma de Kaluza y Klein,
todas estas dimensiones extras. Con
varias dimensiones cerradas sobre sí
mismas (por ampliación de la teoría
Kaluza-Klein) podrían derivarse el
electromagnetismo, las fuerzas nucleares
fuerte y débil, y por qué no, la
gravitación.
La Supergravedad pone una cota superior
a la dimensionalidad del espaciotiempo:
once dimensiones. Ya citamos que fueron
Kaluza y Klein quienes sugirieron que el
espaciotiempo podría tener una quinta
dimensión oculta que no sería infinita
como las otras, sino que se cerraría sobre
sí misma, formando una circunferencia
donde residirían ondas cuánticas, que la
ceñirían
totalmente.
En
dicha
circunferencia sólo caben números
En el año 1984, la quiralidad (la
distinción por la naturaleza de la derecha
y de la izquierda), al no poder ser
deducida fácilmente de la reducción de
las 11 dimensiones a cuatro, como Witten
y otros recalcaron, hizo caer en desgracia
la Supergravedad. Su papel fue tomado
por las Supercuerdas en 10 dimensiones,
que en ese momento la ocupaban cinco
teorías con características matemáticas
distintas: cuerdas Heteróticas E8×E8,
Para la teoría M, como para la de las
cuerdas, la noción de Supersimetría es de
gran importancia. La supersimetría dicta
que, para cada partícula conocida de spin
entero (0, 1, 2, etc.), haya una partícula de
igual masa y spin semientero (1/2, 3/2,
5/2, etc.), y al revés.
150
dos dimensiones espaciales y es como
una hoja. Howe, Inami, Stelle y Duff
mostraron que si una de las 11
dimensiones era una circunferencia, podía
envolverse con la membrana una vez y
pegando los bordes formar un tubo. Si el
radio de la circunferencia se hace
suficientemente pequeño la membrana
enrollada parecerá una cuerda en 10
dimensiones,
concretamente
la
supercuerda del tipo II A.
Heteróticas SO(32), de tipo I SO(32), de
tipo II A y de tipo II B. En particular, la
E8×E8 mostraba –en principio- potencia
suficiente para explicar las fuerzas y
partículas elementales conocidas hasta
entonces, quiralidad incluida. Parecía,
también, que las cuerdas proporcionaban
una teoría gravitatoria con coherencia con
los fenómenos de la cuántica.
Ahora bien, el excesivo número de teorías
desconcertaba, así como la dificultad de
los cálculos matemáticos en la teoría
creaba ciertas dudas sobre estas teorías de
cuerdas. Tampoco se entendía ¿por qué
no podía asimilarse las partículas
puntuales, así como alas cuerdas, también
a membranas, o de forma general a
objetos d p dimensiones, o sea, a pbranas?
Amalie Emny Noether en el año 1917
demostró que masa, carga y otras
propiedades de las partículas elementales
se conservaban gracias a alguna simetría,
por ejemplo, la carga eléctrica es
consecuencia de una simetría de la
función de ondas de la partícula.
Pero ocurre que, a veces, las propiedades
pueden conservarse debido a las
deformaciones de los campos, lo que se
llaman leyes de conservación topológicas.
Por ejemplo, un nudo de un conjunto de
líneas de campo, lo que se denomina un
“solitón”, no puede deshacerse, entonces,
el solitón no se disipará y se comportará
de forma parecida a una partícula. El
ejemplo clásico es el monopolo
magnético.
Igual que una partícula describe en su
movimiento por el espaciotiempo una
trayectoria unidimensional, o “línea del
mundo”, una p-brana barre un volumen
de mundo de p+1 dimensiones (así pues,
p+1 no puede ser mayor que el número de
dimensiones del espaciotiempo).
Ya en el año 1962 Dirac construyó un
modelo en el que el electrón no era un
punto sino una burbuja minúscula, o
membrana cerrada sobre sí misma. Sus
oscilaciones, sugirió, generarían otras
partículas como el muón. Aunque el
intento no tuvo éxito, las ecuaciones que
formuló
para
la
membrana,
esencialmente, son las mismas que se
usan hoy. Las membranas pueden tomar
forma de burbuja o extenderse en dos
direcciones como una plancha de caucho.
Según el esquema tradicional, las
partículas que portan cargas de Noether
(electrones y quarks, entre ellas) se
reputan como fundamentales, así que
serían derivadas las “cargas topológicas”.
(Por
ejemplo,
los
monopolos
magnéticos).
Montanen y Olive hicieron en el año 1977
una atrevida conjetura. Supusieron que
había una formulación alternativa de la
física en la que los papeles de las cargas
de Noether (por ejemplo, las cargas
eléctricas) y las cargas topológicas (como
las cargas magnéticas) estuviesen
La Supersimetría impone unas duras
restricciones a las dimensiones de las pbranas. Bergshoeff, Sezgin y Townsend
descubrieron una membrana en el
espaciotiempo de 11 dimensiones. Tenía
151
conocidas, era mucho más frágil una
dualidad entre cuerdas y pentabranas en
10 dimensiones. También subsistía el
hecho de que no se conocían con
seguridad las propiedades cuánticas de las
pentabranas, lo que imposibilitaba la
prueba de esa nueva dualidad. Ashoke
Sen
estableció
que
las
teorías
Supersimétricas requerían la existencia
de ciertos solitones dotados de carga
eléctrica y magnética, algo predicho por
la conjetura de Montanen-Olive, lo que
abrió las puertas al desarrollo acelerado
de toda la teoría.
cambiados. En esa imagen, que
podríamos llamar “dual” , por ejemplo,
los monopolos magnéticos serían
elementales y las partículas de Noether –
quarks, electrones, etc.- solitones, o
“partículas” topológicas.
Precisando, una partícula fundamental de
carga e equivaldría en esa “dualidad” a
una partícula solitónica de carga 1/e. Y
como la carga de una partícula es la
medida de la intensidad con que actúa, un
monopolo
interactuaría
débilmente
cuando la partícula elemental original lo
hiciese fuertemente (e grande) y
viceversa.
En el año 1990 varios teóricos
generalizaron la idea de dualidad de
Montanen-Olive para las Supercuerdas en
cuatro dimensiones. A esta dualidad,
también mera conjetura, se llamó
dualidad S.
Si la conjetura fuese cierta equivaldría a
una profunda simplificación matemática.
Por ejemplo, en la teoría de los quarks los
cálculos son harto difíciles cuando éstos
interaccionan fuertemente; como los
monopolos entonces interaccionarían
débilmente, de la ejecución de los
cálculos con una teoría dual basada en los
monopolos podrían obtenerse todas las
soluciones para los quarks, pues ambas
teorías darían los mismos resultados
finales.
La dualidad T ya era conocida por los
teóricos de cuerdas anteriormente, y
relacionaba los dos tipos de partículas que
se producen cuando una cuerda forma un
bucle alrededor de una dimensión
compacta. Como vimos, estas partículas
“vibrantes” son análogas a las predichas
por Kaluza y Klein, procediendo de las
vibraciones de la cuerda que ciñe la
dimensión. Dichas partículas tienen más
energía si el círculo es más pequeño.
Como la cuerda puede, además, dar
muchas vueltas alrededor del círculo,
cuantas más veces lo haga y sea mayor el
círculo, mayor será su energía. Cada nivel
de energía es como una partícula nueva
(son las partículas de “arrollamiento”
anteriormente vistas).
Claro está primero había que demostrar la
conjetura de Montanen-Olive con algún
otro método.
Las p-branas pueden asimilarse a los
solitones. Andrew Strominger encontró
en 1990 que una cuerda de 10
dimensiones puede dar un solitón que es
una pentabrana, sugiriendo que una
cuerda que interacciona fuertemente es el
equivalente dual de unas pentabranas con
una interacción débil.
La dualidad T expresa que para una
circunferencia de radio R, las partículas
de arrollamiento son las mismas que las
“vibrantes” para un círculo de radio 1/R,
y al contrario (lo que ya enunciamos con
anterioridad). Para el físico, pues, no hay
Ahora bien, si no se había demostrado,
aún, la dualidad propuesta por Montanen
y Olive entre la electricidad y el
magnetismo, en las cuatro dimensiones
152
distinción entre ambos conjuntos de
partículas: una dimensión compacta
gruesa da las mismas partículas que una
delgada.
Christopher M. Hull, junto con Townsed,
apuntaron que una cuerda heterótica que
interaccione débilmente podía ser la dual
de una cuerda de tipo II A
interaccionando fuertemente, si ambas se
encontraban en seis dimensiones.
La consecuencia de lo anterior es
transcendental. Siempre se había creído
que a longitudes inferiores a la de Planck,
10-33 centímetros, las leyes de la
naturaleza se desvanecerían, sin embargo,
la dualidad T nos dice que a esas escalas
y a las grandes el universo no sería
distinto. Podría especularse que si el
universo se encogiera hasta ser menor que
la longitud de Planck, se transformaría en
un universo dual, que crecería mientras el
otro fuese contrayéndose.
Michael J. Duff, apuntó que si se reduce
el espaciotiempo de las seis dimensiones
anteriores a cuatro, enrollando dos, ocurre
que tanto la cuerda fundamental como la
solitónica adquieren una dualidad T,
encontrándose, curiosamente, que la
dualidad T de la cuerda solitónica es
precisamente la dualidad S de la cuerda
fundamental, y al revés. A este fenómeno,
en el cual un intercambio de cargas en
una de las imágenes es justo la inversión
de la longitud en la imagen dual, se llama
“dualidad de dualidades”. Ello equivale a
que la dualidad S posea la misma
potencia que “la bien establecida”
dualidad T, prediciendo que la intensidad
con la que interaccionan los objetos –sus
cargas- está relacionada con el tamaño de
las dimensiones invisibles. (Lo que en un
universo es carga en el otro pudiera ser
tamaño).
La dualidad entre cuerdas y pentabranas
seguía por entonces siendo una conjetura
debido al problema de la cuantización de
las pentabranas. El problema se resolvió
obviándolo, puesto que si se enrollaban
cuatro de las 10 dimensiones y las
pentabranas las envolvían, éstas quedaban
transformadas
en
objetos
unidimensionales,
como
cuerdas
(solitónicas) en un espaciotiempo de seis
dimensiones. (La cuerda de diez
dimensiones
retiene
su
carácter
fundamental incluso en las seis
resultantes). Así que, de una dualidad
entre cuerdas y pentabranas se pasaba a
otra (por más, mera conjetura) dualidad
entre cuerdas solitónicas y fundamentales.
La ventaja era que si sabíamos cuantizar
una cuerda cabía, por tanto, contrastar las
predicciones de la dualidad cuerdacuerda. Podía, por ejemplo, demostrarse
que la intensidad con la que
interaccionaban las cuerdas solitónicas
venía dada por el inverso de la intensidad
de la interacción de la cuerda
fundamental, lo que está de acuerdo con
la conjetura.
Witten en el año 1995 puso todo cuanto
se había hecho sobre las dualidades T, S y
cuerda-cuerda bajo el techo de la
expresada teoría M en 11 dimensiones.
Quedaba claro, también, que las
membranas desempeñaban un muy
importante papel en dicha teoría M.
Hasta la cuerda E8×E8 encontró su origen
en la teoría M. Witten y Horava revelaron
el mecanismo por el que la dimensión
extra de la teoría M se contraía en un
segmento. La imagen que resultó fueron
dos universos de 10 dimensiones (cada
uno en un extremo de dicho segmento de
línea) conectados por un espaciotiempo
de 11 dimensiones. Las partículas existen
exclusivamente en los universos de los
153
extremos, que pueden comunicarse entre
sí exclusivamente a través de la gravedad.
(Podría hacerse otra nueva conjetura: que
la materia visible de nuestro universo
estaría en una pared y la llamada “materia
oscura” o masa invisible del universo en
la otra, o el universo paralelo).
radiativa. Y es que los agujeros negros
tienen una entropía, que mide el desorden
de un sistema a través del número de
estados cuánticos disponibles; mas no se
sabía el origen “microscópico” de esos
estados cuánticos. Strominger y Vafa se
entretuvieron en contar, gracias a la
técnica de las membranas de Dirichlet, el
número de estados cuánticos de las branas
negras, encontrando que la entropía
hallada concordaba perfectamente con la
predicción de Hawking.
Sabemos que a una energía E de 106
gigaelectronvoltios las intensidades de las
fuerzas fuerte, débil y electromagnética
convergen, y esa intensidad de
interacción es casi igual al número
adimensional G E2, donde G es la
constante de Newton.
Dijimos, también, que hay miles de
millones de formas diferentes de contraer
10 dimensiones en cuatro, o sea, que no
hay forma de hacer ninguna predicción
que valga. Como la masa de una
membrana negra puede desaparecer si se
contrae el agujero al que envuelve, un
espaciotiempo dotado de cierto número
de agujeros internos puede convertirse en
otro con un número de agujeros
diferentes, lo que viola las leyes
topológicas clásicas. Así que, se entrevé
que la cuerda podría elegir el
espaciotiempo que tenga, por ejemplo, la
menor energía, habitando en él. (Sus
ondulaciones
son
las
partículas
elementales que conocemos en nuestro
mundo “real”).
En el espaciotiempo concebido por
Horava y Witten puede elegirse el tamaño
de la 11ª dimensión, de forma que las
cuatro fuerzas pueden converger en esa
escala, que es mucho menor que la escala
de Planck (1019 gigaelectronvol., valor en
que se expresaba la convergencia antes de
que la gravedad se “volviese fuerte”).
Joseph Polchinski hacía ver el parecido
entre algunas p-branas y la superficie
descubierta en el siglo XIX por Peter G.L.
Dirichlet. Branas que pueden asociarse a
los llamados agujeros negros.
Por cierto, en este contexto, las cuerdas
abiertas pueden considerarse cerradas, si
una parte se oculta detrás de las branas
negras. Así se ha llegado a una nueva
interpretación de los agujeros negros,
definiéndoselos como intersecciones de
branas negras que envuelven siete
dimensiones enrolladas. (¿Podrá, en este
sentido, la teoría M despejar las paradojas
de los agujeros negros planteadas por
Hawking?).
A continuación ahondaremos un poco
más en el tema transcendental de las
dualidades.
Sabemos que en teoría de cuerdas las
interacciones no se miden por ctes. de
acoplamiento (por cierto, de valores 1/8,
1/128 y 1/24, respectivamente para las
interacciones fuertes, electromagnéticas y
débiles), sino por una variable continua
que lleva por nombre dilatón, φ. La
dualidad S es una simetría de la teoría
bajo el intercambio de φ por 1/φ. Ello
implica, como hemos citado varias veces,
que una teoría que aparece con
Es conocido suficientemente que en el
año 1974 Stephen W. Hawking demostró
que los agujeros negros no eran tales (al
menos totalmente), pues emiten energía
154
En la figura anterior:
C=Compactación
S=Dualidad S
T=Dualidad T
interacción de intensidad débil (φ
pequeño) equivale a una teoría que opera
con interacción fuerte, es decir 1/φ será
entonces grande . Hay una analogía, pues,
con la dualidad T, sólo que ahora no se
trata del radio R de una dimensión
compacta, sino de la misma intensidad de
las propias interacciones.
Por consiguiente, hay en total dos teorías
de cuerdas independientes: Tipo II y
Heterótica; las demás son duales T o
duales S a estas dos.
Con 11 dimensiones espaciotemporales,
el dilatón φ a parece con el radio R11 de la
dimensión extra añadida.
La teoría II A presenta una sorpresa: con
acoplo débil es una teoría de cuerdas en
10 dimensiones; conforme aumenta el
acoplo se revela una dimensión especial
extra desconocida y se pasa a una teoría
en 10+1, o sea, en 11 dimensiones. La
teoría II A corresponde a una teoría en 11
dimensiones en las que una dimensión
espacial queda compactada en un círculo
de radio R11=φ. Ya hemos dicho que
cuando el acoplo φ es pequeño, el tamaño
de la dimensión extra R11 es muy
pequeño y resulta una teoría aproximada
en 10 dimensiones. En resumen, según la
intensidad de las interacciones (acoplo φ
grande o pequeño), aparecen o
desaparecen dimensiones espaciales
extra.
La conjetura Montanen-Olive, en su
formulación física es:
M2= qe2 α+ qn2/α donde α es la cte. de
acoplo que da la intensidad
de la interacción, y M las
masas.
En teoría de Supercuerdas, en vez de α,
se tiene el dilatón φ y los valores de qe y
qn son números enteros.
La ecuación para la dualidad T es:
E2=m2/R2+n2T4R2
Para la cuerda heterótica E8×E8 ocurre lo
mismo, únicamente que al aumentar el
acoplo φ se revela la existencia de una
dimensión extra de radio R11=φ, que
aumenta con φ pero que no está enrollada
en una circunferencia, sino que es un
segmento de longitud R11 con dos
extremos (tal como ya comentamos en
párrafos anteriores).
Valores de los cuadrados de energía E de
excitación, y donde n vale o, ±1, ±2, y T
es la tensión de la cuerda. Si se hace T=1,
entonces tiene el mismo aspecto si
hacemos el intercambio m↔n ; R= 1/R.
La relación entre las diversas teorías de
cuerdas viene reflejada en el siguiente
esquema:
D=11
D=10 S
M
C
Como también se comentó con
anterioridad en la teoría M entran en su
formulación membranas en vez de
cuerdas.
SO(32)
C
I
S
C
IIB
C
IIA
C
E8×E8
C
Añadamos, igualmente, que la teoría M,
al examinar su contenido en partículas sin
masa, es equivalente a la teoría de la
SO(32)
IIB
T
IIA
T
D=9
E8×E8
155
Supergravedad
Tendríamos:
en
Tipo II A
D=11
SUGRA
11
la información de todo el volumen del
espacio, en cierta forma puede mostrarse
en su superficie.
Tipo II B
Teoría M
Heterótica
E8×E8
dimensiones.
La propuesta del Principio Holográfico
fue enunciada en el año 1993 por G.´t
Hooft, y consiste en dos asertos básicos.
1. La información contenida en alguna
región del espacio puede ser
representada como un Holograma –
una teoría que “vive” en la frontera de
la región.
2. La teoría en la frontera de la región
del espacio en cuestión debería
contener al menos un grado de
libertad por área de Planck.
Tipo I
Heterótica
SO(32)
El físico argentino Juan Martín
Maldacena ha usado D-branas para
construir una teoría de cuantos similar a
la QCD, en las cuatro dimensiones en que
vivimos. También usó D-branas para
construir una teoría de cuerdas en 10
dimensiones, con cinco dimensiones
enrolladas y compactadas.
Un área de Planck es el área encerrada en
un pequeño cuadrado con lado igual a la
longitud de Planck, Lp=1,6×10-33cm.
Una versión de este Principio Holográfico
es conocida como la correspondencia ads/
CFT. Ésta es un tipo de dualidad que
establece que dos teorías físicas
aparentemente distintas son equivalentes.
Una es la física de la gravedad en un
espaciotiempo conocido como anti de
Sitter space (ads). El espacio cinco
dimensional anti – de Sitter tiene una
frontera que es cuatro dimensional, y en
cierto sentido parece un espaciotiempo
plano con una dimensión temporal y tres
dimensiones
espaciales.
La
correspondencia ads/CFT establece que la
física de la gravedad en cinco
dimensiones del espacio anti – de Sitter,
es
equivalente
a
cierta
teoría
supersimétrica de Yang-Mills la cual es
definida en la frontera del ads. Esta teoría
de Yang-Mills es, por tanto, un
“holograma” de la física que acontece en
cinco dimensiones. La teoría de YangMills tiene el grupo de gauge SU(N),
donde N es muy grande, y es
“supersimétrica” porque tiene una
simetría que permite los cambios entre
Maldacena utilizó una idea del Físico
Geral´t Hooft simplificando los cálculos
usando una teoría “ficticia” con muchos
colores.
La conexiónde Maldacena solo funciona
en un espacio que llamó Anti-de-Sitter.
Dicho universo debería “curvarse” de
forma que la expansión se iría
decelerando, colapsando finalmente en un
big crunch.
La hipótesis de Maldacena es que la
curvatura del espaciotiempo descrita por
la teoría de cuerdas equivale al número de
colores de la teoría de campos; más
colores implican menos curvatura.
También, la teoría de Maldacena sostiene
que el universo es holográfico, ya que su
teoría de campos cuatridimensional puede
imaginarse como una proyección
holográfica de la teoría de cuerdas en
cinco dimensiones (las otras cinco están
enrolladas). En un universo holográfico,
156
a la existencia para, después, desaparecer.
Los agujeros negros permiten el viaje
entre diferentes tiempos, así como entre
diferentes localizaciones; de esta forma,
el viaje en el tiempo puede ser
teóricamente posible. Se postula que los
agujeros de gusano pueden existir en el
centro de agujeros negros o entre
universos paralelos que no tienen otro
tipo de conexión. La imagen anterior es
una representación de un agujero de
gusano conectando dos universos
paralelos.
bosones y fermiones. Se espera que esta
teoría eventualmente nos enseñará algo
acerca de la QCD que, como sabemos, es
una teoría con grupo de gauge SU(3), y
que describe las interacciones entre los
quarks. Sin embargo, la QCD tiene
mucho menos simetría que la teoría
definida en la frontera del ads; por
ejemplo, la QCD no es supersimétrica.
Más aun, todavía no conocemos cómo
incorporar una propiedad crucial de la
QCD, conocida como libertad asintótica.
Haremos ahora un apartado respecto al
tema, ciertamente sugestivo, de los
llamados “agujeros de gusano”.
Riemann fue uno de los primeros que
discutió sobre los agujeros negros. Sus
agujeros negros, llamados cortes de
Riemann, son conexiones entre espacios
(espacios múltiples conectados) con
distancia nula. Por ejemplo, un insecto
acostumbrado a vivir en una de las
superficies de la imagen siguiente
(superficie x) puede pasar a través del
“corte” a la otra superficie y parecerle
todo fuera de lugar.
Un “agujero de gusano” es una estructura
que conecta dos regiones o áreas, de otro
modo muy distantes o no relacionados.
Esto ha sido vislumbrado como un
posible modo de viajar a través de las
estrellas o el tiempo, algo ampliamente
difundido por la ciencia ficción.
Los agujeros de gusano conectan dos
regiones del espacio que de otro modo no
están conectadas, para formar lo que se
llama conexión múltiple del espacio.
X*
*punto A
Espacio ordinario
Conexión del
agujero de
gusano
*punto B
Y*
corte
Por ejemplo, en la imagen, conectar el
punto A con el punto B es mucho más
rápido a través del “agujero de gusano”.
Y puede aprender, quizás, a reentrar a
través del corte de nuevo a “su” superficie
x. La conexión es un ejemplo de “corte”
de Riemann. Pero Riemann no vio estos
cortes como modo de transporte entre
universos.
Los agujeros de gusano pueden ser
posibles en distancias microscópicas
como resultado de la “espuma” cuántica
que permite los pares partícula/
antipartícula, al saltar momentáneamente
La descripción relativista de los agujeros
negros requiere agujeros de gusano en sus
centros. Esos agujeros de gusano,
llamados puertas de Einstein-Rosen,
parecen conectar el centro de un agujero
157
puente de Einstein-Rosen accediendo al
universo especular.
negro con un universo especular en el
“otro lado” del espaciotiempo. Al
principio, el puente era considerado
matemáticamente indeseable, pero nada
más. Era esencial para la consistencia
interna de la solución de Schwarzschild
de las ecuaciones de Einstein, que son la
primera aproximación relativista en
relación a los agujeros negros. Sin
embargo, los agujeros de gusano podrían
no ser atravesados porque el centro de un
agujero negro es una singularidad, un
punto de curvatura infinita en el
espaciotiempo, donde la gravedad podría
ser también infinita y toda la materia
podría ser reducida a sus más
fundamentales
constituyentes.
Adicionalmente, viajar a través de los
agujeros negros requeriría moverse más
rápido que la velocidad de la luz, algo
físicamente imposible. Por esta razón, los
puentes de Einstein-Rosen fueron
rápidamente olvidados, apareciendo otra
última solución que los incluía. La
asunción de ser matemáticamente
indeseables les hacía ser desechados de la
realidad física.
En el año 1985, el cosmólogo Kip Thorne
y sus colaboradores crearon una solución
simple que podría conectar dos períodos
en el tiempo. Las agujas de gusano
tendrían unos ocupantes y permanecerían
abiertos durante la duración del viaje a su
través, pudiendo no crearse paradojas en
el tiempo. Sin embargo, ello requería una
forma exótica de materia la cual posee
energía negativa.
Basado en esta solución, Thorne hace la
primera propuesta cabal para diseñar una
máquina para viajar en el tiempo. En una
versión de su máquina del tiempo, se
colocan dos placas de metal en una
habitación colocada en un cohete,
acelerándolo a una velocidad cercana a la
de la luz. Una habitación idéntica,
marcando su propio tiempo en el interior,
se coloca en la Tierra. El campo creado
por las placas (el efecto Casimir) crea un
desgarro en el espaciotiempo. A
continuación los relojes de las dos
habitaciones se ponen en dos “clases”
diferentes debido a los efectos
relativistas, con lo que el viajero es
lanzado al pasado o al futuro.
En el año 1963, Roy Kerr inventó la
famosa solución Kerr de las ecuaciones
de Einstein, una descripción más realista
de los agujeros negros que la solución
original de Schwarzschild. Kerr asumió
que el principio que formaría los agujeros
negros sería la rotación y encontró que
eventualmente no colapsarían en un
punto, sino más bien en un anillo. Cuando
nos aproximamos a su borde, la gravedad
y la curvatura del espaciotiempo tienden
ambos hacia el infinito, así que la materia
se encuentra inevitablemente conducida
hacia él para ser destruida. Sin embargo,
el viaje a través del anillo es bajo el
influjo de una gran, pero finita, gravedad.
Un objeto que entra en el mismo,
temiendo ser aplastado por la todavía
formidable gravedad, puede entrar en el
Otra posibilidad de máquina del tiempo
es un cilindro hecho de la mencionada
materia exótica. Un viajante del tiempo
permanece dentro del cilindro como
materia, formándose un agujero de
gusano;
entonces
es
conducido
“confortablemente” a un lugar y tiempo
distantes.
Las razones matemáticas de estos
aparatos son bastante razonables; la
dificultad es la localización y explotación
de la materia exótica (incluso si existe).
La llave es una condición llamada
condición de energía promedio débil
158
energía inherente del vacío. En los años
70, los físicos al estudiar la rotura de
simetría calcularon una constante
cosmológica algo así como 10100 veces
mayor que el valor observado, que es
cercano a cero. Cuando Coleman añadió
las contribuciones de las infinitas series
de loa agujeros de gusano propuestas por
Hawking, encontró que la función de
onda del universo crece mucho alrededor
del valor cero de la constante
cosmológica, volviéndose la posibilidad
extremadamente más probable.
(AWEC), que debe ser violada por el
agujero de gusano para funcionar.
Adicionalmente, Stephen Hawking ha
declarado que al entrar en el agujero
negro emitirá tanta radiación que se hará
inestable
o
incluso
se
cerrará
permanentemente.
El principal crítico de los agujeros de
gusano de Thorne, Stephen Hawking, por
el contrario propuso su propia teoría en la
que había un infinito número de universos
paralelos conectados por agujeros de
gusano. Hawking y su colaborador Jim
Hartle
tienen
dos
componentes
principales en su teoría: un tiempo
imaginario y una función de onda del
universo. Proponen un tiempo imaginario
corriendo en ángulo recto al tiempo
ordinario y sin empezar o acabar en
singularidades.
Usan
el
tiempo
imaginario para calcular la función de
ondas del universo, por tanto justifican un
universo estable y único. Empiezan con
un infinito número de universos
adornados de un infinito número de
diferentes
características,
y
a
continuación calculan la función de ondas
para ver si es más grande que el universo
propio que nos rodea. Esencialmente han
resucitado la teoría de los muchos
mundos con una diferencia importante –
débiles agujeros de gusano conectan los
universos, por tanto, hacen su teoría
“testeable”, proveyendo una pequeña pero
calculable oportunidad a un objeto
cuántico saltando dentro de los universos
paralelos. La imagen puede ser universos
burbuja, los cuales unos crecen y otros
disminuyen; algunos se conectan con
muchos otros, y otros están virtualmente
aislados.
Tan pronto como Coleman publicó sus
resultados, los críticos objetaron que
había olvidado los grandes agujeros de
gusano de alrededor de la longitud de
Planck. Él replicó estableciendo que los
grandes agujeros de gusano pueden ser
ignorados. Si su razonamiento es
correcto, significa que los agujeros de
gusano
no
son
matemáticamente
indeseables. En efecto, ello implicaría que
infinitos universos conectados por
infinitos agujeros de gusano son
necesarios para colocar la constante
cosmológica muy cercana a cero. Si fuera
negativa, el universo se enrollaría en una
pequeña hiperesfera, y si fuera positiva, el
universo virtualmente explotaría, así que
todo esto implica que diminutos agujeros
de gusano colocan al universo en una
condición estable.
Éste, como muchos otros desarrollos en
física teórica, invoca distancias de la
longitud de Planck, y aún más pequeñas
distancias, las cuales los aceleradores de
partículas no pueden incluso ni
aproximarse. La última palabra sobre los
agujeros de gusano –y la constante
cosmológica- esperará hasta que podamos
acceder a las longitudes de Planck o a que
desarrollemos una verdadera imagen
coexionada a través de la teoría de
cuerdas.
Sidney Coleman recientemente ha
señalado que los agujeros de gusano
eliminan contribuciones excesivas de la
constante cosmológica, una medida de la
159
de familias, sino también las mismas
propiedades físicas. Dos diferentes
espacios de Calabi-Yau en la misma
dirección descrita anteriormente, pero en
los que subyace la misma física se llaman
“múltiples espejos”, y esta propiedad de
la teoría de cuerdas es llamada simetría
especular, aunque los agujeros no estén
reflejados en la forma ordinaria.
A continuación nos adentraremos en
ciertas disquisiciones acerca de la
simetría y sus implicaciones en
cosmología.
Aunque un círculo de radio R es
obviamente drásticamente diferente de
uno de radio 1/R, los físicos lo
“consideran” idéntico. Esto hace que los
mismos lógicamente se pregunten: ¿son
esas formas geométricas en el universo
las que producen la misma física, o es el
tamaño y no la forma lo sustancial?
Basados en los principios de simetría,
algunos físicos arguyen que dos formas
completamente diferentes de espacios de
Calabi-Yau
escogen
cómo
las
dimensiones enrollables deben regir las
mismas propiedades físicas. Y yendo más
allá, la técnica de los “plegamientos de
órbitas” origina el espacio de Calabi-yau
introducido. El procedimiento anterior de
órbitas consiste en que puntos del espacio
de Calabi-Yau están sistemáticamente
conectados, de forma que se produce un
nuevo espacio de Calabi-Yau con el
mismo número de agujeros que el
original. Después de investigar a fondo en
la técnica anterior se encontró que el
procedimiento de órbitas es una manera
particular en la que subyace un
interesante resultado: el número de
dimensiones de los agujeros en el tipo
revisado (recordemos que los agujeros de
Calabi-yau
pueden
tener
muchas
dimensiones) iguala al número de
dimensiones de los agujeros negros del
original, y viceversa. El resultado era que,
incluso aunque la forma de Calabi-Yau
haya sido cambiada sustancialmente,
subyacería el mismo número de familia
de partículas –un paso hacia la idea de
distintos
espacios
de
Calabi-Yau
generando idéntica física. Cuando los dos
universos
físicos
de
Calabi-Yau
implicados son analizados, se encuentra
que producen no sólo el mismo número
La simetría especular en esencia
reivindica que dos espacios de CalabiYau aparentemente no relacionados con
sus agujeros correlacionados de la forma
general anteriormente citada generan
exactamente la misma física. Esto provee
una herramienta matemática importante
para los casos en que los detalles implican
propiedades de un universo asociado a un
espacio de Calabi-Yau y se está operando
con ellos. Cuando aparecen dificultades
matemáticas importantes, la simetría
especular permite efectuar esos difíciles
cálculos, al ser replanteados los mismos
en términos de socio de un espacio
especular de Calabi-Yau. Los resultados
físicos serán los mismos, pero la
dificultad del cálculo probablemente
habrá sido reducida de forma importante.
La teoría de cuerdas da una persuasiva
conexión entre los agujeros negros y las
partículas elementales. La idea empieza
con una cuestión física que ha sido
debatida desde 1980. Dentro de las
muchas
formas
de
Calabi-Yau,
usualmente aparecen dos tipos de esferas
embebidas dentro de ellos: esferas dosdimensionales, parecidas a la superficie
de un globo de la forma usada en las
transiciones de desplome; y esferas tresdimensionales reduciendo su volumen
hasta un increíble diminuto tamaño.
¿Podría la fabrica del espaciotiempo
colapsar también de igual forma? Los
teóricos postula que no, porque las
cuerdas no pueden rodear a esferas tres160
completamente diferente sin
ninguna “calamidad” física.
dimensionales, igual que un punto no
puede rodear a una esfera dosdimensional de transiciones desplomadas.
En efecto, los resultados de ciertas
antiguas ecuaciones parecen implicar que
los infinitos domeñados por la teoría de
cuerdas podrían reemerger en tales
puntos. Sin embargo, un trabajo de
Andrew Strominger realizado usando un
descubrimiento de Witten que afirma que
una cuerda uni-dimensional no es el único
constituyente de una teoría de cuerdas,
prueba que el colapso puede en efecto
ocurrir. Strominger razonó que, justo
como una cuerda uno-dimensional puede
rodear completamente un círculo, y
justamente una membrana puede rodear
completamente
una esfera tresdimensional, una tres-brana puede rodear
completamente
una
esfera
tresdimensional. Esta tres-brana rodea la
esfera
tres-dimensional
colapsando,
proveyendo un escudo que separa el
universo de un potencial cataclismo
efecto de la singularidad. Aunque
Strominger enseñó que las tres-branas
protegen el universo de los efectos de una
esfera colapsando hacia un punto, en
realidad no invoca la rotura de la fábrica
del espaciotiempo o su reparación a
través de una esfera en expansión.
causar
Los físicos encuentran que una tres-brana
enrollada a través de una esfera tresdimensional
resultará
un
campo
gravitacional, guardando la apariencia de
un agujero negro extremal, o no pero que
tiene la mínima masa consistente con sus
cargas. Adicionalmente, la masa de la
tres-brana es la masa del agujero negro y
es directamente proporcional al volumen
de la esfera. Por tanto, una esfera que
colapsa hacia un punto como se describió
antes, aparece como una pérdida de masa
de un agujero negro.
Otra importante implicación en la
transición “conifold” es su efecto en el
número de agujeros en el espacio de
Calabi-Yau. Cuando una esfera tresdimensional es reemplazada por una
esfera dos-dimensional, el número de
agujeros en el espacio de Calabi-Yau –
por tanto, el número de modos de
vibración de masa baja- se incrementa en
1. Este extra modelo vibracional en el que
la masa de una partícula se pierde dentro,
indica que el agujero negro ha sido
transformado. Por tanto, cuando ocurre
una transición “conifold”, la secuencia de
eventos es como sigue: un agujero negro
masivo se va haciendo más ligero hacia
un punto, hasta que el tiempo lo
transforma en una partícula con un cierto
modo de vibración. Por consiguiente, sólo
la forma precisa del espacio de CalabiYau determina si una forma particular de
vibración será una partícula elemental o
un agujero negro, y los agujeros negros
pueden sufrir “fases de transición”
análogas a las que cambia el hielo en
agua, para volverse o transformarse en
una forma básica de vibración de cuerda o
partícula fundamental.
Aquí es donde Greene y Morrison
vuelven otra vez. Ellos nos dan la imagen
de que la esfera colapsa pudiendo,
subsiguientemente,
reaparecer
por
reexpansión de una nueva esfera con una
dimensión menos que la original –un
procedimiento
llamado
transición
“conifold”. Su trabajo ha tenido éxito,
pero el resultado es un espacio de CalabiYau que difiere del original en un camino
mucho más drástico que la simple
transición de decaimiento. Ellos han
probado que un espacio de Calabi-Yau
podría ser transformado en uno
161
Un principio llamado estado de
determinismo cuántico dice que con un
poder de computación suficiente (cercano
al infinito), conociendo la función de
ondas de todas las partículas del universo,
podemos predecir las probabilidades
relativas de sus posiciones e interacciones
para cualquier punto en el pasado o en el
futuro. Sin embargo, los agujeros negros
presentan un “cambio” en este
razonamiento –recogen vastas cantidades
de materia o partículas cada uno, desde
luego, cada una con su función de ondas.
La cuestión es, ¿está la información
contenida en esas funciones de onda
perdida para siempre en el agujero negro,
o puede reemerger? Antes de la aparición
de la radiación de Hawking, los físicos
teorizaban con la probabilidad de que la
información no se perdía, pero aparecía
siempre en una región del espacio
inaccesible fuera de la región. Sin
embargo, la radiación de Hawking
implica que la masa de un agujero negro
decrecerá lentamente como su radiación,
por tanto, decreciendo la distancia desde
el centro del agujero negro hacia el
horizonte de sucesos y revelando regiones
del espacio, siempre detrás del horizonte
de sucesos. Ahora la cuestión es: ¿la
información absorbida por el agujero
negro emerge luego? Algunos, incluido el
propio Hawking, mantienen que la
información es eliminada del universo,
añadiendo
un
nuevo
grado
de
incertidumbre a dicho universo y
destruyendo, incluso, el determinismo
cuántico. Otros mantienen que la
información no se pierde, sino que está
contenida en las branas que forman el
agujero negro mismo.
tanto, creando una singularidad del
espaciotiempo similar a la que postulaba
por la teoría estándar del big bang. Otros
sugieren que el tiempo se acaba en el
centro de un agujero negro, lo que quizás
tiene un efecto en las once dimensiones
de la teoría de cuerdas, una de las cuales
es el tiempo. Aún otros hacen la
sugerencia de que en el interior del
agujero negro se para el tiempo, pero
también se crea un nuevo universo
conectado a nosotros a través de la
singularidad en la que el tiempo justo
empezó –en efecto, los agujeros negros
son nuevos big bangs que dan nacimiento
a un nuevo universo en expansión.
Otro problema sin resolver de la física del
agujero negro es el centro exacto de la
inmensa masa condensada del mismo. La
relatividad enseña que el espaciotiempo
está doblado en una curvatura infinita, por
La ley gravitatoria aproximada de
Newton del inverso del cuadrado de la
distancia funciona muy bien a distancias
macroscópicas como las órbitas de los
planetas.
Antes de terminar este capítulo haremos
mención al llamado problema de las
“dimensiones supernumerarias”.
Sabemos que cuando las medidas de las
intensidades de las interacciones fuerte,
débil y gravitatoria se extrapolan a
distancias cortas, se cortan en un valor
común, si la extrapolación es efectuada
con
reglas
supersimétricas.
Esta
unificación supersimétrica de esas tres
fuerzas se produciría a los 10-32 metros
(distancia mil veces mayor que la
longitud de Planck).
En los últimos años se ha propuesto un
enfoque
distinto
que
modifica
sustancialmente el espaciotiempo, la
gravedad y hasta la escala de Planck. La
idea es la revisión del gran tamaño de la
escala de Planck que se basa en un
supuesto sobre la acción del campo
gravitatorio a pequeñas distancias, lo que
no está aún comprobado.
162
La
ley
se
ha
comprobado
experimentalmente hasta distancias de
alrededor de un milímetro, y habría que
extrapolarla en 32 órdenes para llegar a la
escala de Planck.
decaerá con el inverso del cubo de la
distancia. Una vez que dichas líneas se
extienden por la circunferencia entera,
sólo quedan tres dimensiones para seguir
dispersándose, así que, para esas
distancias mucho mayores que R la
gravedad variará con el inverso del
cuadrado de la distancia.
Como vimos en otro apartado de esta
obra, la ley del inverso del cuadrado es
natural en un espacio de tres dimensiones.
Si unas líneas de fuerza del campo
gravitatorio emanan uniformemente de la
Tierra, a mayor distancia de ella se
dispersarán sobre capas esféricas de
mayor área; como el área crece con el
cuadrado de la distancia (4πR2) la fuerza,
por consiguiente, se diluirá en igual
grado.
Si hay muchas dimensiones adicionales
se produciría el mismo efecto, si dichas
dimensiones se doblan convirtiéndose en
circunferencias de radio R. Para n
dimensiones espaciales supernumerarias
(habría n+4 dimensiones en total –
sumadas a las n, las tres espaciales
normales y el tiempo), a distancias
menores que R la fuerza gravitatoria
seguiría una ley inversa de 2+n. Como no
se ha medido la gravedad a distancias
menores de un milímetro, existe la
posibilidad de que estemos pasando por
alto las variaciones causadas en la
gravedad por las dimensiones adicionales
con un tamaño R de menos de un
milímetro.
Si existiese una dimensión más, el
espacio sería tetradimensional, y las
líneas de campo que emanasen de un
punto se dispersarían en una superficie de
cuatro dimensiones, pero que aumentaría
con el cubo de la distancia; la gravedad
seguiría una ley del inverso del cubo.
Ahora bien, sabemos que esa ley del
inverso del cubo no describe nuestro
universo, pero si la dimensión adicional
que hemos supuesto se doblase dibujando
una pequeña circunferencia de radio R,
observaremos, a continuación, lo que
sucede con las líneas de campo que salen
de una masa puntual.
Con esta ley del inverso de 2+n la
gravedad alcanzaría la “intensidad de la
escala de Planck” muy por encima de los
10-33 cm. De otro modo, la longitud de
Planck –distancia a la que la gravedad se
vuelve fuerte- no sería tan pequeña. Y es
que la intensidad de la gravedad guarda
íntima relación con el número de
dimensiones en las que está actuando.
Veamos la figura siguiente.
Si existen las dimensiones adicionales
suficientes (enrolladas en la forma
prevista) podría acercarse “la escala de
Planck” a la escala electrodébil; es decir,
la unificación entre gravedad y las otras
fuerzas tendría lugar cerca de los 10-21 cm
y no a los 10-33cm supuestos hasta ahora.
Las dimensiones necesarias para esto,
dependen de su magnitud. Con sólo una,
para una gravedad intensa alrededor de
c
R
Cuando las líneas de campo están más
cerca de la masa que la distancia R, éstas
pueden dispersarse uniformemente por
“las cuatro dimensiones” y la gravedad
163
los 10-19 metros, ésta tendría un radio del
orden de la distancia Tierra - Sol. Pero la
observación excluye dicha posibilidad.
Dos
dimensiones
supernumerarias
resolverían el problema si midiesen
alrededor del milímetro. Si hubiese más
dimensiones serían aún menores. (Con
siete, serían de sólo 10-14 metros –el
tamaño del núcleo de uranio).
recientes avances en la teoría ha sido caer
en la cuenta de que la teoría contiene
“paredes”, llamadas D-branas (brana
viene de membrana; y la D de Dirichlet,
una propiedad matemática de las
mismas). Las D-branas gozan de las
características precisas: las partículas
como los fotones o los electrones se
representan por longitudes de cuerda con
dos cabos adheridos a una D-brana; los
gravitones, sin embargo, son bucles de
cuerda que pueden vagar en todas
dimensiones al carecer de extremos que
los anclen en una D-brana.
Recordemos
que
en
la
teoría
supersimétrica anterior se imaginaba las
dimensiones suplementarias enrolladas en
circunferencia con diámetros de unos
10-35 metros; ahora estamos hablando de
circunferencias de al menos 10-14 metros
de radio, o de hasta casi un milímetro.
La gravedad, pues, se vuelve una fuerza
intensa cerca de las energías del orden del
TeV (Teraelectronvolt.=1000 GeV),
escala de energías de los próximos
aceleradores de partículas.
Cabría preguntarse: ¿si esas dimensiones
son tan “grandes”, por qué no han sido
percibidas hasta ahora?
También, las energías necesarias para
crear microagujeros negros en las
colisiones de partículas estarían cercanas
ya a los experimentos. Estos agujeros
negros son de unos 10-19 metros de
tamaño, evaporándose en unos 10-27
segundos al emitir la llamada radiación de
Hawking.
La respuesta habría que buscarla en el
hecho de que la materia y todas las
fuerzas conocidas –excepto la gravedadestán “adheridas a una pared” del espacio
de las dimensiones adicionales. En esas
dimensiones adicionales no pueden
moverse electrones, protones, fotones y
demás partículas del modelo estándar
establecido; así que las líneas de campo
eléctricas y magnéticas no pueden
extenderse hacia esos espacios de
dimensiones extras, puesto que la pared
es
espacialmente
tridimensional.
Solamente las líneas de campo
gravitatorias pueden extenderse hacia
esos espacios de dimensiones superiores;
sólo el gravitón (transmisor de la
gravedad) puede viajar libremente por
ellas. Esas dimensiones adicionales
“sólo” pueden percibirse por intermedio
de la gravedad.
Las colisiones de partículas producirán
gravitones en cantidades enormes, y
aunque los mismos no podrán ser
detectados
directamente,
sí
serán
descubiertos indirectamente a través del
cálculo de la energía absorbida, al
calcular la energía que faltará en los
residuos de dichas colisiones.
Las mediciones de la gravedad, por otro
lado, detectarían la conversión de la ley
de la inversa del cuadrado de Newton en
una ley de la inversa de la cuarta potencia
(para dos dimensiones adicionales) a
distancias de alrededor del milímetro.
Habría una multitud de posibles
desviaciones de la gravedad newtoniana;
En la teoría de cuerdas, este hecho se
presenta naturalmente. En realidad, uno
de los hallazgos importantes de los
164
Dichos universos podrían diferir mucho
del que habitamos, tanto en partículas
como en fuerzas peculiares, etc. Una
posibilidad es que tuviesen propiedades
idénticas a las de nuestro universo; podría
imaginarse que la “pared” donde vivimos
está plegada en una serie de veces en las
dimensiones extras. Los objetos del otro
lado de un pliegue parecerían muy lejos,
y sin embargo se encontrarían a menos de
un milímetro en esas dimensiones
adicionales. La luz tendría que viajar de
doblez a doblez y estas podrían estar, por
ejemplo, a decenas de miles de millones
de años-luz, y no obstante transmitir su
“gravedad” de forma inmediata.
quizás la más interesante sería la
aparición de "fuerzas repulsivas” más de
un millón de veces más intensas que la
gravedad entre masas separadas menos de
un milímetro.
Otras partículas más allá del modelo
estándar podrían, además del gravitón,
propagarse
a
través
de
dichas
dimensiones supernumerarias, porque
esas dimensiones no estarían vacías, sino
que tendrían una multitud de estructuras
interesantes.
Los efectos de estas nuevas partículas en
esas
dimensiones
adicionales
proporcionarían respuestas a otros
misterios de la física de partículas y la
cosmología, por ejemplo, explicar las
masas de los neutrinos. El neutrino quizás
adquiera su masa (que parece existir
según el experimento Super Kamiokande
en Japón) mediante la interacción con un
campo compañero existente en las
dimensiones supernumerarias. Como con
la gravedad, la interacción se diluiría
mucho al estar disperso el compañero por
esas dimensiones adicionales, así que el
neutrino sólo podría adquirir una masa
muy pequeña.
La historia de la hipótesis sobre
dimensiones adicionales, se inició en
1990 cuando Ignatios Antoniadis sugirió
que algunas de las dimensiones de la
teoría de cuerdas podrían ser de hasta
10-19 metros, mas mantuvo la gravedad
cuántica, aún, en los 10-35 metros. Petr
Horava y Edward Witten señalaron que
una dimensión adicional de 10-30 metros
era suficiente para incorporar la gravedad
dentro de la unificación supersimétrica, a
la escala de 10-32 metros.
Nima Arkani-Hamed, Savas Dimopoulos
y Georges Dvali concibieron la teoría de
las dimensiones supernumerarias en
febrero de 1998. Posteriormente, Lisa
Randall y Raman Sundrum han propuesto
que la gravedad podría concentrarse en
una membrana de un espaciotiempo
pentadimensional infinito. La gravedad se
manifestaría tan débil en nuestro universo
porque estaríamos en una membrana
diferente.
El misterio de la “materia oscura” se
especula aquí que pudiera residir en
universos paralelos, puesto que “sí”
afectaría a nuestro universo por medio de
la gravedad, sin embargo no por la luz
porque nuestra especie de fotón está
adherida a nuestra membrana, y no puede,
entonces, viajar desde la materia
“paralela” hasta nuestros ojos.
165
de nuestro pasado quedaría relegado a ser
simplemente el inicio más reciente de una
cadena sin fin de universos, en los que el
Cosmos oscila de modo cíclico entre un
cierto tamaño máximo muy distendido y
unas bolas de fuego calientes y muy
densas.
Capítulo IX.
RESUMEN DE NUESTRA TEORÍA.
IMPLICACIONES
Antes de abordar el resumen final de
nuestra teoría es aleccionador exponer las
ideas apuntadas por Paul Davies en su
obra “El universo desbocado”.
El problema más importante de este
modelo cíclico estriba en cómo se evitan
las singularidades. Se han sugerido varias
posibilidades, a nivel de simples
conjeturas. La primera es suponer que los
efectos cuánticos son importantes a una
densidad
suficientemente
alta......La
consideración cuántica de la gravedad, si
dispusiéramos de la teoría adecuada,
permitiría
describir
el
mismo
espaciotiempo cuántico, en el que ocurren
fluctuaciones de geometría. Cuando la
densidad de la materia es tan alta que
todo el universo que es dado observar se
halla comprimido en un volumen
comparable al de un núcleo atómico, las
fluctuaciones de espacio-tiempo bien
pueden ser tan violentas que llegan a
romper toda la dinámica del Universo,
con lo que se evita la aparición de una
singularidad y se permite que el
espaciotiempo siga existiendo. Una
segunda propuesta es que la gravedad
podría convertirse en una fuerza
repulsiva, en vez de ser de atracción, para
densidades muy altas, a causa de haber
aparecido una gran energía o presión
negativas en el universo........Finalmente,
existe también la posibilidad de que, a
pesar de la formación de una singularidad
en alguna parte, esto no implica la
desaparición de todo el universo. Este
sería el caso si hubiera movimientos
altamente asimétricos cerca de la
singularidad y el espaciotiempo pudiera
“pasar de lado” esta barrera singular
evitando de ese modo la aniquilación.
Nos dice: “Se ha propuesto una teoría
completamente distinta basada en una
extensión extraordinariamente sencilla del
modelo convencional del big bang. El
punto débil de dicha teoría convencional
reside en la presencia de una singularidad
del espaciotiempo en el acontecimiento
de la creación. Vimos en el capítulo 2 que
la singularidad inicial ha sido considerada
por algunos como indicación de que el
universo no había existido nunca “antes”
de ese momento. De modo análogo, si el
Universo se vuelve a contraer, se
colapsará hacia una singularidad final en
el futuro, la catástrofe cósmica última, en
la que el espacio, el tiempo y la materia
dejarían de existir sin que quedara
absolutamente nada, ni siquiera el espacio
vacío. Tanto si estas ideas sobre las
singularidades del espaciotiempo son
correctas como si no lo son, es claro que
las leyes conocidas de la física dejan de
ser aplicables y no es posible hacer
ninguna predicción más allá de esos
extremos temporales.
Algunos astrónomos y cosmólogos han
conjeturado que un Universo en
contracción puede sobrevivir a su
encuentro con la singularidad del futuro,
emerger, como el ave fénix, desde otra
bola de fuego primordial y volver a
expansionarse en un nuevo ciclo de
actividad. Además, este proceso de
expansión y contracción podría repetirse
ad infinitus, lo que daría inmortalidad al
universo. Según esta imagen, el big bang
166
invierte durante la contracción cósmica.
Hablando con propiedad, el tiempo no se
puede invertir, ya que no se está
moviendo: es, en realidad, sólo una
medida del cambio y del movimiento. La
elección de las palabras es sólo una
conveniencia lingüística; lo que sucede
verdaderamente es que todos los procesos
físicos se invierten en comparación con el
orden temporal original”.
Aunque sólo son conjeturas, se conoce
tan poco de los últimos límites de la
gravedad y de la estructura del
espaciotiempo que, como mínimo,
algunos científicos han considerado
seriamente la posibilidad del modelo del
cosmos oscilante”.
Y continúa: “Se supone que al inicio de
cada ciclo el universo emerge de la bola
de fuego con un nuevo conjunto de
valores fundamentales, y los números
concretos que observamos ahora son
justamente los que aparecieron esta vez.
Sin embargo, es evidente que no
podríamos observar valores muy distintos
de los actuales, porque la existencia de
vida en el Universo depende de esos
números”.
A continuación nos adentraremos en los
entresijos de nuestra teoría. Ya
apuntamos la importancia de la teoría M
en cuanto a una posible “explicación”
final de la totalidad del universo en una
teoría unificada. Claro está, ello nos lleva
a buscar los puntos de encuentro entre las
ideas apuntadas a lo largo de este trabajo
y la teoría M, en particular en la visión de
Petr Horava y Edward Witten, de los
universos de 10 dimensiones, cada uno en
un extremo de un segmento de línea de la
dimensión extra de dicha teoría,
totalizando en espaciotiempo de 11
dimensiones. Las partículas y las cuerdas
existen exclusivamente en los universos
paralelos de los extremos que pueden
comunicarse entre sí a través de la
gravedad.
Más adelante prosigue: “Algunas
personas encuentran muy atractiva la
idea de un universo cíclico. Continúa, por
supuesto, la cuestión de la entropía y el
problema del Universo que se detiene,
pero esto queda un poco de lado debido a
la naturaleza peculiar de la gravedad.
Mientras dura el movimiento cíclico, el
Universo no puede alcanzar el equilibrio:
la expansión y la contracción cósmica
siguen “dando cuerda” al sistema, y la
entropía sigue creciendo.
Ambos universos son duales. Si el
tamaño de uno es d, el del otro sería 1/d.
Lo mismo puede decirse del segundo
respecto al primero. [Pues si d2=1/d1 en el
par (d2,d1), d1=1/d2 en el par (d1,d2)].
Sin embargo, un Universo en contracción
es de tamaño finito y como Newton hizo
notar hace tiempo, hay una inestabilidad
intrínseca que impide a un Universo
gravitante finito permanecer estático:
siempre debe expansionarse o contraerse.
Por lo tanto, el movimiento cósmico debe
continuar y, aparentemente, la entropía
crece sin límite, lo que provocaría que las
bolas de fuego fueran progresivamente
más calientes y los ciclos más largos”.
Ahora bien, en las conclusiones de
nuestra teoría aparecen partículas de
energía negativa y tiempos negativos.
Hay, pues, que relacionar biunívocamente
el tamaño 1/d del universo paralelo al
nuestro –caracterizado por el tiempo t,
presente de nuestro universo de tamaño d, con el instante “propio” de ese universo
paralelo, que es negativo. Hay una
relación clara, o conexión –gravitatoria o
Y finalmente: “Lo que Gold propone es
que, en cierto sentido, el tiempo se
167
no- entre nuestro universo en el instante t
(con su característico tamaño actual d), y
el universo “dual” o paralelo de tamaño
“actual” 1/d, pero con su tiempo “propio”
T-t (con el origen en el tiempo T del final
de nuestro universo cotidiano).
“movido” (progresado) en absoluto,
respecto al más original de todos los
“sucesos” acaecidos con “anterioridad”.
Ello equivale, en este sentido filosófico, a
la anulación del tiempo, relativizando esta
dimensión hasta prácticamente su
extinción.
Dado
que
estos
acontecimientos originales (“big bangs”),
pueden producirse en cualquier “punto”
de la “nada”, con completa aleatoriedad,
no hay relación alguna, o mejor, es
imposible relacionar de alguna forma
entre sí las distintas “localizaciones” (en
las dimensiones que correspondan en ese
ciclo) de dichos acontecimientos. Est
equivale, también, dentro de este dominio
filosófico, a anular las otras tantas 10
dimensiones espaciales. La imagen final,
o lo que realmente está significando todo
esto, es que los sucesos que “acontecen
históricamente”, es decir, que “alguna
vez” fueron “reales” o tuvieron
“existencia”, quedan enmarcados en las
11 dimensiones que permiten su
“relación” o conexión entre sí.
Cuando el universo paralelo se
“condensa” al máximo en el instante –T
(equivalente a T-T=0) con un tamaño casi
nulo, de
10-38 cm o menos, nuestro
universo estará en el instante T y con un
tamaño de 1/10-38cm. (Estas magnitudes
serían sólo indicativas). En ese instante
“comienza un nuevo ciclo” –cambian las
propiedades de ambos universos, es decir,
las 11 dimensiones se configuran “al
azar” de otro modo, “contrayéndose”
otras dimensiones, no precisamente las
siete actuales. Pero “el mecanismo”,
podríamos decir, de la teoría M (en la
interpretación de Witten) de la conexión
de los dos universos duales a través del
“cordón” gravitatorio (preeminencia de la
dimensión temporal, en cierta forma)
volvería a mantenerse. Una vez que se
produce ese nuevo suceso “real”,
podríamos decir creativo, de ese big bang,
ambos universos vuelven a progresar uno
en dirección del tiempo positivo, t, y el
otro hacia atrás, en dirección del tiempo
negativo,
-t,
hasta
un
nuevo
acontecimiento creativo. Y en cierto
modo, esa “película” que va de T a 0
queda
configurada
(realmente
la
“película” de 0 a T si el tiempo –T lo
identificamos con T), teniendo, eso sí, “en
sus entrañas”, permanentemente, una
cierta aleatoriedad.
Los “solitones” –duales de nuestras
partículas, consecuencia de las dualidades
T y S- del universo complementario, al
aplicar el concepto de tiempo propio
negativo, se transforman, así mismo, en
partículas, aunque desde nuestro punto de
vista, con masas y energías negativas,
algo extensible al cuanto de radiación hν
al ser las frecuencias (inversa del tiempo)
negativas. Entonces, la “traducción” a
nuestro mundo positivo de esas partículas
negativas (cuando hay “entrelazamiento
cuántico”) de “tiempo propio negativo”,
son las antipartículas de energía positiva
observadas en nuestro mundo y que
forman la antimateria. Hay, pues, una
conexión “gravitatoria” entre nuestro
universo con tiempo t, y
el
complementario de tiempo “propio” T-t
(siendo T la “duración” total del universo
– edad -, desde su aparición a su
Desde un punto de vista filosófico, parece
como si el conjunto de ambos mundos, al
moverse cada uno, respectivamente, en
sentidos temporales contrarios, dejase a
los “sucesos creativos”, nacidos a “partir
de la Nada”, en el instante cero del
tiempo, es decir, como si no se hubiese
168
En cada “película”, citada anteriormente,
o mejor, “secuencia creativa”, aparecen
“configurados” tanto el origen –iniciocero, como el futuro –final- T.
desaparición - también, tiempo de la
expansión). Se observa que los tiempos
en ambos universos “progresan” en
direcciones contrarias –aunque partiendo
de orígenes distintos, uno desde 0 y el
otro desde el final, o futuro T).
La secuencia creativa se produce
“meramente” por azar; un acontecimiento
en el que las “dimensiones” nuevamente
se configuran en un cierto modo, origina
que el futuro se “produzca”, también, de
una cierta forma, salvaguardando el papel
del azar. Es como si “existiera” un
“entrelazamiento cuántico” (o “conexión”
definida en la teoría M) entre los dos
universos en los instantes creativos, 0 y
T(al menos). Realmente es la repetición
de la misma “historia” o “secuencia” en
uno u otro sentido.
El tiempo del universo complementario
es el mismo de nuestro universo t, y en el
aparecen los “solitones” como duales de
nuestras partículas. Pero “dentro” de
dicho universo complementario (ese
“dentro” está relacionado con su tiempo
propio T-t) aparecen las partículas de
masa y energía “negativas”. A partir de
los anterior se origina algo de
extraordinaria relevancia, que es el
“entrelazamiento cuántico” que se
manifiesta en la aparición de los pares
partícula-antipartícula.
Este
“entrelazamiento” (conexión) supone la
“aparición” de las partículas negativas en
nuestro universo: la “aparición” se
traduce en una “ausencia” en nuestro
universo de tiempo t de la partícula
negativa que se encuentra en el tiempo Tt del otro universo. Esta “ausencia”
equivale a una negación de la masa
negativa, es decir –(-m)=+m, que es la
llamada antipartícula de nuestro universo
de masa positiva.
Cuando se produce un nuevo principio (o
“explosión” inicial), en ese “instante”
(simultaneidad entre ambos mundos) en
el otro universo se “crea”, de igual
forma, nuestro futuro del instante T (final
del mundo). Por supuesto que el azar “ya
ha realizado” su función. La creación del
universo lo es, pues, de su inicio y su
final, y la duración del mismo es la que se
“tarda” desde la secuencia inicial del
origen a la del final. En el futuro T
vuelve a producirse el cambio del tiempo
a direcciones negativas, la explosión se
transforma en implosión, volviendo a
originarse el “acontecimiento” casual de
un nuevo baile azaroso de las
dimensiones.
De lo anterior parece deducirse que la
masa positiva de la antipartícula en el
instante t, bajo la visión del tiempo, en
sentido positivo, es equivalente a la masa
negativa de la partícula (negativa) en el
instante T-t, bajo la visión del tiempo en
sentido negativo (inversión del tiempo):
¡Partícula de masa positiva y de masa
negativa de uno y otro universo son
equivalentes, pues son producidos por la
misma radiación! Y de otra forma:
¡Partícula y antipartícula son lo mismo si
se invierte el tiempo!
Volvemos a encontrar que la antimateria
es exactamente la masa negativa del otro
universo, o equivalencia entre (-m, -t)
característica del otro universo en su fase
implosiva, y el (+m, +t) o la antimateria
de nuestro universo en implosión.
¿Por qué al final la expansión se convierte
en implosión? Simplemente porque en
ese instante cambia el tiempo (se hace
169
nuevo “baile” de las 11 dimensiones
físicas. A partir del instante 0´ explosiona
hacia T´; el tiempo se vuelve positivo. El
hecho es que se inicia un nuevo proceso;
un nuevo ciclo tiene lugar.
negativo). La sugerencia es que el cambio
de tiempo, junto con la aparición de la
antimateria en nuestro universo, es
equivalente a nuestra visión actual de un
mundo de materia en tiempo positivo,
ahora bien, en fase de implosión.
Al ser los universos duales, todo depende
de la referencia. Para el otro universo,
somos nosotros los “irregulares”.
[Apunte para una filosofía adjunta: El
hombre es duración (no así Dios), y es
duración porque es temporal o finito.
Dios no es temporal,; está fuera del
tiempo: es infinito. Dios “es” (“Soy el
que soy”), lo que para nosotros es
“incomprensible”, porque si durásemos
más, en principio, seríamos más. La
“completitud” está fuera de nuestra
capacidad de “entender”. La conexión , o
argamasa entre todos los seres dotados de
vida (incluido Dios), el Amor, no tiene,
entonces, por dimensión el tiempo].
La dualidad del otro universo es
importante por su efecto gravitatorio en
cuanto al cambio implosión – explosión,
pero no dice nada en cuanto al posible
“extraño comportamiento” dentro de ese
universo complementario de las distintas
partículas de su seno. Y es que “lo
extraño” sólo es nuestra “visión” de ese
universo, pues dentro de él su
comportamiento es similar al nuestro. Lo
importante sería el estudio de la
implosión en general, aún en nuestro
universo.
Detallemos, ahora, lo que ocurre en la
expansión e implosión de los dos
universos.
La implosión realmente se caracteriza por
su tiempo negativo, es decir, por mover la
“secuencia” hacia atrás (como si la
entropía se fuese haciendo cada vez más
negativa), y su tiempo propio es T-0=T,
igual que la fase expansiva (o sea, con
movimiento “regular”).
El universo “positivo” en el que estamos
permanece en explosión desde 0 a T. En
este ciclo el universo “negativo” está en
implosión desde T a 0.
“Nuestro” universo (el que posee “ahora”
vida en su interior) al llegar a T
experimenta un cambio (provocado por el
“entrelazamiento cuántico” con su
universo dual que experimenta un nuevo
big bang), aparece en T´ (nueva “duración
de la presente e incipiente “secuencia
creativa”) y desde ahí comienza su
implosión. Con la implosión aparece el
tiempo negativo, y la materia pasa a ser
antimateria; la vida deja de tener su sede
en el mismo “pasando” (figuradamente)
al otro universo dual.
En un gráfico x, y vemos la forma de la
función x=1/y, dual de la y=1/x.
y
1
0
El otro universo pasa a su máxima
“contracción”, y vuelve a “crearse” un
nuevo “ciclo”, un nuevo universo, con un
170
1
x
conseguirse colocando el universo dual
dentro del punto 0 de tamaño nulo, es
decir, hacia el infinito negativo de normas
o distancias menores que cero,
inexistentes en nuestro universo. Esto
sería posible si la dualidad de d fuese –
1/d. Sobre esta última dualidad
deberíamos colocar nuestra interpretación
de la teoría M.
La gráfica es simétrica, tal como se
observa.
Nosotros nos inclinamos por la dualidad
y=-1/x, cuya gráfica es la siguiente.
y
0
1
También, llegados a este punto de los dos
universos duales positivo y negativo,
separados por el punto origen, casi nulo,
más bien infinitésimo, es conveniente
aclarar que la fase inicial del big bang no
es un estado “cuasi infinito” (también en
extensión)
de
energía-masa
superconcentrada, sino más bien, un
punto nulo origen tanto de un universo
como del otro (como el punto de entrada
o “puerta” de un universo en otro). Esa
otra imagen del big bang “cuasi infinito”,
aún cuando no pueda ser desechada,
aparece como menos intuitiva y “conecta”
peor esos dos mundos. Nos apuntamos a
la hipótesis de una “nada” sin
diferenciación en el tiempo ni en el
espacio, más bien fuera de ellos, pero en
la que puede ser posible, por azar, la
aparición
de
cualesquiera
ciclos
explosivos e implosivos duales, en
cualquier “lugar” de esa nada, que por
indiferenciada no es abarcable.
x
1
Una secuencia del
complementario sería:
∞
d=∞
d=1
universo
y
su
0
-1/d=0
-1/d=-1
d=2 -1/d=-1/2
d=0
Las dos posibilidades que acabamos de
exponer pueden obviarse si consideramos
el punto de separación de ambos
universos al punto donde se sitúa el
observador. Esto equivale a “mover” el
“otro” universo, el dual negativo, de
acuerdo
con
el
observador
correspondiente, algo que en primera
impresión parece fantástico... ¿Cómo la
simple mente, la sencilla perspectiva es
“capaz” de “mover” una masa-energía
casi infinita?... La paradoja solamente
reside en nuestros conceptos de espacio y
-1/d=-∞
Vemos que los círculos que representan el
universo y su complementario dual
ocupan el mismo “espacio”, y con mucha
más razón si d
∞. Así, para evitar
posibles complicaciones, sería mejor
separar ambos círculos, lo que puede
171
tiempo, ya que la intrínseca “relatividad”
es consubstancial a la materia, al universo
todo, a la propia realidad.
Hay una “equivalencia” entre la
implosión del universo dual (de distancias
negativas) y el recorrido “hacia atrás” en
el tiempo de la secuencia de expansión en
el universo positivo real. Y hay una
diferencia significativa respecto a esta
equivalencia con la fase de implosión en
el mundo real, puesto que ya esta fase es
otro suceso o “acontecimiento creativo”
distinto (pueden haber variado hasta las
coordenadas en las que se está realizando
la nueva fase expansiva - implosiva).
Recordemos que en el universo dual del
d , es decir, d´=1/d , se da, para la
expansión en el d  la implosión y con
dirección hacia 0 (ubicación del
observador), y con tiempo negativo o
“contrario” al tiempo de la secuencia
positiva de 0 a T.
Hagamos una representación de ambos
universos duales, quizás más intuitiva.
Para ello “disfracemos” el universo
complementario del “real” nuestro, bajo
un signo imaginario (el nuestro sería
imaginario
del
otro).
Así,
representaremos en un gráfico todas las
distancias “positivas” con referencia al
origen 0 de una ubicación del
“observador” en el eje X. El eje 0Y lo
consideramos imaginario, es decir, fuera
de nuestro universo de distancia positivas,
y todo el universo dual complementario
queda comprendido en el eje imaginario
OY.
Es como si ante un nuevo acontecimiento
creativo que se “realiza” primero en A, y
después de T en B (correspondiente al
punto T-T=0 “del tiempo”) –el tiempo en
el universo real, nuestro, progresa de 0 a
T, y en el complementario de T a 0, con
lo que vuelve, nuevamente, a originarse el
“acontecimiento creativo” en 0, puesto
que la nueva creación, ahora, se
desarrolla en el universo dual negativo volviera a “crearse” una nueva “historia”
universal o secuencia, ahora de 0 a T´
(distinto de T). En uno de los universos se
va de 0 a T´ y en el otro de T´ a 0,
volviéndose otra vez al punto nulo
original. Es como si el tiempo no
progresase, sino que son ciclos de 0 a Tx
(secuencias históricas) que continuamente
vuelven al punto original cero.
i(imaginario)
(el 1 de la dualidad es la
“nueva” longitud de Planck
≅10-16 cm)
10-38
El universo real en su expansión va del
pasado al futuro; el universo dual
complementario en implosión va desde el
“mismo” futuro al “mismo” pasado,
recorriendo la secuencia hacia atrás, es
decir, con un tiempo contrario (negativo)
al nuestro conocido. (No obstante esta es
una hipótesis pendiente de una
“posterior” comprobación).
Secuencia de expansión 1022
A
0
10-38
-10-38
B
Secuencia
de implosión
(distancia
negativa)
-1022
X
Terminación del
ciclo de expansión
Para centrar ideas, volvemos a concluir
que el modelo defendido por Witten,
dentro de la teoría M, del universo de 11
dimensiones que por compactación de
Inicio del big bang
172
una dimensión se transforma por acoplo
fuerte en la teoría de Supercuerdas
heterótica E8×E8 con dos universos de 10
dimensiones en los extremos del
segmento R11=φ correspondiente a una
dimensión extra, es el que más se adapta a
nuestra teoría.
son menores de cero. De todas formas, el
principio de incertidumbre cuántico
permite esta variación en más o menos
alrededor de cero (R11 y –R11) lo que
permite la conexión “gravitatoria” entre
los orígenes y finales de ambos universos.
También, y por el mismo motivo está
permitido el “entrelazamiento cuántico”
de los pares partícula-antipartícula.
La conjetura que hacemos es que si a uno
de los dos universos ( que podría
corresponder al que contiene la “materia
oscura” en forma de “solitones” –
monopolos magnéticos, etc.) le aplicamos
sucesivamente las dualidades –T y –S,
por su dualidad recíproca, en 4
dimensiones se transforman en el mismo.
Es decir, hacemos una transformación
que equivale a la identidad, o sea, dicho
universo vuelve a transformarse en el
mismo.
Las
últimas
indagaciones
en
multidimensiones parecen conducir (al
menos es una posibilidad) a que la
gravedad a distancias muy pequeñas no
estaría identificada (en su aproximación
newtoniana) por una ley de la inversa del
cuadrado de la distancia, sino de una ley
de la inversa del cubo, del cuádruplo, etc.
de dicha distancia. Con todo ello, la
fuerza gravitatoria se hace mucho más
fuerte. Con unas dimensiones adicionales
en un número de siete como requeriría la
Supergravedad, y la misma teoría M, la
gravedad podría identificarse con las
teorías fuerte y electrodébil a unos 1016
GeV, por consiguiente, la misma
distancia y tiempo de Planck serían
mucho menores. El tamaño rondaría ya
los 10-16 cm, aproximadamente. Entonces
se daría la paradoja que esa longitud
mínima de Planck sería mayor que la
distancia 10-22 cm que requiere como
mínimo el origen de la expansión del
universo actual (por encima de los 1022
cm) –todo ello por la relación dual
1/1022=1/d, siendo d=1022)... Luego, hay
un “colchón” que puede ser entre 10-22 y
10-16 cm en que el universo tendría menor
tamaño que la longitud de Planck;
intervalo el cual “creemos” no puede
tener “existencia real” en nuestro
universo, por lo que habría que sustituir
esa “ausencia” del universo durante ese
intervalo por el otro universo dual de éste,
que sí “aparecería” , entonces, entrar en
nuestra propia realidad. El tamaño (si la
multidimensionalidad lo confirma) de la
La dualidad –T es la sustitución de R 
por -1/R , es decir, entramos en un
“mundo” de normas o distancias
negativas
(también
de
energías
negativas). La dualidad –S equivale a la
sustitución de los solitones por partículas
“fundamentales”,
pero
negativas;
entonces, los solitones se transforman en
las partículas de nuestro universo pero
con energías negativas. El resultado es un
universo que parece “en todo” idéntico al
nuestro pero ¡negativo!
La localización de este universo es a una
distancia positiva de R11=φ. Pero desde el
otro universo “negativo” nuestro universo
positivo quedará a la distancia –R11=-φ
(negativa). Si la distancia entre los
orígenes o centros (relativos) de los
universos es a la vez R11 y –R11, debe ser
R11=-R11, para lo cual R11=-R11=0, es
decir,
dichos
centros
coinciden.
Conclusión: para nuestro universo, su
dual negativo está situado en el lugar del
observador, y precisamente en un punto,
pues todas las distancias al ser negativas
173
longitud de Planck 10-16 sería en la
dualidad equivalente a 1. La magnitud
1022 será 1022/10-16 = 1038 veces en esa
unidad.
constantes del universo en su conjunto
con independencia de su edad. Ello
permite que la “realidad”, identificación
más sutil de la materia, sea la misma para
todo observador (la misma secuencia
histórica), en cualquier circunstancia del
espaciotiempo.
Expresándolo en un segmento:
0 B
10-38
(1 en dualidad)
A
1022 Norma
positiva
10-16 (Nueva distancia
de Planck)
1022 (1 en dualidad)
B´ A´ 0
Después de haber visto en el Capítulo IV
que en nuestra teoría no existe una
identificación (al estilo de un tensor
común esfuerzo-energía, de la relatividad
general) entre masa y energía, eso sí, con
una “conexión” por intermedio de la
expansión cósmica, nos faltaba establecer
los límites de esta última relación.
Queremos decir, ¿cuál es el mecanismo
por el que la gravitación domina todos los
ámbitos (desde los más pequeños a los
más grandes), y se anula la “expansión
cósmica” en el interior de los objetos
celestes?... A nuestro modo de ver la
razón, simplemente, tiene que ver con la
“densidad”. Nos explicaremos.
Norma negativa
10-16 10-22
A y A´ son puntos duales (longitud de
Planck) y B y B´, también, son duales.
En el intervalo AB y BA, el universo da
un salto cuántico de 22 órdenes de
magnitud
(“desaparece”
nuestro
universo), siendo sustituido por su
“equivalente dual” el A´B´ y B´A´. En
nuestro universo solamente transcurrirá
(en tiempo propio) un instante
infinitesimal ∆t = 10-38/c; y en el
complementario 1038/c, es decir, un
tiempo propio enorme (como el de
nuestra expansión).
La “anulación” de la gravitación
(universo plano) gracias a la expansión de
Hubble, se basó en una equivalencia entre
la energía potencial del campo
gravitatorio, y la velocidad de recesión de
Hubble; de ello se dedujo la relación entre
la cte. H de Hubble, la cte. de gravitación
Y la “densidad media” del universo ( a
efectos cosmológicos), resultando la
fórmula H2= 8/3 πGρm. Y tal es así que
postulamos la ley ya expresada con
anterioridad, y que dice que a nivel
cosmológico global, la gravitación queda
“anulada” de forma exacta por la
expansión cósmica. (En este sentido
ambas son opuestas).
A continuación haremos dos aclaraciones,
a nuestro entender importantes, sobre dos
aspectos de nuestra teoría.
Hemos visto que según nuestro modelo
cosmológico, tanto H (cte. de Hubble)
como G (cte. de gravitación) varían con la
edad de universo. En nuestra teoría, tanto
c (velocidad de la luz) como h (cte. de
Planck) no varían con dicha edad del
universo. Las últimas, pues, tanto la
primera, c, en relatividad y la segunda, h,
en cuántica conservan su magnitud,
comportándose
como
verdaderas
Pero, la ley anterior es válida para la
totalidad, es decir, tiene un efecto de
“globalidad” en todo el universo; no
obstante hay partes o zonas del mismo
que, aún a nivel cosmológico, se desvían
174
Simplemente, mientras no se llega a la
magnitud en la densidad del orden
necesario para que exista ese “equilibrio”
entre recesión y gravitación, la
“dilatación cósmica” será imperceptible
(como si no existiese) en dichos objetos
celestes. En ese sentido “la materia” ,
como dijimos en el capítulo apuntado
anteriormente al comentar nuestras
críticas a la identificación relativista entre
masa y energía, se comporta de forma
distinta a la radiación (donde no hay
fuerzas intensas que aseguren su
“cohesión” –bosones).
en su densidad de forma perceptible de
esa densidad media del universo en cada
época del mismo. Esas “desviaciones”
son las que originan esas variaciones
observadas en nuestras observaciones de
la expansión o recesión galáctica (ver los
comentarios de Adam Riess –03/04/2001sobre la observación de una supernova
por el telescopio Hubble). Y es que en
algunos casos la expansión parece
“relantizarse”, lo que podría suceder en
los primeros miles de millones de años luz de nosotros; a las mayores distancias
esa variación de densidad comentada,
comprobada en el aumento de
radiofuentes y cuásares, se traduciría en
una apariencia de “aceleración” de las
velocidades de recesión. Mas, eso no
impide que en conjunto o globalmente, en
el universo la gravitación quede anulada
cósmicamente por la recesión de las
galaxias, y la prueba es el universo plano
observado.
El segundo apunte importante que nos
interesaba aclarar en relación a nuestra
teoría se refiere a la verdadera topología
del espacio, o del universo, distinta a las
tres generalmente más conocidas de la
plana o euclídea “infinita”, la hiperbólica
y la elíptica. Las consecuencias de ello
sobre el tipo de explosión o expansión
(big bang) en cuanto a la radiación y la
misma geometría del espaciotiempo
pueden ser substanciales, si no nos
circunscribimos tan sólo a los citados tres
casos.
¿Por qué, sin embargo, en las estrellas,
planetas u otros objetos estelares, se
mantienen las distancias relativas (el
“metro de medir”), no “expandiéndose” o
“dilatándose” por la aplicación de la
relación de Hubble? Nosotros pensamos
que la mayor densidad (en varios órdenes
de magnitud) de dichos objetos en
relación con la densidad media del
universo en esos momentos, hace que la
“presión” originada por esa expansión
cósmica
sea
insignificante
en
comparación con las otras fuerzas (fuerte,
electromagnéticas, etc.) que operan
dentro del objeto. El resultado es que el
objeto no se ve afectado de ninguna
forma por la expansión cósmica,
notándose, eso sí, por el contrario el
efecto de la gravitación que puede ser
hasta muy intenso dado el poder
acumulativo de la misma para grandes
masas materiales.
Por un lado, la relatividad de las visiones
de los diferentes observadores del
universo requiere que el espacio fuese lo
más parecido a una superficie esférica –
hiperesfera - (elíptica), porque en ella
cada punto se separa uno de otro
exactamente igual al símil de un globo
inflándose, con lo que cada punto de
dicha superficie no es significativo
respecto a los demás. Suponiendo lo
anterior (para lo que es necesaria una
nueva topología, ya que en un universo
plano euclídeo esta hiperesfera debería
poseer un radio casi infinito, en contra de
la suposición, bastante más probable, de
un punto inicial del big bang con tamaño
infinitésimo), imaginemos una radiación
que parte desde un punto en todas las
175
direcciones de la hiperesfera –el
espaciotiempo del universo. En nuestra
teoría, hemos supuesto un límite en el
radio del universo (radio de Hubble), así
que este radio máximo será:
Y para una vuelta “completa” de la
radiación sobre la hiperesfera, será:
φ=2π
1=LT e1=T
Lmáximo=ct (siendo t el tiempo transcurrido
desde el big bang)
Veamos la siguiente figura:
li
φ
φ
-
T=e
Es decir, al cabo de un tiempo igual al
número e, se produce la primera “llegada”
de la radiación que salió de un punto en el
pasado a ese punto; algo que supone una
implicación inmediata en la radiación de
fondo de microondas. También esto nos
indica que la emisión de la radiación de
un objeto celeste puede llegarnos
directamente, o después de haber dado la
“vuelta” al universo. Esta última
radiación, al ser (ii) logarítmica con el
tiempo, tardará “cada vez” más en dar esa
“vuelta” al universo. El espectro de la
radiación
anterior
directa
estará
normalmente desplazado al rojo; la de la
indirecta lo estará al violeta, o al menos
tendrá un desplazamiento al rojo mucho
menor de lo que le correspondería por su
velocidad y campo gravitatorio.
L
0 - 0-
O sea: φ=2π=2π LT
-
Este Lmáximo desde el punto 0 de emisión,
según dicha figura, será igual a la
longitud de la circunferencia. O sea:
Lmáximo=2πR=ct ; así que: R=ct/2π (i).
La hiperesfera se dilata con el tiempo, y
la radiación que va por su “superficie”
recorre un ángulo φ, lo que supone que
dicha radiación se mueve sobre la
hiperesfera con una velocidad angular W.
Desde este punto de vista, serían
equivalentes:
1) La luz que nos llega de un objeto que
va a la velocidad de Hubble ≅c
(desplazamiento al rojo enorme,
proviniendo del pasado –casi del
mismo big bang).
2) La luz emitida por nosotros –se
supone, por un objeto situado en el
pasado en el punto donde nos
encontramos actualmente- que ha
dado la vuelta al universo, y que
estamos recibiendo ahora, que puede
asimilarse (si hubiese tardado la edad
del universo en esa vuelta) a la
radiación de fondo de microondas.
Como la velocidad de la radiación sobre
la superficie la hemos considerado
constante e igual a la velocidad de la luz,
constancia tomada como hipótesis global,
es decir, se hace extensión de este
principio de relatividad restringida a la
globalidad del universo. Entonces:
DL(sobre la superficie) =c dt=R dφ y dφ=c dt/R
Luego será: W=dφ/dt=c/R con lo que
φ=∫c/R dt
Coinciden, pues, y son equivalentes el
observador (a velocidad cero, es decir,
sobre sí mismo) y el otro objeto celeste
De (i) se tiene, entonces:
φ=∫c/ct/2π dt= 2π∫dt/t=2π Lt (ii)
176
La variación de la densidad provocará un
cambio relativo
de la velocidad de
recesión de las galaxias (al principio se
retardarán y después se acelerarán).
que ocupa nuestra posición, o posición de
ese observador, y se desplaza con
velocidad c, respecto al observador
citado; así que la radiación emitida por el
objeto de velocidad c, al llegar al
observador en el futuro (desplazamiento
al rojo casi infinito) debe coincidir con la
radiación (hacen el mismo recorrido: todo
un círculo máximo del universo) que
emite el observador y que será recibida en
el futuro. La radiación recibida, pues, (por
la dilatación del espacio) parece coincidir
con la radiación de fondo de microondas.
Obtenemos, por consiguiente, que la
velocidad de la luz, que es constante
localmente en todo el universo, no
obstante, su longitud de onda y frecuencia
(su energía) dependen del espaciotiempo:
si este se dilata, la energía baja en “su
temperatura”.
La secuencia completa (al dar la radiación
una vuelta al universo) sería:
-De 0 a R hay un aumento de densidad (se
ralentiza la recesión).
-De R a 2R va disminuyendo la densidad
más suavemente ( recesión ≅).
-De 2R a R, también varía poco la
densidad ( recesión ≅).
-De R a 0, la densidad disminuye más
aceleradamente (se acelera la expansión).
Para
finalizar el apunte, nos
extenderemos ahora sobre la posible
topología del universo, que podría hacer
compatible un universo plano, con la
relatividad
de
los
observadores
proporcionada por la hiperesfera,
haciendo realidad lo anteriormente
expuesto.
Todo lo anterior guarda relación, también,
con la densidad de masa-energía (aquí sí
podemos identificarlas por su función) de
las distintas capas esféricas (en la
hiperesfera) del universo situadas a más o
menos distancia del observador. El
resultado es la “no homogeneidad” de esa
densidad.
Aunque la estructura matemática
apropiada
para
el
universo
en
dimensiones macroscópicas (las otras
multidimensiones son inobservables),
debería ser de dimensión cuatro, hay
buenas razones para creer que la
estructura
del
espaciotiempo
tetradimensional está regida por las
estructuras del espacio tridimensional, las
llamadas variedades tridimensionales o
trivariedades.
Se obtiene que las distintas masas de las
diferentes capas esféricas son función del
coseno de φ, o sea m´= f(cosφ), y las
superficies de las distintas coronas
circulares son función de φ. Así que la
densidad será:
D´= m´/Sc´= f(cos φ)/f´(φ).
Hay algunas trivariedades especialmente
significativas.
De lo anterior se obtiene que si vamos
hacia las velocidades mayores que c/2
recorremos la esfera “real” en sentido
contrario; entonces φ se hace mayor, pues
va hacia 2π, y el coseno también se hará
mayor, así que la densidad aumentará.
Del dodecaedro se obtiene una variedad
que surge cuando cada pentágono se
pega con su opuesto, después de una
rotación de 108 grados (3/10 de vuelta) en
sentido contrario a las agujas del reloj.
Dicha variedad se denomina espacio
177
dodecaédrico de Seifert – Weber, y da
lugar a un universo con un volumen
finito, pero sin borde ni frontera.
resultante es un espacio de Seifert –
Weber con una geometría hiperbólica
localmente homogénea.
Topológicamente, la geometría intrínseca
de la superficie de una rosquilla de un
agujero varía de manera muy parecida a
la de una rosquilla de tres agujeros. En el
cuadrado la geometría intrínseca en una
región pequeña alrededor de cada punto
del cuadrado es la misma que la de una
pequeña región del plano. Cuando la
geometría intrínseca de una variedad tiene
una uniformidad de ese tipo se dice que la
geometría es localmente homogénea.
Se ha demostrado que en cierto sentido a
la “mayoría” de las trivariedades se les
puede dar una geometría localmente
hiperbólica. Y es que las trivariedades
hiperbólicas
presentan
muchas
propiedades interesantes. Por ejemplo, en
1971 Mostow demostró que si una
trivariedad podía recibir una geometría
localmente hiperbólica, entonces la
geometría
quedaba
determinada
totalmente por la topología.
Este concepto de homogeneidad local fue
un importante avance para comprender
las bivariedades. Se demostró que
cualquier superficie podía generarse de
forma que fuese localmente homogénea,
y ninguna variedad puede admitir más de
un tipo de geometría localmente
homogénea.
Como
dijimos,
se
ha
dicho
frecuentemente que la curvatura del
universo determina que éste sea de
extensión finita o infinita, opinión tan
extendida como errónea. En otras
palabras, se dice que si el universo es
finito su geometría debe ser elíptica y
recíprocamente, también que si la
geometría del universo es hiperbólica, el
universo debe ser infinito.
Para una superficie sólo hay tres tipos de
geometría localmente homogénea: la
geometría euclídea del plano (curvatura
gaussiana cero), la de la superficie de una
esfera –elíptica- (curvatura gaussiana
positiva constante) y la de la superficie
hiperbólica
(curvatura
gaussiana
constante negativa).
El espacio de Seifert – Weber, que es una
trivariedad finita con una geometría
localmente hiperbólica, prueba lo erróneo
de las aseveraciones anteriores.
Así, la mayoría de los modelos finitos de
espacio son trivariedades como el espacio
de Seifert – Weber con una geometría
localmente hiperbólica, variedades que
dan modelos de universos finitos que se
expanden indefinidamente.
Tanto la geometría elíptica, como la
euclídea y la hiperbólica tienen sus
contrapartidas tridimensionales.
En el año 1976 William P. Thurston
sugirió que la geometría hiperbólica
localmente homogénea, podría ser la
clave para entender casi todas las
trivariedades.
Para terminar con el presente capítulo
decir que, en nuestra opinión, la presente
teoría resuelve todos y cada uno de los
problemas presentados al modelo
estándar. A saber:
a) El problema de la curvatura nula.
Su
resolución
simplemente
es
consecuencia de lo expuesto en el
Cuando se pegan las caras opuestas de un
dodecaedro hiperbólico después de una
rotación de 3/10 de vuelta, la variedad
178
Capítulo IV. Punto 8. La equivalencia
entre la curvatura positiva producida por
el campo gravitatorio y la curvatura
negativa que representa la expansión
cósmica o de Hubble no es un simple
“ajuste fijo” o “casualidad” (suponiendo
alguna clase de principio antrópico), es
una equivalencia que se da en la
naturaleza. A partir de la longitud de
Planck, donde puede aplicarse para el
campo gravitatorio la ley de la inversa del
cuadrado de la distancia, la expansión de
Hubble y la gravedad son iguales y
opuestas a nivel cosmológico, es decir, en
el ámbito en que está definida la ley de
Hubble; para otros dominios la gravedad
se hace independiente (vigencia de las
leyes “clásicas einstenianas” de la
relatividad general).
b) El problema del horizonte.
Las “regiones” del universo primordial no
estuvieron nunca “desconectadas”, puesto
que su tamaño indica un dominio total de
la física cuántica, aún en su aspecto más
clásico. Todo ese universo incipiente era
un solo sistema cuántico, conectado entre
sí por la no-localidad del mundo cuántico
(para nada pueden interrelacionarse sus
partes a través del “relativismo” del
máximo de la velocidad de la luz). Así, la
radiación cósmica de microondas
guardará la impronta de esa “conexión
cuántica” a lo largo de todo el futuro
posterior.
c) El problema de las fluctuaciones de la
densidad.
Para que las galaxias colapsaran
gravitacionalmente debería haber en
origen fluctuaciones. Evidentemente el
“sistema cuántico”, por el principio de
incertidumbre, guarda en sí la suficiente
“fluctuación original” para construir en el
futuro las galaxias. (el fantástico
“estiramiento” de la hipotética inflación
hubiera deshecho estas fluctuaciones
cuánticas del origen).
d) El problema de la materia obscura.
La materia obscura sencillamente “no es
necesaria” para que nuestro universo sea
plano (sólo se necesita la equivalencia
entre la gravitación y la expansión de
Hubble), no obstante, podría asimilarse en
cierto modo a ese otro universo
complementario “negativo” lleno de
“diversas” partículas.
e) Problema de las reliquias exóticas.
Deberíamos preguntarnos: ¿Cómo los
defectos topológicos creados en las
transiciones de fases como monopolos o
partículas
exóticas
no
se
ven
actualmente? Una explicación en nuestra
teoría sería el modo como actúan las
dualidades S y T de la teoría M. Ellas
serían capaces de transformar, tal como
hemos expuesto, dichos monopolos o
partículas exóticas en las partículas de
energía
negativa
del
universo
complementario situado “más allá” de la
“pared frontera” de nuestro propio
universo.
f) Problema del estado de equilibrio
térmico inicial.
El mecanismo de su mantenimiento es el
mismo de su origen en un mismo
“sistema cuántico” de todo el universo
primordial.
g) El problema de la constante
cosmológica.
La constante cosmológica es 120 órdenes
de magnitud más pequeña que la esperada
en la gravedad cuántica según la teoría
estándar postulada. En la nuestra, la
constante cosmológica es asimilable a la
constante de expansión de Hubble del
inicio; existe, pues, una exactitud de
origen entre la “cte. cosmológica” real y
la postulada en nuestra teoría: la cte. de
Hubble. Quizás, la gravedad cuántica
requiera una revisión en el sentido
apuntado por nuestra teoría.
h) El problema de la singularidad.
En nuestra teoría no hay un estado de
densidad de energía infinita en el tiempo
t=0 (lo que se llama singularidad); hay
179
una densidad elevadísima, pero no
infinita, pues en un instante determinado
la gravedad “da un salto cuántico”,
transformando nuestro tiempo positivo en
negativo, volviéndose “repulsiva” en vez
de atractiva, es decir, no continúa el
colapso sin límite hacia un punto, como
podía suponerse en un “agujero negro de
Hawking”. El colapso tiene un límite,
produciéndose un “salto” hacia una nueva
expansión.
i) El problema de la escala del tiempo.
En la presente teoría la “variabilidad” de
la cte. de Hubble que tiende a cero, hace
que el tiempo o edad del universo global
sea compatible con la vida de las estrellas
y galaxias más antiguas.
desplazamiento hacia el rojo de las
galaxias (Ley de Hubble) probablemente
es correcta, debería haber un segundo
mecanismo desconocido que explicaría
ese agrupamiento de las velocidades.
Tifft, por su lado, afirma que aunque no
comprende el fenómeno, piensa que este
agrupamiento de velocidades en paquetes
es análogo al de los “saltos” de niveles de
energía de las partículas subatómicas, de
acuerdo con la mecánica cuántica.
La importancia de lo anterior, si estos
resultados se confirmasen por más
fuentes, es transcendental en nuestra
teoría pues sería algo así como su
confirmación. Y es que el tamaño del
universo primordial (más pequeño que la
longitud de Planck) indica la existencia
de un sistema cuántico que abarcaba la
totalidad del mismo, así que el que las
energías estuviesen cuantificadas sería
consustancial con su propia esencia.
Hace más de veinte años el astrónomo
William G. Tifft, de la universidad de
Arizona
(EE.UU),
afirmó
haber
descubierto un asombroso fenómeno: las
velocidades de las galaxias muy lejanas
no muestran una distribución uniforme,
como era de suponer, sino que se agrupan
en intervalos fijos. Según sus mediciones,
los desplazamientos hacia el rojo de casi
todas esas galaxias lejanas cambiaban en
saltos abruptos equivalentes a 72
kilómetros por segundo; como esta
observación no encajaba con la
distribución homogénea de las galaxias en
el cosmos (principio cosmológico),
permaneció archivada.
El mecanismo que hemos propuesto para
la ley de Hubble, hace que cada galaxia
conserve su velocidad “original”,
mientras no existan otras causas “ajenas”
que difuminen esa constancia original. La
gravitación actuando durante un tiempo
bastante grande en la formación de las
galaxias, los cúmulos y supercúmulos,
desvía finalmente de esa constancia a las
velocidades,
apareciendo
entonces
valores de distribución casi homogéneos
en esas velocidades de recesión, resultado
de la 2ª ley de la Termodinámica en su
aumento del desorden (entropía). Sería,
pues, totalmente natural que la
distribución de velocidades de recesión
sea isótropa y homogénea, excepto para
las galaxias más lejanas, por ello, más
cercanas al big bang.
Los especialistas suponían alguna clase
de fallo en las mediciones de Tifft, así
que astrónomos del Royal Observatory de
Edimburgo (Reino Unido) eligieron 89
galaxias lejanas para su estudio y no sólo
no pudieron negar el hallazgo de Tifft,
sino que sus cálculos lo confirman. En el
año 1992, los astrónomos Bruce Guthrie
y William M. Napier dieron a conocer los
datos de su estudio. Así que, ante el
resultado, Guthrie sugiere que aunque la
interpretación
convencional
del
Nuestra teoría, así como muchas de las
que se proponen hoy día, arranca de la
180
El todo sostiene a las partes, que a su vez
constituyen dicho todo (una visión Zen
del cosmos). Se necesita al universo antes
de poder dotar de realidad concreta a los
átomos que constituyen el universo. ¿Son
primeros los átomos o el universo?...
Ninguno de los dos: Lo grande y lo
pequeño, lo total y lo local, lo cósmico y
lo atómico, todos se apoyan mutuamente
pues son aspectos inseparables de la
realidad. Existe una unidad en el
universo: una unidad que proclama que
sin todo no puede conseguirse nada.
idea de que lo macroscópico (el universo
actual) y lo microscópico (el inicio del
big bang, por ejemplo) se hallan
íntimamente entrelazados. No hay
ninguna esperanza de comprender la
materia solamente a partir de sus
constituyentes parciales. Únicamente el
sistema en conjunto da expresión concreta
de toda la realidad. Lo grande y lo
pequeño coexisten. Es más, la misma
“mente” ocupa una posición central en la
naturaleza, todo ello consecuencia de los
postulados cuánticos, puesto que cada
observación conlleva una transformación
de la situación física, es decir, la realidad
de cada partícula subatómica no puede
aislarse de su entorno. De otro modo, el
factor cuántico obliga a considerar las
partículas sólo en relación con el todo, y
el mundo es un entretejido de relaciones,
en las cuales el observador forma parte de
ellas.
Ni la materia, ni el espaciotiempo son
rasgos incidentales de nuestro mundo;
ambos proceden de las leyes físicas
quienes, en el fondo, son las verdaderas
responsables
de
la
sorprendente
ordenación del mundo.
181
EN
También en el año 1917 de Sitter
construye un modelo cosmológico que
presenta una desviación al rojo.
A continuación expondremos una breve
historia de los hitos más importantes tanto
en
cosmología
teórica
como
observacional.
En 1922 Friedmann encuentra soluciones
a la relatividad general que presentan
universos
isótropos
homogéneos
expandiéndose desde una singularidad.
(Modelos del big bang).
Capítulo X.
NOTICIAS Y
ASTRONOMÍA
TENDENCIAS
En 1933 Zwicky encuentra que el 90% o
más de la materia en enjambres de
galaxias es obscura.
En el año 1912 Slipher mide el espectro
de nebulosas espirales, encontrándose que
estaban desplazadas por efecto Doppler.
En el año 1924 son medidas 41 nebulosas
de las cuales 36 estaban en recesión.
En 1941 Adams da cuenta de la primera
evidencia de la radiación de fondo de
microondas.
En 1918 Shapley mide la distancia a
nebulosas usando estrellas variables (Las
Cefeidas) brillantes que pulsaban a
intervalos regulares de unos pocos días y
meses. El período de esta variabilidad
estaba correlacionado con su luminosidad
absoluta, la cual calibró en la cercana
nube Grande de Magallanes.
En el año 1948 Alpher y Herman
predicen una temperatura de grados K
para el universo.
En el año 1964 Penzias y Wilson en los
laboratorios Bell, descubren fortuitamente
una energía isótropa de microondas,
como reliquia del fuego primordial del
big bang, con una temperatura de T=2,73
K.
Entre los años 1923-1929 Hubble
encontró una proporción entre la
velocidad y la distancia. Fue capaz de
calcular los datos referentes a las
Cefeidas en la galaxia de Andrómeda con
el telescopio de 100´´ en el Monte
Wilson. Desarrolló una nueva medida de
distancia usando el brillo de las estrellas
para galaxias a mayores distancias.
Correlacionó estas medidas con las
nebulosas de Slipher para descubrir una
proporcionalidad entre la velocidad v y la
distancia d; la denominada ley de Hubble,
v=Hd.
En el año 1969 Couklin descubre la
anisotropía de dipolo en la radiación de
fondo de microondas., lo que fue
confirmado en 1971 por Henry y
reconfirmado por Corey y Wilkinson en
1976.
En 1986 de Lapparent, Geller y Huchra
encuentran la estructura a gran escala del
universo, superenjambres y vacíos.
Existencia
de
grandes
burbujas,
filamentos y hojas con escalas de 25 Mpc
a 100 Mpc.
En el año 1917 Einstein construyó un
universo estático, homogéneo e isótropo
solución de la relatividad general,
introduciendo la llamada constante
cosmológica.
En el año 1992 el satélite COBE descubre
fluctuaciones en la radiación de fondo de
microondas, al nivel de una parte entre
100.000, que correspondería a una
182
imagen del universo a los 400.000 años
del big bang. Este mapa del suelo es
también la mejor evidencia de la isotropía
(o simetría esférica) del universo.
En diciembre del 98 el Sloan Digital Sky
Survey encontró varios nuevos cuásares
con desviaciones al rojo mayores de 4,9.
En marzo del 99 en la revista científica
Nature se publican cálculos del ROTSE
que permiten obtener una cte. de Hubble
de H0=65 Km/s/Mpc, con una densidad
de materia de 0,25 y una cte. cosmológica
de 0,75.
En 1994 Wendy Freedman anuncia el
valor de la cte. de Hubble en H0= 80+/-17
Km/s/Mpc basado en la observación de
las Cepheidas en el enjambre de Virgo.
(Así que, ¡parecía que el universo era más
joven que las estrellas más viejas!)
El 26 de noviembre de ese año, 1999, las
medidas de las fluctuaciones de la
radiación de fondo de microondas
realizadas
por
el
proyecto
BOOMERANG
confirman
trabajos
anteriores de grupos de científicos de
Penn y Princeton, favoreciendo un
universo plano dominado por la cte.
cosmológica o densidad de energía del
vacío; se tendría 0,85<ΩM+ΩΛ<1,25.
Combinado esto con estudios de
Supernovas (Perlmutter 1997, Kim 1998,
Schmidt 1998, Riess 1998) se obtiene un
valor de 0,55<ΩΛ<0,95 con una precisión
del 68%.
Entre los años 1995-1996 el telescopio
espacial Hubble mejoró la determinación
del parámetro de Hubble.
En el año 1997 el paralaje de las
Cepheidas medido por el satélite
Hipparcos incrementa la escala de
distancias en un 10%.
También, en abril de 1997 se encuentra
un nuevo récord de distancia en un objeto
con una desviación al rojo de z=4,92.
En junio de 1998 el experimento SuperKamiokade en Japón confirma que los
neutrinos del muón producidos en la
atmósfera de la Tierra por los rayos
cósmicos oscilan entre diferentes clase de
neutrino durante su viaje a través de la
Tierra.
El 19 de febrero del 2000 Daniel Stern
encuentra un cuásar con corrimiento al
rojo de 5,5 (se le supone una distancia de
13.000 millones de años luz).
El 15 de marzo del 2000 , según una nota
de prensa del IACC –Instituto de
Astrofísica de Canarias-, se anuncia que
nuestra galaxia, la Vía Láctea, se formó
en un proceso rápido que duró entre 500 y
1.000 millones de años (un 5% de su edad
total).
En julio de 1998 se identifica un objeto
con un z=5,60.
En agosto de 1998 Mather afina el valor
de la temperatura de la radiación de fondo
de microondas a T0= 2,725 +/-0,002 K
con un grado de exactitud del 95%.
El 13 de abril del 2000 se anuncia (por el
SDSS) el descubrimiento de un cuásar
con desplazamiento al rojo z=5,82.
En septiembre del 98 Lanzetta encuentra
un objeto con una desviación al rojo de
z=6,68.
El 27 de abril del 2000 Nature publica los
datos obtenidos por el vuelo del globo del
proyecto BOOMERANG, midiendo las
183
fluctuaciones del fondo de microondas.
Los resultados confirman trabajos
anteriores, concluyendo que el universo
es plano, o también, que la densidad total
de energía es igual a la densidad crítica.
El 10 de mayo del 2000 Hanany anuncia
los resultados del vuelo de agosto del 98
del globo con los equipos del Proyecto
MAXIMA que confirma el mejor ajuste,
el de BALBI 2000, que corresponde a un
universo plano con parámetro de densidad
de ΩM∼0,3 y parámetro de densidad de la
cte. cosmológica de ΩΛ∼0,7 (confirmando
los datos del proyecto BOOMERANG).
También, es interesante constatar que el
Observatorio Compton de Rayos Gamma
(CGRO) ha detectado más de 1000
fuentes de rayos gamma; incluso ha
demostrado que están distribuidas
isotrópicamente en el cielo, lo que
implica un origen exterior al disco de
nuestra galaxia.
Otros hechos notables: La firma de
planetas en órbita alrededor de varias
estrellas cercanas ha sido detectada por
espectropía de base; también hay
evidencia de la existencia de agujeros
negros en varios sistemas binarios de
rayos X, así como que la existencia de
agujeros negros gigantes en el centro de
varias galaxias
está establecida por
encima de cualquier duda razonable.
-
Obtener un censo de sistemas
planetarios de alrededor de unas 1000
estrellas, sus distancias y masas de
planetas comparables o más grandes
que Urano, para ser investigados, para
un rango de tipos de estrellas y
sistemas estelares.
-
Estudiar las características de los
estados tempranos de formación de
estrellas, observando la estructura y
dinámica de las regiones protestelares.
-
Determinar
la
estructura
tridimensional a gran escala del medio
inerestelar
y las regiones de
formación de estrellas dentro de él.
-
Detectar indirectamente la masaterrestre de los planetas.
-
Estudiar
sobre
espectroscopía
ultravioleta la conexión entre los
discos galácticos y halos con una
sensibilidad significativamente más
alta que la que hasta ahora nos
proporciona el Telescopio Espacial
(HST).
-
Imaginar el comportamiento en el
infrarrojo cercano y realizar estudios
espectroscópicos de las jóvenes
estrellas incrustadas en los enjambres.
En cuanto a las estrellas y su evolución:
- Estudiar el origen y manifestaciones
astrofísicas de los agujeros negros.
A
continuación
veremos
las
recomendaciones del Consejo Nacional
de Investigación americano (Comisión de
Ciencias
Físicas,
Matemáticas
y
Aplicaciones), para los próximos 5 o 10
años, en investigación astronómica y
astrofísica.
En cuanto a planetas, formación de
estrellas y medio ineterestelar:
184
-
Estudiar el comportamiento de la
materia en condiciones de gravedad
extrema, rotación, campo magnético y
densidad de energía.
-
Realizar
investigación
concerniente al origen
elementos.
básica
de los
-
-
Sobre cosmología y fundamentos físicos:
Desarrollar el conocimiento de las
estrellas como indicadores del tamaño
y edad del universo.
Estudiar los efectos de rotación y
campos magnéticos, así como los
efectos de los compañeros binarios.
-
Determinar la geometría del universo
por la medida de la anisotropía de la
radiación de fondo de microondas.
-
Testear las teorías sobre el origen y
evolución de la estructura del
universo.
-
Determinar la cantidad, distribución y
naturaleza de la materia obscura.
-
Hacer un test sobre las predicciones
de la relatividad general en el régimen
de Supergravedad.
-
Investigar la naturaleza de la
radiación gamma de los rayos
cósmicos y el origen de la ultraalta
energía de los mismos.
-
Extender la radioastronomía a las
frecuencias ultrabajas.
Sobre galaxias y sistemas estelares:
-
-
-
Estudiar los detalles del proceso de
desarrollo del universo con gran
desviación al rojo, realizando un
censo del universo como era un billón
de años después del big bang.
Tratar de conectar los objetos de gran
desviación
al
rojo
con
sus
descendientes, siguiendo la evolución
hacia más bajas desviaciones al rojo,
acometiendo un estudio detallado del
proceso físico que subyace.
Entender la formación y evolución de
los agujeros negros supermasivos de
los núcleos de las galaxias, aclarando
su funcionamiento.
Alejandro Álvarez Silva
185
186
Descargar