NUESTRO UNIVERSO (Copyright 2001) PRÓLOGO.........................................................................................................................................................1 Capítulo I. GRAVEDAD RELATIVISTA....................................................................................................... 5 1. Teorías del espacio-tiempo............................................................................................................................ 5 2. Relatividad General..................................................................................................................................... 14 Capítulo II. CONCEPTOS COSMOLÓGICOS.............................................................................................. 19 1. Parámetros.................................................................................................................................................. 19 2. Estimación de distancias............................................................................................................................ 19 3. Constante cosmológica............................................................................................................................... 22 4. Ley de Hubble............................................................................................................................................. 28 5. Materia oscura y antimateria.................................................................................................................... 31 A. Materia oscura....................................................................................................................................... 31 B. Antimateria............................................................................................................................................ 34 C. Crítica a la interpretación clásica de Dirac............................................................................................ 37 Capítulo III. INFLACIÓN.............................................................................................................................. 51 1. Universo de Einstein- de Sitter............................................................................................................... 51 2. Universos dominados por materia fría de tipo general........................................................................ 51 3. Universo dominado por radiación.......................................................................................................... 52 4. Universo dominado por la densidad de energía de vacío. Universo de de Sitter................................ 52 5. Caso general...............................................................................................................................................52 6. Parámetro de desaceleración....................................................................................................................53 7. El modelo clásico del Big Bang.................................................................................................................54 8. Universo inflacionario...............................................................................................................................54 9. Inflación caótica.........................................................................................................................................60 10. Inflación autorregenerante.......................................................................................................................62 Capítulo IV. OTROS MODELOS COSMOLÓGICOS.................................................................................. 65 1. Modelo del estado estacionario............................................................................................................... 65 2. Modelo relativista del big bang................................................................................................................66 3. Modelo de la aceleración de la expansión...............................................................................................69 4. Modelo del universo pulsante...................................................................................................................71 5. Modelo cósmico de la “fuerza nuclear” (o “teoría unificada del espacio-tiempo-masa”)..................72 6. Modelo de la expansión de la escala del cosmos.....................................................................................73 7. Modelo de la oscilación entrópica............................................................................................................79 8. Modelos para la solución del llamado “problema de la desaparición del tiempo”.............................80 9. Modelo de Stephen W. Hawking..............................................................................................................83 10. Nuestro modelo cosmológico....................................................................................................................84 Capítulo V. ASTRONOMÍA OBSERVACIONAL.........................................................................................91 1. Estimaciones de interés.............................................................................................................................91 2. Parámetros cosmológicos de los distintos modelos relativistas.............................................................92 3. Valores de los parámetros cosmológicos.................................................................................................92 A. Sobre la constante de Hubble H0............................................................................................................92 B. Sobre el parámetro de densidad Ω0 (suponiendo ΩΛ=0)........................................................................93 C. Sobre el parámetro de densidad debido a una cte. cosmológica ΩΛ......................................................93 D. Sobre la edad del universo T0.................................................................................................................94 4. Verificaciones y problemas en el modelo estándar...............................................................................94 0 A. Verificación de la teoría estándar........................................................................................................94 B. Divergencias respecto a la teoría estándar...........................................................................................96 I. ACELERACIÓN DEL UNIVERSO........................................................................................... 96 II. PROBLEMAS CON LA SIMETRÍA ROTACIONAL DEL U. A ESCALAS CÓSMICAS..... 97 C. En defensa del big bang...................................................................................................................... 98 Capítulo VI. TEORÍAS UNIFICADAS (GTU´s)...........................................................................................101 1. Introducción.............................................................................................................................................101 2. La intensidad fuerte...............................................................................................................................105 3. Cromodinámica cuántica QCD (Quantum Chromodynamics)..........................................................112 4. La interacción débil................................................................................................................................118 5. Resumen de las teorías GTU..................................................................................................................123 Capítulo VII. SUPERSIMETRÍA. SUPERGRAVEDAD..............................................................................129 Capítulo VIII. SUPERCUERDAS Y TEORÍA M.........................................................................................135 1. Supercuerdas...........................................................................................................................................135 2. La teoría M..............................................................................................................................................147 Capítulo IX. RESUMEN DE NUESTRA TEORÍA. IMPLICACIONES.....................................................165 Capítulo X. NOTICIAS Y TENDENCIAS EN ASTRONOMÍA.................................................................181 BIBLIOGRAFÍA..........................................................................................................................................185 1 PRÓLOGO En esta obra se ha pretendido un doble objetivo. En primer lugar hemos intentado hacer llegar al lector una visión actual de la cosmología de nuestra época; y es que constituye prácticamente un libro de texto de amplia perspectiva, a la vez que riguroso en algunas cuestiones. Intencionadamente no se han evitado las fórmulas que se consideran estrictamente necesarias en un libro sobre Ciencias Físicas, lo que por otro lado, aunque parezca farragoso el incluirlas, permite tomar una visión de conjunto bastante clara de todo el panorama científico que encuadra la cosmología moderna pisando “suelo firme”, sin un exceso de literatura que acercaría más el libro a la ciencia ficción en la que, lamentablemente, caen muchos textos de divulgación. Así que, si lo que se busca es, en una sola obra, tener una ancha visión de cosmología, este libro cumplirá ese cometido. Al mismo tiempo, dada la importancia tan substancial que está adquiriendo la red informática global de interconexión, Internet, se han dado muchas referencias de sitios Web, sobre todo en lo que se refiere a los distintos modelos teóricos de universo, de los que se ha sacado bastante texto de la obra. En segundo lugar, hemos aprovechado la ocasión tan inmejorable que nos ofrecía el trabajo para aportar nuestro “granito de arena” en la construcción de un modelo cada vez más perfeccionado del Universo, más allá del modelo estándar: nuestro propio modelo, descrito en el Capítulo II (5.c), Capítulo IV (10) y Capítulo IX. 2 materia. A ello se dedican el Capítulo VI citado, el VII y el VIII. La obra consta de nueve capítulos. En el I, se repasa la base de la teoría matemática que subyace en las teorías del espacio-tiempo, entre las que se incluye la Relatividad General einsteniana. El capítulo puede resultar un poco complicado para los que no tengan una base matemática media, no obstante aunque no se entienda toda la formulación, sí puede obtenerse una idea de cómo se construye el edificio matemático en que están basados prácticamente todos los modelos de universo que gozan de la máxima credibilidad en el estamento científico. El Capítulo VI estudia con carácter general las Teorías Unificadas de la Física, GTU, en su búsqueda de la misma base de la constitución de la materia. El Capítulo VII hace un resumen de la teoría Supersimétrica, adentrándose en los terrenos de la Supergravedad. En el Capítulo VIII es la popular teoría de las Supercuerdas la que ocupa nuestro interés, rematada por la teoría del Todo o la teoría M, como extensión de las propias Supercuerdas. El Capítulo II entra ya de lleno en el tema que nos ocupa, puesto que todos los conceptos usados generalmente en cosmología práctica van apareciendo. La obra termina con una breve historia de los hitos más importantes habidos en la Astronomía científica, rematada con las últimas observaciones más relevantes logradas por nuestra tecnología actual. El siguiente Capítulo, el III, está dedicado monográficamente a la Inflación, dado que la mayoría de modelos, entre ellos el estándar, la incluyen entre sus fundamentos. Inmediatamente antes, en el Capítulo IX, es ofrecido un resumen de la teoría que proponemos con las implicaciones y cuestiones que pretende resolver. El Capítulo IV nos ofrece, como ejemplos, diez tipos de modelos de mayor o menor solidez científica; aquí no entramos en su valoración, simplemente se ofrecen como forma de aproximación al abanico de ideas que se barajan en cosmología. Claro está, el modelo científico preferido es el estándar obtenido a partir de la Inflación. Una vez más es preciso aclarar al lector que la obra, con separación de las partes correspondientes a los capítulos donde se expone nuestra teoría (ya citados), por lo demás podría constituir un libro de texto con el carácter de imparcialidad que suele adornar a los mismos, como una de las características principales que avalan su utilidad. Queremos decir que su lectura no induce a la adopción de una u otra teoría, en detrimento de las demás, y es que pretende ser bastante aséptica, consecuencia, quizás, de su carácter eminentemente descriptivo. El Capítulo V está dedicado a La Astronomía Observacional, dándose en el mismo los valores más fiables de los parámetros obtenidos hasta el presente. Ya en el Capítulo VI se inicia el estudio del universo “primordial”, que según se cree tiene estrechos vínculos con el mundo submicroscópico, o de los componentes fundamentales de la Otra cosa, sin duda, aparece en la parte de la obra dedicada a la enunciación de nuestra teoría cósmica. Aquí sí 3 una continuación en la misma senda que siguieron Kaluza y Klein, y todos los creadores de las teorías unificadas. Esa extrapolación va más allá de la espuma cuántica del espacio-tiempo de Valenkin. Ni siquiera esa espuma cuántica es primordial. Antes de la “Creación”, de su aparición de la Nada, ésta última, matriz de ella, no era el vacío cuántico (por cierto tan particular y altamente “estructurado”) propuesto por las recientes teorías físicas. Hasta dicho vacío cuántico aparece casi a la vez que el mismo espacio-tiempo. El minúsculo átomo primordial, supermasivo y supercaliente, estrechamente vinculado a la incertidumbre cuántica de Heisenberg, es la expresión de las leyes físicas en su más alto grado de unificación, verdaderas constructoras de la propia espuma cuántica, con su aparición explosiva, subsiguientemente materializada en espacio-tiempo. encontramos ideas propias acuñadas bajo una filosofía de globalidad que va más allá de lo que sería una teoría física, sin que por otra parte dejemos de lado a la misma, por lo menos la teoría física más actual, adentrada en terrenos que hasta hace relativamente poco más corresponderían al dominio de la Filosofía, y hasta de la misma Psicología. Y nos estamos refiriendo a las consecuencias de la explicación del papel del “observador”, en suma de la propia mente en la “definición” de la realidad, en el llamado “colapso” de la función de ondas definido por Roger Penrose. Conceptos como la holografía, la teoría M o la multidimensionalidad, nos adentran en una teoría del Todo, definida indisolublemente junto o inseparablemente a sus partes, lo que da un carácter holístico a la Física y con ello a todo el Universo. La Nada es nada, no el vacío cuántico (falso o real). El “acto” de creación incluye el vacío cuántico, la espuma cuántica, y las siguientes fases de espacio-tiempo, materia y radiación. El “salto” desde la Nada incluye todo lo anterior, hasta el propio vacío. Una vez el “acto creativo” se produce, todo lo anterior se configura. No es necesario un vacío (cuántico) en el que aparecen universos-burbuja aquí y allá. No existe el aquí, ni el allá, ni el propio vacío sobre el que se definen. Toda definición es consecuencia de la “aparición” de la Ley Física Unificada (de la que se deducen todas las demás). Lo anterior, lo previo, es simplemente Nada. Se ha dicho que se vislumbra un horizonte en el que todo queda entrelazado, es decir, va deduciéndose de unas teorías globales, cada vez más unificadas, de forma que ya no se necesita un Creador para la creación de la materia, el espacio y el tiempo, el mismo Universo; ahora bien, sigue subsistiendo, cada vez más nítido, el papel de un “Forjador” de las propias leyes de ese Universo, y en este sentido sí existiría un Creador de leyes, creador de la base para que todo se manifieste. Nuestra teoría, como casi todo en cosmología tiene fuertes implicaciones filosóficas. El salto magistral promovido por el propio Einstein, al sustituir, al transmutar algo tan sólido, tan pétreo como las propias masa de los cuerpos y su pesadez, en luz-energía y simplemente geometría, del espacio-tiempo, se nos ha quedado insuficiente. Mejor, necesita de 4 5 CapítuloI.GRAVEDAD RELATIVISTA ∑ij=1n gij dxi dxj = ∑ij=1n gij dxi dxj 1.Teorías del espacio-tiempo Ello no ocurre si se cambia de geometría pasando, por ejemplo de una euclídea una curvada no euclídea. El tensor métrico queda cambiado en la forma: En 1984, Riemann considera espacios o variedades de un número cualquiera de dimensiones; los puntos de estas variedades quedan unívocamente determinados por n-tuplas de números reales. Si establecemos en una de tales variedades un sistema de coordenadas x1, x2,.....,xn, podemos definir un elemento de arco en n dimensiones, llamado tensor métrico mediante la fórmula: ds2 = ∑ij=1n g*ij dxi dxj Si la métrica ds2 no es euclídea, no existe ningún sistema de coordenadas en el que g*ij= diag (1,1,.....1). Resumiendo, se puede considerar una variedad riemaniana n-dimensional como una forma o esquema abstracto que podemos “rellenar” mediante distintos tensores métricos para obtener diferentes espacios geométricos concretos. La variedad n-dimensional abstracta carece de estructura geométrica (métricamente amorfa) hasta que en ella no sea definido un tensor métrico. Tal variedad abstracta, entonces, solamente posee una estructura “topológica” localmente euclídea como resultado de la utilización como coordenadas de n-tuplas de números reales. ds2= Σnij=1 gij dxi dxj (Recordemos que en coordenadas continuas, el arco adopta la forma habitual: ds2= dx12+ dx22 que en coordenadas arbitrarias adopta la forma: ds2= g11 dx12+ g12 dx1 dx2 + g21 dx2 dx1+ g22 dx22) Con la condición de simetría ( gij= gji) y ds>0 (si se renuncia a la última condición de definida positiva se obtienen métricas semirriemanianas, que tienen un papel importante en la Relatividad). Riemann nos muestra cómo definir la curvatura en tales variedades. Para el caso especial de las variedades euclídeas o “llanas” existen coordenadas en las cuales la matriz de coeficientes (gij) adopta la forma diagonal (1,1.....,1), o sea, gij=1 si i=j y gij=0 cuando i≠j. (Si la métrica es semirriemaniana y llana gij= diag (±1, ±1,.....,±1). En un espacio euclídeo n-dimensional, el nivel mínimo de estructura es la estructura métrica que corresponde a un elemento de arco dado por el teorema de Pitágoras: ds2 = dx12+dx22+.......+dxn2 (1) La citada estructura proporciona una longitud para cada curva, una distancia entre dos puntos cualquiera, una noción de línea recta y también una noción de ángulo entre dos rectas que se corten entre sí. Sin embargo, algunas de estas mismas nociones son más generales que la estructura anterior. Por ejemplo, la estructura afín, o clase de líneas rectas, dada por la condición xi= ai u+ bi (siendo Entonces, si sólo se cambia de coordenadas, de x1, x2,......xn ,a x1, x2,.xn, los coeficientes gij se transforman en los gij, y el elemento de arco se preserva: 6 ai y bi constantes, y el parámetro u recorriendo el conjunto de los números reales), es más amplia que la clase de sistemas de coordenadas que verifican (1). (Métricas distintas pueden originar una misma estructura afín). También la estructura conforme, relacionada por la noción de ángulo, es de igual forma, más general que la estructura métrica (1), puesto que si Ω es una función cualquiera con valores reales positivos definida sobre nuestro espacio, entonces ds2=Ω ds2 proporciona los mismos ángulos que ds2. Por último, el nivel más alto de estructura es justo la propia estructura de variedad: la topología de espacio localmente euclídeo n-dimensional. Topología (Estructura de variedad) Transformaciones bicontinuas arbitrarias ↑ ↑ Ángulos Transfor.conformes Líneas rectas Transfor.afines ↑ ↑ Estructura métrica Isometrías El sistema de cooordenadas: x1 = x1 – vt x2 = x2 x3 = x3 La estructura métrica queda preservada por las isometrías o movimientos rígidos, que en un espacio euclídeo tiene la forma: (3) recibe el nombre de referencia inercial; la transformación (3) se denomina galileana. x*i = ∑j=1n αij xj+ βi Las αij y las βi son ctes. Y la matriz (αij) es ortogonal; o sea, Einstein demostró que un principio de relatividad para la electrodinámica consiste en dejar intactas las leyes de Maxwell de dicha electrodinámica y modificar, en cambio, las transformaciones que definen las referencias inerciales, de la forma: ∑j αij αkj = δik =1 si i=k y 0 si i≠k (El grupo euclídeo no es más que el grupo de rotaciones y traslaciones) La estructura topológica es preservada por las transformaciones arbitrarias: t = ( t – v x1/ c2 ) / (1 – v2/ c2)1/2 x1= (x1 – vt) / (1 – v2/ c2)1/2 (2) x*i = fi (x1, x2,......xn) donde las fi son suficientemente continuas. x2 = x2 O sea, según nos movemos hacia niveles más y más generales de estructura geométrica, los grupos de transformaciones asociados se van haciendo cada vez más amplios. x3 = x3 que se denominan transformaciones de Lorentz(4). De éstas ultimas se deduce que la velocidad c de la luz, se preserva, es decir, es constante. (2) Es el grupo de las transformaciones de coordenadas admisibles (esto es, biunívocas y suficientemente continuas). Las transformaciones de Lorentz son la base de la relatividad restringida. Dicha teoría, según la interpretación geométrica 7 ° σ(u) y las Donde xi = xi Tjki(i,j,k=0,1,2,3) son funciones realvaloradas, llamadas componentes de la conexión afín D, que depende del sistema de coordenadas {xi }. Precisamente se dice que una variedad afín es llana o euclídea en un punto p cuando puede hallarse un sistema de coordenadas locales en p tal que todas las funciones Tjki se anulen. Tal sistema de coordenadas se llama sistema cartesiano o inercial, y en el se cumple: de Minkowski, que data de 1908, describe una variedad tetradimensional semieuclídea, cuyo elemento de arco viene dado por: (5) ds2 = dx02-dx12-dx22-dx32 siendo x0=ct En esta teoría las referencias inerciales son los sistemas de coordenadas cartesianas correspondientes a este elemento de arco. Las transformaciones de Lorentz preservan la forma cuadrática (5) correspondiente a ds2, desempeñando, pues, un papel análogo al de las transformaciones ortogonales euclídeas. Las trayectorias, o “líneas del mundo”, de las partículas libres son “líneas rectas” o geodésicas de la métrica (5): curvas tetradimensionales de longitud mínima, medida según ds, y que satisface la ecuación afín, xi= ai u+ bi, en todas las referencias inerciales. DTσ Tσi = d2xi/ du2 = la aceleración ordinaria. Las geodésicas verificaran: d2xi/du2 =0 , xi = ai u + bi con ai y bi ctes., es decir, las geodésicas son líneas rectas ordinarias, lo que no cumplen las variedades no-euclídeas, curvadas o alabeadas. Suponiendo que nos den una curva σ y un campo vectorial X-(p) definido sobre puntos situados sobre σ , y donde X-(p) es una selección continua y diferenciable de vectores elegidos cada uno en el espacio tangente de la variedad en cada punto p de σ, dado Tσ (campo vectorial tangente a σ ), X(p) y un punto q situado sobre σ, un operador de derivación D nos proporciona un vector (DTσ X) (q) en Tq que registra la tasa y la dirección del cambio de X(p) en q. (Conexión afín si posee las propiedades que una derivada debe tener). Pero la variedad afín anteriormente definida aún adolece de una estructura métrica, pues no se han definido, todavía, la longitud o distancia. Si σes la longitud de la curva σ(t) definida en un proceso de rectificación (resultado de dividir la curva en pequeños segmentos infinitesimales acoplados a los puntos de la misma, y sumados después) es fácil demostrar que: σ= ∫σ Tσ(T) dt siendo Tσ(T)=((dx/dt)2+(dy/dt)2+(dz/dt)2)1/2 Una variedad afín, es decir una variedad equipada con un operador de derivación (conexión afín), posee una geometría. En ella hay una clase privilegiada de “líneas rectas”, o geodésicas, que cumplen DTσ Tσ =0. Explícitamente están dadas por o en otras palabras, la longitud de una curva del espacio euclídeo tridimensional es el resultado de integrar la longitud “infinitesimal” del vector tangente Tσ (t) = (dx/dt,dy/dt,dz/dt) sobre la curva entera. DTσ Tσi = d2xi/ du2+ Tjki dxj/du * dxk/du 8 ; el ángulo α comprendido entre dos vectores X,Y de Tp, es definido como cos(α) = gp(X,Y)/XY, y la longitud de cualquier curva σ(u), mediante la fórmula: σ= ∫σTσ(t)dt = ∫σ (gσ(u) (Tσ(u),Tσ(u))1/2 du. Si nos fijamos, la cantidad que aparece en el radicando anterior es el producto escalar o producto interior euclídeo del vector tangente Tσ (t) por sí mismo. En general, el producto escalar de dos vectores X = (a1,a2,a3) e Y = (b1,b2,b3) de R3 viene dado por X*Y =a1b1+a2b2+a3b3 , y tiene las siguientes propiedades: También, una noción de geodésica geométrica, es la de una curva de longitud mínima (extremal). X*X>0 si X≠0 (positiva definida) X*V = V*X (simetría) X*Y =0 para todo Y, si y solo si X=0 (no singularidad) Si la variedad posee estructura afín (un operador de derivación) y estructura métrica (tensor métrico riemaniano), es preciso exigir que las dos nociones de geodésicas coincidan: una curva es una geodésica afín (la línea más recta) justo en el caso de que sea una geodésica métrica (la curva más corta). O sea, que la métrica g es compatible con D. Entonces, esta variedad se llama riemaniana. En el caso de que g sea semirremaniana la situación se complica algo y en general las geodésicas afines no serán extremales, aunque todas las geodésicas afines lo serán de carácter temporal o cromomorfas (caso de g(Tσ,Tσ)>0) o de carácter espacial o espaciomorfas (si g(Tσ,Tσ)<0). X*Y también, es lineal; o sea: X*(aY+bZ)=a(X*Y)+b(X*Z) donde a y b son números reales. Y el producto es lineal en ambos argumentos. Entonces, este producto escalar, forma bilineal con valores reales definida sobre el espacio tangente a cada punto de una curva, es la métrica “infinitesimal” que buscábamos. Nos proporciona una longitud para cada curva por integración c para cada vector tangente Tσ (t), y una función distancia d(p,q)= longitud de curva más corta trazada entre p y q. Dado un sistema de coordenadas {xi}, Tσ(u) se convierte en una cuaterna de funciones de valores reales (d(xi°σ)/du), y puede demostrarse que la función g(Tσ(u),Tσ(u))= gij dxi/du dxj/du donde xi=xi°σ(u) y las gij (i,j=0,1,2,3), componentes del tensor métrico, son funciones reales dependientes del sistema de coordenadas {xi}. Las componentes gij forman una matriz de 4*4. Por cada punto p, puede hallarse un sistema de coordenadas tal que la matriz anterior quede diagonalizada con todos los elementos de la diagonal iguales a ±1 en p. O sea: Es fácil generalizar todo lo anterior a otras variedades arbitrarias, no necesariamente euclídeas. Un tensor métrico riemaniano es cualquier función bilineal g(X,Y) de valores reales, definida sobre el espacio tangente en cada punto y que verifica las tres condiciones anteriores. (Si g(X,Y) sólo verifica la segunda y la tercera, recibe el nombre de tensor métrico semirriemaniano). Entonces, dado tal tensor métrico, definimos la longitud X de cualquier vector de Tp mediante la ecuación X2 = gp(X,Y) 9 ±1 0 0 0 0 ±1 0 0 (gij)= 0 0 ±1 0 = diag (±1,±1,±1,±1) 0 0 0 ±1 Si la variedad es llana, puede encontrarse un sistema de coordenadas en el que las partículas libres obedecen a la ecuación: d2xi/du2=0 (ley de la inercia newtoniana) en p. El sitema de coordenadas para el que Tjki =0 se denomina referencia inercial. El par (n+,n-), donde n+ es el número de elementos positivos de la diagonal y n- el número de elementos negativos de la misma se llama “signatura” de g. Sobre la variedad espacio-tiempo M, a cada función t que asigne números reales a los puntos de M se asocia una segunda función dt que va de los vectores tangentes en M a los números reales, tal que para cada vector tangente X, dt(x) =X t y t´ definen la misma función dt, puesto que X(t-b)=Xt. Precisamente, se dice que una métrica (semi) riemaniana es llana o (semi) euclídea en p cuando puede hallarse un sistema de coordenadas (sistema (semi) cartesiano) en torno a p tal que gij= (±1,±1,±1,±1) en un entorno de p. La función dt es también un operador lineal definido sobre el espacio tangente Tp: Dt(aX+bY)=a dt(X)+b dt(Y) cualesquiera sean los vectores X e Y de Tp, y las constantes a y b. La colección de todos estos operadores lineales definidos por Tp se denota Tp* y es el espacio cotangente en p. Los elementos de Tp* reciben el nombre de covectores, y los vectores tangentes pertenecientes a Tp se les llama contravectores. En general, a cada covector w está asociada una familia {fw} de funciones reales tales que w(X)=X(fw) para todos los contravectores X. Los números reales tales que wi= ∂ (fw)/∂xi se denominan componentes de w en {xi}. Las componentes de dt están dadas por: Entonces, sobre una variedad riemaniana llana, la fórmula correspondiente a Tσ(u) será: Tσ(u)2 =(dx0/du)2+(dx1/du)2+(dx2/du)2+ (dx3/du)2 , o sea, la fórmula euclídea en cuatro dimensiones. Tanto si el espacio-tiempo (las tres dimensiones espaciales, mas el tiempo tomado como otra dimensión) es tenido por llano como si no, todas las teorías coinciden en que las partículas libres, o sea, aquellas sobre las que no actúan ninguna fuerza exterior, siguen geodésicas de su estructura afín. En otras palabras, las partículas obedecen a la siguiente ecuación del movimiento: Ti= ∂t/∂xi=∂(t+b)/∂xi Con todo esto, la primera versión de la cinemática newtoniana es la siguiente. Se postula en la variedad espacio-tiempo M los siguientes objetos geométricos: una conexión afín D, un campo de covectores dt, un campo h de tensores métricos de tipo (2,0) (o sea, cada hp está definido DTσ Tσ = 0 Que referida al sistema de coordenadas {xi} se traducen en: d2xi/du2 + Tjki dxj/du dxk/du = 0 10 sobre Tp*×Tp*) con signatura (3,0,1) y un campo V de vectores contravariantes (V es un campo vectorial, y las curvas σ que se adaptan a V, es decir T0=V a lo largo de σ constituyen las líneas de nuestro haz. Como queremos que estas líneas tengan carácter temporal, se exige que dt(V)=1, y como también deseamos que sean geodésicas, se exige D(V)=0). Las ecuaciones de movimiento para las partículas libres toman la forma: Si K(ver en este capítulo *) es el tensor de curvatura, tendremos que los anteriores objetos “geométricos” deben cumplir las siguientes ecuaciones de campo: Una forma natural de expresar la ley del movimiento correspondiente a la dinámica de Newton es : d2xi/du2+ Tjki dxj/du dxk/du=0 y la forma ti(dxi/du)=0 para partículas arbitrarias. Que puede expresarse en la forma: d2xi/dt2 + Tjki dxj/dt dxk/dt = 0 m(d2xi/dt2+Tjki dxj/dt dxk/dt) = Fi siendo m la masa de la partícula y Fi un campo vectorial espacial. K=0 D(dt)=0 Para que los planos de simultaneidad sean llanos(euclídeos en sentido afín, es decir, la derivada covariante de dt con respecto a nuestra conexión afín D sea nula) O sea, m d2xi/dt2 =Fi , forma familiar de la segunda ley de Newton. En el campo gravitatorio F = m G, siendo G el campo gravitatorio que es el opuesto del gradiente del potencial gravitatorio Φ: G=-∇Φ ∇ es (∂Φ/∂x,∂Φ/∂y,∂Φ/∂z) D(h)=0 Condición de conexión llana. h(dt,w)=0 Para que hp sea singular y definida sobre el subespacio tridimensional “espacial” de Tp. También, el potencial Φ está relacionado con la densidad de masa ρ mediante la ecuación de Poisson: D(V)=0 ∇2Φ = 4πKρ (k es la cte.gravitatoria de Newton) ∇2 es la laplaciana tridimensional (∂2Φ/∂x2,∂2Φ/∂y2,∂2Φ/∂z2). dt(V)=1 Tales ecuaciones de campo expresadas en función de las componentes de los objetos con respecto a {xi} adoptan la expresión: Entonces las ecuaciones de campo serán: Rijkl = 0 t;j = 0 hij;k = 0 hijti = 0 vi;j = 0 t i vi = 0 k=0 D(dt) = 0 D(h) = 0 h(dt,w) = 0 del (Φ) = 4πkρ Y expresada en componentes: donde las vi son las componentes de V, las Rijkl de K. 11 Rijkl = 0 ti;j = 0 hij;k = 0 hij ti =0 hij;i;j =4πkρ En (6) puede eliminarse de ambos miembros m, obteniendose: Para la 2ª ecuación del movimiento se adopta la forma covariante de la segunda ley de Newton: Entonces, introducimos una conexión D cuyas componentes son: (7) d2xi/dt2+T°jki dxj/dt dxk/dt=-hir Φ;r (D° es la conexión llana) (8) Tjki = T°jki = hir Φ;r tj tk ir mDTσTσ = -mh Φ;r y para las leyes del movimiento: Así que la ecuación (7) puede nuevamente ser escrita en la forma: m(d2xi/dt2+Tjki dxj/dt dxk/dt)=-mhirΦ;r (6) ∂2xi/dt2+Tjki dxj/dt dxk/dt = 0 Para un sistema inercial de coordenadas {xi}, tenemos: Tjki = 0, (ti)=(1,0,0,0) y (hij)=diag(0,1,1,1) Así que la última ecuación de campo se convierte en: Por tanto, nuestras ecuaciones de movimiento pueden ser interpretadas como geodésicas correspondientes a la conexión D. Esta conexión no es llana, y en este caso el tensor de la curvatura de D está dado por: ∂2Φ/∂x12+∂2Φ/∂x22+∂2Φ/∂x32=4πkρ Rijkl = 2 tj hir Φ;r;(ktl) 2 o sea ∇ Φ = 4πkρ El “tensor de Ricci” de la conexión D está dado por: En el espacio libre, se tiene ρ=0 y del(Φ) =0, que en sistemas inerciales se reduce a: Rjk = Rajka = -har Φ;a;r tj tk 2 ∇ Φ=0 y al comparar esta expresión con la ecuación de Poisson anterior del (Φ) = 4πkρ , la ecuación de Poisson, ahora equivale a : Rjk = -4πkρ tj tk que en el espacio libre se reduce a Rjk = 0. En los sistemas inerciales las ecuaciones del movimiento se convierten en: m d2xi/dt2 = -m ∂Φ/∂xi (2ªley de Newton) Ahora intentaremos “eliminar por vía geométrica” las fuerzas gravitatorias en el contexto de la teoría newtoniana, haciendo que el potencial gravitatorio quede incorporado a la conexión afín. El método es construir un nuevo operador de derivación D, que esta vez no sea llano, afirmando que las partículas que caen libremente, es decir, que tan sólo están afectadas por la gravitación, sigan las geodésicas de D. Entonces las ecuaciones de campo expresadas en sus componentes quedan: ti;j = 0 hij;k = 0 hijti = 0 Rjk = -4πkρ tj tk T(aRij)kl = 0 hia Rjkal = hja Rilak 12 y para las ecuaciones del movimiento: ; t puede utilizarse como parámetro para cualquier curva temporal, y en un sistema inercial {xi} se puede escribir las ecuaciones de la misma de la forma xi(t) = xi o σ(t). Así que hay dos tipos de tiempo asociados a la trayectoria de una partícula: el tiempo independiente del sistema de coordenadas, o tiempo propio τ, y el tiempo dependiente de las coordenadas, o tiempo coordenado t. d2xi/dt2+Tjki dxj/dt dxk/dt = 0 La cinemática de la relatividad especial es de una gran sencillez. Se tienen sólo dos “objetos” geométricos: una conexión afín D y un tensor métrico g de tipo (0,2) y signatura (1,3) (signatura característica de una métrica lorentziana). Se tienen dos ecuaciones de campo: Igualmente hay dos tipos de vectores velocidad: la velocidad propia u, de componentes ui = dxi/dτ y la velocidad v según coordenadas de componentes vi = dxi/dt. K=0 D(g) = 0 Estas ecuaciones expresan que el espaciotiempo de Minkowski es una variedad llana y semirriemaniana. Las ecuaciones del movimiento exigen que todas las partículas describan curvas temporales y que las partículas libres tracen geodésicas temporales: Como τ(t)=∫ta (gij dxi/dt dxj/dt dt)1/2 dτ/dt=(gij dxi/dt dxj/dt)1/2 = ((dx1/dt)2+(dx2/dt)2+(dx3/dt)2 )]1/2 [1- O sea: dτ/dt = (1-v2)1/2 ;y como ui =dxi/dτ =(dxi/dt)/(dt/dτ) tenemos como componentes de u: u0 =dx0/dτ = 1/(1-v2)1/2 ui =vi/(1-v2)1/2 = vi/(1-v2)1/2 (i=1,2,3) ;siendo las vi las componentes de la velocidad tridimensional v. DTo To = 0 Y en sus componenetes, las ecuaciones de campo adoptan la forma: Rijkl = 0 gij;k = 0 La ley del movimiento de la dinámica newtoniana es: y las ecuaciones del movimiento: d2xi/ dτ2+Tijk dxj/dτ dxk/dτ = 0 m (DTσ(t) Tσ(t)) = F ;donde F es un campo vectorial espacial, t cualquier función tiempo (dt(X)=Xt para todo t) y m la masa de la partícula. En un sistema inercial {yi}, una geodésica temporal σ(t) verifica las ecuaciones: d2 (xi°σ)/dτ2 = 0 . Las soluciones son xi= aiτ+bi , siendo ai y bi constantes. Por consiguiente, t = x0 = a0τ+b0 es un parámetro afín sobre geodésicas temporales. Dado que en sistemas inerciales se verifica Tijk = 0, las geodésicas temporales cumplen: La correspondiente relativista es : de la dinámica m0 (DTσ(τ) Tσ(τ)) = F ; donde F es un campo vectorial espacial ortogonal a Tσ , τ es el tiempo propio y m0 es la masa en reposo de la partícula. d2xi/dt2 = 0 13 En sistemas inerciales de coordenadas, la ecuación anterior se convierte en: Si definimos la masa relativista como m=p/v se encuentra m = m0/(1-v2)1/2. (En todos estos cálculos se ha considerado c=1). m0 d2xi/dτ2 = Fi ; o también d (m0 ui)/dτ = Fi , donde ui es la velocidad propia dxi/dτ. El vector tetradimensional pi=m0ui es el análogo relativista del momento clásico. Encontramos que pi puede expresarse en la forma: (9) p0=m0/(1-v2)1/2; siendo i = 1,2,3. Si se define la energía relativista mediante la ecuación dE/dt = v dp/dt , se encuentra E=m0/(1-v2)1/2 + E0. Si E0 se hace igual a cero, la energía relativista será E= m0/(1-v2)1/2 =m. (10) pi=m0vi/(1-v2)1/2 Comparando (9) y (10) se observa que el vector tetradimensional pi tiene componentes (E, p) donde p es el vector tridimensional de momento relativista; por ello el vector pi recibe el nombre de vector energía-momento. La cantidad p = m0v/(1-v2)1/2 es la magnitud del momento relativista tridimensional. 14 gravitatorio, y una ecuación que ponga en relación a un objeto geométrico que represente la curvatura del espaciotiempo, con un objeto geométrico que represente la fuente de ese campo gravitatorio. En la teoría newtoniana nos servimos de la densidad de masa ρ como fuente del campo gravitacional, pero también puede considerarse como variable “fuente” al tensor momento P = ρ (u⊗u), donde u es el campo vectorial de velocidad de la distribución de masa. El homólogo relativista de este tensor es el tensor energía-momento. Pero, si la energía mecánica de nuestra distribución de masa sirve como fuente para el campo gravitatorio, también pueden serlo otras formas de energía, lo que llamamos el tensor esfuerzo-energía T, que da cabida al energía-momento de nuestra distribución de masa, así como a cualesquiera otras formas de densidad de energía. 2 . Relatividad General Es una teoría de la gravitación formulada en el contexto de las concepciones del espacio y tiempo propias de la relatividad especial. La teoría gravitatoria da cuerpo a las concepciones newtonianas del espaciotiempo en virtud de su tiempo absoluto dt y su métrica espacial h. Para preservar el espacio-tiempo relativista, se reemplaza el tiempo y la métrica anteriores por la métrica g relativista. Puesto que esta última es no-singular, nuestro espaciotiempo es una variedad semirriemaniana. Luego la métrica g y la conexión curva D no pueden desempeñar roles independientes; por el contrario, la condición D(g) = 0 implica: Tjki={jki}=1/2gir(∂grk/∂xj+∂grj/∂xk-∂gjk/∂xr) (Esta ecuación constituye la definición clásica de una conexión semirriemaniana. Los números del 2º miembro de la misma están habitualmente denotados por los símbolos de Christoffel “{jki}”. A una conexión semirremaniana le están asociados cierto número de otros tensores importados. En primer lugar el tensor de Ricci, Ric = tr13 K, de componenetes Rjk = Rmjkm. En segundo lugar el escalar de curvatura, R = tr11 G*i Ric, también dado por R = gmn Rmn ). La comparación con la teoría newtoniana induce a pensar que el tensor de Ricci es el objeto geométrico apropiado para la representación de la curva del espaciotiempo. La ecuación de campo gravitatoria debería poner en relación el tensor de Ricci con el tensor de esfuerzoenergía. La relación más sencilla posible sería la de proporcionalidad, Ric = χ T, pero como T es la densidad de masa y energía total, queremos que satisfaga la ley de conservación div (T) = 0, por lo que deberíamos buscar un tensor conservativo construido a partir del tensor de Ricci. Este tensor existe, es el tensor de Einstein, ζ = G*1 G*2 Ric –1/2 R g*, que verifica div (ζ) = 0, y cuyos componentes son ζij = gim gjn Rmn–1/2 gijR De la segunda identidad de Bianchi (a saber, Rijkl;m+Rijmk;l +Rijlm;k =0) se deduce, por contracción, que ζ es conservativo : div (ζ) = 0. Lo anterior es igualmente cierto en relatividad especial. La métrica g, al igual que la conexión D es no-llana, es decir, no existen, en general, sistemas de coordenadas en los cuales (gij )= diag (1, 1, -1, -1), no obstante, sí podemos tener esto en cualquier punto dado p ∈M en tanto que g conserve signatura {1,3}. Nuestro problema consiste en dar una ecuación de campo para el campo 15 El escalar de curvatura,R, está dado por R = gab Rab. Tomamos, pues, como ecuación de campo la ecuación ζ = χ T, y para que sea posible deducir como límite la teoría newtoniana se hace χ = -8π k, donde k es la constante gravitatoria newtoniana. En el espacio libre (11) se reduce a Rjk=0, igual que en el caso newtoniano. Esta teoría tiene,pues, tres objetos geométricos: una conexión afín D, un tensor métrico semirremaniano g de signatura {1,3} y un campo de tensores simétricos T de tipo (2,0). Rjk –1/2 gjk R +Λ gjk = -8πk Tjk que es la ecuación de Einstein con término cosmológico Λ. En las fórmulas anteriores puede incluirse una constante Λ de pequeño valor, en la forma: Las ecuaciones del campo newtoniano pueden reescribirse como: Hay dos ecuaciones de campo: G*1 2 Rjk = -4πk Pjk porque Pjk =Tja Tkb Pab = ρtj tk lo que permite considerar el tensor momento P como fuente del campo gravitatorio. * G* Ric –1/2 R g = -8πk T D (g) = 0 La ecuación del movimiento es la ley geodésica: DTσ Tσ = 0 Puede demostrarse que la ecuación anterior newtoniana, puede ponerse en la forma: Y en términos de componentes: Rjk = -8πk (tja tkb Pab –1/2 tjk tab Pab) (12) Rjk –1/2gjk R = -8πk Tjk Por otra parte la ecuación (11) relativista en forma explícita es : Gij;k = 0 donde Rjk = gja gkb Rab y 2 2 Rjk =-8πk (gja gkb Tab–1/2 gkk gab Tab) (13) Tijk d xi/dτ + dxj/dτ dxk/dτ = 0 siendo τ, desde luego, el tiempo propio. (13) sólo se diferencia de (12) en que la métrica temporal tjk ha sido reemplazada gjk del espacio-tiempo, y en que en el tensor momento Pab ha sido reemplazado por el tensor energía-esfuerzo total Tab. Así, pues, la relatividad general consiste meramente en teoría newtoniana de gravitación más relatividad especial. Podemos bajar los índices para obtener: (10) Rjk – ½ gjk R = -8πk Tjk donde Tjk = gja gjb Tab Multiplicando ambos miembros de la ecuación anterior por gik, hallamos que R =8πk T , donde T = gab Tab. (*) Por último decir que el tensor de curvatura Riemann-Christoffel es un campo tensorial de valores reales y clase C∞, de tipo (1,3), tal que: Sustituyendo en (10), se obtiene: Rjk = -8πk (Tjk –1/2 gjk T) (11) Kp (wp; xp,yp,zp) = wp[R(yp,zp) xp] 16 Expresadas en un sistema de coordenadas, {xi}, las componentes de Tor (X,Y) están dadas por: Ya hemos dicho que en relatividad general el espacio-tiempo es considerado una variedad riemaniana, cuya invariante fundamental, el intervalo de universo, puede expresarse también en la forma: ai bj [ Tkij - Tkji] donde X =ai (∂ /∂xi) e Y = bj ( ∂ /∂xj). Por tanto, D es simétrico si y sólo si Tkij = Tkji ds2 = Gµν dxµ dxν dondeµ,ν = 1,2,3,4 Las componentes del tensor de curvatura Riemann-Christoffel son: Gµν es el tensor métrico que representa los “potenciales de gravitación”. Rijkl = k (dxi; ∂ /∂xj, ∂ /∂xk, ∂ /∂xl) = ∂Tijl/∂xk -∂Tijk/∂xl+Tmjl Timl- Tmjk Timl y esta ecuaciín constituye la definición clásica del tensor de curvatura. Dijimos que la ecuación de Einstein se escribía en la forma Gµν = χ Tµν , donde el tensor métrico Gµν, aquí es el llamado tensor de Einstein que contiene la parte geométrica. Tµν representa el contenido material y χ es una constante. La importancia del tensor de curvatura reside en que puede demostrarse que existe un sistema de coordenadas en torno a p∈M, en el cual las componentes de la conexión afín se anulan si y solamente si el tensor de curvatura se anula en p. En tal sistema de coordenadas, la condición de las geodésicas: Cartan demostró que la forma más general de Gµν, conservándose la energía y para que la aproximación de primer orden sean las ecuaciones mecánicas de Newton, es: Gµν = Rµν -1/2 Gµν(R-2Λ) d2xk/du2+dxi/du dxj/du Tkij = 0 donde Rµν es el tensor de Ricci de la variedad, R la curvatura escalar y Λ la llamada constante cosmológica, propuesta por Einstein, citada con anterioridad. Λ realmente restringe la teoría, por ello muchas veces se ha supuesto nula. se convierte en d2xk/du2 = 0 Luego, si el tensor de curvatura se anula en p, existe un entorno de p en el cual la conexión afín se comporta de igual modo que la “derivada direccional” euclídea ordinaria. Por ello, esa región A⊆M o entorno en el cual se anula el tensor de curvatura se le da el nombre de llana o semieuclídea. El término Tµν o tensor material (energíaesfuerzo) es tomado normalmente en cosmología como el correspondiente a un fluido perfecto: Una vez introducidos en los aspectos teóricos de la relatividad general es conveniente realizar un enfoque más práctico del tema que nos ocupa, que es la aplicación de aquella en cosmología. En este enfoque es más idóneo cambiar de notaciones para hacerlas más sencillas al lector dotado de menor bagaje matemático. Tµν = (ρ c2+p) Uµ Uν -p Gµν Donde: ρ es la densidad en reposo c la velocidad de la luz p la presión Uµ la cuadrivelocidad Uµ =dxµ/ds 17 Para obtener las ecuaciones de los modelos cosmológicos ortodoxos Gµν suele deducirse de la siguiente métrica en coordenadas cilíndricas: Y el desplazamiento espectral: Z = (λ0 - λ1)/λ1 = R0/R1-1 ds2= c2dt-R2(t)dr2/1-kr2+r2(dθ2+sen2θdϕ2) Como siempre se encuentra (para objetos alejados) que Z>0, se deduce que R0>R1; en otras palabras, el universo se expande. ;donde R(t) es el llamado factor de escala. K sería una constante conectada a la curvatura espacial y que puede valer 0 (universo plano) y ±1. Entonces, las ecuaciones de Einstein en forma explícita quedan: 8πp = -k/R2-R2/R2-2R¨//R+1 8/3 πρ =k/R2+R2/R2+Λ/3 ρR3 = cte. Siendo R la derivada de R respecto del tiempo y R¨ la derivada segunda de R respecto del tiempo. 2 Como para la luz ds = 0, entonces: dt2/R2(t) = dr2/1-kr2. Si se considera al observador en (0,t0) y la fuente luminosa en (r1,t1), la relación entre frecuencia emitida por la fuente y la recibida por el observador será: ν1/ν0 = δ t0/δ t1 = R(t0)/R(t1) = R0/R1 18 19 Capítulo II. *El de distancia-luminosidad, dado por: CONCEPTOS COSMOLÓGICOS dL = (L/4πl)1/2 ; donde L es la luminosidad intrínseca y l la recibida. También puede expresarse por: 1.Parámetros dL = R02 r1/R1 = r1 R0 (1+z) ; y desarrollando R(t) alrededor de R0 se obtiene: *El de densidad: Ω0 = 8π G/3 H02 ρ = ρ0/ρc ;y donde ρc = 3H02/8πG se conoce como densidad crítica, al ser el valor frontera entre los modelos cerrados y los abiertos. G es la cte. de Newton. R(t)=R0[1+R0/R0 (t-t0)+R0¨/2R0 (t-t0)2+..] Definiendo H0 = R0/R0 (relación de Hubble) y q0 = (R0¨-R0)/R02 (parámetro de deceleración), se obtiene: *El de presión: dL = [z+(1-q0)/2 z2+....]/H0 ε =p/ρ ; que en muchos casos se toma como nulo. 2.Estimación de distancias *El de tiempo T, definido por: Realmente son muchas las técnicas utilizadas por los astrónomos para resolver el problema de algo tan importante como la distancia a que se encuentran situados los distintos objetos celestes. T = H0 t ; donde H0 es la constante de Hubble y t el tiempo transcurrido desde el inicio de la expansión. Cuando p = 0 resulta: A continuación relacionaremos algunos que requieren una calibración, es decir, conocer de algún modo las propiedades de los objetos implicados. T = ∫10 dy/ [(Ω/2-q) y2+Ω y-1 q+1-3Ω/2]1/2 Los anteriores parámetros no son todos independientes. Para p = 0, sólo tres individualizan cada uno de los modelos cosmológicos. El primer método es el uso de estrellas pulsantes como candelas estándar. Las Cefeidas son estrellas bastante jóvenes, de masa entre 2 y 10 masas solares, y además pulsantes, con períodos de varios días. Su nombre proviene del miembro más brillante de esta clase, la Delta Cephei. Su pulsación se debe a las zonas de hidrógeno y helio ionizado existentes cerca de su superficie. Este último hecho fija aproximadamente la temperatura de la estrella, produciendo una franja de inestabilidad en el diagrama H-R. Ahora bien, hay, que se sepa, dos Con p = 0, las relaciones más importantes entre parámetros son: Λ = -3 H2 (q Ω/2) k c2 = H2 R2 (3Ω/2-q-1) ; y si se toma Λ = 0: q = Ω/Z k = H2 R2/ c2 (2q-1) y sólo habría dos parámetros independientes. 20 amplitudes por debajo de dos magnitudes. Están en cúmulos globulares; son de baja metalicidad y al parecer tienen todas la misma luminosidad. Puesto que las masas de las RR Lyrae están predeterminadas por las masas de las estrellas que van saliendo de la secuencia principal, la constancia de la luminosidad parece deberse a las similitudes en la edad de los cúmulos globulares. grupos de cefeidas: las clásicas, con amplitud elevada y representación de la magnitud frente al tiempo (curva de luz) asimétrica, y las cefeidas-s con amplitud moderada y curva de luz simétrica. Las estrellas crecen y se enfrían, disminuyendo posteriormente su tamaño mientras se van calentando. Es decir, las Cefeidas son más brillantes cerca de su tamaño mínimo. Al ser la temperatura aproximadamente la misma, su luminosidad determina el tamaño de la cefeida. Como un objeto pulsante tiene un período de oscilación más largo cuando posee mayor tamaño, debe haber una relación período-luminosidad para las Cefeidas. Si, por ejemplo, dos cefeidas poseen períodos de oscilación que difieren en un factor dos, la de mayor período es 2,5 veces más luminosa que la del período más corto. La facilidad de medir el período de una estrella variable, hace de las Cefeidas una valiosa herramienta para determinar la distancia a las galaxias. Además, al ser tan brillantes las Cefeidas pueden usarse hasta para calcular distancias de galaxias pertenecientes al cúmulo de Virgo. El problema reside en la calibración de la relación período-luminosidad, que se realiza usando Cefeidas localizadas en la Nubes de Magallanes o en cúmulos estelares cuyas distancias se determinan por ajuste de la secuencia principal del cúmulo. Se piensa que la calibración podría depender de la abundancia de metales en la Cefeida, que seguramente es mucho menor en la Gran Nube de Magallanes. El segundo método de medición de distancias se basa en la función de luminosidad de las nebulosas planetarias. Estas son estrellas que han evolucionado a través de gigante roja y gigante roja asintótica, habiendo expulsado sus capas externas de hidrógeno sin fusionar, lo que forma una nebulosa ionizada que rodea a una estrella central pequeña de elevada temperatura. Estas últimas emiten grandes cantidades de luz en la línea del espectro de 501 nm del oxígeno dos veces ionizado (O III) que permite su fácil identificación. Las nebulosas planetarias más brillantes parecen tener el mismo brillo en muchas galaxias, por ello sus flujos pueden ser usados como indicadores de distancia. Otro método posible en el problema que nos ocupa es utilizar las estrellas más brillantes de una galaxia para estimar la distancia de toda la galaxia. Est es debido a que se asume en general que existe un límite superior fijo al brillo de las estrellas, hipótesis algo débil pero que puede subsanarse si existe en la galaxia una población suficientemente grande de estrellas brillantes. Otro método, igualmente de escasa fiabilidad, es el de la utilización de la ionización del gas hidrógeno existente alrededor de las estrellas muy calientes y luminosas, lo que se denomina una región de H II como la nebulosa de Orión. El También se aplica el mismo método utilizando las estrellas RR Lyrae que, de igual modo, son pulsantes variables como las Cefeidas. Estas estrellas poseen una masa pequeña, de unas 0,8 masas solares, con períodos cortos entre 0,2 y 1,2 días y 21 Uno es el de la utilización de la relación Tully-Fisher. Y es que la velocidad de rotación V(rot) de una galaxia espiral puede utilizarse como indicador de su luminosidad L. Se observa que: diámetro de las mayores regiones H II en galaxias se ha utilizado como una “vara” de medir distancias. El siguiente método que también requiere calibración es el de la utilización de Supernovas de tipo I. Éstas son explosiones de enanas blancas situadas en sistemas binarios de estrellas. La acumulación o acreción de materia que se produce desde la estrella compañera hace que la enana blanca llegue a alcanzar el límite superior de masa llamado de Chandrasekhar donde pierde su estabilidad, empezando a colapsar. La compresión propicia la combustión del carbono de forma explosiva, originándose la destrucción total de la estrella. La radiación emitida tiene su origen principalmente en la descomposición radiactiva del níquel y cobalto producidos en la explosión. El pico en la luminosidad puede determinarse con un error menor del 20%. Este método ha servido para que el telescopio Hubble haya obtenido una de las mejores medidas de la constante de Hubble, que estudiaremos a continuación. L = constante×V(rot)4 La velocidad rotacional se mide un espectrógrafo óptico radiotelescopio. Entonces, si medir el flujo F, la distancia calcularse mediante la relación: mediante o un podemos D puede L = F 4π D Otro método de este tipo es el que se basa en la relación Faber-Jackson que utiliza galaxias elípticas. La dispersión de velocidades estelares en las mismas, σ(v), – raíz cuadrada del promedio del cuadrado de las velocidades estelaresviene relacionada con la luminosidad por la expresión: L = const.×σ(v)4 De igual forma que antes, la medición de la dispersión efectuada por un espectrógrafo óptico (medición de la luminosidad), junto con medidas de flujo, nos permite estimar las distancias. Por último, otro método con calibración emparentado con el de la luminosidad de las nebulosas planetarias, es el de la medida de las fluctuaciones estadísticas del brillo superficial de las galaxias cuando éstas están tan lejanas que es imposible detectar sus estrellas individuales. Una galaxia cercana podría tener ±10% de fluctuaciones en el brillo superficial (100 estrellas por pixel), y una lejana sólo un 3% (1000 estrellas por pixel). Por último, al igual que en el método de estrellas más brillantes, las galaxias más brillantes de un cúmulo de galaxias se han utilizado como fuentes luminosas estándar; pero igualmente la fiabilidad del método es baja. Como tercer bloque de métodos para la medida de las distancias están los que no requieren calibración. Otro bloque de métodos para evaluar distancias utiliza propiedades globales de las galaxias y también necesitan calibración. El primero de ellos se basa en el retraso temporal que se produce en las “lentes gravitatorias”. 22 Si se considera que la anchura a lo largo de la línea de visión es la misma que el diámetro del cúmulo, la distancia puede inferirse a partir del diámetro angular del cúmulo. Y es que cuando se observa un cuásar a través de lo que se llama una lente gravitatoria, que es la deflexión (desviación) de la luz por el efecto gravitatorio de una galaxia o cúmulo de ellas interpuesto en la línea de visión del observador, pueden verse múltiples imágenes del mismo cuásar. Los caminos que sigue la luz hasta nosotros tienen longitudes que difieren en una cantidad dependiente de la distancia al cuásar y el ángulo de deflexión. Al presentar los cuásares variaciones de luminosidad, la observación de las diferencias temporales en variaciones particulares de la luminosidad de la fuente producida en variadas imágenes, sirve para calcular la diferencia de dichas longitudes. Como es fácil deducir de lo anterior esta última técnica es harto complicada y sólo ha permitido estimar unas pocas distancias. 3.Constante cosmológica Cuando Einstein construyó la teoría de la relatividad general se suponía que el universo era estático. Entonces la gravedad de la materia y la energía conducirían a un colapso del universo. Einstein suponía tal aserto como inaceptable físicamente, por eso introdujo un término con una constante cosmológica que se oponía a la fuerza de atracción de la gravedad. Más tarde Edwin Hubble descubrió que las galaxias parecen alejarse con respecto a nosotros, así que el universo actualmente está expandiéndose. Estas observaciones provocaron que Einstein afirmara que la introducción de esta constante cosmológica fue el mayor error de su vida, y subsiguientemente fue sacada de las teorías cosmológicas. El segundo se basa en el efecto SunyaevZeldovich, que se produce cuando el gas caliente situado en los cúmulos de galaxias distorsiona el espectro de la radiación cósmica de fondo. Los electrones libres del gas dispersan una pequeña fracción de los fotones del fondo de microondas, sustituyéndolos por fotones algo más energéticos. Sólo un 1% de los fotones que pasan por el cúmulo son dispersados por los electrones pertenecientes al gas caliente ionizado del mismo, y el aumento de energía de aquellos es de, únicamente, el 2%. Por ello se observa una carencia de fotones de baja energía del orden de 0,02% (0,01×0,02), observada como una reducción de la temperatura de brillo de unos 500 micro K. A frecuencias altas el resultado es que el cúmulo aparece más brillante que el fondo. Hay razones para creer, sin embargo, que la constante cosmológica puede, todavía, ser aplicada en cosmología. Hoy es mayoritaria la opinión de que el universo estuvo durante un tiempo en una expansión rápida, la llamada inflación, en un período temprano de su historia. Esta inflación actuaría allanando el universo y haciéndolo geométricamente plano. Matemáticamente, esto produce una Ωtotal muy cercana a uno, lo que origina problemas que la constante cosmológica puede remediar. Cuando los astrónomos miden la cantidad de materia y energía El efecto anterior es proporcional a la densidad de electrones libres, el grosor del cúmulo en nuestra línea de visión y la temperatura de los electrones. 23 homogeneidad e isotropía en el universo es la métrica de Robertson-Walker: del universo, obtienen sólo un 30% de la que se necesitaría para que el universo fuese plano. La constante cosmológica podría “aportar” la masa necesaria para que el universo fuese plano. Incluso si la inflación es errónea y no hay razones para creer que el universo es espacialmente plano, hay todavía un problema aparente con la edad del universo. La edad obtenida de un universo abierto con la cantidad de materia observada y sin constante cosmológica es más joven que la edad de las estrellas más viejas, lo que no puede ser. Sin embargo, un universo plano con materia y constante cosmológica es un universo mucho más viejo, incluso más viejo que las estrellas más antiguas. ds2= c2dt2-a2(t) [dx2+f(x)2(dθ2+sen2θdρ)] f(x) describe la geometría espacial del universo, parametrizada por la constante k de curvatura: sen(kx)1/2/(k)1/2 k>0 f(x) = x k =0 sen(kx)1/2/(k)1/2 k<0 Para k<0 la geometría espacial del universo es abierta. Para k = 0 el universo es plano. Para k>0 el universo es cerrado. Las coordenadas x,θ y ρ son coordenadas “comóviles”. Un sistema de coordenadas comóviles se expande en el universo. Por tanto, la distancia comóvil entre dos puntos permanece constante durante la evolución del universo. Sin embargo, la distancia física entre dos puntos cambia cuando el universo se expande. Es el factor cósmico de escala quien relaciona las coordenadas comóviles con las distancias físicas, a través de la relación; d= a x. Con la métrica definida con coordenadas comóviles, la evolución del tiempo del universo es descrita por la evolución del tiempo del factor de escala cósmica. Si el factor de escala cósmica crece con el tiempo cuando el universo se expande, también disminuye con el tiempo si y cuando el universo colapsa. Otra razón para esperar una constante cosmológica es la existencia de una energía mecánico-cuántica del vacío. La mecánica cuántica predice que el vacío no está realmente vacío, sino que tiene una cantidad de energía asociada. Desde que la relatividad general establece que todas las formas de materia y energía producen gravitación, debemos asociar la constante cosmológica con la energía del vacío. El emparejamiento de energía del vacío y gravedad no es inaudito, la teoría inflacionaria cuenta con una influencia gravitacional de la energía del vacío. Todas estas razones mantienen vivo el interés actual por la cte. cosmológica. Las observaciones demuestran que el universo es homogéneo e isótropo a grandes escalas. Esto significa que no hay un centro o dirección únicos en el universo. En la relatividad general la forma del espacio-tiempo está descrita por una ecuación métrica. La forma general de la ecuación métrica que satisface las condiciones de Una de las ideas básicas en relatividad general es que la materia y la energía actúan curvando el espacio-tiempo. Es la ecuación de campo de Einstein la que lo describe matemáticamente: Rij-1/2 R gij-λ gij =8πG/c4 Tij Donde, gij representa la métrica, Rij es el tensor de Ricci (que deriva esencialmente 24 de la métrica), R el radio de curvatura del espacio-tiempo, λ la constante cosmológica, G la constante gravitatoria y Tij el tensor energía-esfuerzo. El tensor energía-esfuerzo, como dijimos en párrafos anteriores, describe la distribución de la materia y la energía, con su densidad y presión. Por tanto, dando una distribución de materia y energía, las ecuaciones de campo gobiernan la forma del espacio-tiempo (por ejemplo, la métrica). La inclusión del término de la constante cosmológica en esta ecuación depende, desde luego, de si es cero o no. Una de las ecuaciones de campo puede ser presentada en forma parecida a la ecuación newtoniana del potencial de gravitación, sin embargo, con un ingrediente extra: materia y la energía, excepto que es una presión negativa. El efecto neto de una cte. cosmológica positiva es que crea una fuerza gravitacional de repulsión. Esta repulsión actúa expandiendo el universo. La densidad de energía del vacío es diferente de la densidad de materia y energía en otro sentido. Cuando el universo se expande la materia y la energía se expanden sobre un mayor espacio físico, y entonces la atracción gravitatoria disminuye. Para la energía del vacío, sin embargo, el trabajo P dV del vacío realizado durante la expansión adiabática provee exactamente la cantidad de energía necesaria para llenar el nuevo volumen a la misma densidad. Por tanto, la constante cosmológica permanece constante y su repulsión gravitacional (o atracción) nunca cambian durante la evolución del universo. ∇2 φ = 4πG(ρ+3p/c2) El ingrediente añadido es que, dentro de la densidad la presión contribuye al potencial gravitacional, y esto es un efecto puramente relativista. Es justamente porque la presión también contribuye a la gravedad por lo que la inclusión de la constante cosmológica es interesante. Si las ecuaciones de campo son reescritas de forma que la constante cosmológica aparezca a la derecha de la ecuación, el término de la constante cosmológica puede ser asociado a una densidad de vacío: De la métrica de Robertson-Walker y las ecuaciones de campo de Einstein, se deriva la siguiente ecuación del movimiento: H2 = (1/a da/dt)2 = 8πG ρ/3+λ/3-k/a2 Porque el término de la cte. cosmológica es proporcional a la métrica, la presión asociada con el vacío es dada por la relación: Donde H es la constante de Hubble, a es el factor de escala cósmica, ρ la densidad de la materia y la radiación, λ la constante cosmológica y k la constante de curvatura. Ésta ecuación es generalmente denominada ecuación de Friedman (originalmente escrita sin el término de la constante cosmológica, como lo es en la actualidad). La ecuación de Friedman describe la evolución temporal del factor de escala cósmica, o tamaño del universo. Con las siguientes definiciones: Pvac = -ρvac c2 Ωmo = 8πG ρmo/3H02 Ωλo = λ/3H02 Así, la comporta Ωko = -k/H02 movimiento queda: λ = 8πG ρvac constante cosmológica se gravitatoriamente como la 25 la ecuación del (da/dt)2 = H02 (Ωmo/a +a2 Ωλo+Ωko) compatible con la edad de las estrellas más viejas. Donde el 0 representa cantidades medidas en la actualidad, y a se normaliza de forma que es igual a uno hoy. Se tiene en cuenta la contribución de la materia exclusivamente, puesto que la de la radiación en la actualidad es menor de 10-5. La inclusión de la radiación sólo es importante en la evolución del temprano universo. De las definiciones anteriores se ve claramente que: Recientemente, este problema parece encontrar alguna solución a partir de los resultados del satélite Hipparcus. Ambos, la edad de los racimos o enjambres globulares y la edad del universo (a través de H0 ) depende de la escala de distancia usada. Hipparcus ha revisado la escala de distancia midiendo el paralaje de las estrellas Cefeidas más cercanas. Esta revisión ha ajustado el valor de la constante de Hubble alrededor de 60 km/s/Mpc, dejando la puerta abierta a un universo plano, con una edad de 13 a 11 billones de años. Con esta corrección la edad de los enjambres globulares baja por debajo de los 10-14 billones de años Entonces, quizás el problema de la edad pudiera no existir, así que la constante cosmológica pudiera no ser necesaria. Ωmo+Ωλo+Ωko = 1 Es útil definir la cantidad: Ωtotal, 0 = Ωmo+Ωλo = 1-Ωko Si Ωtotal, 0 <1 el universo es espacialmente abierto, si Ωtotal,0 = 1 el universo es espacialmente plano, y si Ωtotal,0 >1 el universo es espacialmente cerrado. Por otro lado, la luz con la más alta desviación hacia el rojo puede presentar el “efecto lente” debido a altas concentraciones de masas tales como galaxias y enjambres de galaxias. El efecto lente produce múltiples imágenes del mismo objeto. Una constante cosmológica afecta la geometría y evolución del universo y ambas hacen de la estadística de las lentes una técnica potente para limitar el valor de la constante cosmológica en nuestro universo. Las altas desviaciones hacia el rojo de los cuásares proveen una buena fuente para el estudio del efecto lente, ya que están situados a distancias cosmológicas; y la gran masa de las galaxias elípticas son buenas lentes. Aunque el efecto lente es sensible al valor de la constante cosmológica, hay varias incertidumbres en la determinación del número absoluto y especificaciones en las expectativas del efecto lente en un modelo cosmológico dado. Se debe La astronomía observacional posee varios métodos para constreñir el valor de la constante cosmológica en nuestro universo, ya que la geometría del espacio y el pasado de la evolución del universo son afectados por la presencia de la constante cosmológica. Si se asume que el universo está hecho puramente de materia (Ωmo<0,3) entonces el universo tiene una edad de unos 10-13 billones de años. La situación es peor si se requiere un universo plano: en ese caso la materia dominaría el universo (Ωmo=1), y el mismo tendría sólo 8-11 billones de años. Sin embargo, un universo plano con materia al nivel observado (Ωmo≅0,3) y una constante cosmológica, transformaría la edad en 12-16 billones de años que es 26 conocer la distribución de las galaxias “lentes”, su densidad espacial, el potencial de las lentes, y la evolución con el desplazamiento al rojo en orden a calcular la “profundidad óptica” de la lente de una fuente. Todas estas incertidumbres pueden producir errores de hasta un factor dos en las predicciones teóricas de las lentes. Sin embargo, todo esto no es tan malo puesto que las predicciones de los diferentes modelos pude diferir en un orden de magnitud (para los universos planos Ωλo =1 predice 10 veces más efecto lente que uno con Ωλo =0). Entonces, esta técnica ofrece un camino viable para limitar el valor de la constante cosmológica. Por ejemplo, Kochanek en 1996, basado en este método, ha encontrado para un valor menor de o,66 con una fiabilidad del 95%. Para universos con Ωλo =0 encuentra Ωmo>0,2 con el 90% de fiabilidad. los parámetros cosmológicos como H0, Ωmo, Ωλo pueden ser determinados sin ambigüedad. En la práctica, sin embargo, es difícil encontrar un conjunto de objetos no sujetos a efectos evolutivos, por ejemplo no todos tienen el mismo tamaño y brillo. No obstante, sí hay una elección de objetos que parecen libres de efectos evolutivos, son las supernovas tipo Ia. Éstas exhiben un comportamiento que permite determinar la magnitud absoluta de la supernova (y por tanto una distancia actual de nosotros) a partir de la forma de su curva de luz y la variación de su espectro. Perlmutter en 1997 utilizando este método sobre siete supernovas halló un universo plano constituido por materia y constante cosmológica Ωλo =0,6(+0,28,0,34) con un límite de Ωλo<0,51(con una confianza del 95%). Para un universo con dominio de materia encuentra Ωmo=0,88 (+0,69,-0,60). Sus resultados postulan la ausencia de constante cosmológica en nuestro universo. Myungshin en 1997 usando siete cuásar ha encontrado un universo plano con Ωλo =0,64(+0,15,-0,26). Riess en 1998 usando 16 supernovas de alto corrimiento al rojo y 34 supernovas cercanas para calcular la constante de Hubble, la densidad de masa, etc., por dos métodos diferentes encontró un universo plano con Ωλo =0,68±0,10 y Ωλo=0,84±0,09. Sin el requerimiento de un universo plano halló que Ωλo>0 con una fiabilidad del 99%. Chiba y Yoshii en 1997 han hallado que las observaciones están en mejor acuerdo con un universo plano con Ωλo≅0,8. Los mismos autores han presentado en 1999 nuevos límites a la constante cosmológica basados en un nuevo conocimiento de la función de luminosidad y la dinámica interna de galaxias E/SO. Comparan sus modelos para fuentes de lentes y encuentran un universo plano con Ωλo =0,7(+0,1,-0,2). Por fin, Perlmutter en 1999 analizando 42 supernovas ha encontrado un universo plano con Ωλo =0,71(+0,08,-0,09); y sin el requerimiento de un universo plano obtiene Ωλo>0 con un grado de confianza del 99%. Uno de los efectos de la constante cósmica es el cambio de la relación entre distancia y desplazamiento al rojo. En principio, dado un conjunto de objetos con un tamaño y luminosidad estándar puede determinarse la distancia de los mismos. Sabiendo su corrimiento al rojo, La interpretación física de la constante cosmológica como densidad de energía del vacío tiene su base en la existencia del 27 “punto” cero de energía predicho por la mecánica cuántica. En mecánica cuántica, los pares partícula-antipartícula son creados desde el vacío. Incluso aunque dichas partículas existen únicamente durante poco tiempo antes de aniquilarse una con otra, ellas dan al vacío un potencial de energía no nulo. Este concepto de energía del vacío ha sido experimentalmente confirmado a través del efecto Casimir, donde dos placas conductoras descargadas se atraen una a otra debido a las fluctuaciones cuánticas. En relatividad general, todas las formas de energía tienen efectos gravitatorios, incluida la energía del vacío, por tanto la constante cosmológica. el intervalo de k a k+dk. La suma se vuelve integral: E0 = 1/4π h L3∫w/ (2π)3 d3k Para evaluar la integral debemos imponer un máximo al vector de onda kmax para que sea mucho menor de 2πm/h. Entonces tenemos: ρvac = lim E0/L3 = h K4max/32 π3 L→∞ La densidad de energía del vacío diverge. Esto es debido a la contribución de moles con muy alta k Esta divergencia no es demasiado preocupante, sin embargo, porque sabemos que una teoría de baja energía no se espera sea cierta a altas energías, donde debe incluirse una nueva física. El problema de asociar la constante cosmológica con la energía del vacío de la mecánica cuántica aparece cuando hacemos incluso una simple estimación de su valor. La siguiente estimación fue hecha por Carrol en 1992. Un campo relativista puede ser entendido como una simple colección de osciladores armónicos, cada uno con una energía del punto cero: Podemos, por tanto, estimar el valor de ρvac hasta la escala de energía que seguramente requerirá de una nueva teoría para describirla. Esta energía es la energía de Planck (1019 GeV), donde se estima que las teorías de la física convencional fallan, y donde una nueva teoría de gravedad cuántica deberá introducirse. Si imponemos esta energía como máxima, obtenemos: E0 = 1/4π hw Para un campo escalar de masa m, la energía del vacío es la suma de todas las energías del punto cero de todos los osciladores armónicos simples: ρvac ≅ 1092 ergs/cm3 o Ωλo≅10120 Se cree que tan alto valor de la constante cosmológica es seguramente absurdo. Debemos argüir que se ha escogido un valor demasiado elevado, puesto que para satisfacer las observaciones debe usarse una energía de 10-2 eV. E0 = Σj 1/4π hwj Donde w2 = k2+4 π2 m2/h2 (k = 2π/λ; siendo λ la longitud de onda) para el campo escalar. Esta suma puede ser evaluada poniendo el sistema en una caja de volumen L3, y haciendo a L tender a infinito. Las condiciones frontera de la caja requiere que la longitud de onda cumpla que halla valores discretos de k en Es posible que la contribución de todos los diferentes campos asociados con las partículas del modelo estándar contribuyan a producir una constante cosmológica más pequeña. Más, ¿cómo podría cancelarse una parte entre 10120? 28 teoría cuántica, algo impensable hasta hace poco. Nos sigue diciendo Krauss que un prodigio de sintonía fina ha de eliminar las energías de las partículas virtuales hasta el lugar 123, pero dejando intacto el 124, lo que supone una precisión no vista en ninguna otra parte de la naturaleza. Incluso cuando los cálculos teóricos de la constante cosmológica no sean del todo entendidos, permanece el hecho de que verdaderamente la energía del vacío exista. Es interesante citar aquí las consideraciones de Lawrence M.Krauss sobre el tema (Ver la revista Investigación y Ciencia de marzo de 19999). Eso sí, apunta que ciertos grupos han imaginado, en cambio, que alguna forma de energía cósmica imita a una constante cosmológica, aunque va variando con el tiempo. Krauss nos dice que “de los descubrimientos de Tytler y Burles midiendo la abundancia primordial del deuterio observando la absorción de la luz de los cuásares por las nubes de hidrógeno intergaláctico se desprende que la densidad media de la materia ordinaria está entre el 4 y el 7% de la necesaria para que el universo sea plano”. Concluye afirmando que el universo o es abierto o está lleno de una energía desconocida. En su opinión, las observaciones apuntan a favor de lo segundo, aunque, de cualquier forma cree que ambas conclusiones "impondrían una visión de la física radicalmente nueva”. Añade que uno de los misterios que rodean a la constante cosmológica es la “coincidencia cósmica”. Y es que se nota una discordancia entre la densidad media de la materia ordinaria que disminuye con la expansión cósmica y la densidad equivalente representada por la constante cosmológica que es fija. Sin embargo, hoy día, ambas densidades tienen casi el mismo valor pese a estos comportamientos antagónicos. Krauss nos dice que dicha concordancia, o es puro azar, precondición de la existencia humana, lo que supone el principio antrópico débil, o es “una indicación de que actúa un mecanismo cuya naturaleza no se vislumbra hoy por hoy”. 4.Ley de Hubble Con la ley de Hubble nació verdaderamente la cosmología científica. Hubble obtuvo una relación entre el desplazamiento al rojo z y la distancia D: c z = H0 D ; donde c es la velocidad de la luz y H0 la constante de Hubble que se expresa en Km.s-1 Mpc-1 (El megaparsec vale unos 3 millones de kilómetros). Esta relación, por extrapolación directa, indica una relación lineal entre la velocidad y la distancia. Lo anterior puede ser interpretado como que el universo está en expansión, por una ley de la forma: Como ya dijimos y como, también, apunta Krauss, la constante cosmológica aporta del 40 al 70 por ciento de la energía necesaria para que el universo sea plano. Hay una constante cosmológica mayor que cero, pero como hemos visto, mucho menor que la predicha por la v = H D conocida como relación velocidad-distancia y confundida, muchas veces, con la ley de Hubble. 29 1+z = λ0/λe Consecuencia de lo anterior es que la expansión es homóloga, es decir, no cambia la forma de las estructuras del universo; también, que todos los observadores, en cualquier lugar del universo, ven la misma ley. Es común convertir el desplazamiento al rojo en velocidad a través de la relación v = c z, siendo c la velocidad de la luz, aproximación válida para velocidades mucho menores que c, coincidiendo con la interpretación Doppler al desplazamiento al rojo en este intervalo de velocidades. Evidentemente, para una distancia lo suficientemente grande, un objeto podría alejarse con velocidad mayor que la de la luz, así que de alguna forma, debe haber un tipo de horizonte cosmológico. Este horizonte es el que corresponde a esta velocidad máxima, c, y se denomina radio de Hubble. Su valor es: Si se determina que una galaxia tiene sus líneas de espectro desplazadas un 1% hacia el rojo (z=0,01), se moverá a 1% de la velocidad de la luz (3000 Km/s.). D= c/H0 = 3000 h-1 Mpc. Para cualquier desplazamiento al rojo, la interpretación válida es que el alargamiento de la longitud de onda de la luz se debe al cambio de escala en las distancias, por efecto de la expansión del universo. Es decir, debe cumplirse: ; h es un número adimensional que vale h= H0/100. Si la expansión se extrapola hacia atrás en el tiempo, las galaxias se irán acercando, aumentando la densidad del universo indefinidamente. 1+z = a(t0)/a(t) donde a(t0) es el parámetro de expansión, o factor de escala hoy día, y a(t) el del momento en que la galaxia emitió la luz. El tiempo de expansión denominado tiempo de Hubble, es la inversa de la cte. de Hubble: Hay que decir que, realmente, la expansión cósmica no es más que el incremento de la distancia entre cualquier par de galaxias lejanas a lo largo del tiempo. tH = 1/H0= 9,78 h-1 Gaños; 1 Gaño= 109años. Al observar el espectro de las galaxias más lejanas se observa que las líneas espectrales están desplazadas con referencia a las que se observan en los laboratorios terrestres. La obtención de las ecuaciones de la evolución del universo puede hacerse con argumentos clásicos debido al principio cosmológico, que afirma la homogeneidad e isotropía del universo a gran escala, lo que permite aplicar la dinámica newtoniana con excelente aproximación. Se define el desplazamiento al rojo z de una línea espectral como la diferencia entre las longitudes de onda observada (λ0) y emitida ( λe) en unidades de onda emitida. Es decir: Elegimos una región esférica del universo, lo suficientemente grande para que rija en ella el principio cosmológico (una esfera de unos 100 Mpc es z = (λe- λo)/λe = 1- λ0/λe 30 suficiente), pero lo bastante pequeña para que las velocidades con que se alejan las galaxias se mantengan muy por bajo de c. Un famoso teorema asegura que pueden ignorarse las fuerzas gravitatorias producidas por el resto de la masa del universo, y aplicar la mecánica newtoniana a dicha región esférica. Imaginemos una galaxia en el borde de dicha esfera moviéndose con velocidad v, y apliquemos el principio de conservación de la energía. Para k>0, el universo es espacialmente cerrado, puesto que su volumen es finito. La expansión se detendrá y empezará una fase de contracción. Energía cinética+ Energía potencial = cte. ;donde H(t) es la cte. de Hubble para cualquier instante t del universo, o sea, H =v/R. La constante k está relacionada con la densidad de materia del universo. Si calculamos el valor de la densidad para un universo plano, k=0, al sustituir en la ecuación anterior queda: ρ(t) = 3/8 H2(t)/πG ½ v2 – G M/R = constante donde R es el radio de la esfera, G la constante gravitatoria newtoniana y M la masa de dentro de dicha esfera. A esta densidad se denomina densidad crítica. En el presente esta densidad crítica vale: ρ0 = 3/8 H02/πG = 1.879 h2 .10-29 g/cm3 (que corresponde a una densidad de 2 o3 átomos de hidrógeno por metro cúbico). La densidad media de la esfera será ρ. Luego M = volumen×ρ. M = 4/3 π ρ R3 y v =dR/dt El parámetro de densidad Ω, como vimos con anterioridad, es la relación de la densidad del universo en unidades de densidad crítica, es decir, Ω = ρ/ρc. Si la densidad de materia actual del universo es igual a la densidad crítica, o sea, Ω =1, universo plano, estamos ante el modelo de Einstein-de Sitter, el más sencillo posible. De donde por sustitución: v2 = (dR/dt)2 = 8/3 π G ρ R2 – k c2 Siendo k una constante de integración pero que está relacionada con la geometría local del universo. La ecuación anterior se ha deducido de las ecuaciones newtonianas, pero resulta la misma aplicando un tratamiento rigurosamente relativista, aunque ahora k sí tiene un significado preciso. Se suele poner R(t) = a(t).R, donde a(t) es un factor adimensional conocido como parámetro de expansión o factor de escala, que no depende de los objetos concretos que se elijan. Para k<0, el universo tiene una geometría espacial local hiperbólica y estará siempre en expansión. Si definimos a(t0) =1, siendo t0 el momento presente, sustituyendo en las ecuaciones anteriores, llegamos a la ecuación de evolución del parámetro de expansión: (da/dt)2-8/3 πGρa2 =constante (14) Para k=0, el universo tiene geometría espacial plana o euclídea y estará, también, siempre en expansión, aunque el ritmo de esta última irá disminuyendo con el tiempo. 31 otra cosa, pues la velocidad permanece casi constante hasta el límite observacional externo galáctico. Entonces, sólo existen dos explicaciones posibles: 1.Existe una distribución de materia diferente a la de la materia visible.2.La teoría gravitatoria o las leyes dinámicas aplicadas a esas escalas no son correctas. 5.Materia oscura y antimateria A. Materia oscura A principios del siglo XX se creía que la masa del universo residía prácticamente en el interior de las estrellas, sin embargo, un siglo más tarde la situación es la que aparece a continuación. Fracción de masa en Componente Función densidad crítica Existe una teoría dinámica alternativa llamada MOND (Modified Newtonian Dynamics), propuesta por Mordehai Milgrom, que consiste básicamente en modificar la 2ª ley de Newton en la forma F = m.a2/a0, es decir, la fuerza sería proporcional al cuadrado de la aceleración, introduciéndose una constante a0 con unidades de aceleración. (El problema de la teoría es que no tiene una extensión en relatividad). También, existe alguna teoría de gravitación alternativa como la de la gravedad conforme, que es una modificación de la relatividad general, apartándose de la misma en la forma como la masa-energía afecta a la estructura geométrica espaciotemporal. A bajas energías esta teoría conduce a un potencial newtoniano del tipo V(r) = -a/r+br (con a y b constantes). (En relatividad general el potencial es del tipo V(r) = -a/r). Estrella y gas neutro...................≅ 1% Gas ionizado...............................≅ 3% Materia bariónica(prot.y neut.)..≅ 4% Materia oscura fría......................≅ 30% Coste. Cosmológica u otras........≅ 66% En los años treinta se descubrió que la peculiar velocidad de las galaxias en cúmulos, corresponde a una masa del cúmulo de un orden de magnitud mayor que la que representa toda la materia en forma de luz observada dentro de las propias galaxias. Esos cálculos están basados en la fuerza gravitatoria total del cúmulo; a mayor aceleración se alcanzan mayores velocidades, y la velocidad media de las galaxias de un cúmulo es una medida de su masa. Las velocidades son calculadas por los desplazamientos doppler de cada galaxia del cúmulo. Como nadie ha encontrado, aún, ninguna desviación de las predicciones de la relatividad general, debemos, consecuentemente, probar otras alternativas más simples. En los años sesenta se observó una situación similar en las partes exteriores de las galaxias espirales y algunas elípticas. Si se imagina una galaxia como un sistema solar, con las estrellas girando en órbitas cerradas alrededor del centro donde está concentrada la mayor parte de la masa, cabría esperar que las velocidades de las estrellas fueran disminuyendo fueran disminuyendo a medida que la distancia al centro aumenta siguiendo una ley del inverso de la raíz cuadrada de la distancia (Ley de Kepler). Sin embargo, las observaciones nos dicen Antes del año 1980 se creía que la “materia oscura” sería materia ordinaria que no podía ser detectable, tal como gas, estrellas con pequeñas masas, agujeros negros, etc. Sin embargo, a partir de esta fecha se pensó en otras soluciones: la posibilidad de que la materia oscura estuviese formada por neutrinos o alguna 32 forma de exóticas partículas aún no descubiertas en los laboratorios de altas energías. Y es que muchas observaciones convergen en un valor del parámetro de densidad de alrededor del 30% de la densidad crítica, sin embargo, la nucleosíntesis primigenia, o modelo de formación de los elementos químicos de menor peso atómico o más ligeros en los inicios del big bang (explosión original), indica que la cantidad de materia bariónica (la formada por protones y neutrones) no fue muy diferente del 4% de la densidad crítica. La materia luminosa visible está por debajo de ese valor, lo que implica la existencia de materia no detectada en forma de objetos compactos, los denominados MACHOS. De una forma u otra todo nos lleva a que al menos el 85% de la materia debería estar formada por algún tipo de materia “exótica”. permite neutrinos masivos y son los experimentos los que decidirán una u otra circunstancia. De todas formas, si existe la masa del neutrino es pequeñísima por lo que se mueven a velocidades cercanas a la de la luz, es decir, son partículas relativistas, lo que haría de los mismos materia oscura caliente (HDM). Según la nucleosíntesis primigenia el número de tipos de neutrinos es sólo tres. Su número actual se calcula en unos 115 neutrinos de cada especie por centímetro cúbico. Las medidas del experimento SuperKamiokande de 1999 indican que la masa del neutrino es probablemente menor de 10 eV. Las medidas del CERN ponen un límite superior a la masa del más pesado de los neutrinos de unos 9 eV. El problema es que si se pone tanta masa de neutrinos en el universo, por ejemplo los supercúmulos tienden a formarse antes que los cúmulos de las galaxias, lo que contradice las observaciones. Como pretendientes a esta materia exótica no bariónica podríamos citar los siguientes. El neutrino, partícula emitida en la desintegración beta. Hay dos reacciones básicas, al respecto: Otros pretendientes serían los que conforman la materia oscura fría (Cold Dark Matter, CDM), o cualquier tipo de partículas relativamente masivas que se mueven a velocidades bastante inferiores a la de la luz. Y las motivaciones básicas de su búsqueda son: 1. Su existencia está exigida por las teorías de gran unificación (unificación de todas las interacciones, excepto la gravedad). 2. Su inserción en las simulaciones para la formación de estructuras galácticas está más de acuerdo con lo observado. 1) p+ν ↔ n+e+ antineutrino 2) p+e- ↔ n+ν La 1) expresa que un protón interacciona con un antineutrino produciendo un neutrón y un positrón. La 2) dice que un protón interaccionando con un electrón produce un neutrón y un neutrino. Ambas, 1) y 2), pueden darse en los dos sentidos. Estas partículas tendrían masa de gigaelectrónvoltio e interactuarían solamente por medio de la fuerza débil y la gravedad, por ello se les denomina En el modelo estándar de la física de partículas, el neutrino no posee masa, pero una modificación de la teoría sí 33 WIMP (Weak Interacting Massive Particles o partículas masivas débilmente interactuantes). implicaría un universo con geometría espacial plana y densidad crítica. Esta energía oscura está basada en dos posibilidades: 1.La existencia de una constante cosmológica que refleja la densidad de energía del vacío. (Su ecuación de estado es P = -ρ. Presión negativa de igual valor que la densidad del vacío). 2.Lo que se llama Quintaesencia, como generalización de la constante cosmológica, suponiendo que existe un campo que produce una densidad de energía que varía con el tiempo, y que no implica una distribución uniforme. Su ecuación de estado sería P/ρ = w con -1<w<0, y siendo w una función del parámetro de expansión. WIMPs podrían haber sido producidos en el incipiente universo en reacciones del tipo: Positrón+electrón→WIMP+antiWIMP e+ e-→X X+ y en sentido inverso. El número de WIMPs que podrían atravesar un detector podría ser de un millón por cm2 y segundo para una WIMP de 1 GeV, cantidad que disminuye en proporción a la masa de la partícula. El problema es que su intersección con la materia es muy débil, por lo que es preciso construir detectores con gran cantidad de material. Se están realizando experimentos de detección de MACHOS en la actualidad. Existen varios proyectos en funcionamiento capaces de detectar WIMPs, entre ellos: the HEIDELBERGMOSCOW SEARCH (HDMS) Experimente, GENIUS, etc. Cuando un objeto compacto del Halo Galáctico como un planeta gigante, una enana marrón, una enana blanca, etc. pasa por delante de una estrella distante (por ejemplo, situada en las Nubes de Magallanes), se produce un fenómeno denominado microlente gravitatoria (similar a las lentes gravitatorias). Tanto la relatividad general como la newtoniana permite la existencia de un término, como vimos, que puede producir una repulsión gravitatoria a gran escala, que incluso podría estar acelerando la expansión. La evidencia experimental se basa en tres observaciones independientes: 1.La relación desplazamiento al rojodistancia aplicada al brillo de las supernovas tipo Ia. 2.De las anisotropías de la radiación del fondo cósmico de microondas. 3.Del estudio de la estadística de las imágenes obtenidas de las lentes gravitatorias. El efecto de interposición de un MACHO produce una concentración de la luz de la estrella y se manifiesta como un aumento de brillo; realmente un anillo luminoso alrededor del objeto formado por los rayos de luz que convergen en el observador. Dicho anillo se denomina de Einstein. Su radio vale: RE = 2/c Raíz [ GM Lx (1-x)] X = l/L =distancia al MACHO/dis.estrella Los estudios indican que esta componente de masa o energía oscura contribuye a las 2/3 partes de la masa del universo, lo que ; siendo M la masa del objeto, L la distancia a la estrella y l al MACHO; c la 34 velocidad de la luz y G la cte. gravitatoria. aniquilarían al entrar en contacto con dichos electrones liberando energía. Dirac recibió por esto el premio Nobel en el año 1933. El factor de amplificación A viene dado por: Y es que el año anterior, 1932, Carl Anderson, del Instituto Tecnológico de California, confirmó la teoría de Dirac al detectar la existencia de un positrón en el choque de rayos cósmicos. A = (u2+2)/u(u2+4)1/2 con u = r/RE = parámetro de impacto/radio del anillo de Einstein, del orden de 1 a 1,5 magnitudes para las estrellas de la Gran Nube de Magallanes. El año 1955 un equipo de la Universidad de Berkeley formado por los físicos Emilio Segre, Owen Chamberlain (premios Nobel en el 59), Clyde Weingand y Tom Ypsilantis lograron hallar el primer antiprotón. Un año más tarde en las mismas instalaciones, otro equipo formado por Bruce Cork, Oreste Piccione, William Wenzel y Glen Lambertson ubicaron el primer antineutrón. Existen varios proyectos de observación que buscan este tipo de eventos: el proyecto MACHO, el EROS y el OGLE. Las conclusiones básicas extraídas de las observaciones de estos últimos son: 1.Se han observado varios eventos de microlentes gravitatorias. 2.El número de eventos observados implica que el halo galáctico no puede estar formado sólo de MACHOs de masa subestelar. 3.Parece inevitable la existencia de materia no bariónica en nuestra galaxia. Posteriormente en el año 1965, el físico Lederma junto con un equipo soviético lograron detectar la primera partícula compleja de antimateria, el antineutrino, formado por dos partículas básicas; más tarde, con el mismo acelerador se detectó el antihelio. B. Antimateria Hasta 1928 ni siquiera como concepto se había desarrollado la misma idea de antimateria. Todo comenzó con los trabajos de Paul Dirac publicados en el año 1929, un período que en cierto modo fue de los más exotéricos de la física (fuerza débil, fuerza fuerte, mecánica ondulatoria, principio de incertidumbre, etc.). En el Centro de Investigación de Alta Energía (CERN) de Ginebra en el año 1978 se pudo lograr el antititrio, y en 1981 pudo realizarse allí el primer choque controlado entre materia y antimateria. En 1922, Brodsky y Schmidt publicaron unos trabajos que sugirieron la fórmula de un método para producir antiátomos, o sea, la forma de unir antielectrones y antiprotones. Concretamente Dirac señaló que si el átomo tenía partículas de carga negativa llamadas electrones, debían existir partículas que fueran “electrones antimateria”, a los que se les llamó positrones, con la misma masa del electrón y carga opuesta, y que se En enero de 1996, el CERN anunció el éxito de la obtención en un proceso de experimentación de nueve antiátomos de hidrógeno. 35 magnetismo se impide que toque sus paredes para que no explote en rayos gamma. El método que propusieron Brodsky y Schmidt consistía en hacer chocar un haz de antiprotones con un gas, en cuyo proceso se producirían pares electrónpositrón. Una pequeña fracción de esos positrones viajaría casi a la misma velocidad de los antiprotones, lo que implicaría que los positrones pueden ser capturados por un antiprotón, lo que haría que ambas partículas se combinaran formando un antiátomo. La NASA con vistas al futuro ha desarrollado un proyecto para instalar en la estación espacial Alpha, en el año 2002 un detector de antipartículas denominado Espectómetro Alfa Magnético (AMS), a partir de los rayos cósmicos que a la velocidad de la luz bombardean intensamente la Tierra. El experimento del CERN usó hidrógeno como elemento de trabajo. El acelerador LEAR, utilizado en el experimento, disparó un chorro de antiprotones a través de una nube de gas xenón. Los antiprotones rompieron los núcleos de xenón, creando algunos pares electrónpositrón. Una fracción de estos pares ( de positrones) fue capturada por los antiprotones, es decir, empezaron a orbitar alrededor de los mismos; entonces se crearon antiátomos de hidrógeno. Los antiátomos, al ser neutros, no son desviados por el campo magnético del acelerador, continuando en trayectoria recta, atravesando a gran velocidad una barrera de silicio. Mientras, el antiprotón continúa su camino, y positrón y electrón chocan entre ellos, aniquilándose ambos. La emisión de rayos gamma que choca contra la barrera de silicio delata lo ocurrido. La detección de la antimateria generada en el cosmos es tarea fácil. Solamente, hasta el momento, se ha podido observar una nube de positrones detectada cerca de un torrente de rayos gamma, situado en las cercanías del centro de la Vía Láctea, monitoreado por el espectómetro OSSE. No se conocen las fuentes del origen, que debería ubicarse en algún lugar en el entorno del centro de la galaxia. La nube detectada de partículas de antimateria podría haberse formado debido a múltiples explosiones de estrellas, también por eyección de antimateria desde un disco de acreción de un agujero negro situado cerca del centro de la Vía Láctea, por la fusión de dos estrellas de neutrones, u otras causas diferentes. Se piensa que la antimateria en general es rara en el universo, aunque hay varias formas para generar positrones en particular. Una de ellas es por la descomposición natural de los elementos radiactivos que pueden originarse en una serie de fuentes astrofísicas como supernovas, novas o las estrellas WolgRayet de violenta actividad en sus superficies. Otra forma para la generación de positrones es en la caída de materia sobre los altos campos de gravitación de los agujeros negros; la temperatura se Un problema a resolver fue establecer cómo poder atrapar la antimateria, para que no explotara al tomar contacto con la materia. La solución del CERN fue usar un envase diseñado por el Laboratorio Nacional de los Álamos de EE.UU. Un ciclotrón puede frenar un antiprotón de modo que puede ser capturado, detenido y paralizado por medio de campos magnéticos. Una vez frenado, el antiprotón se introduce en un envase que posee un gran vacío en su interior, y por 36 con más fundamento en la existencia de estrellas o galaxias de antimateria, con la implicación subsiguiente en la supuesta asimetría bariónica del universo. incrementa tanto que pueden generar pares de positrones y electrones, y, a su vez, dispararlos después fuera a velocidades altísimas. Mientras que el número de positrones creados por descomposición radiactiva es constante durante largo tiempo, el número de los que se crean en un agujero negro depende de la cantidad de materia que le insufle su estrella compañera. El AMS que se situaría en la estación espacial Alpha tendrá muchas más posibilidades de descubrir antimateria en los rayos cósmicos que los actuales satélites, por el aumento sustancial de su tiempo de exposición a los mismos. Como tercera posibilidad para la creación de esos positrones sería la fusión de dos estrellas de neutrones, donde también se crearían las condiciones para que se den los fenómenos de las explosiones de rayos gamma que tanto han desconcertado a los científicos. Como en el momento del big bang debería haber habido la misma cantidad de materia que de antimateria, la casi extinción de esta última se presentaba como un misterio hasta que el físico ruso Andrei Sakharoc en 1967 explicó que esto se debía a una pequeña asimetría en las leyes de la física conocida como violación CP. El universo parece tener más materia que antimateria, por eso en un mundo de materia como el nuestro el positrón se desintegra pronto al chocar con la misma, por ello posee un período de existencia muy corto. La aniquilación del positrón por el electrón genera rayos gamma con un rango energético de 511 KeV. La asimetría, según Sakharoc, comenzó en el primer segundo del big bang. En ese instante, según la Teoría Unificada física, todas las fuerzas conocidas de la naturaleza se fundían en una sola, por intermedio de la partícula X. Cuando el universo se enfrió posteriormente y las partículas X decayeron, la asimetría había dejado una pequeña proporción más de partículas que de antipartículas. Se calcula mil millones más “una” partícula por cada mil millones de antipartículas. Como las antipartículas se habrían aniquilado con las partículas (dejando sólo una partícula por cada mil millones) inmediatamente produciendo una “bocanada” de rayos gamma, el universo sólo habría quedado formado por materia. La fuerza de gravitación depende de la masa-energía de un objeto, y como la materia y la antimateria tienen ambas energía positiva, las dos tienen el mismo comportamiento en un campo gravitatorio. El antifotón es igual que el fotón, pues el fotón es su misma antipartícula. La detección de antiátomos fuera del laboratorio no es trabajo fácil, puesto que los antifotones que emitiría un antiátomo son indistinguibles de los fotones (son la misma partícula). Tampoco es sencillo rastrear señales de su presencia en los rayos cósmicos; ahora bien, si se llegara a descubrir dentro de los mismos tan sólo un núcleo de antihelio, podría pensarse El trasfondo de radiación que llena el universo (la radiación de fondo de microondas), cerca de mil millones de fotones por partícula de materia, confirmaría este supuesto. 37 Aún cuando en la Tierra no hay fuente alguna de antimateria y la exploración del sistema solar tampoco la ha encontrado hasta ahora, y se prevé tampoco exista en otros campos siderales, no por ello hay que descartar la hipótesis de un cosmos simétrico, que incluye galaxias tanto de materia como de antimateria, como lo sugieren los físicos suecos H.Alfvén y O.Klein. Por otra parte, experimentos realizados en los últimos años han permitido comprobar las predicciones cuánticas que suponían un enlace casi mágico, o misterioso, entre las partículas y las antipartículas así creadas, puesto que la destrucción de uno de los componentes de estos pares supone la desaparición del otro, situado, a veces uno de otro a kilómetros de distancia (algo fuera de la comunicación “einsteniana” entre los mismos, limitada a la velocidad de la luz). C. Crítica a la interpretación clásica de Dirac La especulación anterior, o interpretación de Dirac, le permitió anticipar el positrón. La ciencia vivió durante muchos años con la interpretación de Dirac del “mar” de partículas de masa negativa con todos los niveles saturados, masa que provenía de la raíz cuadrada que aparecía en las ecuaciones relativistas [±(1-v2/c2)1/2]. Y esto que supuso un hito en la Ciencia (se concedió el premio Nobel a Paul Dirac), y que supuso un claro desarrollo de la misma, en mi opinión no es más que la comprobación del antiguo aserto de que, a veces, de un error puede obtenerse ventajas imprevistas, fruto de la simple casualidad. La antimateria, en dicha visión, aparecía como resultado del desplazamiento de una de estas partículas de masa negativas a nuestro mundo real (positivo) por efecto del “choque” de los cuantos de una radiación sobre ella. El “hueco” creado en este mar de partículas negativas se interpretaba en nuestro mundo como una negación de la menos masa, es decir, -(m), lo que suponía una masa positiva (antimateria); al suponerse el mar de partículas neutro, la ausencia de una carga -, al pasar a nuestro mundo la misma como partícula “energetizada”, producía la aparición de una carga positiva en el mar de partículas, adornando dicha carga, pues, al “hueco” antimaterial. El resultado: una partícula de carga positiva y masa positiva, el llamado positrón, obtenido a partir de un “electrón” del “mar” de partículas de masa negativa. La anticipación del positrón y con ello la antimateria, estuvo basada en la suposición de un mundo infinito de masa negativa con “todos” los niveles de energía ocupados. Mi reflexión actual es que es “innecesario” aceptar tal hipótesis. Imaginemos que los hechos fuesen los siguientes. La radiación provoca en la “fluctuación” del vacío la aparición de una partícula de masa positiva en nuestro mundo de coordenada temporal positiva, junto con otra partícula de masa negativa en “otro” mundo con coordenada temporal negativa. Es como si el efecto de la radiación hiciese “brotar” por fluctuación cuántica un “campo particular” caracterizado por: un instante inicial (al que podemos etiquetar cero), una partícula material positiva que viajaría en el tiempo positivo que En otras palabras, los cuantos de radiación han sido transformados en una partícula y su correspondiente antipartícula. 38 masa negativa (creada tras la irrupción de la radiación), en sentido del tiempo positivo, algo que puede ser posible gracias a que nos encontramos en un “sistema cuántico” creado tras el hecho de la “creación” de materia (positiva y negativa) a partir de la radiación. conocemos, y una partícula material negativa que viajaría en el tiempo negativo. Ambas partículas nacen en el instante cero compartido por las dos escalas de tiempo (definidas precisamente a partir de ese instante cero de su creación) positiva y negativa. La “vida” de la partícula de masa positiva se circunscribe a los instantes 0,1,2... hacia el infinito. La “vida” de la partícula de masa negativa a los instantes 0, -1,2,....hacia el menos infinito. Como todo sistema cuántico, la ocupación de ese “hueco”, o esa “ausencia” en nuestro sistema cuántico “particular” por otra partícula (por ejemplo, un electrón del ambiente), produciría la “aniquilación” del mismo, la radiación subsiguiente, y la “destrucción”, también, de ese sistema cuántico particular. La consecuencia, entonces, sería la destrucción, también, de lo que supone el sistema cuántico, es decir, la desaparición inmediata de la partícula de masa positiva, originada en la creación inicial, y la partícula de masa negativa. En ese momento se mediría un “tiempo de vida”, por ejemplo, de la partícula de masa positiva de t, y “un tiempo de vida” de la partícula de masa negativa de –t; siendo t el instante correspondiente, en nuestro universo, de la aniquilación de la antipartícula. Existe, pues, un “mundo”, mismo “sistema cuántico”, que representa la partícula de masa positiva, la de masa negativa y su instante de creación (0). Pero, en nuestro universo habitual (el de la realidad “observada”), ¿cómo aparece “reflejada” la “existencia” de la partícula de masa negativa?...Es claro que en su universo (negativo) dicha partícula es de masa negativa y avanza en sentido de su tiempo negativo, que es el contrario al nuestro... En nuestro universo, en el instante 1 ( a partir del cero de la “creación” del par), como la partícula de masa negativa sólo está definida a partir de su creación, el instante cero, en dicho instante 1, en ese “mundo” o “sistema cuántico” expuesto anteriormente, la partícula de masa negativa, está definida por su “ausencia”, es decir, por una negación de la masa negativa, o lo que es lo mismo, como una masa positiva. Si la carga de la partícula de masa negativa fuese también negativa (por ejemplo, un electrón de masa negativa) dicha ausencia, en cuanto a la carga, equivaldría a una carga positiva.(*) En resumen, estamos ante la aparición del positrón en nuestro universo. Y todo ello sin introducir la hipótesis del “mar” de partículas de masa negativa con niveles infinitos totalmente ocupados.... La antipartícula sería sólo la consecuencia de “retrotraer” hacia atrás la partícula de Se ve claramente, entonces, a partir del comportamiento de la antipartícula, que ésta es como la partícula de masa negativa navegando hacia atrás, es decir, en sentido contrario a su tiempo correspondiente (negativo, en este caso). Y ese aparente misterio del colapso de la partícula por el aniquilamiento de la antipartícula se difumina rápidamente si nos fijamos en que la antipartícula (ausencia de la partícula de energía negativa), es nuestra misma partícula de energía positiva trasladada a ese “mundo de masa negativa y tiempo negativo”; lógicamente, si se aniquila la antipartícula lo hará su igual, es decir, ella misma, que 39 de las propiedades de la misma antimateria, puesto que, al fin y al cabo, la antimateria es el reflejo en nuestro universo de aquel otro. es nuestra partícula. El único efecto es la transformación en energía de las masas de la materia de la partícula y la antipartícula, y la desaparición, por consiguiente, de estas últimas. (*) Aclararemos mejor esa relación entre los dos mundos, a saber, el de materia positiva y el de materia negativa. De igual modo, la energía de la radiación inicial no se invierte en la creación de las partículas de masa positiva y negativa, pues la “suma” de ambas es nula, sino que se refleja en lo “que aparece” en nuestro universo, o sea, la masa de la partícula y la de la antipartícula. El mundo al que llamaremos positivo para simplificar, va a caballo del tiempo positivo. En el mundo positivo la partícula de masa positiva en el instante t (contado desde el origen cero correspondiente al instante de la creación de los pares a partir de la radiación) no puede relacionarse con el par creado de masa negativa (que internamente va cabalgando, entonces, en el instante –t). Sólo puede relacionarse con dicho par cuando éste posea su misma “simultaneidad”, es decir, se encuentre en ese mismo tiempo t. Como en ese instante t la partícula negativa “no existía”, esta “no” existencia equivale a una negación de la misma, es decir, -(-m) = +m. En resumen, nuestra partícula positiva sólo puede “interrelacionarse” con el “opuesto” a la partícula negativa, que también puede construirse “invirtiendo” el tiempo, es decir, haciendo progresar la partícula de masa negativa en dirección temporal opuesta a la que realmente tiene. En esto consiste la antipartícula. La desaparición de la partícula de masa positiva de nuestro universo se acompaña, de igual forma, con la de la partícula de mas negativa del otro universo. El “sistema cuántico particular” supone, pues, que todo efecto producido en la partícula de masa positiva se transmita de inmediato a la partícula de masa negativa; y al revés. E hilando más el rizo, podríamos decir que el fenómeno de la creación del par partícula-antipartícula por la radiación, es lo mismo que asegurar que la radiación se “transforma” o se “materializa” en dos mundos opuestos, uno de masa positiva y otro de masa negativa, o, de otra forma, en una “materia” que tiene su existencia con un pie “en un tiempo positivo” (en nuestro universo positivo), y el otro “en un tiempo negativo” (en el otro universo negativo). Si nos fijamos, “aniquilar” la partícula consiste en introducir, por ejemplo, la partícula de materia positiva en el “hueco”, la “ausencia” que es la antipartícula. Luego, la irrupción en el tiempo t de una partícula de masa positiva en el “mundo” de las partículas de masa negativas, ocasiona la “aniquilación” de la partícula de masa negativa (equivalente) que “vive” en el instante –t. Queremos decir que la radiación “al materializarse”, lo hace, a la vez, en dos universos, uno de materia positiva, y otro de materia negativa, adornados, respectivamente, de la coordenada de tiempo positivo y negativo. Las propiedades de ese universo oculto de masa negativa, pueden adivinarse a partir 40 considerarse “continuamente” en: El instante cero de la creación de los pares, produce la separación de la coordenada temporal en valores positivos o negativos que definen dos correspondientes “universos”, “nacidos” a partir de ese “origen” particular, que es el de la transformación de unos precisos fotones de radiación en materia. hν transformada hν/2 hν/2 (- hν/2) +hν/2 ⇒ ⇒ hν En el universo En nuestro universo Complementario de tiempo negativo O sea, el cuanto o corpúsculo de la radiación, al igual que el par partícula y antipartícula se divide en dos “cuantos”, uno de energía positiva en nuestro universo positivo y otro de energía negativa en el universo “complementario”; este último “se observa” en nuestro universo positivo como una antipartícula o una antirradiación, que en el caso de las radiaciones es idéntica a su partícula, ya que para el fotón (partícula del campo electromagnético-luz) la partícula y la antipartícula son idénticas. Al ser idénticas partícula y antipartícula, a continuación ambos fotones se “reconstituyen”, volviendo a dar el fotón de energía hν. Como fotón y antifotón son idénticos, “en todo momento” está produciéndose una “virtual” división del fotón en fotón y antifotón, luego no hay un “punto cero” del tiempo donde se produzca esa bifurcación, ya que “al mismo tiempo” podríamos decir que se “reconstituye” el fotón inicial; el resultado es que no puede definirse el origen del tiempo (0) del sistema cuántico particular de la radiación, o sea, de inicio de los tiempos positivo y negativo. En la materia común (partículas comunes y sus antipartículas), al existir el “origen” cuántico de la aparición de “masas y tiempos”, puede diferenciarse perfectamente la partícula y la antipartícula, pudiéndose “actuar” sobre cada una de ellas, aún cuando la “aniquilación” de uno de los elementos del par origine la aniquilación del otro. ¿No será que ambos elementos del par no La “radiación”, pues, se transforma en materia: pares partícula de masa positivapartícula de masa negativa. O en la versión (unilateral) sobre nuestro propio universo: partícula-antipartícula. Los universos paralelos y opuestos creados a partir de esa transformación de radiación en materia desaparecen o fenecen de igual forma cuando, a su vez, esa materia se transforma en radiación, que equivale a la desaparición del “sistema cuántico” que formaban los pares creados, tras la aniquilación de los mismos. Como sistema cuántico, los tres tipos de partículas (realmente son sólo dos), a saber: la antipartícula y las partículas de masa positiva y negativa, están íntimamente relacionadas, y cualquier alteración en una de ellas se transmite de inmediato a las otras dos, sin importar tiempo y espacio (también se dice que son no locales), lo que siempre llamó la atención a los relativistas obsesionados con la limitación de la transmisión de la información en la velocidad de la luz. Todos estos resultados tienen una repercusión trascendental en el tema cosmológico que nos ocupa, si consideramos el universo como un sistema cuántico gigantesco. Toda radiación hν (siendo h la cte. de Planck y ν la frecuencia) puede 41 implosión)- Antimateria y tiempo negativos. -Universo complementario (en expansión)- Materia y tiempo positivos. son más que una sola partícula (de ahí que la aniquilación de una de ellas, equivalga a su “propia” destrucción)? ¿La partícula y la antipartícula, no serían una sola partícula “actuando” en dos mundos distintos a la vez?... Esos mundos se crearían para cada partícula, al “aparecer” su antipartícula. A efectos prácticos, entonces, la antimateria en nuestro universo simplemente sería residual y no la “base” del mismo. El ciclo completo interviniendo los dos universos sería: - - Ahora sugeriremos el siguiente cuadro respecto al tiempo y los ciclos expansivos e implosivos del universo, consecuencia de las implicaciones que suponen en este último todo lo expuesto anteriormente. El símbolo ⇔ indica una conexión entre ambos universos a la que se hará referencia cuando hablemos en los últimos capítulos de la Teoría M. -El tiempo positivo acompañaría siempre a la expansión. -El tiempo negativo estaría asociado a la implosión. Como observamos, pues, el universo complementario en la fase expansiva realiza el mismo papel que el nuestro en la actualidad, es más, sería nuestro universo el que poseería, entonces, el carácter complementario. Y respecto a la masa-energía. - La materia-energía positiva existiría en nuestro universo conocido expansivo. - La antimateria de energía positiva existiría en nuestro universo sólo en forma residual. - La antimateria de energía negativa existiría en el universo “complementario” negativo en implosión. - La materia de energía negativa correspondería al universo “complementario” negativo sólo en forma residual. Podríamos especular en el sentido de que al parecer la “vida” se limitaría sólo a las fases expansivas. En ese sentido podríamos señalar que, quizás, nuestro universo en implosión n o estaría dotado de vida; sería solamente el “mecanismo” (igual que ahora el universo complementario) necesario para el cierre de una fase dotada de vida, y abrir la posibilidad al alumbramiento de un nuevo ciclo. De otra forma: - Universo conocido en expansión (materia-energía positiva)⇔ Universo complementario en implosión (antimateria-energía negativa). Universo conocido en implosión (antimateria-energía negativa)⇔ Universo complementario en expansión (materia-energía positiva). Universo actual (en expansión)Materia y tiempo positivos. Nuestro universo (en implosión)Antimateria y tiempo negativos. Universo complementario (en Volvamos, ahora, al tema “comportamiento” de la radiación. del ¿Qué característica deben poseer esos mundos ( el nuestro y el complementario para que en un caso la misma radiación 42 creadas ambas. Ese sistema cuántico particular termina en el instante propio ∆t en que una de las dos partículas desaparece por aniquilación o “suceso” físico que les ataña. aparezca como positiva y en el otro negativa? Como los cuantos de radiación valen hν = h. 1/T (siendo T el período o tiempo), es el “tiempo” el que hace que esta magnitud sea positiva o negativa, según sea el tiempo positivo o negativo. Es la radiación la que prefigura y define el universo (nuestro) actual. Y es la radiación “negativa” la que define el “otro” universo complementario del nuestro. La aparición de la antipartícula supone la “existencia” de la partícula de masa negativa. Lo mismo ocurre para la radiación, también existe la radiación de energía negativa. El “otro mundo” de la radiación es un universo único de radiación negativa. En este universo (en la fase expansiva) el tiempo es positivo y la radiación es positiva, en el otro el tiempo es negativo (en su fase implosiva) y la radiación negativa. La expansión del tiempo positivo, en el negativo equivale a una implosión. También sabemos que la antimateria es como la materia recorriendo el tiempo hacia atrás, es decir, con tiempo negativo. Como con las partículas materiales, la radiación puede considerarse la misma radiación pero “en dos mundos distintos”. En el primer mundo, llamado de la energía-masa positiva, la radiación “aparece” como positiva; en el mundo complementario la radiación “aparece” como negativa. En el ciclo expansivo la desintegración del protón es más lenta que la del antiprotón (Ver **, un poco más adelante). En la implosión sucede lo contrario, por ello la antimateria sería “la preponderante” en la implosión de nuestro universo. Es conveniente en este momento acometer las sugerencias de Paul Davies en su libro “Superforce” sobre la existencia o no de las ondas “avanzadas”. Para la radiación, al no existir ese instante de “creación” (del par partículaantipartícula), el cuanto permanecerá de modo continuo en ambos mundos. Como sucede lo mismo para todos los cuantos, todos ellos poseen los mismos “ambos mundos”, o lo que es lo mismo: el universo actual es el mundo de “toda” la radiación. Más, ¿podríamos decir lo mismo acerca de las otras partículas materiales y sus correspondientes antipartículas?... La realidad es que la aparición de una antipartícula supone la creación, como dijimos, de un mundo cuántico particular en el que “cohabitan” o son sus componentes: la partícula de masa positiva, la partícula de masa negativa y el “instante” (0) en que son Nos cuenta Paul Davies que la idea de enviar señales al pasado se la sugirió el astrónomo Fred Hoyle al oír una conferencia del mismo celebrada en la Royal Society de Londres, en la que afirmaba que las famosas ecuaciones del campo electromagnético de Maxwell que describen la propagación de las ondas electromagnéticas, encerraban la posibilidad de que las mismas pudieran viajar hacia atrás en el tiempo. Y es que los procesos físicos que controlan las ondas son perfectamente reversibles, pues cada porción de onda puede moverse hacia atrás. 43 Wheeler y Feynman demostraría que no era así. El carácter unidireccional de las variaciones de las ondas se extiende a todo tipo de movimiento ondulatorio imprimiendo en el universo una “dirección temporal”, o sea, una distinción entre pasado y futuro, pues debido a la conexión entre movimiento ondulatorio y dirección del tiempo, imaginamos que las ondas que “se alejan” van hacia el futuro, mientras que las que llegan (convergen) están invertidas en el tiempo, es decir, van hacia el pasado. Las primeras (con las que estamos familiarizados) se denominan “ondas retardadas”, ya que llegan “después” de ser enviadas, mientras que las últimas se llaman ondas “avanzadas”, pues llegan “antes” de ser emitidas. Las ondas avanzadas que abandonan el transmisor viajando por el espacio (retrocediendo en el tiempo), a la larga tropezarán con materia, con las partículas eléctricamente cargadas del “tenue gas” del espacio intergaláctico. Las ondas pondrán esas cargas en movimiento, generando las mismas otras ondas secundarias de la misma frecuencia, pero la mitad de ellas retardadas y la mitad avanzadas. La parte retardada de estas últimas viajará hacia adelante en el tiempo, creando un débil eco en el transmisor en el mismo instante de la transmisión de las ondas iniciales. Se obtiene así un complejo entramado de vibración y ecos que saltan hacia delante y hacia atrás tanto en el espacio como en el tiempo. Desde Maxwell se ha creído que estas ondas avanzadas son posibles, pero como parece que no tienen entidad física, por su apariencia de ir en contra de la lógica, la mayoría de los científicos las han rechazado. El eco de una partícula cargada sería pequeñísimo debido a su gran distancia del transmisor, pero si el universo contuviera tantas partículas para ser opaco a las radiaciones electromagnéticas, la acumulación de todos los ecos tendría tanta potencia como la señal original. El análisis más detenido muestra que el eco que atraviesa la onda avanzada original en cualquier localización del espacio, se encuentra exactamente desfasado con respecto a la misma. El efecto es la cancelación completa de la onda adelantada por interferencia destructiva, o sea, todas las señales enviadas al pasado (ondas adelantadas) serían totalmente canceladas por sus propios ecos. Por eso, en un universo opaco, sólo hay ondas electromagnéticas retardadas, aún cuando “cada partícula cargada radiara, de igual forma, a la vez, ondas avanzadas y retardadas”. Pero hay excepciones importantes, como la que representan John Wheeler y Richard Feynman, cuya solvencia científica está fuera de toda duda (Feynman consiguió el premio Nobel por su formulación de la EDCelectrodinámica cuántica). Ambos a fines de la 2ª Guerra Mundial publicaron un ensayo donde intentaban explicar por qué las ondas retardadas son la norma, y la posibilidad de la existencia de las ondas avanzadas. En su trabajo Wheeler y Feynman investigan lo que ocurriría en un “mundo” donde las ondas electromagnéticas avanzadas y retardadas existieran en el mismo plano de igualdad. En este mundo, su transmisor de radio enviaría señales hacia el pasado y hacia el futuro. Se esperaría que se encontrasen conclusiones absurdas, pues el trabajo de 44 implosivo, en un tiempo absoluto, por el mismo razonamiento, que es anterior a T (comienzo de su andadura y pasado absoluto del mismo). Así, de una u otra forma, ninguna señal (onda electromagnética) proveniente de cualquiera de las fases del ciclo puede pasar a la otra de modo que pudiera “enviarse” ninguna información que representase una paradoja en el desarrollo normal de una sucesión de acontecimientos (historia). Este resultado aparentemente “sorprendente” del análisis de Wheeler y Feynman es consistente, porque la actividad electromagnética de cualquier partícula cargada es inseparable del resto del universo: las ondas producidas en un punto no pueden separarse de los ecos inducidos por las mismas, procedentes de todas las regiones del cosmos. (Esto podría tener aplicación al “eco” gravitatorio necesario para producir la fuerza de inercia, ya que las señales avanzadas se propagan hacia atrás en el tiempo, no habiendo retraso en el regreso del eco). También, como el universo complementario (el negativo) tiene un tiempo negativo (en la fase implosiva), en él dominan las ondas adelantadas (en sentido del tiempo negativo). Indirectamente, pues, el estudio de Wheeler y Feynman dan consistencia matemática a la posibilidad de la radiación negativa ( la que se mueve con el tiempo negativo). Estos resultados de Wheeler y Feynman pueden sernos útiles para la propagación de las ondas en nuestro universo entre las fases de expansión y contracción, puesto que podría argüirse que una onda avanzada (hacia el pasado) de la fase posterior a nuestra fase actual de expansión pudiera enviarnos señales desde el futuro. Llegados a este punto, hay que señalar dos apuntes importantes: 1. La equivalencia entre la materia y la “correspondiente” más negativa del otro universo sólo se produce a energías altas; a energías más bajas se rompe la simetría en el mismo sentido de la distinta desintegración del protón y el antiprotón (ver ***, a continuación). 2. Es evidente, y no muy difícil de resolver, el proceso del “impacto” de la fase de implosión a la de explosión (algo así, con la salvedad de la entropía del sistema, como un agujero negro gigantesco al desintegrarse en radiación). Sin embargo, el proceso contrario del “cambio” de la fase de expansión a la de implosión, que se da al final de nuestro universo, necesita de causas “ajenas”, y queremos expresar con esto la necesaria colaboración del universo El estudio de Wheeler y Feynman nos ayuda a resolver la cuestión. En este ciclo del universo (expansióntiempo positivo) las ondas adelantadas se “anulan” por las interferencias anteriores (realmente pasan al otro ciclo, donde no son anuladas); entonces, en el ciclo implosivo son las ondas retardadas las que se anulan por interferencia (tiempo negativo) quedando solamente las adelantadas. Como consecuencia: “pasa” a este universo las ondas retardadas (futuro) de “algo” que es el futuro “absoluto” nuestro (cada fase expansiva e implosiva poseen un tiempo o edad máxima T; el ciclo completo será 2T), por encima de T. Nuestras ondas adelantadas (pasado), de igual forma, pasan a la fase del ciclo 45 complementario en dicho proceso, sin cuyo concurso no sería posible. Es precisa una “conexión” cuántica entre los universos positivo y negativo; eso permite que el primer proceso comentado (desarrollado, esta vez, en el universo complementario negativo) pueda “influenciar” de forma decisiva en nuestro propio universo, haciendo realizable el salto de una fase a otra, permitiendo esa fase implosiva la posibilidad de un nuevo colapso (big crunch). Este sería el papel sustancial del universo complementario negativo (aparte, como veremos, de dar consistencia a la teoría supersimétrica de partículas, que lo sustentaría, lo que veremos en los últimos capítulos de la obra), de ahí, también, la necesidad de su existencia. de energía negativa desaparecería (igual que en nuestro universo desaparece la antimateria inicial, o mejor, los antiquark). Ahora bien, el hecho “singular” frente a la creación de los pares materiaantimateria por la radiación, es que la “creación” de materia (en nuestro universo) y antimateria (en el complementario) propuesta anteriormente, no produce la “conexión” o “entrelazamiento cuántico” que sí ocurre en la creación de los pares anteriores. En los procesos de creación de materia y antimateria expresados en las fórmulas anteriores (que suponen, en sí, la no conservación de los números bariónicos y antibariónicos), no hay entrelazamiento cuántico entre p y e+, en el primer caso, y p- y e-, en el segundo; simplemente se “realiza el proceso” en cada uno de los universos, por separado. De esa forma, la creación (al imaginar los procesos al revés) del protón (o quark) en nuestro universo positivo “no produce” la inmediata creación de un protón negativo en el universo negativo. Por ende, la no creación de ese protón negativo en el universo negativo no produce por la “retroacción” del tiempo (cambio de tiempo negativo a positivo) la aparición de un antiprotón. Así es posible la “aparición” de la materia en nuestro universo, y no la antimateria; o dicho de otra forma, el que la desintegración del protón sea más lenta en nuestro universo que la del antiprotón. Lo contrario sucede en el universo negativo: su menos materia queda constituida de nuevos antiprotones, de nuevos antiquarks. (***) El apunte 1. anterior tiene una importancia trascendental. La posible desintegración del protón en la forma propuesta: p ⇔ ν + e+ (en un positrón y radiación) ; debe poseer la característica de realizarse únicamente en nuestro universo positivo. Para el universo negativo (complementario) proponemos para el antiprotón (negativo) la siguiente desintegración: p- ⇔ ν- + e- (siendo ν- el cuanto negativo propuesto) Y, en este universo negativo, el que se desintegra con una vida media más larga sería el antiprotón de masa negativa. Este universo negativo, pues, estaría compuesto primordialmente de antimateria negativa, puesto que el protón La aparición de la materia en nuestro universo (y la antimateria de masa negativa en el otro) es consecuencia 46 misma frecuencia que la que posee la radiación de fondo de microondas del universo, es indistinguible de la misma, y debe poseer, también, su propio sistema cuántico particular extendido en el tiempo, es inmediato pensar que ambos sistemas cuánticos deben coincidir, el particular de la radiación actualmente producida y el más grande, el propio universo complementario. Ahora bien, la inclusión del primero en el segundo, como lo mismo sucede con toda radiación producida en nuestro universo a lo largo de toda su historia, esta “inclusión2 debe producirse, precisamente, en los puntos de “entrelazamientos cuánticos” de nuestro universo y su complementario (en la búsqueda del mismo acudimos, como veremos en los últimos capítulos a las teorías de supercuerdas). directa del “no-entrelazamiento cuántico”, entre los dos universos en los procesos de desintegración expresados por las fórmulas anteriores. En realidad lo que sucede es, simplemente, que nuestra materia de la fase expansiva y la antimateria de la implosiva (universo complementario) son “la misma”. Es momento de acometer un problema que habíamos dejado pendiente: el análisis del sistema cuántico del par partícula-antipartícula. En primer lugar, cuando estas partículas forman parte de la radiación o las ondas electromagnéticas desplazándose a la velocidad de la luz, c, los llamados cuantos, se da una diferencia sustancial respecto a la formación general de pares materiales partículaantipartícula. El que con este tratamiento general de formación de pares el fotón sea idéntico al antifotón en todo momento (el fotón es su misma antipartícula), lo que ocurre también con el gravitón (que transmite el campo gravitatorio), origina que en este tipo “especial de pares” (con identidad partícula-antipartícula) el tercer componente del “sistema cuántico particular”, el origen de tiempos (o instante en el que se “forma” el par) no es único, sino que se “extiende” durante todo el tiempo de existencia de la partícula. Entonces, la única solución es que este sistema cuántico sea compatible con toda la trayectoria de la partícula, es decir, el sistema cuántico particular debe “contener” la partícula desde su creación hasta su destrucción, así que si la radiación es, por ejemplo, la primordial, o sea, la que se produjo en el big bang inicial y que compone hoy día la radiación de fondo de microondas, el sistema cuántico particular en este momento sería el propio universo complementario al nuestro, que por las razones anteriores es único. Como una radiación producida actualmente, a la En principio lo más fácil será suponer que, dado que en nuestro universo complementario domina el tiempo negativo, y nuestro universo está en expansión, este universo complementario debe estar en contracción y “debería corresponder” su instante T (máximo de su futuro, y, como hemos visto, definido esencialmente por la radiación) a nuestro instante 0. Al cabo del período de tiempo propio T, el universo complementario estaría en el instante T-T = 0, y el universo en el que vivimos en el 0+T = T. El instante, por ejemplo, T- T/4 =3/4 T del universo complementario, correspondería al instante 0+T/4 = T/4 del nuestro, que sería el instante a partir del cual (3/4 T) quedaría incluido el sistema cuántico particular de la radiación producida en nuestro universo en el punto T/4. Ahora bien, los sistemas cuánticos particulares constituidos por los demás pares partícula-antipartícula, se diferencian sustancialmente del de la 47 pueden ocurrir también en el universo complementario, pero de igual forma no se confunden o equivalen al mismo. El sistema cuántico particular de los pares, con carácter general, no coincide con el universo complementario; puede coincidir con él en algún punto (que pudiera ocasionar, casualmente, la aniquilación del elemento del par de energía negativa y por ello de todo el par), igual que puede coincidir casualmente con el sistema cuántico particular de otro par. Ello no quiere decir que tanto la partícula como la antipartícula tengan su “trayectoria”, es decir, existan “permanentemente” en nuestro universo, puesto que todo el planteamiento anterior se refiere al “espacio que sustenta" al elemento del par de masa de energía negativa; evidentemente, cuanto decimos se supone se cumple, también, para “cualquier observador” (si existiera) del universo complementario negativo, eso sí, haciendo la pertinente transposición a valores opuestos contrarios. radiación, puesto que el tercer componente de los mismos está nítidamente definido: solamente hay un instante de creación del par partículaantipartícula, que junto al mismo define de forma “precisa” el sistema (no hay “difuminación” a lo largo de su trayectoria). Este sistema cuántico particular desaparece, también, completamente a partir del instante que cualquiera de los componentes del par desaparece. Aunque, por ejemplo, el electrón formado en uno de estos pares sea indistinguible de otro creado posteriormente en otro par, uno y otro son perfectamente reconocibles, con carácter absoluto, por los otros componentes de los pares respectivos. De igual forma, los “instantes” de creación de ambos pares están sustancialmente conectados a sus respectivos pares, formando, pues, mundos totalmente “disjuntos” (lo que no sucede con la radiación). Precisando mejor, sí pueden coincidir “por azar” en algún instante o localización (precisamente, la aniquilación de los pares electrón-positrón se produce por el encuentro del electrón con el positrón de otro par o el suyo propio), pero sólo lo es en algún “punto” del espacio-tiempo sin que exista “superposición” de sistemas cuánticos que suponga alguna suerte de identificación o paralelismo, como ocurre con la radiación. Desde otro punto de vista, también cabe la interpretación de que los sistemas cuánticos particulares correspondientes a la radiación pueden superponerse al no haber lapsos de tiempo positivos o negativos, a partir de un origen (0), que deban recorrer fotones y antifotones, al ser estos posibles lapsos nulos por la bifurcación y reconstitución continua que se produce en la radiación. En resumen, todo lo más que podemos decir de la partícula de energía negativa componente de un par, obtenido a partir de la radiación (cuya imagen en nuestro universo es la antipartícula), es que “habita” en un mundo (o sistema cuántico particular) que no es el universo complementario de la radiación. Por ello, ahora puede explicarse cómo la aniquilación de las partículas de energía negativa, formadas a partir de la radiación primigenia (situadas, como acabamos de decir, en sistemas cuánticos particulares), no conlleva “necesariamente” la aniquilación de las mismas en dicho universo complementario, lo que ocurriría por “simetría” si dichas partículas “habitaran” de continuo en el mismo. O también, dicho de otra forma, las partículas producidas según las reacciones que expresamos con Estas coincidencias únicas o puntuales entre sistemas cuánticos particulares y nuestro propio universo como conjunto, 48 desintegra, tanto de las partículas como de las antipartículas; de aquella, la correspondiente a la aniquilación de los pares entre sí vuelve a producir radiación. Como el ritmo de decaimiento de las partículas es mayor que el de las partículas, al final sólo quedan partículas en nuestro universo positivo en expansión (En el universo negativo quedará aquello “igual a lo anterior”, es decir, la antimateria de masa negativa en implosión por tener tiempo negativo). anterioridad, y no por producción de pares, son posibles por la no-coincidencia entre el sistema cuántico “radiativo” (universo complementario negativo procedente de la radiación) y los sistemas cuánticos particulares de los pares de partículas. Lo anterior puede expresarse de otra forma diciendo que existe un “entrelazamiento cuántico” entre nuestro universo y el complementario, al menos en los siguientes puntos espaciotemporales: uno y fundamental que es el inicio del big bang, y el big crunch, y otros los que corresponden a la creación y aniquilación de los pares partículaantipartícula, que para la radiación abarca toda la trayectoria. Entonces, el origen del tiempo positivo será el del inicio de la “explosión de luz”, continuado, de inmediato, por la formación de pares, y el resultado del “decaimiento” en materia. El futuro T de la finalización o “terminación” de nuestro universo se ve reflejado, en cierto modo, al inicio del tiempo (T) en el otro universo –el tiempo negativo en este universo, hemos dicho, empieza en T y acaba en 0. De alguna forma, la “creación” (de nuevas dimensiones físicas, y de una nueva “historia” del universo) es producida, tanto en el final de nuestro universo T, como en su origen 0, aún cuando se vea “preñada” toda la secuencia creativa (de 0 a T), por estas interacciones o “entrelazamientos cuánticos”. Así, cada nuevo ciclo del universo estaría “construido” con la aportación de las leyes físicas vigentes (configuradas en cada big bang), el azar, y las interacciones (“entrelazamientos cuánticos”) entre los universos positivo y complementario, tanto de los instantes iniciales (big bang y big crunch) como de la radiación y los pares partícula-antipartícula. Y es que cuando se “crean” los pares partícula-antipartícula de masa positiva en nuestro universo, en el complementario (negativo) se crean, también, pares partícula-antipartícula de masa negativa. La antimateria de masa negativa es la misma materia positiva de nuestro universo o partículas positivas. La aniquilación de pares posterior, deja como rescoldo, en este mundo negativo, de igual forma, antimateria de masa negativa, desapareciendo la materia de masa negativa. Ello es consecuencia de que en este universo complementario el decaimiento (desintegración) de las partículas (de masa negativa) es mayor que el de las antipartículas (lo contrario que en nuestro universo). Todo esto es extensivo, por supuesto, a los quarks y antiquarks respectivos. El tiempo, pues, positivo y negativo, tiene su origen en ese fogonazo inicial perpetuado por la primera materia primordial (antimateria en el universo complementario). Esquematizando todo lo anterior, la secuencia sería esta. Estallido de luz(radiación). Producción de pares partícula-antipartícula. Una parte se 49 La materia(positiva) es preferente en la expansión, que tiene un tiempo positivo. La antimateria (negativa) es preferente en la implosión, que tiene un tiempo negativo. La antimateria (positiva), pues, es residual en la expansión en nuestro universo. La materia (negativa) es residual en el universo complementario implosivo. El “entrelazamiento cuántico” se produce entre el instante cero de la materia y el –t (final en el universo complementario de su tiempo). Y tiene que ser desde el final porque al cambiar el tiempo debe “empezarse” por el final para que pueda “montarse” toda la secuencia completa del “tiempo absoluto” t. 2. Proceso en complementario. Parece que la “vida” sólo está circunscrita a las fases explosivas, por cierto, con masa-energía positivas. (Haciendo la salvedad de la energía gravitatoria considerada negativa, equilibrando, en este sentido, en un universo plano, a esa energía positiva). Materia negativa Universo N. Emisión cuanto negativo -hν/2 -t←----------0 Antimateria negativa (Tiempo interno) Emisión cuanto negativo -hν/2 (Creación por -hν en universo N.) 0←---------+t En el sistema cuántico particular de la creación de materia-antimateria por la radiación ( que consta de partícula de masa positiva, partícula de masa negativa e instante nulo cero inicial) debería “añadirse” o, más bien, hacerse una precisión respecto a la “construcción” de la antimateria. Y es que al aplicar la “retroacción” al tiempo de la partícula de masa negativa, la “correlación” no se establece entre nuestro instante cero y el cero de la partícula de masa negativa, sino, hablando de antimateria o de “ausencia”, la correlación debe ser entre nuestro instante cero del tiempo positivo, y el tiempo –t del tiempo “interno” de la partícula de masa negativa; ello es debido a que si el tiempo del universo complementario va desde “su” origen cero a su “futuro”, -t, (según su secuencia o “movimiento”) el sentido contrario del tiempo, aquí, irá desde “su futuro”, -t, hasta “su pasado”, 0. En el universo actual. 0 t⇒ + t Materia positiva ----------------→ ⇒ 0 Antimateria positiva Tiempo interno –t En el universo complementario. ⇐ Universo negativo -t ------------- 0 0------------- +t Universo positivo ⇒ Secuencia completa 1. Proceso en nuestro universo. Materia positiva universo Devolución energía -hν Un simple gráfico aclaratorio de nuestra teoría sobre la antimateria y su repercusión cosmológica se expone a continuación. -t --------------0-------------- +t el “Devolución” de energía hν 0--------------→+t Se destruye (Emite su cuanto hν/2) Ausencia de antimateria en 0 del tiempo positivo Así que, si en un universo hay “al final” materia (positiva), y en el otro antimateria (negativa), de las explicaciones de 1. y 2., la antimateria del universo complementario comenzará “su tiempo” -t--------------→0 Aquí emite su cuanto hν/2, pues al ir el tiempo interno hacia atrás la creación se transforma en destrucción. 50 Nuevamente hemos de expresar que las secuencias de “acontecimientos internos” son idénticas en ambos universos, aunque el efecto de cada universo sobre otros sistemas cuánticos particulares, por ser ellos mismos distintos, es diferente. Nunca se sabe si un “suceso” determinado es efecto de la “actuación” o “proceso” producido “en o por” uno u otro de los universos. en +t, dirigiéndose hacia 0. La materia de nuestro universo comienza su tiempo en 0 y se dirigirá hacia +t. Luego el “entrelazamiento cuántico” finalmente se produce en nuestro universo en expansión de o a +t y, como consecuencia de lo anterior, en implosión de +t a 0. 51 a(t0)=1) y a(t) el factor de escala en el momento de la emisión. Capítulo III. INFLACIÓN De la relación velocidad- distancia: 1.Universo de Einstein- de Sitter H(t) = v/a = 1/a (da/dt) = d(ln a)/dt=2/(3t) De la ecuación (14) se obtiene el universo de Einstein- de Sitter como caso particular en el que la tendencia a la expansión y la atracción gravitatoria están en el punto crítico de manera que la energía total es cero. 2 Y por tanto, el tiempo de expansión en la actualidad es: t0 = 2/(3H0) = 6,52 h-1 Gigaños. De(16) t=t0(1+z)-3h =6,52 h-1 (1+z)-3/2 Gi. , que nos indica el tiempo o edad de una galaxia con desplazamiento al rojo z. 2 Entonces: 0 = (da/dt) - 8/3 π G ρ a (da/dt)2 = 8/3 πGρ a2 = v2 = H2 a2 (15) (Habiendo utilizado la relación velocidaddistancia v = H a) Así que: H2 = 8/3 πGρ ; en t, que tiene que cumplirse para cualquier tiempo, y en particular en t0 (tiempo actual). O sea: H02 = 8/3 πGρcrit. ; siendo ρcrit. la densidad crítica, hoy. El valor de la constante de Hubble para un desplazamiento al rojo z es: H(z) = 2/3t ={2/3t0} (1+z)3/2 = H0 (1+z)3/2 2.Universos dominados por materia fría de tipo general ρcrit. = 3 H02/8πG = 1.879 h2 10-29 g/cm3; siendo h = H0/100 La ecuación de conservación de la energía puede ser reescrita para el caso general en la forma: Como la densidad es inversamente proporcional al volumen, que es proporcional al cubo del parámetro de expansión a3, entonces, la relación (15) se satisface para un parámetro de expansión que es proporcional a t2/3, y por tanto: H2/H02 = (1/a2) (1-Ω0)+(1/a3) Ω0 ; donde Ω0 = ρ0/ρcrit., y también a(t0)/a(t) = 1+z y H(t) = d(lna)/dt = -d(ln(1+z))/dt. Y tendremos: a(t0)/a(t) = (t0/t)2/3 = 1+z (16) ; donde z es el corrimiento al rojo y t0 el tiempo transcurrido desde el big bang medido por el observador. H0 dt = (1+Ω0 z)-1/2 (1+z)-2 dz E integrando esta ecuación para el corrimiento al rojo desde 0 a infinito, obtenemos el tiempo de expansión. Para Ω0 = 1 obtenemos el caso anterior del universo de Einstein- de Sitter, H0 t0 = 2/3. Para Ω0 = 0 obtenemos el caso particular del universo vacío de materia, donde H0 t0 = 1. Y esta es la interpretación estándar de la expansión: 1+z = λ0/λe = a(t0)/a(t) ; siendo λ0 la longitud de onda observada, λe la longitud de onda emitida, a(t0) el factor de escala en el momento de la observación (definido de forma que 52 Cuya 1ª integración nos conduce de nuevo a la ecuación de la energía: 3.Universo dominado por radiación Es un universo dominado por radiación o partículas con velocidades relativistas (materia caliente). Habrá que considerar la densidad de energía y también la contribución de la presión. E = (da/dt)2 – 8/3 πGρa-2 siendo ahora E el doble de la energía total. El parámetro de expansión para un universo crítico dominado por la radiación se mueve como t1/2. La ecuación del movimiento entonces es: d2a/dt2 = -4/3 πG (ρrad +3 Prad/c2)a 4.Universo dominado por la densidad de energía de vacío. Universo de de Sitter La densidad es sustituida por el tensor energía-impulso de la ecuación de campo einsteniano. (El factor 3 se introduce para considerar la densidad de momento que está en un volumen unidad en cada dirección espacial). La densidad de energía de vacío (asociada perfectamente a la constante cosmológica) contribuye con una presión negativa medida por el trabajo. dW = P dV = -3 ρvacío c2 4/3 π R2 dR Pero la presión de un gas de partículas relativistas de densidad de energía u viene dada por la expresión: Que hay que restar a la energía total 4/3 πR3 ρvacío c2, y por tanto: P = u/3 = ρrad. c2/3 d[R3ρvacío] = 3R2 ρvacío dR⇒ρvacío = cte. Y la presión produce un efecto añadido de disminución de la densidad medida por el trabajo: ; o sea, la densidad de energía del vacío es cte. durante la expansión, ya que las fluctuaciones cuánticas del vacío no deben depender de lo que suceda en el universo. La ecuación dinámica en este caso es: dW = P dV = ρrad. c2 4/3 π R2 dR Que se resta a la energía total 4/3 πR3 ρrad. c2; y por tanto: d2a/dt2 = 4/3 πG (2ρvacío) a ; que tiene la solución exponencial del tipo a(t)α exp[Ht], donde H = (8/3 πG ρvacío)1/2 y H no depende del tiempo. d[R3 ρrad.] = - R2 ρrad. dR ⇒ d[ log (ρrad.)] = - 4 d[log B] ⇒ ρrad. α R-4 El resultado anterior puede entenderse como que se produce una disminución de la densidad por un factor R-3 debido al aumento del volumen, más un factor adicional R-1 por el factor de aumento de la longitud de onda consecuencia de la expansión. La dinámica se convierte entonces en: 5.Caso general En el caso general donde existen contribuciones de materia fría, materia caliente y densidad de energía de vacío, puesto que dichas contribuciones a la energía potencial se suman linealmente, se obtiene la ecuación para la energía total del sistema: d2a/dt2 = -4/3 πG (2ρ0) a-3 53 H2 a2 = E+8/3 πG a2 (ρvo+ρmo a-3 +ρro a-4) ; donde ρvo, ρmo, ρro son las densidades de energía de vacío, de materia fría y radiación, respectivamente, para t = 0. Ecuación que también puede escribirse como: - 7.El modelo clásico del Big Bang H2 = H02 ([1-Ωvo-Ωmo- Ωro ] [1+z]2 +Ωvo +Ωmo [1+z]3 +Ωro [1+z]4) Se demuestra que un universo que sea: - Homogéneo e isótropo - Esté en expansión (según la ley de Hubble) - Sea un fluido perfecto - Y esté gobernado por la relatividad general (que funciona perfectamente hasta el tiempo de Planck) ; tiene una singularidad al principio de su existencia llamado big bang. Y para la variación del tiempo con respecto a la desviación hacia el rojo: H0 (1+z) dt/dz = ([1-Ωvo-Ωmo-Ωro] [1+z]2 +Ωvo+Ωmo[1+z]3+Ωro[1+z]4)-1/2 6.Parámetro de desaceleración Desarrollando en serie de potencias, el parámetro de expansión puede ponerse como: Se asume que la métrica más general obedece a la métrica de RobertsonWalker, en la que el “intervalo de universo” vale: a(t0+∆t) = a(t0) { 1+ H0 ∆t –1/2 q0 (H0∆t)2 +.....} ; donde se ha introducido el nuevo parámetro q0 llamado de desaceleración, que puede definirse como: 2 2 Universo crítico dominado por radiación q0 = 1 Universo vacío q0 = 0 Universo dominado por la densidad de energía de vacío q0 = -1 d s2 = (c dt)2- a(t)2 [d r2/(1-k r2) + r2 (dθ2 +sen2 θ dφ2)] El factor de escala a es una medida del tamaño del universo y k es el factor de curvatura del universo. -2 q0 = -a (d a/dt ) (da/dt) La ecuación del movimiento en el caso general puede escribirse entonces: En un universo homogéneo e isótropo el tensor energía- momento es el que corresponde a un fluido perfecto: d2a/dt2 = -4/3 πG (ρ+3p/c2) a-2 Y como: H = (1/a) (da/dt), se tiene Gα,β = -8πG/c4 Tα,β Q0 = 4/(3H0)2 πG (ρ0+3p/c2) = 1/2Ωmo +Ωro-Ωvo ; y las ecuaciones de movimiento de Friedmann- Robertson- Walker (FRW) se vuelven: Los valores del parámetro de desaceleración para los diferentes tipos de universo son los siguienetes: ä = -4/3 πG (ρ+3p/c2) a a2 = -kc2+8/3 πGρ a2 ; siendo a la derivada de a respecto del tiempo, y ä la 2ª derivada. - Universo de Einstein- de Sitter q0 = ½ 54 Tij es el tensor masa-energía, Gij el tensor de Einstein (una descripción general de la curvatura del espacio-tiempo) y k la curvatura. observadas. Por ejemplo, los monopolos tienen una masa de unos 1016 GeV, y una densidad tal que Ω debería ser de alrededor de 1016, y no la unidad. ¿Qué había antes de la singularidad? Como ρ+3p/c2 >0, el universo se decelera (ä<0). O sea, como el universo se expande (a>0), las ecuaciones FRW del movimiento indican que hay una singularidad para a = 0, lo que como hemos dicho se llama big bang. - Cuando el tamaño del universo era comparable a la distancia de Planck (lP∼1,7 *10-33 cm.) no puede asumirse la isotropía y homogeneidad, debido a la incertidumbre cuántica y necesitamos de una nueva teoría de la gravedad cuántica para describir su evolución. En ese momento la temperatura del universo era mayor que TP∼1,2 * 1019 GeV o 1,4 *1032 K. Desde ese momento el universo se ha ido haciendo más grande, enfriándose y en expansión. a2 = -kc2+8/3 πGρ a2 ; asumimos la existencia de un campo escalar Φ dominado por la densidad de energía (por ejemplo: ρ =½ (dφ/dt)2+V(φ) Se asume, también, que la energía potencial V(φ) es mucho mayor que los gradientes espaciales y la energía cinética (derivadas del tiempo). Bajo estas condiciones: Esta imagen estándar explica la expansión del universo, la radiación del fondo de microondas, la nucleosíntesis cósmica y la asimetría bariónica del universo, por ejemplo, pero subsisten algunos problemas importantes como: El universo se expande "cuasiexponencialmente” (φ varía lentamente durante la inflación). - - - 8.Universo inflacionario En la 2ª ecuación del movimiento de FRW: a2 = 8π/3mρl2 ρ a2; y α(t)α exp (8πρ/3m2ρl)1/2 t = exp(8π V(Φ)/3mρl2)1/2 t Se cree que el universo en los instantes iniciales creció muy rápidamente, es la llamada época inflacionaria. Se piensa que esto sucedió en la época de la GTU, t∼10-37 segundos (lo que corresponde a una energía de 1015 GeV), o incluso antes, en la época de Planck (t∼10-43 s, 1019 GeV, con un factor de expansión de al menos e60∼1026. Al final de la expansión el universo apareció a muy alta temperatura, lo que requería la nucleosíntesis. Después la evolución procedió como predice la teoría estándar del big bang. El campo de inflación φ se asume que obedece a la ecuación clásica del movimiento: Cómo las regiones separadas 180º en nuestro horizonte pueden ser tan similares, estando situadas fuera del cono de luz. Puede demostrarse que si el universo no hubiese sido inicialmente extremadamente plano ( Ω igual a 1, con una aproximación de 1 parte en 1057) el universo hoy día estaría altamente curvado con un Ω muy diferente de 1, no entre 0,2 y 2 como se mide. Muchas teorías de Gran Unificación (GTU) predicen partículas como monopolos, que no han sido nunca 55 d2φ/dt2 +3 H dφ/dt + dV/dφ = 0 y temperaturas extremas; desde entonces se expande, a la vez que se enfría. Esto supone una transición desde un campo cuántico a uno clásico. La fase lenta dura el tiempo durante el que la energía cinética del campo es mucho menor que la energía potencial. La aceleración (d2φ/dt2) es mucho menor que el término de fricción y φ se mueve lentamente bajo el potencial de superficie. Esto queda cuantificado generalmente con las condiciones de rodadura lenta: La baja densidad de monopolos magnéticos (un monopolo es un polo magnético, norte o sur, aislado) que predice el modelo inflacionario resultaría compatible con las observaciones. La inflación también resuelve el llamado problema del horizonte, planteado porque la distancia del horizonte, distancia total que debe haber recorrido una señal de luz desde el inicio del universo, durante la mayor parte de su historia, es mucho menor que el radio del universo observable. En el modelo inflacionario, la distancia del horizonte (al crecer el diámetro en un factor quizás 1050 veces mayor que el estándar), en cualquier tiempo, es mucho mayor que el radio observable del universo. V” ≤ 9H2 = 24πV/m2pl V/V≤(48π)1/2/mpl ; lo que significa que en la inflación clásica el potencial es muy plano. Los campos escalares aparecen naturalmente en las teorías supersimétricas (SUSY) descritas por el universo temprano. Es, por ejemplo, posible que la transición de fase comprometida en la inflación sea aquella en la que la supersimetría se rompe, o que φ aparece después de que la supersimetría se ha roto. Esto indica que la supersimetría ocurre en la escala del tiempo de la GTU. Desde luego, φ podría haber tenido otro origen. Durante la fase inflacionaria la densidad de materia permanece constante, aunque desciende la temperatura, estabilizándose alrededor de los 1022 grados por efectos cuánticos que aparecen en el contexto de la relatividad general. La violación de la tercera hipótesis del modelo estándar, que suponía que los cambios ocurridos en la materia o la radiación eran tan suaves que tuvieron un despreciable efecto en la historia termodinámica del universo, constituye la clave de la inflación. Según la teoría inflacionaria, en ese pequeño período que duró una pequeña fracción de segundo, pudo haberse creado toda la materia y energía del universo, virtualmente a partir de la nada. También, si el modelo es correcto, el universo que observamos es una porción muy pequeña de lo que es en toda su integridad. Cuando se combinan las teorías de gran unificación con el modelo de la gran explosión, el exceso de materia sobre antimateria percibido puede producirse con naturalidad por medio de las interacciones entre partículas elementales a temperaturas un poco por debajo de la temperatura crítica de la transición de fase. Como en las teorías de la gran El modelo estándar del big bang comparte muchas características con el modelo inflacionario. Ambos comenzaron, o tuvieron su origen hace unos 10.000 o 15.000 millones de años partiendo de una bola de fuego primigenia, con la densidad 56 El mecanismo a través del cual se produce la ruptura espontánea de la simetría en las GTU´s es la introducción de un conjunto especial de campos en la formulación de la teoría, conocidos por campos de Higgs (llamados así en honor de Peter W.Higg, de la Universidad de Edimburgo). Si todos los campos de Higgs son nulos no se rompe la simetría, sino cuando uno al menos de los mismos toma valores no nulos. Podemos formular la teoría de modo que un campo de Higgs tenga un valor no nulo en el estado de densidad de energía más bajo, que se denomina vacío verdadero. Para una temperatura superior a 1027 grados, las fluctuaciones térmicas dan el valor cero como el de equilibrio del campo de Higgs, con lo que hay una transición hacia la fase simétrica. unificación, los cálculos dependen de muchos parámetros arbitrarios, una elección razonable de valores para los mismos puede explicar esa asimetría entre materia y antimateria. Ahora bien, la combinación de las dos teorías, a saber de la gran unificación y el big bang, conlleva un gran número de defectos que aparecen durante la transición de la fase simétrica, a la de simetría rota. Algo similar a la cristalización de un líquido, pues regiones diferentes pueden iniciar su cristalización con orientaciones diferentes de sus ejes de cristalización. Hay una suavización de las diferencias de orientación en las fronteras de dichas regiones, no obstante es una suavización imperfecta, quedando defectos locales. En estas teorías GTU´s, los defectos puntuales y los superficiales plantean problemas cosmológicos. Entre los primeros están los monopolos magnéticos; entre los segundos, las llamadas paredes de dominio. Y es que un dominio interrelacionado en la fase de simetría rota no puede ser bastante mayor que la distancia del horizonte correspondiente a ese tiempo; de esto, puede calcularse el número de defectos que ocurren durante la transición. El problema es que habría tantos defectos después de esta transición que su masa dominaría la densidad de energía del universo, acelerando la evolución subsiguiente de forma que la temperatura actual de 2,7 grados Kelvin de la radiación de fondo de microondas se habría alcanzado a los 30.000 años de la gran explosión, y no a los 10.000 millones de años. Este, pues, es un problema que habrá que abordar en cualquier modelo de inflación que adoptemos; debe suprimirse drásticamente, por algún mecanismo, la producción de monopolos magnéticos y paredes de dominio. El modelo inflacionario fue propuesto por Alan H.Guth en el año 1980. En un principio Guth propuso que el universo contenía, al menos en alguna región, un gas muy caliente en comparación con la temperatura crítica de la transición de fase y además estaba en expansión. En esas regiones el campo de Higgs era nulo. La propia expansión provocaría un descenso de temperatura, originando las condiciones favorables para que el campo de Higgs tomara valores no nulos, con lo que el sistema pasaría a la fase de simetría rota. La transición de fase transcurriría más lentamente que la velocidad de enfriamiento, así que el sistema podría enfriarse bastante más de los 1027 grados, aún cuando, también, el campo de Higgs sería nulo. (El sobreenfriamiento es corriente en la física de la materia condensada –El agua puede sobreenfriarse hasta 20º grados por debajo del punto de congelación. También el vidrio se obtiene mediante 57 verdadero vacío, que crece dentro de una región del falso vacío. Como la presión del vacío verdadero es mayor que la del falso, obliga a la burbuja a aumentar de tamaño; la presión del vacío verdadero es nula por lo que la del falso debe ser negativa. Entonces, la presión negativa es como una fuerza gravitacional que es en realidad repulsiva: la expansión de la región quedaría acelerada y crecería exponencialmente, doblando su diámetro cada 10-34 segundos. O sea, que si la era inflacionaria duró unos 10-32 segundos, el diámetro del universo se multiplicó por un factor 1050 o superior. Tras esta colosal expansión, se presupone que se produjo la transición a la fase de simetría rota. Se liberó, entonces, la densidad de energía del falso vacío obteniéndose una enorme producción de partículas. El recalentamiento de la región supuso un aumento de la temperatura hasta los 1027 grados. A partir de aquí, el modelo sigue exactamente el del big bang, es decir, expansión y enfriamiento. La región sería, entonces, más grande que el universo actualmente observado, con lo que se elimina inmediatamente el problema del horizonte. sobreenfriamiento rápido de un líquido hasta una temperatura bastante inferior al punto de congelación). Así que ese sobreenfriamiento hará tender la materia hacia un estado peculiar llamado "falso vacío". Este estado, no observado aún, posee propiedades que se deducen con claridad de la teoría cuántica de campos. La densidad de energía del estado, entonces, se concentra en el campo de Higgs, y un valor nulo de este campo implica una gran densidad de energía para el falso vacío. En una teoría clásica dicho estado sería absolutamente estable, aún cuando no fuera el estado de mínima densidad de energía. Estos últimos estados estarían separados del falso vacío por una barrera intermedia de energía, no habiendo energía disponible para permitir que el campo de Higgs superara dicha barrera. Más, en la versión cuántica, el falso vacío no es absolutamente estable, pues en la teoría cuántica todos los campos poseen una fluctuación, así que, como ya indicó Coleman, de la Universidad de Harvard, una fluctuación cuántica sería la responsable de que por azar, el campo de Higgs de una pequeña región del espacio atravesase por el llamado “efecto túnel cuántico” la barrera de energía anterior, sirviendo de núcleo generador de una “burbuja” de la fase de simetría rota. Desde aquí, la burbuja empezaría a crecer a una velocidad que, con rapidez, iría acercándose a la velocidad de la luz, transformando ese “falso vacío” en la fase de simetría rota. Además, el problema de la curvatura nula se solventa, igualmente, al imaginar que la rapidez de la expansión provoca un aplanamiento del espacio, igual que la superficie de un globo se aplana cuando se hincha. Es decir, el valor del cociente Ω tiende rápidamente a uno. En el año 1981, y para resolver las inhomogeneidades en las fronteras de los dominios se creó un modelo inflacionario llamado “nuevo universo inflacionario”. Sus creadores fueron, por un lado A.D.Linde, del Instituto de Física P.N.Lebedev de Moscú, y de otro, e independientemente Andreas Albrecht y Lo más característico del falso vacío es el valor de la presión, muy grande y negativo. El crecimiento es favorecido, ya que el vacío verdadero tiene densidad de energía más baja que el falso. El proceso es la formación de una burbuja de 58 cero a los distintos campos de Higgs, las distintas regiones del universo primitivo darán lugar a diferentes, también, estados de simetría rota, formando cada región un dominio de radio inicial igual, aproximadamente, a su distancia del horizonte (unos 10-24 centímetros). Como el factor de multiplicación del radio de la región aumenta en unos 1050, el tamaño del dominio después de la inflación superará los 1026 centímetros. Paul J. Steinhardt de la Universidad de Pennsylvania. En este nuevo planteamiento, lo fundamental es dar una forma especial a la función de densidad de energía descrita por el campo de Higgs. A diferencia del caso típico, no hay barrera de energía que separe el falso vacío del verdadero; se habla entonces de una transición de caída lenta en rotación desde el falso vacío al verdadero. La energía almacenada en la región sería la almacenada en el campo de Higgs, que puede describirse como un estado con gran densidad de partículas de Higgs. Pero, las partículas de Higgs serían inestables y se desintegrarían rápidamente en otras más ligeras, que interaccionarían entre sí, desintegrándose posteriormente. El sistema sería pronto un gas caliente de partículas elementales en equilibrio térmico, como sucede en el modelo estándar. La situación inicial del universo, y de las regiones calientes del mismo es igual que en el modelo anterior. La diferencia estriba en que la intensidad de la transformación de fase es “muy baja”, comparada con la intensidad de enfriamiento, así que el sistema se sobreenfriará hasta una temperatura más bien despreciable, manteniéndose el campo de Higgs en su valor cero, es decir, en el falso vacío. Entonces, serían las pequeñas fluctuaciones térmicas residuales las que provocarían que el campo de Higgs dejase de ser nulo. Al no haber barrera de energía, el valor del campo de Higgs crecerá uniformemente, asimilándose la intensidad del mismo al que presenta la velocidad de una bola rodando por una colina del mismo perfil que la curva representativa de la densidad de energía, sometida a una fuerza de rozamiento. Al ser casi plana alrededor del punto en el que el campo de Higgs se anula, el crecimiento evolutivo es muy lento al principio. En este último modelo trata de evitarse cuidadosamente el punto débil del modelo inflacionario original. Aquí, las burbujas aisladas que aparecen en el modelo original se reemplazan, ahora, por los dominios. Los dominios de la lenta transición de caída estarían rodeados no por el falso vacío sino por otros dominios. Es decir, no tiende hacia la esfericidad, evitándose el término “burbuja”. La diferencia es que ahora cada dominio sufre la inflación durante su formación, dando lugar a una región enorme prácticamente homogénea. La asimetría materia-antimateria se produciría por interacciones entre partículas, después de la transición de fase. La variabilidad del modelo inflacionario depende, fundamentalmente, de la misma variabilidad de las teorías de Igual que hay muchas posibles orientaciones para los ejes de un cristal, hay muchos estados de simetría rota, que corresponden a los distintos campos de Higgs al tomar valores no nulos. Por ser aleatorias las fluctuaciones que sacan del 59 partículas, que como las GTU´s no conservan el número bariónico. paredes se mantendría la fase simétrica de las teorías de gran unificación. Aquellos protones y neutrones que atravesaran la pared se desintegrarían al instante. Con el tiempo estas paredes de dominio se aplanarían, y los dominios más pequeños desaparecerían, mientras crecerían los más grandes. Al ser las fronteras que separan los dominios mucho más grandes, los defectos que se forman en los mismos como los monopolos caerían a distancias muy por encima de nuestras observaciones. Sin embargo, la necesaria transición teórica de caída lenta en rotación exige un ajuste preciso de los parámetros, lo que supone un cierto aspecto negativo en la teoría. En otras versiones de las GTU´s no habría una formación definida de paredes de dominio. Estados diferentes de simetría rota de dos dominios vecinos, se van entremezclando suavemente y en la separación de ambos dominios, densidad y velocidad de la materia poseerían discontinuidades, o sea, se podrían encontrar algunos polos magnéticos. Muchos científicos creen que el nuevo modelo inflacionario allana el camino hacia el llamado “problema de la suavidad”. Y es que muchos cosmólogos imaginan que es necesario un “espectro de inhomogeneidades” (necesarias para la formación de galaxias, etc., bajo la lenta acción de la gravedad), casi igual para todas las escalas de longitud con significado astrofísico. El nuevo modelo inflacionario predice la magnitud de las inhomogeneidades de la densidad, aún cuando el valor obtenido de la gran unificación es demasiado grande y no concuerda con la “uniformidad” que se observa en la radiación cósmica de fondo de microondas. Ahora bien, de las nuevas teorías supersimétricas se deducen transiciones de fase decaída lenta en rotación, sin ningún ajuste fino de los parámetros involucrados. Otra posibilidad distinta es la que supone la densidad de energía de los campos de Higgs, en la que existe una pequeña barrera de energía, alrededor del punto cero de Higgs del falso vacío. En esta variante, el falso vacío se desintegraría mediante la formación “aleatoria” de burbujas, que caerán, igual que en la segunda versión, evolucionando de forma muy lenta, y la expansión acelerada seguiría, aunque bastaría una sola burbuja para albergar todo el universo observado. Como la intensidad de creación de burbujas se supone baja, escasearán las colisiones entre ellas. Las burbujas llenan una parte del espacio con densidad cercana a la unidad cuando el sistema evoluciona, pero el espacio se expande tan rápidamente que la parte que permanece en estado de falso vacío aumenta con el tiempo. Eternamente irán formándose universos burbuja, y no se sabrá cuanto tiempo pasará antes de aparecer la burbuja. Así que ante nosotros se configura una descripción de modelo cosmológico que se parece en cierta forma al del modelo estacionario (que veremos más tarde) a muy grandes El modelo inflacionario permite diversas posibilidades para la totalidad de la estructura del universo. Para todas, el universo observable es sólo una parte pequeña del total, pues el límite de nuestro dominio estaría a más de 1035 años luz. Una posibilidad es que los dominios estén en contacto unos con otros llenando todo el espacio. Los dominios estarían separados por paredes de dominio, y en cada una de estas 60 escalas. Aunque nada impide que dentro de cada burbuja, la evolución sea la de la gran explosión con su fase inflacionaria. inflación puede ocurrir naturalmente con un potencial φ0 arbitrario. Consideremos, como ejemplo, el potencial de inflación V =1/4 λ φ4. Si el universo es inicialmente no homogéneo y dominado por las fluctuaciones cuánticas (como sucede durante la era de Planck), puede esperarse una distribución de φ0 entre –mpl/λ1/4 y mpl/λ1/4. Esto hace que la lambda tiene que ser bastante pequeña, siendo fácil obtener regiones en las que φ0 es más pequeña que unas pocas Mpl y casi homogéneo. En tales regiones las condiciones de caída lenta, V”/V =12/φ2 <24π/mpl2 y V/V = 4/φ <(48π)1/2/mpl , se satisfacen y ocurre bastante inflación para resolver los problemas del horizonte y la curvatura nula. Filosóficamente la idea más revolucionaria del modelo inflacionario es la de que toda la materia y la energía del universo observable puede haber aparecido de la “casi” nada. 9.Inflación caótica Como sabemos, la imagen de la inflación estándar del universo incluye un necesario ajuste del potencial inflacionario en las condiciones iniciales. Tampoco es satisfactorio la existencia de texturas, paredes de dominio y otros defectos inobservables. Finalmente, incluso la singularidad no pude ser evitada. La visión sería: diferentes regiones del universo se “inflan” más que otras, y a diferentes rangos, dependiendo de φ0. Entonces el universo es globalmente no homogéneo con regiones con diferentes campos de inflación. Cada región parece localmente homogénea e isótropa. Algunas se inflan más rápido que otras; otras paran la inflación y se “termalizan” (parecido con lo sucedido en nuestro universo). Algunas pueden colapsar en agujeros negros, y otras probablemente pueden continuar en inflación para siempre. La inflación caótica empieza en un universo no homogéneo, inmediatamente antes de la época de Planck, 10-43 segundos. En esta teoría los requerimientos para las específicas condiciones iniciales de una determinada forma de potencial de inflación son más débiles y el tratamiento de las singularidades y defectos es más satisfactorio. En la época de Planck, las fluctuaciones cuánticas de la métrica y la densidad son del orden de la unidad (dρ∼dV(φ)∼Mpl4 ; donde Mpl es la mas de Planck). Si las fluctuaciones de las cantidades son del orden de Mpl4, es natural asumir que dichas mismas cantidades son de ese orden: Vφ∼Mpl4. Consecuentemente, el valor inicial del potencial inflacionario φ0 es típicamente mucho mayor que Mpl (por ejemplo V(φ) = φ2/2, luego 2 φ0∼2Mpl >>Mpl. Para casi todos los V(φ) es fácil tener regiones con φ>Mpl). Entonces en la inflación caótica, la Es evidente que incluso con una distribución inicial del campo inflacionario al azar, las regiones con más alto φ podrían dominar pronto el volumen del universo, y aquellas que han sufrido inflaciones mayores que varios radios de Hubble aparecerán homogéneas e isótropas. Con la inflación caótica (una inflación eterna), podemos imaginar un estado estable del universo, con diferentes 61 la variación de φ bajo el potencial queda inalterado. Si, sin embargo, φ es grande las fluctuaciones dominan y por tanto no puede estudiarse la evolución de φ como un problema de difusión, y discutir la fracción del universo con un cierto valor de φ. Esto está directamente relacionado con la probabilidad de que un punto del universo semejante al nuestro exista. regiones de continua inflación. La singularidad puede ser evitada de varias formas, porque no todo el universo tiene que decrecer hasta la densidad de energía de Planck al mismo tiempo. Como veremos a continuación, partes del universo pueden aumentar su densidad de por encima de la energía de Planck y luego re-disolverse en “espuma cuántica” Otros universos, o partes del mismo, pueden “acceder” a la existencia a partir de esa espuma. Las fluctuaciones cuánticas enφ obedecen a una incertidumbre que avanza por saltos de valor H(φ)/2π (Vilenkin y Ford, 1982). (Teóricamente cada observador en un universo de de Sitter en expansión exponencial es rodeado por un horizonte de sucesos, y por tanto el universo tiene una temperatura de Hawking más parecida a un agujero negro, igual a H(φ)/2π). Esto da un coeficiente de difusión D = H3/8π2. Combinando esta difusión cuántica con el movimiento clásico del campo se obtiene: Un universo (o parte del mismo) en el que la densidad de energía está por debajo del nivel de Planck, y es por tanto clásicamente describible, debe satisfacer ciertas condiciones para que la inflación sea posible. Estos requerimientos tienden a ser bastante suaves en la inflación caótica, mientras que pueden ser extremadamente severos (y poner requerimientos poco naturales en las teorías de la física de partículas del universo primordial) en otras variantes de modelos inflacionarios, por ejemplo en la “nueva” inflación. Esta suavidad proviene primero del hecho de que la inflación caótica ocurre mucho antes que en otros tipos, lo que deja menos tiempo para que los efectos de curvatura y anisotropía destruyan el universo antes que la inflación suceda o pueda prevenírsela, y en segundo lugar porque hay pocos requerimientos en la forma del potencial inflacionario. ∂Pc/∂t=∂/∂φ1/3 (3m2pl/8πV)1/2 (8V2/3m2pl ∂Pc/∂φ+ Pc ∂V/∂φ (1+4V/m4pl) ; donde H2 = 8πV/3m2pl durante la inflación y Pc es la distribución de φ en coordenadas comóviles (Starobinsky 1983 en “Interacciones Fundamentales”, y Starobinsky 1986 en “Teoría de Campo, Gravedad Cuántica y Cuerdas”). Casos especiales: Caso 0: Si la evolución clásica del campo es omitida, la solución de la ecuación del movimiento es una distribución gausiana: Cada región del universo con un suficiente φ0 homogénea se inflará en e3 esferas de Hubbel casualmente desconectadas. En cada una de ellas, el valor del campo φ inflacionario puede cambiar debido a las fluctuaciones cuánticas. Si φ0 es demasiado pequeño, las fluctuaciones en un tiempo de expansión de Hubble 1/H es mucho menor que el cambio clásico del campo y Pc (φ,t) = (2π/3Ht)1/2 exp(-2π2φ2/H3t) Caso 1: Como un caso simple consideraremos el potencial V = ¼ λφ4 con la condición inicial φ = φ0 sobre una región del orden de 1/H (Linde 1990, 62 “Inflación y Cosmología Cuántica”). Para t<1/λ1/2mpl la evolución clásica es despreciable y las fluctuaciones crecen con una anchura de ∆0 ∼ 1/ λ1/2 φ03/m3pl. Después que el tiempo de dispersión crezca linealmente con φ ∆(t)∼∆0 φ(t)/φ0 y la distribución en coordenadas móviles es Pc∼[-(φ-φc(t))2/2∆2(t)] , con el campo en promedio creciendo exponencialmente (evolución clásica). La distribución en coordenadas propias, por comparación, es: Pp=Pcexp[3∆t(H(φ)-H(φc))]∼exp[-(φφc)2/2∆2+3B(φ2-φc2)/m2pl] (B=c) 10.Inflación autorregenerante Los lugares donde no se produce inflación se mantienen pequeños, mientras que los dominios donde acontece terminan siendo exponencialmente grandes, dominando el volumen total del universo. Como los campos escalares pueden tener valores arbitrarios en el universo primigenio, a este tipo de inflación se llamó caótica. Más tarde se vio que la inflación no es un fenómeno exótico, sino un régimen general que tenía lugar en una amplia clase de teorías de partículas elementales. Por tanto, hay una fracción de universo que tiene inicialmente un suficiente φ, en el que φ crece continuamente, y el volumen propio de esta fracción crece como exp(3-ln 2)Ht. Cuando V(φ) tiende a Mpl4, estas partes del universo no son más grandes que la descripción clásica y puede decirse que vuelven a la espuma cuántica. Si la densidad del universo difiriese bastante de la densidad crítica, propia de un universo plano, la cosmología inflacionaria se vería en un aprieto. (De posible resolución, pero complicado). Más, algunas versiones (en especial la teoría de Supercuerdas) de la teoría de partículas nos llevan directamente a la inflación, y para obtener esta última debería requerirse nuevas ideas. Y es que la propia teoría inflacionaria cambia con la evolución de la teoría de partículas. Nuevos modelos incluyen la inflación generalizada, la inflación natural, la híbrida y otras. Hay muchas interpretaciones y muchas discusiones concernientes a la evolución de φ en un universo eterno. La inflación caótica es, quizás, uno de los más simples marcos en los que la inflación eterna puede aparecer. Otro caso interesante es el del “universo reciclado” de Garriga y Valenkin (1997), en el que la inflación envuelve una transición de fase desde el falso al vacío verdadero, y las burbujas de falso vacío pueden renuclearse en el vacío verdadero termalizado (por ejemplo, en partes del universo posinflacionario como nosotros). Estas burbujas de falso vacío luego se inflan hasta que las burbujas de vacío verdadero se forman en ellas. Hay también consideraciones sobre creación de universos nacientes, en agujeros negros o en el laboratorio. Así se llega a la teoría del universo inflacionario autorregenerante y eterno. Se puede imaginar como ondas las fluctuaciones cuánticas del campo escalar del universo inflacionario, que al principio se mueven en todas direcciones, fijándose luego unas encima de otras, e incrementando ligeramente cada onda el valor del campo escalar en ciertos lugares y disminuyéndolo en otros. 63 Comentario: Comentario: explosión es inflacionario. Las regiones en que se incrementa de “forma persistente” el campo escalar, aunque poco probables, existen, y empiezan a expandirse con celeridad creciente.. Y además, cuanto más suba dicho campo, con mayor velocidad se expande el universo; en poco tiempo esos dominios, por un lado poco probables, adquieren un volumen mayor que el resto. parte del modelo Y el modelo puede ser, ciertamente, más complejo, pues, hasta ahora, sólo se ha considerado un solo campo escalar con, únicamente, un sólo mínimo de su energía potencial, pero los modelos de partículas proponen distintos tipos de campos escalares (en las teorías unificadas, por ejemplo, de las interacciones débil, fuerte y electromagnética existen como mínimo otros dos campos escalares), los cuales presentan diversos mínimos en la energía potencial de los mismos. Eso es lo mismo que decir que la misma teoría puede tener otros “estados de vacío”, referentes a diferentes tipos de ruptura de simetría, y consiguientemente, diferentes leyes de baja energía. De la teoría inflacionaria autorregenerante se infiere, que si existía en origen un dominio inflacionario de suficiente tamaño, seguirán produciéndose nuevos dominios inflacionarios. Aunque en algunos puntos puede acabar deprisa, en otros continuará su expansión. Así que el volumen total de todos estos dominios va creciendo, o sea, se crean más burbujas, que a su vez producen más burbujas, por eso Linde llamó inflación eterna a este proceso. Se mantiene como una reacción en cadena, produciendo una estructura fractal; así que el universo global es inmortal. Cada región podría surgir en una singularidad del pasado y terminar en otra singularidad en el futuro; pero en conjunto no hay fin para la evolución del universo. O sea, universo estacionario globalmente, aunque el interior de cada burbuja se describa por la teoría del big bang. Así que es fácil imaginar que, después de la inflación, el universo podría quedar partido en dominios exponencialmente grandes, los cuales poseerían, cada uno, leyes de baja energía distintas. Las fluctuaciones cuánticas grandes pueden hacer que los campos escalares “pasen” fuera del mínimo, incluso podrían variar el número de dimensiones del espacio-tiempo. La misma teoría puede dar lugar a regiones del universo que posean propiedades distintas, aunque comiencen en el mismo estado. Por ejemplo, nosotros estamos en un dominio tetradimensional que tiene nuestro tipo de leyes conocidas, pero que podría tener otras, con distinta dimensionalidad y propiedades pero con la misma probabilidad (aunque estas últimas no fueran compatibles con nuestra vida). Lo que no parece clara es la cuestión del origen. Realmente, existe la posibilidad de que todas las partes del universo se crearan simultáneamente en una singularidad inicial del tipo de la gran explosión, aunque para la teoría esta hipótesis no es obvia, por el contrario, el universo total de burbujas en inflación va creciendo exponencialmente con el tiempo, dentro de ese “árbol cósmico”. Ahora parece más lógico pensar que no es la inflación la que forma parte del modelo estándar, sino, al revés, que la gran Linde elucubra en el sentido de que, quizás el entendimiento de todas las propiedades de nuestro dominio requiera 64 no sólo conocimientos de física sino de nuestra propia naturaleza, tal vez de nuestra consciencia. Añade que “nuestra casa cósmica crece,fluctúa y se reproduce eternamente de todas las maneras posibles, como si se ajustara por sí misma a todas las posibles formas de vida que en ella puedan habitar”. 65 Como el radio de curvatura no puede cambiar con el tiempo, sólo puede ser infinito, o sea, la geometría espacial es la misma que en un universo de densidad crítica de dicho modelo del big bang. Capítulo IV. OTROS MODELOS COSMOLÓGICOS 1.Modelo del estado estacionario Este modelo fue propuesto por Herman Bondi, Tommy Gold y Fred Hoyle en el año 1948. Se basa en una discusión filosófica sobre el llamado “Principio Cosmológico Perfecto” en el que el universo, además de ser homogéneo en el espacio, presenta el mismo aspecto medio en cualquier tiempo. Hoyle trató de enmarcar esta idea en un modelo físico introduciendo un campo de creación continua de materia, lo que se llamó campo C. En la idea original ello implicaba la creación de un átomo de hidrógeno por metro cúbico en un período de 1010 años. Posteriormente Hoyle y el astrónomo hindú Narlikar, buscaron esa creación continua de materia en regiones del universo con intensidades significativas del campo gravitatorio como el núcleo de galaxias activas y cuásares. La teoría nació para resolver problemas del momento como la incompatibilidad de las medidas de la constante de Hubble y la edad del universo obtenida de los objetos celestes en él contenidos. Para que el universo muestre el mismo aspecto en cualquier instante, la densidad de materia ρ debe ser constante en el tiempo. Puesto que un volumen dado del universo aumenta en un instante dt proporcionalmente a 3 a2 da, la cantidad de materia n por unidad de volumen variará con el tiempo como: dn/dt = -3n a-1 da/dt+ dn(creada)/dt Como la variación por unidad de volumen debe ser cero (densidad cte.), será: dn(creada)/dt =+3n a-1 Ha = 3nH Esto implica que un observador ve un ritmo de creación de materia de forma que en un tiempo de Hubble se renueva la misma en promedio tres veces. Así que la edad media de las galaxias no puede ser mucho mayor en promedio de 1/3H. Este modelo, pues, predicciones precisas: hace algunas 1. Creación de materia. No ha sido observada, puesto que la tasa es tan baja que puede quedar perfectamente desapercibida. 2. Homogeneidad temporal del universo a gran escala. Sin embargo parece que las observaciones muestran una diferencia entre la parte del universo con desplazamientos al rojo del orden de 2-3, donde es observada una mayor densidad de cuásar, y las zonas del universo con bajo desplazamiento al rojo. 3. Incremento del número de fuentes luminosas con la distancia. En una distribución homogénea de objetos del Si el universo tiene el mismo aspecto en cualquier época, la cte. de Hubble debe ser “realmente” constante, o sea: V = da/dt = Ha que tiene una solución exponencial para el parámetro de expansión: da/a = H dt que integrada da l(a)+C =H(t), es decir a(t) = exp[H(t-t0)] Esa expresión es del mismo tipo que la del modelo de Sitter, aunque aquí se obtiene a partir de un principio de simetría, y no de una de las posibles de las ecuaciones de Friedman del big bang. 66 mismo brillo, para un flujo 4 veces menor se cuentan 8 veces más objetos. En el modelo del big bang, las fuentes caen por debajo de esa predicción en un factor aproximado de (1+z)-4. 2.Modelo relativista del big bang Esta predicción asume que el número de fuentes se conserva, o sea, que una sección del universo contiene el mismo número de fuentes en cualquier instante del universo. Como el volumen del universo disminuye según un factor (1+z)-3 al superarse la densidad de fuentes cte., la corrección en este modelo debe ser de un factor (1+z)-7. Afirma que el modelo estándar del big bang tiene los siguientes problemas: Firmado por Laymans en la Web, estamos ante un modelo que aplica la relatividad hasta sus últimas consecuencias. 1. El proceso por el que empezó el big bang y la física envuelta en ese primer momento están sujetos a debate. El modelo estándar no da una respuesta directa, sino que simplemente presupone un número de condiciones específicas que incluyen un estado comprimido a alta temperatura basado en la evidencia. Algunas fuentes de este estado inicial lo suponen como un globo de partículas atómicas, otras suponen un estado muy comprimido donde la temperatura es tan alta que toda la materia de la totalidad del universo está comprimida en un tamaño menor que un átomo. El modelo inflacionario del big bang dice que la fuente es un “falso vacío”. 2. El problema del horizonte. Algo ya expuesto con anterioridad y que se supone resuelto por el modelo inflacionario. 3. El futuro del universo mismo está en cuestión. Sabemos que el modelo estándar parte primero de la ley de Hubble, y después de la ecuación de la suma total de energía del universo que incluye la energía cinética y la potencial Etot = EK-Ep = mv2+GMm/r, que ya ha sido suficientemente expresada. El big bang tiene déficit de fuentes débiles que puede subsanarse relajando la conservación del número de fuentes por la existencia de un exceso de radiofuentes entre 1 y 3 Gigaños después del big bang. Sin embargo, el modelo del estado estacionario tiene un déficit de fuentes débiles aún mayor, sin que tengan ningún parámetro ajustable para corregir tal error. Más el descubrimiento de la radiación del fondo cósmico de microondas ha supuesto un duro golpe a este modelo del estado estacionario, pues en éste el universo fue siempre igual, sin que hubiera lugar para que se produjera esta radiación de fondo de microondas con característica térmica de cuerpo negro. Podría invocarse la existencia de partículas de longitud milimétrica en el espacio intergaláctico, que pudieran absorber la radiación producida por fuentes galácticas muy luminosas, pero, quizás, esta hipótesis sea demasiado forzada. De acuerdo con la formulación matemática derivada de H y Etot, el universo puede o no expandirse por siempre. Si no hay bastante masa, o, si el universo tiene menos masa que la densidad crítica se expandirá para siempre. Si el universo tiene la densidad crítica, su expansión será tan alta como 67 hoy día. Si la densidad está por debajo de aquella, el universo retrocederá en su movimiento y eventualmente colapsa en el llamado “big crunch”, con lo que podría concebirse un nuevo principio o un nuevo período de expansión repitiendo el big bang (parecido al modelo de George Gamow). Esto nos daría la respuesta a la “causa” del big bang. Existiría por siempre. Laymans nos dice que la velocidad inicial de escape sea infinita (más grande que la velocidad de la luz). 4. La velocidad de la luz es considerada sólo un fenómeno local con implicaciones en la expansión del espacio. 5. La aparente edad del universo está en cuestión. Los astrónomos están tratando de explicar la aparente madurez de los primitivos objetos del universo. Muchas galaxias profundas parecen ser muy similares a nuestros más viejos “vecinos”. El espectro de muchos viejos objetos enseña la misma distribución de elementos pesados que nuestros vecinos. Los elementos pesados son sólo creados a través de la creación y decaimiento de estrellas, lo que requiere billones de años para la aparición de esos elementos. Recientes observaciones indican un rango de expansión más alto en el universo más joven, así que el universo debería ser más joven todavía. De acuerdo con estas ecuaciones, el único universo que puede definirse que no esté decelerando, es un universo vacío que contiene luz pero no masa. La cantidad conocida de masa restante en nuestro universo presenta un efecto de desaceleración, pero no lo bastante para el big crunch. Recientes observaciones indican que la expansión del universo no se retarda, es más “puede estar acelerándose”. La comunidad científica se inclina a adscribir este efecto a la llamada “contante cosmológica”(que ya vimos). Este modelo relativista del big bang asume un big bang inicial y un espacio en expansión donde se aplica la constante de Hubble, sin embargo, en él la velocidad de la luz se toma como absoluta, siguiendo las matemáticas de la teoría especial de la relatividad. Algunas ecuaciones de la Etot pretenden derivarse de ecuaciones usadas en relatividad general, aunque Laymans cree que no son derivadas de forma rigurosa de las mismas, ya que deberían justificar la eliminación de los factores relativos a c y los altos campos gravitacionales., y justificar cómo esos factores no tienen efectos sobre los resultados. (En este sentido, esta teoría explica que las ecuaciones usadas en la relatividad general pueden ser relacionadas con las utilizadas en la restringida si y sólo si los campos de gravitación son débiles). Obviamente, las velocidades son muy altas (al menos c) y los campos de gravitación están cercanos a infinito en el big bang. Como la distancia se aproxima a 0, Ep se aproxima a infinito, porque algo dividido por 0 es infinito. La energía cinética, por tanto, debe volverse infinito para que la Etot se mantenga positiva. Concretando, este modelo asume lo siguiente: A. El universo empieza como una pequeña “singularidad” caliente, posiblemente un fotón con toda la masa/energía del universo; su fuente es desconocida. B. Las leyes de la teoría especial de la relatividad (TSR) son aplicadas en su totalidad. Las matemáticas de la TSR son aplicadas rígidamente a la velocidad de la luz. Es una velocidad máxima absoluta para todas las entidades en el universo. Es un fenómeno galáctico no un fenómeno 68 local como se supone en la teoría estándar y la inflacionaria. C. Las leyes de la relatividad general (TRG) son aplicadas; la velocidad de propagación del campo gravitatorio es c. D. La constante de Hubble aplicada es v = H*r, en cualquier época, aunque el actual valor de H cambia en cada período. c, justo como un “universo vacío”. Éste es el corazón de la teoría. La relatividad general añade otro factor a k definiendo los efectos relativistas de la gravedad. Por último, resumir las respuestas dadas por la teoría: 1. El modelo estándar no da la fuente del big bang. Podrían ser los campos de Higgs como sugiere Alan Guth en la teoría inflacionaria, pero ¿entonces, cuál es la fuente de los campos de Higgs? 2. El problema del horizonte. La teoría no cree razonable asumir que el universo progresaría hacia un estado de uniformidad en rangos de expansión lento. Esta teoría evita el problema del horizonte asumiendo una condición inicial de fuente simple y un rango de expansión c, durante el tiempo de formación del resto de la masa. Después de ese período, el universo se mantiene homogéneo por los efectos de la gravitación relativista con un pequeño, pero rápido crecimiento de la escala. Esta última se disipa al cabo de un tiempo de alrededor del 10% de la edad del universo. 3. El futuro del universo es conocido. El universo se expande y crecerá para siempre (los científicos están llegando a la misma conclusión, pero están forzados a aceptar la constante cosmológica o de hecho la antigravedad). 4. En esta teoría, el espacio no se expande independientemente de los objetos situados dentro y no hay velocidades infinitas. La velocidad máxima es la velocidad de la luz, c, que está en total acuerdo con la teoría relativista especial de Einstein. En el principio del big bang se considera que sólo existía un fotón con toda la masa/energía del universo y a una temperatura en el rango de 1036 Kelvin. El universo empezaría en expansión en c, porque es la normal y única velocidad medible incluso aunque el espacio estuviese altamente curvado al ser el campo gravitacional extremadamente alto. Dicho universo comenzaría con un alto grado de uniformidad por partir de una sola “fuente” en su condición inicial (un fotón) y la precisa expansión relativista c. Como el universo se expande, se enfría hasta los 1026 Kelvin donde la síntesis podría ocurrir. Debido a que el universo era tan uniforme por la simplicidad de sus condiciones iniciales, se desarrollarían pocos monopolos magnéticos. Cuando los parámetros relativistas de STR son tomados en cuenta en su totalidad, la ecuación para la energía cinética es Ek = kmc2-c2, donde k=1/(1v2/c2)5. Cuando v se aproxima al valor de c, k se aproxima a infinito y hace que Ek se aproxime a un infinito positivo. Luego Etotal siempre se vuelve positiva, como se requiere para permitir que el universo continúe expandiéndose. Esta condición persiste a través de la vida de nuestro universo. Por tanto el universo empieza y continúa expandiéndose con la velocidad 69 “Aunque las leyes del espacio gobiernan todo dentro del universo, éstas gradualmente no se debilitan y disipan; existen o no existen. Donde las leyes no existen ninguna masa o energía puede existir, por tanto no hay espacio. El borde del universo no es una barrera, es simplemente donde las leyes del universo acaban." 5. La edad del universo no depende de la densidad del mismo, sino de H. El universo tiene entre 15 a 20 billones de años y es más viejo en el 50% que lo que el modelo de densidad crítica del modelo estándar predice. La velocidad de expansión en este modelo es c, la velocidad de la luz, que es también la velocidad del modelo estándar en el caso especial de masa nula. La edad del universo en esta teoría es simplemente la misma que el radio en años luz (20 billones de años hoy) basado en una cte. de Hubble de 50 km/s Mpc. “El universo es como una esfera con las leyes de la naturaleza dentro, gobernando y unificando todo dentro de la esfera. Las leyes de la naturaleza crean espacio como sabemos. Fuera de la esfera, más allá del borde del universo, nada puede existir, ni las leyes del espacio, por tanto nada puede existir. Incluso el espacio mismo no existe”. 3.Modelo de la aceleración de la expansión Este modelo L.Hamilton. es debido a “Dentro del universo no hay sitio donde podamos ir sin ser constantemente bombardeados por la radiación, las partículas de alta energía o sin sentir los efectos de la inercia. Siempre estamos bajo la influencia de las leyes universales del espacio. Mientras los más poderosos telescopios nos adentran más de 10 billones de años luz en el espacio, el tamaño actual del universo es mucho mayor, quizás de cien billones de años luz”. Donald Según el autor, los resultados del experimento de Michelson, Morley (base de la relatividad restringida einsteniana) indican, realmente, que la materia no se mueve respecto al espacio, por lo que no serían necesarias las contracciones de Fitzgerald/Lorentz. Lo que sucede es que, aunque los cuerpos no se mueven relativamente al espacio mismo, su masa/energía fluctúa a diferentes “niveles de energía del espacio”. El cambio en “masa relativista” de un cuerpo indica cambios en el “nivel de energía del espacio” del cuerpo. “La inercia es un requerimiento del “espacio universal” (“Espacio universal” es todo el espacio del universo). Es el mismo “espacio universal” el que requiere que una fuerza sea ejercida sobre un cuerpo, para acelerarlo. Es el “requerimiento inercial del espacio”. La “masa en reposo” sólo indica la masa del cuerpo en la tierra, dentro de nuestra porción de nuestra galaxia. En otras galaxias o incluso en otras partes de nuestra galaxia la masa en reposo puede ser diferente. Y seguimos añadiendo comentarios del autor. los “Debe ser gastada energía en un cuerpo para aumentar su nivel de energía. El cuerpo debe gastar energía para bajar su nivel de energía. El camino es éste, radiar energía”. propios 70 “Los cuerpos en el espacio, desde los más pequeños a los más grandes, se mueven sólo en relación con otros cuerpos. No hay en absoluto movimiento entre un cuerpo material y el espacio mismo. Esta es la conclusión del resultado del experimento de Michelson-Morley”. “La masa de un cuerpo material no tiene nada que ver con la masa física actual del mismo, es sólo una indicación del nivel de energía del cuerpo en el espacio. Ciertamente la materia de un cuerpo, por ejemplo, podría tener mucha o poca masa dependiendo de su nivel de energía del espacio”. “Un cuerpo que tiene muy bajo nivel de energía del espacio tiene poco poder gravitacional. El mismo cuerpo viajando a una velocidad cercana a la de la luz tendría tremenda masa y poder de gravitación. Su nivel de energía del espacio podría ser muy alta”. “De acuerdo con las leyes de la gravitación de Newton, la masa de un cuerpo determina la cantidad de fuerza de gravitación que posee el cuerpo. (Es la masa inercial, no hay masa gravitacional excepto cuando se usa para describir el peso de un cuerpo). Por tanto, los requerimientos inerciales son responsables de la creación de la fuerza de gravitación. Las leyes de inercia, por tanto, crean gravedad y determinan la cantidad de poder gravitacional que posee el cuerpo. La gravedad es una fuerza primaria de la naturaleza pero emana de la Ley de la Inercia. La gravedad depende de la Inercia para su existencia pero no es equivalente a ella.” “Debido al constante incremento de su nivel de energía del espacio, debido a la aceleración de las galaxias en el espacio, las estrellas que las componen continuamente emiten tremendas cantidades de energía de radiación en orden a estabilizar su nivel de masa/energía. La cantidad de radiación emitida es proporcional a la velocidad de las galaxias. Una correlación a este fenómeno puede ser observada en un ciclotrón cuando una partícula acelerada emite espontáneamente ondas de luz cuando se aproxima a la velocidad de la luz. Esta radiación sincrotrón causa que la masa/energía de la partícula (nivel de energía del espacio) baje automáticamente”. “La masa y el poder gravitacional de un cuerpo crece con la velocidad en el espacio. Un cuerpo con un bajo nivel de energía tiene poco “requerimiento inercial”, y por tanto muy poca atracción gravitacional”. “Lo anterior puede ser la razón por la que las estrellas sólo se forman en galaxias. El polvo y gas intergaláctico puede no tener bastante masa (bastante nivel de energía del espacio) y por tanto, suficiente poder de gravitación para formar estrellas. Sólo cuando una galaxia “acelera” esta materia, su masa y por tanto la atracción gravitatoria se vuelve más fuerte para formar una gran protoestrella y con la compresión suficiente para empezar una reacción de fusión nuclear”. Y como conclusión nos dice lo siguiente. “Al contrario que en el big bang estándar que depende de una tremenda explosión inicial para producir el universo, en esta teoría “simplemente” las galaxias caen (acelerándose) hacia las fronteras (borde) de nuestro universo finito. ¡Alguna suerte de fuerza está originando que las galaxias se aceleren!” (Según las últimas informaciones las galaxias parecen acelerarse). 71 Hoyle (uno de los creadores de la teoría del estado estacionario). “Hay una “Fuerza Super Atractiva” en el borde del universo que potencia el universo. Es la principal fuente de toda la energía del universo. Aunque es similar a la gravedad no es gravedad. Una diferencia principal es que esta Superfuerza atractiva ejerce su fuerza en la materia misma, no en la masa de la materia, como hace la gravitación”. Sin embargo, la teoría de Lemaître anterior fue criticada en el sentido de que debido a la gravitación universal, la velocidad inicial de los cuerpos del universo iría disminuyendo, llegando a cero y posteriormente cambiando su sentido, concentrándose nuevamente toda esta materia para volver a estallar de nuevo en un movimiento cíclico de largo período. Estaríamos entonces en un universo “pulsante”. “La Superfuerza origina que todas las galaxias se aceleren hacia el borde del universo bajo la completa influencia de la inercia (el inercial requerimiento del espacio). Como los cuerpos se aceleran, adquieren masa y por tanto poder gravitatorio”. Quien primero habló de un universo pulsante u oscilante fue el físico Richard Tolman, del Instituto Tecnológico de California, cuyos trabajos se publicaron a primeros de los años 30. Un universo pulsante es cerrado, y no desaparece después de colapsar, sino que inicia un nuevo ciclo de expansión; el proceso se reitera, pasando por muchos ciclos. Si el universo fuese pulsante sería más viejo que el actual, pues se calcula una duración sólo de la fase de expansión de 10.000 millones de años. 4.Modelo del universo pulsante Hace 75 años Georges Lemaître, astrónomo belga, propuso su famosa teoría en la que hace miles de millones de años toda la materia y energía estaban comprimidas en un gran átomo primigenio, ocupando un espacio semejante al de una esfera cuyo diámetro era la distancia de la Tierra al Sol. Los cálculos decían que su temperatura, si fuera de energía, debería alcanzar 10 millones de grados, y si estaba compuesto de materia, ésta habría tenido propiedades totalmente distintas a las que observamos ahora. En cada ciclo se producen colapsos gravitatorios de conjuntos que se comprimen y vuelven a disiparse, para volver seguidamente a materializarse. El sistema trabajaría en sistema cerrado dentro de un universo pulsante, es decir, en un eterno retorno, sin fin dentro del tiempo pero cuyo límite espacial quedaría fijado por las más lejanas regiones hasta las que llegarían las explosiones al detenerse e iniciar las contracciones. Toda esta materia quedó esparcida tras una fantástica explosión. La condensación de la materia posterior debida a la gravitación, había creado galaxias y estrellas, continuando su expansión para siempre. El universo no tendría límites. El modelo presenta la dificultad evidente de la segunda ley de la termodinámica que afirma el incremento de la desorganización interna de cualquier sistema aislado, hasta el estado de máximo desorden. Después de numerosos En los años cuarenta del pasado siglo George Gamow revisó la misma, siendo rebautizada en plan despectivo como teoría del big bang por el astrónomo Fred 72 ciclos, debería esperarse que un universo pulsante fuese más caótico que el universo observado. Tolman que conocía el problema, opinaba que era casi imposible aplicar como un todo al universo “el estado de máximo desorden”. 5.Modelo cósmico de la “fuerza nuclear”(o “teoría unificada del espacio-tiempo-masa”) Este modelo fue presentado por el “Ghassemi Institute For Technology Transfer” (GIFTT) a la American Physical Society en Long Beach en el año 2000. La máxima popularidad de este modelo fue a fines de los años cincuenta y comienzos de los sesenta del siglo XX, hasta el punto que llevó a Robert Dicke a predecir la radiación cósmica de fondo de microondas. En opinión de Dicke el universo en las fases de contracción máxima de cada ciclo tendría que alcanzar al menos los 10 millones de grados para que pudieran desintegrarse todos los elementos pesados y reconvertir la materia del mismo en hidrógeno puro; si no hubiese sido así, las reacciones nucleares en las estrellas habrían ya transformado gran parte de la materia del universo en los elementos pesados, algo no observado en la actualidad. A esta temperatura de 10 millones de grados, las reacciones de las partículas subatómicas tendrían la velocidad necesaria para producir una radiación antirradiante. La teoría propone una solución para la materia “perdida” del universo. Establece que la fábrica del espacio-tiempo es otro estado de la materia que equivale a masa. Por tanto, la nueva fábrica del espaciotiempo se “llena” del vacío del universo. La simple prueba de esta teoría se basa en todas las presentes observaciones científicas y cálculos de la moderna astronomía y física, que dicta la existencia de alguna clase de materia oscura o neutrinos masivos. La materia oscura es necesaria para explicar el 80% de la masa perdida del universo. El problema es que, incluso los neutrinos masivos y la materia negra puede no explicar el total de la masa perdida del universo. El volumen del espacio-tiempo es masivo porque esta lleno de materia. Por tanto, el 80% de la masa perdida del universo es realmente la masa equivalente del espacio-tiempo total que llena el cosmos entero. Pero el modelo cayó en desgracia definitivamente cuando un trabajo de Roger Penrose y Stephen Hawking (de la Universidad de Cambridge), probó la “inexistencia” del mecanismo “plausible” capaz de producir dichas pulsaciones. El trabajo de Penrose y Hawking, en realidad, no eliminaba los universos pulsantes, sino que simplemente suprimió los modelos de universos pulsantes u oscilantes existentes hasta ese momento, al anular la justificación científica de los mismos. La hipótesis de la teoría, llamada de la masa-espacio-tiempo unificada, explica un universo en el cual todo (materia, energía, espacio, tiempo) está hecho de cada uno de los otros y todos son de la misma naturaleza. Otra prueba de esta teoría es la existencia de la fuerza nuclear. En realidad, los misteriosos “gluones” que se presume mantienen unidos a los núcleos, no 73 existen. La presión universal del espaciotiempo es la responsable de la fuerza nuclear observada. relación entre la métrica y el espacio y el tiempo debería permanecer constante durante la expansión cosmológica y todas las localizaciones cosmológicas en el tiempo podrían ser equivalentes, si la métrica de ambos espacio y tiempo se expande. La teoría de la expansión de la escala del tiempo afina los modelos de universo que observamos y ofrecen una simple y directa explicación para muchos enigmas cosmológicos. El espacio-tiempo tiene masa y presión, y matemáticamente tiene propiedades de un líquido. Se propone un modelo de universo parecido a una estrella gigante; la relación entre la fuerza nuclear “P” y la masa y radio del universo puede ser calculada. En este modelo la expansión del universo que en el modelo estándar hacía cambiar la métrica del espacio con el tiempo, posee otro modo de expansión que no implica un acontecimiento de tipo creación por el big bang. Si el universo es una gigantesca estrella parecida al Sol, la presión en el centro del universo Pu está dada por: Pu = 1,23 * 1016 (R sol/Ru)4 (Mu/Msol)2 En esta teoría, la métrica del espacio y el tiempo están multiplicadas por el mismo factor positivo, la “escala” del espaciotiempo se dice es cambiada por un “factor de escala”. ; donde Rsol y Msol son el radio y la masa, respectivamente, del Sol. Ru y Mu son el radio y la masa, respectivas, del universo. Esta presión Pu es igual a la Pn de la fuerza nuclear fuerte, Pu = Pn. El “espaciotiempo absoluto” denota un espaciotiempo con constantes métricas para ambos espacio y tiempo. Si sólo la métrica del espacio es constante, el espaciotiempo es llamado “espacioabsoluto” y si solamente la métrica del tiempo es constante, “tiempo-absoluto”. El espaciotiempo del universo de Newton es absoluto. Usualmente se asume que el universo tiene un tiempo-absoluto pero no espacio-absoluto. En la teoría de la expansión de la escala del cosmos, en el universo no hay espacio ni tiempo absolutos. Y poniendo los valores de Rsol y Msol queda: Pn = 5,89 * 10-26 Mu2/Ru4 La fórmula anterior es la primera relación clásica entre la fuerza nuclear, la masa y el tamaño del universo. 6.Modelo de la expansión de la escala del cosmos Este modelo se debe a C.Johan Masreliev, y de forma resumida nos dice lo siguiente. Una “localización fundamental” es una localización en el espacio en reposo relativo al promedio de las partículas en el universo. El modelo del big bang asume que el universo se expande continuamente cambiando la relación entre la métrica del espacio y el tiempo. Sin embargo, la Un “observador fundamental” es un observador estacionado en una 74 “localización fundamental”. “El tiempo natural” en cualquier localización fundamental es el tiempo medido por un reloj atómico estacionario. Hay en la teoría fundamentales: dos y la relación de las líneas espectrales. En efecto, debido a la constancia de la velocidad de la luz postulada en P2, el paso del tiempo debe decrecer cuando la métrica espacial se expanda. Esto sugiere que la métrica natural del espacio y el tiempo se expande simultáneamente y que la expansión cosmológica puede tener lugar cambiando continuamente la escala del espaciotiempo. El cambio de escala del espaciotiempo, por tanto, implica cambiar la escala de los objetos materiales. postulados P1. Se aplica el principio de equivalencia (Todas las localizaciones en el universo son equivalentes). P2. La medida de la velocidad de la luz es constante relativa a todos los observadores fundamentales. La escala de la expansión es simétrica en el espacio y el tiempo. El paso del tiempo es controlado por la expansión espacial y viceversa. Un observador fundamental en la expansión de la escala del tiempo, experimentará exactamente el universo como lo experimentamos. La distancia de las galaxias parecen retroceder con velocidades que crecen linealmente con la distancia. La expansión cosmológica es comúnmente visualizada como galaxias en recesión con velocidades que crecen linealmente con sus distancias de acuerdo con la Ley de Hubble (Hubble, 1929). El tiempo natural en las localizaciones fundamentales se asume como absoluto. Sin embargo, esta imagen implica que las propiedades del espaciotiempo deben cambiar con el tiempo que viola el postulado P1. De acuerdo con este postulado las distancias entre los observadores fundamentales no pueden cambiar con el tiempo. Sin embargo, el cosmos observable parece expandirse. El único camino en el que la expansión puede tener lugar sin cambiar las distancias es cambiando continuamente la métrica del espacio sin cambiar las posiciones coordenadas relativas. Esto implica que puede no ser una métrica espacial absoluta. Aunque la teoría de la expansión de la escala del tiempo es una teoría de estado estacionario, no se crea un vacío intergaláctico (como en la teoría del estado estacionario, ya citada) entre las distancias coordinadas de los observadores fundamentales y los tamaños relativos de los objetos permanecen los mismos mientras la escala del espaciotiempo se expande. Por tanto, no hay necesidad de creación de materia en esta teoría, que para abreviar llamaremos SEC. En SEC, el universo está en equilibrio térmico, lo que explica la radiación CMB. Por otro lado, de la observación de las fuentes distantes se concluye que las leyes de la física no cambian con el tiempo. Por tanto, si la métrica espacial está cambiando para las partículas elementales, la métrica temporal debe también cambiar en orden de preservar la función de onda de la mecánica cuántica La SEC se expande continuamente cambiando la escala del espaciotiempo. De acuerdo con el postulado P1 esto debe implicar que las escalas del espacio y tiempo son equivalentes, lo cual es consistente con la teoría de la relatividad 75 general de Einstein. En efecto esto se realiza comparando el espaciotiempo en la métrica gij, a la del espaciotiempo con la escala métrica b2gij, donde b es alguna constante arbitraria. coordenadas espaciales. De la extensión del principio de equivalencia se sigue que dos épocas correspondientes a los tiempos t y t+t0, donde t0 es algún intervalo de tiempo cte., son equivalentes. Si b(t) es una función de valor real del tiempo, se sigue de lo dicho anteriormente que gij(t+t0,x) es equivalente a gij (t,x) si: Las relaciones de la relatividad general einsteniana son: Rij –1/2 gij R = k Tij gij(t+t0,x) = b2(t0) gij(t,x) Rij es el tensor de Ricci, R el escalar de Einstein, Tij el tensor de energíamomento y k la constante de Einstein. Cuando aplicamos esta relación a la escala métrica encontramos que la cte. b cae fuera del lado izquierdo que describe la geometría del espaciotiempo. Este lado izquierdo de esa relación sólo depende de la métrica gij. Esto implica que a la derecha de la expresión, el tensor Tij de energía-momento es idéntico para las escalas del espacio, independientemente de la forma que tome Tij. Las escalas de tiempo son, por tanto, equivalentes. Esta relación se satisface si: h(t+t0) = h2(t0) h(t) g´ij(t+t0,x) = g´ij (t,x) Por la extensión del principio de equivalencia debemos requerir que estas relaciones sean ciertas para todos los tiempos, t. Esto “sugiere” una dependencia con respecto al tiempo de la forma: h(t)=C e2t/T g´ij (t,x) = g´ij(x) ; siendo c y t ctes. El factor de escala b(t0) es: Dando un cierto tensor de energíamomento la correspondiente escala del espaciotiempo está indeterminada; ninguna escala particular tiene preferencia. Esto significa, también, que la escala puede cambiar sin cambiar la distribución de energía cosmológica incluida la frecuencia de las líneas espectrales. b(t0) = eto/T Como C es una cte. de escala podemos poner C = 1 sin merma de generalidad. También, como t0 es arbitrario el tiempo t puede ponerse igual a cero en cualquier época, por ejemplo para el presente: Como las diferentes escalas son equivalentes, debería concluirse que la expansión de la escala sería inobservable. Sin embargo, la expansión del espaciotiempo causa efectos inerciales con ricas consecuencias. gij(x+x0) = f(x0) g´ij(x) El caso más simple es cuando todos los elementos de g´ij(x) son ctes., por ejemplo, si g´ij(x) es la métrica de un espaciotiempo plano. Por tanto, la posibilidad más simple de elemento de línea en este modelo es: Asumiendo que la métrica gij (t,x) tiene la forma h(t)*g´ij(t,x), donde h y g´ij son funciones de valores reales, t se refiere al tiempo coordenado y x las tres ds2 = e2t/T (dt2-dx2-dy2-dz2) 76 las ecuaciones de Einstein. La geometría del espaciotiempo siempre permanece la misma y todas las épocas son equivalentes. Si hacemos, según es costumbre, c = 1, la expresión en coordenadas esféricas se vuelve: ds2 = e2t/T (dt2-dr2-r2 dΩ2) ; donde dΩ es dΩ2 = dθ2 +sen2(θ) dϕ2 El elemento de línea anterior es similar al elemento de línea de de Sitter (de Sitter, 1917). El espacio plano, sin el factor de escala e2t/T, se le denomina “espacio coordenado”. En el tiempo t = 0 el elemento de línea del espacio coordenado coincide con el elemento de línea de SEC porque el factor de escala es igual a uno. Sin embargo, el crecimiento continuo del factor de escala causa varios efectos dinámicos en la escala de expansión del cosmos. “La cantidad ds debería ser interpretada como tiempo propio en un imaginario sistema de referencia con una escala física, y dt se refiere al tiempo natural, lo que coincide con ds en t = 0.” ds2 = dt2-e2t/t (dr2+r2 dΩ2) El primer elemento de línea es un modelo de expansión del espaciotiempo; el segundo es un modelo de expansión del espacio. El tiempo pasado, u, desde t = - ∞ a alguna época anterior en el tiempo, t, es medido en el tipo de tiempo presente, poniendo dr = dΩ = 0 e integrando: u = ∫-∞t ey/T dy = T et/T = T a(t) ; a(t)=et/T Como no hay tiempo absoluto, es conveniente usar siempre el tiempo presente como referencia. a(t) es la escala del universo y el tiempo t relativo al tiempo presente donde t = 0 y a=1. Encontramos que u = T y t = 0, enseñando que la edad del universo medida con la escala del tiempo presente es finita e igual a T. Como el tiempo puede ser puesto igual a cero en cualquier época, ésta es también la edad del universo relativa a todos los observadores estimados de todas las épocas. “La edad del universo T es por tanto una constante universal”. El elemento de línea es relativo a la escala cosmológica de la época presente, la cual es renormalizada a uno. Como el mismo elemento de línea se aplica en cualquier época, hay continuamente un proceso de renormalización. Este proceso se basa en el hecho de que el elemento de línea con un factor de escala exp[(t+∆t)/T] es equivalente al mismo elemento de línea con el factor de escala exp(t/T). Por tanto, la escala de expansión podría ser modelada considerando un intervalo pequeño de tiempo [t, t+∆t] durante el cual el elemento de línea se aplica. Y al fin en este intervalo el elemento de línea es re-normalizado como se describe y el proceso se repite por un nuevo intervalo [t, t+∆t], continuándolo sucesivamente. Esto permite al universo expandirse sin cambiar el elemento de línea aplicando Diferenciando la última expresión en t =0, dt = T da. Esto dice que la escala de la expansión está íntimamente relacionada con la progresión del tiempo. También, t = T ln(a). Obteniéndose para la edad, ta, de un objeto: ta = 0-t = T [ln(1)-ln(a)] = T ln(1/a) 77 ds2 = (dt´2 –dr´2 – e2t/T r2 dΩ2) Esto implicaría que la edad de dos objetos estelares puede ser más viejas que el universo, puesto que es posible que ta>T. Y el espaciotiempo definido por r´, t´ es “radicalmente” plano, y tiene varias propiedades interesantes. Por ejemplo, 20 billones de años de edad tendría una estrella para a = 0,14, asumiendo T = 10 billones de años. La época a = 0,14 se refiere al tiempo donde la escala del universo era el 14% de la escala corriente. En el tiempo presente esta época cae en: 10(1-0,14) = 8,6 billones de años atrás en el tiempo. Para valores pequeños de t´ y r´ las transformaciones anteriores se vuelven: t´= T+ t r´= r Las coordenadas del espacio, por tanto, localmente coinciden con el espaciotiempo r´, t´(excepto por la traslación T). El elemento de línea de la SEC en base a u sería: ds2 = [du2-a(dr2+r2 dΩ2] Y diferenciando las transformaciones de Milne, resulta la siguiente expresión para la velocidad dr´/dt´: Esta es una línea elemental del tipo de Robertson-Walker, pero obviamente, aunque matemáticamente equivalente a la expresión que vimos en capítulos anteriores es diferente a la misma, pues aquella describía un universo sin un principio del tiempo, mientras ésta tiene un comienzo del universo en u = 0. (Siendo u = T a). dr´/dt´=[dr/dt+tanh(r/T)]/[1+dr/dt tanh(r/T] ; como r´/t´= tanh(r/T) dr´/dt´= (dr/dt+r´/t´)/(1+dr/dt r´/t´) ; si dr/dt es nula, se tiene dr´/dt´= r´/t´ , o sea, dr´/dt´= tanh(r/T). Las dos ecuaciones anteriores son formalmente la ecuación de adición de velocidades relativistas, entre la velocidad coordenada dr/dt y la velocidad de expansión r´/t´. Formalmente tratando a u como un parámetro del tiempo de desviación hacia el rojo, será: z+1 = T/u = e-t/T = 1/a Y la distancia correspondiente a desviación al rojo es: La velocidad de expansión crea un corrimiento al rojo tipo “Doppler” dado por: esta z+1 = (1+v)1/2/(1-v)1/2 = (1+tanh(r/T)1/2/ (1-tanh(r/T)1/2 = er/T r = T ln(z+1) Si se introducen las transformaciones de Milne: Debido a la continua re-normalización del elemento de línea, un observador en el espaciotiempo r´, t´ está siempre localizado en r´ = 0, t´= T. Significaría esto que todas las localizaciones en el universo estarían comunicadas siempre: no habría horizonte de las partículas t´ = T cosh(r/T) et/T r´ = T senh(r/T) et/T La línea elemental anterior quedará: 78 T00 = 3/8πGT2 T11=T22=T33= -1/8πGT2 (dejaría de existir el enigma del horizonte). También, la constante de Hubble sería siempre la misma, H = 1/T. La suma de los elementos de la diagonal principal es cero. Normalmente se dice que las ecuaciones de la relatividad general de Einstein quieren decir que la curva del espaciotiempo es causada por la densidad de energía. Sin embargo, dichas ecuaciones también pueden ponerse en la forma equivalente: La densidad de masa equivalente corresponde a la densidad de energía de componentes T00 igual a la densidad crítica. Por tanto, si el Principio de Equivalencia extendido es válido no hay masa perdida; el espaciotiempo mismo contiene energía equivalente a la densidad de masa crítica. Tij-1/2 gij T = k-1 Rij Esta relación puede interpretarse como que la distribución de energía del universo es causada por la curvatura del espaciotiempo. La imagen de que la geometría del espaciotiempo define el tensor energía-momento es tan válida como la de que el tensor energíamomento decide la geometría del espaciotiempo. Ambas visiones son igualmente válidas. El tensor Tij podría ser el fundamental tensor energía-momento del cosmos –el tensor energía-momento del vacío, al que se llama “tensor de energía cósmica”. Es invariante para todos los observadores fundamentales con indiferencia de su localización o época. La energía equivalente gravitatoria correspondiente al tensor de energía cósmica es cero puesto que la suma de los elementos de la diagonal es cero. Esto sugiere la posibilidad de que, aunque la energía contenida en el vacío es cero, el tensor momento-energía del vacío no es idénticamente igual a cero. El Principio de Equivalencia ampliado implica un tensor de energía cósmica con energía neta nula consistiendo en dos componentes, los cuales contribuyen con igual cantidad de energía positiva y negativa. La expansión espacial, que corresponde al elemento de línea de de Sitter crea una constante cosmológica (igual a 3/T2) con energía equivalente negativa. Esta energía negativa está en la SCR balanceada por la expresión temporal, la cual tiene el efecto de generar una presión cosmológica con la densidad de energía positiva En vez de postular algún tensor energíamomento, y luego derivar el correspondiente elemento de línea, se hace lo contrario, se asume que una cierta curvatura del espaciotiempo determina el tensor energía-momento del vacío. Esta curvatura del espaciotiempo es generada por la expansión de la escala y el tensor energía-momento para el vacío es el tensor que satisface las ecuaciones de la relatividad general de Einstein dado el elemento de línea de la SEC. El tensor energía-momento para el vacío, por tanto, se sigue directamente del Principio de Equivalencia. Sustituyendo la métrica SEC dada por el elemento de línea dentro de las relaciones de Einstein se encuentra que son satisfechas por el siguiente tensor energía-momento Tij haciendo c = 1: 79 Entonces, el Principio de Equivalencia ampliado sugiere que el espaciotiempo del vacío puede contener la energía que corresponde a la densidad de masa crítica, lo cual implica que el espaciotiempo por el mismo, no la materia o la radiación, contiene la “masa perdida” y es la primera fábrica del universo. Hemos visto que las conclusiones de Boltzmann permiten “oscilaciones” que “podrían” producir ciertos movimientos. Hay varios modelos para estas oscilaciones. Veamos las que representa el siguiente gráfico: I 7.Modelo de la oscilación entrópica Este modelo lo ha desarrollado el chileno Juan López de la Universidad de Chile. La conversión de la energía mecánica en energía térmica equivale a la transformación de unos movimientos organizados en movimientos caóticos, es decir, en un incremento del caos del sistema. Según Ludwig Boltzmann este caos puede medirse en base a un parámetro llamado entropía del sistema. Cuando toda la energía del universo se convierte en calor, se alcanza el estado de máxima entropía, el cual no podría variar más. Aún así, en un estado de máxima entropía, evoluciones de tipo aleatorio son posibles. Aunque en principio, podríamos pensar que la entropía aumenta en cada ciclo, lo que conllevaría una disminución de la amplitud de la oscilación, este modelo predice exactamente lo contrario. Introduciendo el valor de v=0, se tiene: -const´ = GMn/R En este modelo se calcula la masa del universo como M = (3/4)πRmax ϕ. De aquí: La energía total del universo puede ponerse, como hemos expresado repetidamente: dRmax2 = const´´ Lo anterior, sumado al hecho de que el radio de curvatura del universo varía igual que una esfera de radio R, se tiene que: E = Ek+EP = mv2/2 – GMm/R = const. Entonces, para E>0, v puede ir creciendo, mientras R puede tender a infinito. Si E<0, las fuerzas gravitatorias frenan la expansión del cosmos. Para v = 0, el radio máximo será: dLmax2 = const´´´ Por otro lado, el volumen del espacio es del orden de L al cubo. Así en el momento de máxima expansión se tiene: Rmax = GMm/E Einstein propuso que el espacio está curvado debido al campo gravitatorio, que significa que E<0, es decir const <0. dLmax3 = M Y dividiendo las dos últimas ecuaciones resulta: 80 Fourier. Por tanto, para casos como estos, la configuración del espacio y la estructura del espacio de Hilbert pueden ser especificados a priori. Lmax = M/const´´´ De esta forma y en concordancia con el principio de equivalencia einsteniana de masa y energía, la energía térmica del universo crece en cada ciclo; la masa del universo crece también, y por tanto Lmax. Sin embargo, hay buenas razones para sospechar que las teorías cosmológicas no pueden fácilmente especificar la totalidad de la configuración o espacio de Hilbert. Por ejemplo, se sabe que el espacio de configuraciones de la teoría que implementa las nociones relacionadas del espacio son bastante complicadas, véase el modelo de Barbour-Bertotti(N partículas en un espacio euclídeo d dimensional). Se supone que la energía necesaria para que estas oscilaciones tengan lugar se toma del potencial de energía gravitatorio negativo. Para este universo oscilatorio se formula el siguiente modelo matemático: L(t) = At sen2(b t1/2) ; siendo A y B ctes. A determinar. Todos estos problemas sugieren la siguiente pregunta: ¿Podría ser una teoría tan complicada que su espacio de configuraciones no fuese construible a través de un procedimiento finito? (Hay una analogía con la teoría biológica. El problema es que no parece que un paquete de pre-especificaciones de “funcionalidades” exista en la misma). La amplitud aumenta con el tiempo, así como cada oscilación es, también, de más larga duración. Se tiene: Lactual = Atactual sen2 (B t1/2actual) No conocemos si en efecto la configuración del espacio de la relatividad general es finitamente especificable. Y derivando (d Lactual/dt)t=hoy = A sen(B t1/2actual) + A/2 t1/2actual sen(2B t1/2actual) El sistema de ecuaciones anterior permite encontrar los valores de A y B. Si la configuración del espacio no es constructible a través de un procedimiento finito, entonces no hay un procedimiento finito para definir como normalizable la función de ondas en el espacio. 8.Modelos para la solución del llamado “problema de la desaparición del tiempo” Esta es una solución reiteradamente buscada por parte de Stuart Kauffman y Lee Smolin. En el caso de que la totalidad del conjunto del llamado “problema del tiempo” falle, es decir, si el espacio de Hilbert de los diomorfismos invariantes no son construibles, no puede formularse una teoría cuántica cosmológica en esos términos. Puede haber algo así como una correspondiente “función de ondas del Para un sistema de N partículas en un espacio euclediano d dimensional, uno puede encontrar la correspondencia básica del espacio de Hilbert por enumeración simple de los modos de 81 En la mecánica cuántica la situación es bastante similar. Hay una t en la ecuación de estado cuántica de Schröedinger, pero es un tiempo medido por un reloj externo, el cual no es parte del sistema. Por tanto, cuando escribimos: universo”, pero no puede ser un vector en un espacio construible de Hilbert. Si el espacio no es construible de forma finita, habría que preguntarse si la segunda ley de la termodinámica puede aplicarse a escala cosmológica, puesto que, entonces, no está clara la hipótesis de que la entropía esté bien definida o sea útil. Nunca pueden ser aplicadas las formulaciones estándar de la mecánica estadística, porque es necesaria una nueva aproximación a la física estadística basada sólo en el conjunto de envolventes de posibilidades generadas por la evolución a partir de un estado inicialmente dado. Es posible especular si podría formularse en dicho contexto una “cuarta ley” de la termodinámica, en la que la evolución extremice la dimensión del posible adyacente, que es el conjunto de estados accesibles al sistema en cualquier estado en su evolución. Podemos advertir otra razón para suponer que una teoría cuántica cosmológica debe incorporar algunos mecanismos análogos a la autoorganización del sistema completo. Por ejemplo, esto puede ser necesario para ajustar el sistema al comportamiento preciso para la existencia del “límite clásico”. i h df/dt = H f(t) el hamiltoniano es referente a la evolución, como sería medido por un observador externo. El estado cuántico puede ser representado como una función f sobre el estado de configuraciones, el cual es normalizable en algún producto interno. Cuando volvemos hacia el tema de la construcción de una teoría cosmológica topamos con un problema, que es que no hay reloj externo. No hay, por definición, nada fuera del sistema, y esto significa que la interpretación de la teoría debe hacerse sin referencia a algo que no es parte del sistema. En la teoría cosmológica clásica, tal como la relatividad general, u otros modelos tales como la cosmología de Bianchi o el modelo de Barbour-Bertotti, esto se expresa diciendo que la dinámica tiene una invarianza de “gauge”, la cual incluye reparametrizaciones arbitrarias de las trayectorias clásicas (En relatividad general esto es parte del dimorfismo invariante de la teoría). Como resultado, la teoría clásica es expresa en un camino que no hace referencia a cualquier parametrización de trayectorias. Un reloj externo está representado en la configuración de la descripción del espacio como una especial parametrización de cada trayectoria, de forma que las ecuaciones del movimiento son satisfechas. Por tanto, puede decirse que no se percibe como “algo” físico representado en la mecánica clásica; el problema es pospuesto, de forma que el tiempo es representado como el marcado por un reloj que existe fuera del sistema físico modelado por las trayectorias en la configuración del espacio. Este es el sentido en el cual puede decirse que el tiempo desaparece de las teorías cosmológicas. Nada hay en la teoría que se refiera a un tiempo particular; la teoría habla sólo en términos de la totalidad de la historia o trayectoria. 82 En la teoría cuántica hay un fenómeno correspondiente. Como no hay t externo, la medida de la evolución de un estado cuántico en vez de por la ecuación de Schröedinger, el cuanto viene constreñido por la ecuación H f = 0, donde f es ahora justo una función de la configuración del espacio. En vez de describir el volumen, se generan parametrizaciones arbitrarias de las trayectorias. La función de onda debe ser normalizada bajo un producto interno, dando alguna densidad en la configuración del espacio. El espacio de los estados físicos es luego dado por la ecuación, obligada a cumplir la condición de que el estado sea normalizable. totalidad del universo, la cual explicaría su evolución, y ha inventado un método por el que la selección natural debe operar en la escala cósmica. Vemos, pues, que el tiempo ha desaparecido completamente del formalismo, lo que se llama el “problema del tiempo en cosmología cuántica”, lo que conlleva sólo dos posibilidades: A) encontrar una interpretación de la teoría que restaure un rol para el tiempo; B) proveer una interpretación de acuerdo con que el tiempo no es parte fundamental de la descripción del mundo, que sólo reaparece al nivel de un límite clásico. Una idea de Smolin está asociada a la “selección natural” de los universos. Dice que en algún sentido el universo que permita complejidad y evolución se reproduce el mismo más eficientemente que otros universos. Cuando las estrellas mueren, algunas forman agujeros negros. Smolin afirma que las leyes de la naturaleza en el nuevo universo están relacionadas con el universo anterior. Esto difiere de la idea de Andrei Linde de un ensamble por azar, porque Smolin supone que el nuevo universo retiene las leyes físicas, no demasiado diferentes de su universo “padre”. Porque eso podría significar que los universos bastante grandes y complejos para permitir la formación de estrellas, su evolución y muerte, y que pueden, por tanto, producir agujeros negros, podrían tener más “descendencia”, ya que cada agujero negro pudiera entonces crear un nuevo universo; mientras que un universo que no permite la formación de estrellas y agujeros negros podría no tener descendencia. Por tanto, Smolin reclama que el “ensamblaje” de universos puede no envolver azar, sino alguna selección darwiniana, a favor de universos potencialmente complejos. El cosmólogo Sir Martin Rees anota en “La Tercera Cultura” que “una de las llaves en física es reconciliar gravedad con principios cuánticos y fuerzas microfísicas. Hay varias escuelas: la escuela de Stephen Hawking, la de Roger Penrose, y otras. Mi opinión es que habrá un largo camino para un consenso en este campo, pero Smolin y Ashtekar han inyectado importantes ideas nuevas en este debate”. Mientras algunos cosmólogos especulan que las leyes de la física deben explicar el origen del universo, el origen de las leyes mismas es un problema tan inefable que raramente es discutido. ¿Hay un camino en el que el universo puede organizarse a sí mismo? ¿El “principio antrópico” o la noción de existencia de observadores inteligentes parece en algún sentido un factor de existencia en el universo o juega un papel importante en cosmología? El físico teórico Lee Smolin está interesado en el problema de la gravitación cósmica o de la reconciliación de la teoría cuántica con la teoría gravitacional de Einstein. Smolin está creando lo que llama una teoría de la 83 espaciostiempos euclídeos (en los que el tiempo como dirección está en igualdad con las direcciones espaciales), es posible que el espaciotiempo sea finito en extensión y que, no obstante, no tenga ninguna singularidad que represente una frontera o borde. (Por ejemplo, la superficie de la Tierra es finita en extensión, pero no tiene una frontera o borde). Al no existir ninguna singularidad de este tipo, no hay ninguna necesidad de especificar el comportamiento en la frontera, es decir, no habrá ninguna singularidad en la que las leyes de la física fallen y haya que establecer condiciones de contorno del espaciotiempo. Mejor: “la condición de contorno del universo es que no tiene ninguna frontera”. El universo estaría totalmente autocontenido, y no sería afectado por nada que estuviera fuera de él: no necesita de algo “externo” que lo “cree”, ni de nada que lo destruya. Simplemente “es”. Stuart Kauffman es un biólogo teórico que estudia el origen de la vida y el origen de la organización molecular. Hace 25 años, desarrolló los modelos Kauffman, los cuales son estructuras de azar que exhiben una clase de autoorganización que denomina “orden por libertad”. Sus modelos no son fáciles, son rigurosamente matemáticos y muchos de sus colegas a veces encuentran dificultades para entenderlos. Una llave para su punto de vista es que la noción de convergencia, más que la divergencia, juega un decidido papel en la evolución de la vida. Con su colega Christopher G. Laugton, cree que los sistemas complejos que mejor son capaces de adaptarse son los situados fuera del equilibrio en el borde entre el caos y el desorden. Kauffman se pregunta: ¿ Si la selección opera todo el tiempo, cómo construir una teoría que combine autoorganización (orden por libertad) y selección? La respuesta es una “nueva” biología, en algo similar a la propuesta por Brian Goodwin, en que la selección natural es unida al estructuralismo. Con la condición de que no haya ninguna frontera, se halla que la probabilidad de encontrar que el universo sigue la mayor parte de las historias posibles es despreciable, sin embargo, hay una particular familia de historias mucho más probables que otras. Esta historia pude imaginarse comparándolas con el símil de la superficie terrestre. La distancia desde el polo norte representaría el tiempo imaginario y el tamaño de un círculo a modo de paralelo, representaría el tamaño espacial del universo. El universo “empezaría” en el polo norte (big bang) como un punto. A medida que nos movemos hacia el sur, a distancia cte. del polo norte (paralelos), estos paralelos van haciéndose más grandes, y corresponden al universo expandiéndose en el tiempo “imaginario”. El universo tendría un tamaño máximo en el ecuador, y se iría contrayendo con ese tiempo imaginario Kauffman y Smolin llevan trabajando juntos desde hace más de un año y los resultados de esta colaboración aparecen en el trabajo titulado “Una posible solución para los problemas del tiempo en cosmología cuántica”. 9.Modelo de Stephen W. Hawking Según Hawking, en la teoría clásica gravitatoria, basada en el espaciotiempo real, sólo hay dos formas en las que puede comportarse el universo: o ha existido durante un tiempo infinito, o tuvo un principio en una singularidad en el pasado (en un tiempo finito). Sin embargo, en la teoría cuántica de la gravedad surge otra nueva tercera posibilidad. Al emplearse 84 creciente (dirigiéndose hacia el sur), hasta un único punto en el polo sur. Aunque el universo tendría tamaños nulos en los polos sur y norte, estos puntos no serían singularidades, pues las leyes físicas serían válidas, también, en los mismos. ha calculado en modelos simplificados que esta probabilidad es alta, lo que es consistente con las observaciones de la radiación de fondo de microondas. Lógicamente, la historia del universo en el tiempo real tendría aspecto diferente. Hace unos diez o veinte millones de años tendría un tamaño mínimo, que sería equivalente al radio máximo de la historia en el tiempo imaginario. En tiempos reales sucesivos, el universo se expandiría como en el modelo inflacionario caótico de Linde. Es decir, el universo se expandiría hasta alcanzar un tamaño muy grande, colapsándose de nuevo en lo que parecería una singularidad en tiempo real. Solamente representándonos el universo en términos de ese tiempo imaginario, no habría ninguna singularidad. Ya apuntamos en el capítulo II 5.c, al hablar de la antimateria y la interpretación clásica de Dirac, nuestra crítica hacia la misma y nuestra propuesta que posee implicaciones de orden cosmológico. A continuación expondremos casi el resto de nuestro modelo cósmico, a falta del último apunte relacionado con las Supercuerdas que abordaremos en los últimos capítulos. 10.Nuestro modelo cosmológico Nuestro modelo adopta las ideas del modelo relativista del big bang (descrito en el punto 2. de este capítulo) en el sentido de que la constancia de la velocidad de la luz no es considerada una “propiedad local”, sino que rige de lleno todo el campo cosmológico. Es por ello por lo que, en unión a las implicaciones que supone la evidencia de la recesión de las galaxias y la ley de Hubble, consideramos que el universo no se “extiende” más allá del “radio de Hubble” correspondiente a ese instante de la edad del mismo. Así que el radio de Hubble contendrá (sin que por ello sea frontera) toda la masa del universo (del universo en que vivimos). Aunque esto último pudiera parecer que iría en contra del teorema sobre singularidades, deducido por el mismo Hawking y Penrose, según Hawking la importancia de ese teorema estribaba realmente en demostrar que el campo gravitatorio se hace tan fuerte en esos puntos que los efectos gravitatorios cuánticos no pueden ser ignorados. Esto, sin embargo, ha conducido a la idea de que el universo podría ser finito en el tiempo imaginario, pero sin fronteras o singularidades. El radio de Hubble en el instante t, RH(t), para que la masa no “escape” del mismo (radio al que hemos considerado por los razonamientos anteriores el máximo del universo), valdrá, teniendo en cuenta que el universo tiene como límite de expansión la velocidad de la luz, c: La propuesta de no frontera, más el método de la suma de historias (utilizado con frecuencia en mecánica cuántica, según la primitiva idea de Feynman), puede servir para averiguar qué propiedades del universo es probable puedan darse juntas. Por ejemplo, para calcular la probabilidad de que el universo se expande a la misma velocidad de promedio en todas las direcciones. Se (1i) RH(t) = RHi+ c t ; siendo RHi el radio de Hubble en el instante inicial del big bang, t = 0. 85 Por la relación de Hubble, c = H* R, sustituyendo en la ecuación anterior: Así de la expresión (2i) (1/Ht = 1/Hi +t): (8/3 πGt ρt)-1/2 = (8/3 πGiρi)-1/2 + t c/Ht = c/Hi + c t (Aquí no consideramos la cte. de Hubble constante a lo largo del tiempo; únicamente su constancia lo es para cada instante t). Es decir: Si hacemos por simplicidad p = (Giρi)1/2, multiplicando por (8/3 π)1/2: (Gtρt)-1/2 = p-1 +(8/3 π)1/2 t 1/Ht = 1/Hi + t (2i) (Gtρt)1/2 p/[1+p(8/3 π)1/2 t] La no constancia de la cte. de Hubble se deduce de la conocida expresión de H, H2 = 8/3 πGρ, siendo G la cte. gravitatoria y ρ la densidad media del universo. Esta expresión se obtiene fácilmente igualando el potencial gravitatorio con la energía cinética por unidad de masa de cualquier objeto del universo, para que la energía total sea nula. Así: Gt ρt = p2/[1+p(8/3 π)1/2]2 (3i) La masa total del universo encerrada en el radio de Hubble se conservará a lo largo del tiempo, pues ninguna materiaenergía “puede viajar a más velocidad que la de la luz”, que es lo que expresa indirectamente (1i). Entonces: M = Vi ρi = Vt ρt 4/3 πRHi3 ρi = 4/3 πRHt3 ρt RHi3/RHt3 = ρt/ρi Et = 0 = Ep + Ec -GM/R + v2/2 =0 Si se considera el principio cosmológico, homogeneidad e isotropía, la densidad será cte. en todo el universo a escalas grandes. Como la masa es igual al volumen por la densidad, será M = V ρ. El volumen de una esfera de radio R igual a la distancia del “observador” al objeto vale V = 4/3 π R3 (el resto de la masa del universo a partir de esta distancia no influye en el potencial gravitatorio sobre el objeto). Así que: La relación de Hubble dice: RHi Hi = RHt Ht = c ; y sustituyendo estos valores en la expresión anterior: (Ht/Hi)3 = ρt/ρi con lo que ρt = ρi (Ht/Hi)3 O sea, las constantes de Hubble al cubo están relacionadas con las densidades medias del universo. Y sustituyendo en la última expresión las H por su valor H2 = 8/3 πGρ: M = 4/3 π R3ρ , y sustituyendo en Et=0 0 = -G 4/3 π R3ρ/R + v2/2 relación de Hubble v = HR: ρt =ρi [(8/3 πGtρt)/(8/3 πGiρi)]3 y por la ρt = ρi (Gtρt/Giρi)3/2 -4/3 πGρR2 + H2R2/2 = 0 ; y dividiendo por R2 queda: H2 = 8/3 πGρ demostrar. Operando resulta: 1 = (Gt/Gi)1/2 (ρt/ρi)1/2 como queríamos Elevando al cuadrado la última expresión: 86 1= (Gt/Gi)3 ρt/ρi ; ρt = ρi (Gi/Gt)3 R/Ri = 1+Hi t Y sustituyendo el valor anterior en (3i): R = Ri(1+Hi t) Y R es lineal en t Gt ρt = [p/(1+pt(8π/3)1/2]2 Como RHi/RHt = Ht/Hi será: Gt ρi (Gi/Gt)3 = [p/(1+pt(8π/3)1/2]2 Ht = Hi/(1+Hi t) Y haciendo operaciones queda: Además, como vt = Ht Rt y (2i) 1/Ht = 1/Hi +t = (1+Hi t)/Hi Gt = ρi1/2 Gi3/2 [1/p + (8π/3)1/2t] (4i) Gt = K´+K´´ t ; siendo p = (Gi ρi)1/2 Luego: vt = [Hi/(1+Hi t)] Rt = [Hi/(1+Hi t)] Ri (1+Hi t) = Hi Ri=Ht Rt Para t=0 resulta Gt = Gi De (4i) se deduce que la cte. gravitatoria aumenta de forma lineal con el tiempo, resultando K´= Gi y K´´ = Hi Gi . O sea: Gt = Gi +Gi Hi t = Gi (1+Hi t) Sorprendentemente v es constante en valor absoluto, y es la misma que en el inicio (big bang), cuando el “objeto celeste” está a la distancia Ri (del teórico centro de la “bola” inicial o posición del observador). En otras palabras, cada astro o galaxia no aumenta su velocidad; es la misma que cuando se inicia la “explosión inicial”, por consiguiente, no hay aceleración (la velocidad se conserva), y el espaciotiempo en todo momento tiene curvatura nula: es euclídeo o plano. Gi = Gt/(1+Hi t) Esta expresión implica una obligada corrección de las ecuaciones de la relatividad general, puesto que la cte. gravitatoria cambia con el tiempo. Calculemos, ahora, cómo varía el radio de expansión con el tiempo. De la ecuación: v =HR , R(t) = Ht R(t) Siendo Ht = (8π/3 Gt ρt)1/2 Y como (Gt ρt)1/2 = p/[1+pt(8π/3)1/2] , sustituyendo: Es importante fijarse en que las velocidades de Hubble definen un “campo de velocidades”, de ninguna forma de aceleraciones. Esto es debido, como hemos visto, a que la velocidad de cualquier astro se mantiene constante y sólo es función de Hi y Ri que son los valores de la constante de Hubble, y la distancia al “observador” (teórica distancia al centro de la “bola inicial” que explota en el big bang -que no tiene por qué ser cero) en el momento inicial, t = 0. Al no haber aumento de velocidad con respecto a los instantes posteriores, no existe aceleración. Realmente lo que sucede es que la aceleración gravitatoria o el campo gravitatorio es anulado por la “expansión cósmica”, quedando un universo totalmente plano. R(t) = (8π/3)1/2 [p/(1+pt(8π/3)1/2] R(t) Haciendo operaciones queda: R(t) = [Hi/(1+Hit] R(t) dR(t)/dt = [Hi/(1+Hi t)] R(t) dR(t)/R(t) = [Hi/(1+Hi t)] dt e integrando L R(t)+C = ∫[Hi/(1+Hi t)] dt Para t=0 LRi +C = 0, C= -LRi Así que: L R/Ri = L (1+Hi t) 87 Como la energía potencial (negativa) de cada punto del campo de velocidades se va haciendo más negativa (por ser la densidad igual en todo el universo) a medida que se aleja de nosotros, para que la energía se mantenga cte. (nula en nuestro caso) es preciso que la energía cinética se incremente en la misma cantidad, para que Ep+Ec = 0. Luego, el “campo de velocidades” es “necesario” para que el universo se mantenga en “equilibrio”. La existencia de la gravitación, por la energía potencial negativa que origina en el espaciotiempo, precisa por compensación o equilibrio de la existencia del campo de velocidades, que “se oponga” de alguna forma a esa gravitación produciendo una energía positiva. Otra forma de que existiera equilibrio sería el de un universo estático (sin recesión) en el que no existiría gravitación. Y como: R12 =(t´-t) v1 R13 =(t´´-t) v1 R22 =(t´-t) v2 R23 =(t´´-t) v2 (De la consabida fórmula, espacio = velocidad *tiempo) Dividiendo estas últimas expresiones: R12/R22 = v1/v2 R13/R23 = v1/v2 O lo que es lo mismo: v1/v2 = R11/R21 = R12/R22 = R13/R23 (ii*) Como (i*) e (ii*) son idénticas, la constancia de la velocidad apuntada es consecuente. Para el cálculo de la constante inicial de Hubble Hi , dada la incertidumbre actual en el conocimiento de Ht , es mejor partir de la expresión: Ahora veremos si la constancia de la velocidad a lo largo del tiempo (ausencia de aceleración) es consecuente. (Ht/Hi)3 = ρt/ρi Así que: Hi = (ρi/ρt)3 Ht Para que se “conserve” la velocidad v1 será: ; donde tomaremos para ρi la densidad de Planck, para ρt la densidad actual y para Ht la que va calculándose en el presente cada vez con más exactitud. v1 = Ht R11 = Ht´ R12 = Ht´´ R13 Y para la conservación de la velocidad v2: Para finalizar esta nueva entrega de nuestra teoría, volviendo a recalcar que la parte de la misma correspondiente a la teoría Supersimétrica y de las Supercuerdas se verán en los últimos capítulos de la obra, podemos adelantar lo siguiente. v2 = Ht R21 = Ht´ R22 = Ht´´ R23 Ht , Ht´ y Ht´´ son las constantes de Hubble para los instantes t, t´ y t´´, respectivamente. (El elegir v1 y v2 no restringe la generalidad, pues es indiferente para cualesquiera otras velocidades) La visión cósmica del universo en la presente teoría se basa en estor tres puntos fundamentales: Si dividimos entre sí las dos expresiones anteriores será: 1º) No es precisa la inflación en la misma (aunque no iría en contra de ella). La v1/v2 = R11/R21 = R12/R22 = R13/R23 (i*) 88 contrayendo hacia cero, va incrementando su densidad. Al llegar a cierto límite se produce lo que llamamos una “inversión del tiempo”, lo que se traduce en el comienzo de una expansión en ese otro universo, que “arrastrará” al nuestro debido a esa conexión apuntada (interpretación de Witten) que denominamos “cuántica del instante cero”. Esa inversión del tiempo se produce entonces, también, en nuestro propio universo. El resultado es el inicio de una contracción, con tiempo negativo y entropía negativa, hasta llegar a un estado de densidad máxima, comienzo de una nueva expansión. El que las leyes físicas cambien o no en cada uno de esos instantes de densidad máxima en uno u otro universo es una hipótesis posterior. supuesta inflación supone una cte. de un campo escalar que actuaría durante cierto tiempo; dicha especulación se “incrementa” con un posterior “ajuste” para lograr obtener lo que previamente se propone. En nuestra opinión ésta es un posición forzada. 2º) Los elementos se van “sintetizando” a partir de una densidad fabulosa, suficiente para que la teoría Supersimétrica (y posterior teoría M) pueda “ejercer su acción”. 3º) El universo comienza cuando empieza la expansión, no de un punto minúsculo sino de una “cantidad de masa” que comprende un radio de Hubble inicial que sólo depende de la densidad existente en ese instante. Ese momento inicial es el “instante cuántico” en el que queda encerrada, dentro del mismo “sistema cuántico”, toda la masa del universo que comienza la expansión, así como toda la masa negativa de otro universo (complementario) unido a éste por medio de las ecuaciones de Witten (Ver la teoría M al final del libro). Nuestro universo crece en el sentido del tiempo positivo y la entropía positiva. El “otro” se mueve en sentido del tiempo negativo y la entropía negativa. Mientras el universo en que estamos se expande, el otro se contrae. Los radios máximos de ambos universos están relacionados por la dualidad T (nuevamente acudamos a los últimos capítulos del texto); es decir: d = 1/d, con la corrección a la idea de Witten de que en el otro universo las “normas” (o distancias) son negativas, o sea, si en un universo la distancia se d, en el otro será –1/d, es decir, se mueve en el intervalo (-∞, 0).(La distancia d se mueve en el nuestro en el intervalo (0, +∞). Acabando con nuestras sugerencias, en esta ocasión, hacia la construcción de una nueva teoría cosmológica, nos conviene, no obstante, aclarar sin más dilación unos apuntes que consideramos importantes acerca de los conceptos de radiaciónenergía y materia que en nuestra opinión implican una amplia revisión de nuestros mismos conceptos de espacio y tiempo. Algo tan conocido años antes de la enunciación de la famosa fórmula einsteniana de equivalencia entre la masa y la energía, E =mc2, como la dualidad onda-corpúsculo, por obra y gracia del prestigio intelectual de un Albert Einstein o la tremenda fuerza de una explosión nuclear, provoca un hito en la ciencia del todo inmerecido por su poca novedad, siendo como es una reedición de lo anterior. Diríamos que el mérito habría que buscarlo entre el grupo de físicos y químicos que hicieron posible la comprensión de ese extraordinario fenómeno que es el de la naturaleza dual de la luz como onda y corpúsculo a la vez. Y decimos que hay una estrecha Nuestro universo es plano; si no hubiese una “fuerza” que lo contrajera se extendería hacia el infinito. Sin embargo, el otro universo, el negativo, al irse 89 otro). Sin embargo, la pretendida equivalencia entre masa y energía, según la fórmula E = mc2, no es tal. Esta fórmula simplemente indica cómo se relacionan ambas, en ningún modo es una equivalencia, puesto que presuponer la misma es cometer un error tan tosco que incide directamente en lo que llamamos “realidad”. Dicha equivalencia significaría una identificación entre determinación (realidad, materia) e indeterminación (posibilidad, probabilidad, energía). conexión, más bien una identificación entre los pares de conceptos ondacorpúsculo y energía-materia por lo siguiente. La energía, cuya mejor identificación es la radiación, está unida estrechamente a la noción de onda. Todo corpúsculo, por otra parte, posee las propiedades más evidentes de eso que llamamos materia. No hace falta, pues, especular más sobre el tema. Eso sí, cupo a Einstein cuantificar (formular) la equivalencia o relación entre unas y otras. La dualidad onda-corpúsculo es básica en mecánica cuántica, puesto que la onda es consustancial a la radiación ( sin detrimento, no obstante, de la onda que acompaña a toda partícula en su movimiento) y el corpúsculo es sinónimo de materia. Así en la cuántica se dice que la onda se “resuelve” (la onda de probabilidad), se materializa o pasa a ser “determinista” al quedar “elegida” una de las posibilidades, algo así como la entrada en la “realidad” de la energía, gracias a su “corpuscularidad” o materialidad. Materia y energía son “sustancialmente” distintas. El tensor energía-momento de Einstein junta en una misma magnitud la energía y la materia, lo que puede ser indiferente en cuanto a su aplicación en relatividad general, pero no en otros ámbitos en los cuales dichos conceptos poseen papeles radicalmente distintos. Por ejemplo, existe un problema cosmológico en la teoría estándar que reside en el concepto de expansión cósmica. Dicha expansión viene dada por la relación de Hubble, v = Hd, ahora bien, esa expansión o dilatación del espacio debe tener un límite a distancias no cosmológicas, pues si hubiese una dilatación, también, del “metro” con el que medimos, nunca hubiese podido medirse, ni siquiera percibirse esa dilatación o expansión cósmica, ya que “relativamente” las distancias cósmicas y no cósmicas conservarían sus proporciones a lo largo del tiempo. Indudablemente nuestro metro “de medir” no sufre este proceso de dilatación. ¿Y qué es nuestro metro de medir sino las distancias o proporciones de la materia que nos rodea (dimensiones del protón, del electrón, es decir, de la propia materia)?...Así que la materia debe conservar sus dimensiones o constantes físicas a lo largo del tiempo, sin participar Observamos, pues, que hay un trasfondo “filosófico” totalmente dispar entre energía–radiación-onda y materiacorpúsculo. Esta última está unida a lo que en términos humanos o para nuestra mente llamamos “realidad”. La ondaradiación-energía define sólo posibilidades, probabilidades: es “algo” indeterminado. La dualidad onda-corpúsculo, tan difícil de asimilar en principio para nuestra mente, no obstante, induce menos a error que la famosa fórmula anterior de Einstein de equivalencia entre masa y energía. La luz podía conducirse (comportarse) como onda o como corpúsculo, pero no eran equivalentes estos últimos pues sus propiedades eran muy diferentes (además, uno excluía el 90 de expansión no de contracción (gravitación). Ahora bien, la contraccióngravitación abarca la gama completa desde lo más ínfimo hasta lo mayor, lo cósmico. Sin embargo, el ámbito de la expansión de Hubble tiene el límite por abajo en la cuántica, en la materia cotidiana que nos rodea... Esta no se ve afectada por la misma... Así que la expansión actúa sobre el espaciotiempoenergía-radiación pero no sobre la materia (cuántica). ¡La expansión dilata el “espacio” entre “ciertos objetos”, que son los más “definidos”, aquellos “dominados” por la cuántica, la pura materia, dejando incólumes los mismos!.. Así que la expansión de Hubble –para algunos la llamada “quintaesencia”- es la clave para la conexión entre la teoría cuántica y la gravitatoria. La expansión de Hubble, pues, no es asimilable a la constante cosmológica λ de la ecuación de la relatividad general einsteniana, es más bien otra “fuerza” contraria a la misma gravitación (¿quintaesencia?) que tiene la particularidad de que aplicada a la “materia pura” (la definida en los términos anteriores, relacionada íntimamente con la física cuántica) es capaz de anular la influencia ejercida por la gravitación en dimensiones cosmológicas, de forma tan perfecta que desaparece todo atisbo de gravitación en la métrica del espaciotiempo, originando un universo plano en todo momento, a lo largo de la historia completa del universo. En otras palabras, gravitación y mundo cuántico están “unificados” en lo que podríamos llamar esta “quintaesencia”, cuyo efecto más evidente es la expansión cósmica de Hubble. en dicha expansión cósmica. La materia, pues, unida íntimamente a “nuestra realidad” posee características constantes con el tiempo. La radiación, la energía, el mismo espacio sufre la dilatación de la expansión cósmica. Por ello la radiación que procede de todo el espacio por su “dilatación” tiene una tendencia al corrimiento hacia el rojo. La gravitación, unida a la relatividad einsteniana, está inmersa, al igual que la métrica del espaciotiempo, en esa dilatación cósmica; ¡por ello la cte. de gravitación sí puede verse involucrada en un proceso de cambio con el tiempo! ¿Pueden sernos todas estas ideas interesantes para encontrar un vínculo o conexión entre la “teoría de la materia”, a la que identifico con la física cuántica, propiciatoria de la “realidad” como interrelación entre el mundo submicroscópico y el macroscópico, y la gravitación o teoría, a nuestro juicio, de la radiación-energía? La gravitación ejerce su dominio desde lo más pequeño a lo más grande, por su “control” sobre la métrica del mismo espaciotiempo, o de las dimensiones del “marco”. La cuántica domina particularmente sobre lo pequeño, lo microscópico, lo subatómico. ¿No será la expansión cósmica “la expresión” o manifestación de la teoría que conecta las anteriores ambas teorías gravitatoria y cuántica? La expansión de Hubble en cierta forma se opone a la gravitación. Es un proceso 91 Capítulo V. - ASTRONOMÍA OBSERVACIONAL 1.Estimaciones de interés - - - - - - En el instante de la gran explosión se calcula un límite superior para la entropía de 108 (Entropía de alrededor de 1 la muestran los sistemas en el entorno terrestre), lo que supone unos 108 fotones por cada nucleón. Se calcula que las galaxias se habrían formado en tiempos que equivalen a corrimientos al rojo de entre 10 y 100, habiéndose reunido con posterioridad en cúmulos. Un corrimiento hacia el rojo de 1010 correspondería a un universo con tan sólo unos segundos de edad y una temperatura de unos 1010 grados Kelvin. Los procesos físicos en esos momentos estarían gobernados por los procesos de desintegración radiactiva de las interacciones débiles. El modelo estándar del big bang, junto con la fuerza débil hace la predicción de una abundancia de helio primitivo en el universo de entre el 25 y el 30%. Como no se conoce con precisión la edad del universo se fija en términos de corrimiento al rojo, medida del grado de compresión del universo en expansión. En estos primeros momentos la fórmula que se toma para el corrimiento al rojo (velocidades relativistas) es (1+v/c)/(1-v2/c2)1/2 –1. En el tiempo de Planck (10-43 segundos) el corrimiento al rojo se estima en 1032 y empezó la creación de partículas. Para la edad hadrónica, aniquilación de parejas protón-antiprotón, el corrimiento al rojo se calcula en 1013 - - y corresponde a un tiempo cósmico de 10-16 segundos. Para i segundo de edad empieza la era leptónica, aniquilación de parejas electrón-positrón, y corresponde a un corrimiento al rojo de 1010. La era de la radiación empieza al minuto de edad, con la nucleosíntesis del helio y el deuterio (el corrimiento al rojo era de 109). A los 10.000 años de edad (104 de corrimiento al rojo) en el universo predomina la materia. El universo se hace transparente a los 300.000 años (corrimiento al rojo de 103). Entre los 10-35 y 10-4 segundos los bariones y antibariones se aniquilan en fotones, quedando solamente 1+10-8 bariones por antibarión. (Todos estos cálculos están sacados del artículo de John D. Barrow y Joseph Silk “Estructura del universo primitivo” – Investigación y Ciencia. Junio 1980). - - - 92 La densidad de los quasars hace unos 15.000 millones de años se cifra en unas 100 veces la de hoy, según los cálculos de Maarten Schmidt (Ver “Los quasares, sondas del universo distante y primitivo”, por Patrick S. Osmer. Investigación y Ciencia. Abril 1982). La densidad crítica de la materia necesaria para frenar la expansión y “cerrar” el universo es de unos 5 * 10-30 gramos por centímetro cúbico – unos tres átomos de hidrógeno por metro cúbico (Del artículo “Materia oscura en galaxias espirales” de Vera C. Rubín. Investigación y Ciencia. Agosto 1983). Excepto en la luminosidad, hay una discrepancia importante entre todas las propiedades de las galaxias hipotéticas y las reales. En las - hipotéticas la velocidad orbital fuera del núcleo disminuye en forma kepleriana y la masa integral alcanza un valor límite. En las reales la velocidad orbital alcanza un valor constante, y la masa integral crece linealmente con el radio (Del mismo artículo anterior). A medida que el universo se expandió, el chorro de partículas elementales que brotó, de forma aleatoria en todas direcciones, eliminó todas las fluctuaciones iniciales que no superaron un tamaño crítico; las únicas que permanecieron fueron las que hicieron fluctuar, comprimiendo o enrareciendo, masa de por lo menos 1015 o 1016 veces la del Sol. q0, parámetro de deceleración Λ k >0 >0 >0 >0 >0 >0 >0 >0 >0 >0 >0 >0 >0 >0 >0 >0 +1/c2 0 >0 0 >0 <0 >0 <0 0 >0 0 0 0 <0 0 <0 <0 >0 <0 0 <0 <0 <0 <0 >0 >0 (Del artículo “Macroestructura del universo” , por Joseph Silk, Alexander S. Szalay y Yakov B. Zel´dovich. Investigación y Ciencia. Diciembre 1983) - La masa de Planck es la m. resultante de la combinación apropiada de las tres constantes fundamentales h ( de Planck, c (velocidad de la luz) y G (de gravitación universal)(hc/G)1/2≅10-5g. Esta cantidad de masa colocada dentro de la longitud de Planck que vale (hG/ c3)1/2 ≅10-33 cm., crearía una densidad de unos 1093cm3 densidad del universo que correspondería a unos 10-43seg.: el tiempo de Planck. - Un megaparsec (Mpc), unidad muy utilizada en la cte. de Hubble y en toda la astronomía, vale 3,26 millones de años luz. 2.Parámetros cosmológicos distintos modelos relativistas de q0 Tipo Ω0 0 < -1 M2; de Sitter >0<Ωc < -1 M2; de Sitter Ωc <-1 A2;caso Lemaître de Sitter >Ωc ≤-1 M1; de Sitter >0 -1<q0<1/2 M1; de Sitter >Ωc >1/2 M1; de Sitter Ωc >1/2 A1; Einstein <Ωc >1/2 0 0 -1 de Sitter >0 -1<q0<1/2 M1; de Sitter >0 -1<q0<1/2 M1; de Sitter 0 -1<q0<0 M1; de Sitter >0 >1/2 0 ½ ½ M1;Einstein-de Sitter >0 0<q0<1/2 M1 0 0 M1; caso de Milne >0 >1/2 0 >0 >1/2 0 0 >0 0 >0 >0 0 Ωc=∞ ∞ Einstein (Del artículo “Cosmología y observaciones. Un análisis crítico”, por Mariano Moles Villamate. Investigación y Ciencia. Julio 1981) 3.Valores de cosmológicos los parámetros A.Sobre la constante de Hubble H0 MÉTODO _ VALOR _ REFERENCIA Supernovas 60±10Rev1998 David Branch Tipo Ia 66±2 HST Distance Scale Key 55±10 Allan Sandage-Tammann los Λ, constante cosmológica k, curvatura espacial Ω0, parámetro de densidad Ωc, parámetro de densidad crítica Supernovas Ia 65±3 Adam Riess, William usando curvas Press Robert Kirsher de luz varios colores 1996 93 MÉTODO _ VALOR _ REFERENCIA Lentes gravitatorias >0,38 Falco 1998 Supernovas Tipo II 73±13 Schmidt 1994 Evolución entropía Cúmulos <0,75 Kay y Bower 1998 TULLY-FISHER 73±10 Mould,J.R. 69±5 Giovanelli 1997 65+20-14 Watanabe 1998 Evolución función distribución temp. <0,3 Viana y Liddle rayos X cúmulos 1999 Cefeidas en galaxias Y grupos cercanos 75±15 Madore 1998 Gigantes rojas más brillantes en galaxias 77±8 y grupos cercanos Abundancia cúmulos galaxias y evolución 0,45±0,2 Eke 1998 Distribución espacial;si ΩΛ=0 Roukema y tangen. cuásares ΩM=0,24+0,05-0,15Mamon ; si ΩΛ=1-ΩM ΩM=0,3±0,15 Harris 1998 Lentes gravitatorias 66±15 Falco 1997 Efecto SunyaevZeldovich 60±20? Birkinshaw1998 Veloc. Media rel. pares galaxias del Survey 0,35±0,15 2000 Mark III Juszkiewicz • Función masa/ luminosidad 0,16±0,05 Bahcall 2000 • De los valores anteriores, se deduce como intervalo más aceptable 65±15. (Los valores anteriores vienen dados en Km/s/Mpc). Análisis eigenmodal examen desviaciones <0,5 Takaniko 1999 rojo Las Campanas B.Sobre el parámetro de densidad Ω0 (suponiendo ΩΛ=0) *La mayoría de los datos apunta a Ω0<1 con una estimación de 0,2<Ω0<0,6. Los datos de Supernovas de alta desviación al rojo apuntan hacia la existencia de una constante cosmológica distinta de cero. Se obtiene estadísticamente de nueve medidas independientes Ω0=0,31±0,07 (valores obtenidos de la página Web de Geocities), con una cte. cosmológica diferente de cero. MÉTODO _ VALOR _ REFERENCIA Estructuras a gran escala 0,3±0,1 Bahcall (Varios métodos) 1997 Lentes gravitatorias producidas por ∼0,3 Bartelman 1997 cúmulos de galaxias C.Sobre el parámetro de densidad debido a una cte. cosmológica ΩΛ Explosiones de Supernovas Perlmutter a alta desviación al rojo <0,6±0,2 1998 Datos combinados Supernovas gran desviación al rojo *Aunque los datos son escasos, se tiende a un valor tan alto como ΩΛ∼0,7. <0,1 A.G.Kim 1998 No obstante, a continuación expondremos algunos valores medidos. 94 MÉTODO _ VALOR _ REFERENCIA Lentes gravitatorias <0,62 4.Verificaciones y problemas en el modelo estándar “ A.Verificación de la teoría estándar Anisotropías radiación de fondo 0,62±0,16 J.D.Cohn 1998 Amplitud espectro potencias distribución = 0 galaxias Una predicción fundamental de la teoría del big bang ha sido finalmente verificada: Ha sido realizada una medida de la temperatura de la radiación de fondo de microondas cuando el universo tenía sólo unos 2,5 billones de años. “ Observaciones >0 (ΩΛ∼0,6-0,7 Riess1998 Supernovas ΩM∼0,3-0,4) 1999,2000 Perlmutter97,Schmidt98 A.G.Kim 1998 Esta difícil y fundamental observación ha sido realizada por un equipo de astrónomos de la India, Francia y la ESO. Han obtenido un espectro detallado de un cuásar en el universo distante, usando el instrumento UVES en el telescopio ESO 8,2 m. VLT KUEYEN en el observatorio Paranal. Anisotropías radiación Melchorri 1999 fondo (Boomerang) 0,85<ΩM+ΩΛ<1,25 Distribución tangencial Roukema y cuásares con estudio Mamon supernovas 0,55<ΩΛ<0,95 1999 Si el universo fue formado en realidad en el big bang, como muchos astrofísicos creen, el resplandor de esta bola de fuego primordial habría sido más caliente en el pasado. Esto es exactamente lo que se ha encontrado en las nuevas medidas. D.Sobre la edad del universo T0 MÉTODO _ VALOR _ REFERENCIA (en gigaaños) El análisis del espectro VLT del cuásar distante, no sólo da la prueba definitiva de la presencia de los vestigios de la radiación en el universo temprano, sino que también enseña que era significativamente más caliente que lo es hoy, como predice la teoría. Abundancia Torio en la estrella halo >15±4 Cowan 1998 CS 22892-052 Cúmulos globulares >12±1 Gratton 1997 >11,5±1,7 Chaboyer 1997 Edad enanas Oswalt,Smith, blancas más >9,5+1,1-0,8 Wood y Hintzen viejas 1996 Una de las predicciones fundamentales de la teoría del big bang caliente para la creación del universo es la existencia de la radiación de fondo de microondas (CMBR). *A estas edades se añadirían las que provienen del tiempo de evolución de las estrellas pobres en metales desde su formación. Se obtendría una edad mínima del universo que estaría entre los 9,6<T0<15,4 Gigaaños (1 Gigaaño=109 años). Este residuo de radiación de la primitiva bola de fuego, como sabemos, fue descubierto en el año 1964 por la observación de ondas de radio por los físicos americanos Arno A. Penzias y 95 Algunas débiles líneas de absorción de los átomos de carbón neutros son especialmente prometedoras, en el sentido de que pronostican ser muy sensibles al entorno de temperaturas. Sin embargo, previas generaciones de telescopios más pequeños han sido incapaces de conseguir un espectro de suficiente calidad de estas imperceptibles líneas de absorción de los objetos remotos del temprano universo. Robert W. Wilson, quienes recibieron por ello el Premio Nobel de 1978. La precisión de las medidas del satélite COBE enseñó que esta antigua radiación llena el universo, con una temperatura actual de menos de 3 grados sobre el cero absoluto (2,7 K). Esta radiación viene de todas las direcciones y es extremadamente uniforme. Sin embargo, han sido medidas ligeras variaciones de la temperatura en diferentes direcciones, más recientemente por observaciones de un globo sobre la Antártida (el experimento Boomerang). Hace unos años, el telescopio Keck de 10 m. (Mauna Kea, Hawai, USA) obtuvo un espectro de un cuásar que tiene el suficiente detalle para determinar un límite superior a la temperatura de la CMBR en la época correspondiente a los 3,4 billones de años después del big bang. Como el universo se expande, debe haber sido mucho más denso en el pasado. Una predicción particular de la teoría del big bang es también que la temperatura de la CMBR debe haber sido más alta en los primeros tiempos. La mayor dificultad de tales observaciones es la necesidad de excluir otras fuentes de excitación (calientes). Es bien conocido que algunos otros procesos pueden afectar a las líneas de absorción observadas, tales como una colisión entre átomos y el calor de la luz ultravioleta emitida por estrellas jóvenes y calientes. Pero aunque se han hecho bastantes intentos, no ha habido confirmaciones observacionales más adelantadas. En efecto, la mejor observación hecha hasta ahora sólo ha sido capaz de establecer un límite por arriba de la temperatura cósmica en épocas tempranas. El problema principal es, por tanto, desenredar los variados efectos en orden a aislarlos del CMBR. Esto sólo puede obtenerse por significativos y excepcionalmente limpios y detallados espectros de estos débiles objetos, una dura y absorbente tarea. Contra más lejos miramos en el universo, más lejos vemos en el tiempo. Hace más de treinta años que se predijo que el crecimiento de la temperatura con la distancia (desviación al rojo) podría ser comprobada por la observación de líneas específicas en el espectro de los cuásars distantes. La idea es simplemente que en épocas tempranas la CMBR no era bastante caliente para excitar ciertos niveles atómicos, y por tanto, para dar pie a líneas de absorción en el espectro de los objetos del espacio. Por estas razones, todas las medidas previas sólo han sido capaces de poner un límite a la temperatura de la CMBR. El nuevo espectro VLT del cuásar PKS 1232+0815 provee el esperado gran avance en esta importante área de la investigación cosmológica. La luz de este objeto distante es absorbida por material, entre otros, por una nube 96 indicio de un cosmos más caliente en el pasado. (Del artículo “Fundamental Big Bang Prediction is Finally Verified” de la página Web de la UNISCI). gaseosa en una galaxia de alto corrimiento al rojo (z = 2,34). Esta distancia corresponde a un tiempo cósmico en el que el universo era cinco veces más joven que en la actualidad. B.Divergencias respecto a la teoría estándar Sumando a las líneas de carbón sensibles al CMBR, el resultado del espectro único aparece una extraordinaria riqueza de otras líneas de absorción, revelando la presencia de varios elementos en varios estados de excitación. Hay, en particular, un gran número de líneas de hidrógeno molecular. I.ACELERACIÓN DEL UNIVERSO *Según Craig J. Hogan, Robert P. Kirshwer y Nicholas B. Suntzef (Ver “Exploraciones del espacio-tiempo mediante Supernovas”. Investigación y Ciencia. Marzo 1999), las últimas mediciones sugieren que la expansión se está acelerando, debido posiblemente a una constante cosmológica no nula. La multitud de información derivada de esas líneas eran la llave para deducir la temperatura del CMBR que afecta a la galaxia. También afirman que una segunda explicación a la inesperada debilidad de las Supernovas remotas se atribuiría a que las mismas se encontrarían más alejadas que lo que sus corrimientos al rojo sugieren, es decir, las Supernovas situadas a esas enormes distancias mostrarían menos corrimiento al rojo que lo que cabría atribuirles. Los cosmólogos están postulando que la expansión del universo procedió con mayor lentitud de lo que se supone en los primeros tiempos, y por ello hubo un menor desplazamiento global del universo, también, de la luz que viaja en su seno. Un subsiguiente análisis detallado permite la determinación de las condiciones físicas en la nube; la presencia de las líneas del hidrógeno molecular es crucial para esto. El análisis enseña claramente que los procesos de excitación de las colisiones atómicas no pueden ser los únicos responsables de la forma y fuerza de las líneas de absorción observadas. Una fuente adicional de excitación debe, por tanto, estar presente en el pasado distante. Además, es posible “constreñir” el resultado por el efecto de otros procesos posibles de excitación. Esto hace posible que los astrónomos deriven la temperatura T de la CMBR en esta gran distancia y temprana época cósmica, poniendo un límite más bajo a esta temperatura. *Sobre el mismo tema, Pilar RuizLapuente, Alex G. Kim y Nicholas Walter afirman lo siguiente, en su artículo “Supernovas y expansión acelerada del universo” (Investigación y Ciencia. Marzo 1999). El resultado final es que T es más caliente que 6 K y más fría que 14 K; esto está totalmente de acuerdo con la predicción del big bang de T= 9 K. Esta es la primera prueba real de que la CMBR es La presión aumenta con la densidad de radiación p = 1/3 ρ. La densidad de materia decrece de forma inversa al aumento del volumen, es decir, 97 según una ley de T-3. Sin embargo, la densidad de radiación decrece con potencia mayor, ley de T-4. En su opinión, otro candidato a componente con presión negativa lo constituirían los efectos topológicos en la textura del espacio-tiempo, que podrían llevar asociados una densidad de energía enorme. El universo dibujado por la observación de Supernovas muy lejanas es un universo muy vacío y dominado por una componente de energía de presión negativa. La energía asociada a una constante cosmológica llena el espacio con densidad constante, y no haría mucho pasó a dominar sobre la materia en la evolución del universo, de la misma forma que la materia pasó a dominar sobre la radiación en algún momento del primitivo cosmos. II.PROBLEMAS CON LA SIMETRIA ROTACIONAL DEL UNIVERSO A ESCALAS CÓSMICAS Según los investigadores Borge Nodland de la Universidad de Rochester y John P. Ralston de la Universidad de Kansas, hay evidencias de que el principio de simetría rotacional puede ser violado en el cosmos. Medidas de la luz de las galaxias distantes, nos dicen, varían dependiendo de la posición de las galaxias en el espacio. Se calcula en un 30% la materia del universo y en un 70% la energía del vacío. Esta constante cosmológica es una forma exótica de materia cuya densidad no cambia al variar el volumen que lo contiene. Einstein, Newton e incluso Kepler siempre habían asumido que el espacio posee una propiedad llamada simetría rotacional, o sea que las medidas de los eventos dentro deben dar en cualquier sentido los mismos resultados. La ecuación de estado para la energía del vacío,Λ, es p = -ρ. Para la materia ordinaria (salvo a velocidades cercanas a la de la luz) la presión es insignificante. Si existe materia y energía del vacío como componentes del universo, la deceleración viene dada por la ecuación q0 = ½ Ωm-Ωv (siendo Ωm el parámetro de densidad de la masa y Ωv el parámetro de densidad del vacío). En dichos términos han presentado los autores sus resultados. Sin embargo, otros teóricos dudan de estos resultados, entre ellos Sean M. Carroll y Sandy Hill. Nodland y Ralston investigaron si la luz polarizada de galaxias remotas cambia su dirección o distancia. (La luz polarizada típica oscila dentro de un plano preferentemente a todas direcciones, como en la luz ordinaria del Sol, y puede ser producida por una variedad de fenómenos). La luz polarizada a menudo se tuerce cuando se propaga a través del espacio como resultado de sus encuentros con campos electromagnéticos; este conocido fenómeno se llama efecto Faraday. Pero Nodland y Ralston se preguntan si habría efectos adicionales a los anteriores. Los resultados de “la aceleración” de la expansión, no obstante, serían también compatibles con la presencia de una forma de energía distinta de la del vacío, que tendría como ecuación de estado P=wp, con w negativo, pero distinto de – 1. En esta hipótesis, la energía del vacío podría anularse. 98 Para encontrarlos, se concentraron en estudios de las galaxias que emiten gran cantidad de radiación sincrotón, una forma de polarización electromagnética generada por partículas cargadas pasando a través de un fuerte campo electromagnético. Después de analizar la literatura publicada, Nodland y Ralston compilaron los datos de polarización de 160 galaxias. preferente. El universo, en su opinión, pudiera no ser “tan perfecto, simétrico e isótropo como pensamos”. Su investigación se movía alrededor de una gran suposición, que el ángulo inicial de polarización de la luz relativa al plano de cada galaxia era el mismo para todas las 160 galaxias. Dada esta suposición y la distancia estimada de las galaxias (inferida de sus corrimientos al rojo), Nodland y Ralston podían calcular si la luz sufrió algún retorcimiento distinto del causado por el efecto Faraday. C.En defensa del big bang Otros astrónomos sospechan que esta imperfección radica en el análisis de Nodland y Ralston. (De la Web “Scientific American Exploration: Twist and Shout”. 1997) Muchos de los supuestos problemas que rodean al big bang, pueden ser achacados no al propio modelo, sino a algunos parámetros libres, como pueden ser la constante de Hubble o la densidad de materia. La relación de Hubble, predicción teórica del modelo estándar, es un hecho fuera de toda duda observacional. Después de las medidas del telescopio espacial Hubble, pocos dudan que la cte. sea menor que 50 y mayor que unos 80 (65 es el valor más probable), lo que apenas deja unos 10.000 millones de años para la edad del universo (asumiendo el tiempo del modelo de Einstein-de Sitter como 2/3H0), tiempo escaso para la formación de las estructuras que se observan hoy día. El problema existe, pero no parece que sea un problema del modelo estándar, pues podría ajustarse el modelo, por ejemplo, introduciendo la cte. cosmológica para que encajasen los resultados; también en la medida de dicha cte. están implicadas muchas disciplinas astrofísicas, y un error en cualquiera derribaría todo el edificio metodológico. De hecho la nueva calibración de distancias efectuada por el satélite Hipparcos parece haber resuelto, bastante, el conflicto. Los cálculos de los investigadores enseñan que la luz polarizada de las galaxias en realidad exhiben una rotación extra, en una cantidad proporcional a la distancia de las galaxias desde la Tierra. El hecho de que los efectos varíen con la distancia, dice Nodland, descarta la posibilidad de que fuera local, derivando de fenómenos que ocurrieran en la vecindad del sistema solar. Pero la principal sorpresa es que la cantidad de rotación depende de la dirección de cada galaxia en el cielo. Nodland y Ralston definen este efecto en términos de distancia angular entre cada galaxia y la Constelación Sextante. El giro aparece con más fuerza cuando la dirección de la galaxia está casi paralela a la del eje Tierra-Sextante, y más débil cuando la dirección es perpendicular. El efecto puede derivar de una partícula indetectada, fuerza o campo, sugiere Nodland, o incluso una propiedad del espacio mismo que tenga una dirección 99 En el modelo estándar quedan aún sin resolver algunas cuestiones como el origen y formación de las galaxias, pero ninguna parece contradecir el modelo dentro del nivel de conocimiento actual. Por ejemplo, si detectáramos algunos objetos extragalácticos con fracciones de helio bastante diferentes del 24% predicho por los cálculos de nucleosíntesis primordial, o se descubrieran nuevos objetos con fuertes corrimientos al azul que violaran la cinemática sustancial del modelo, o se encontrasen cúmulos estelares con edades evolutivas de unos cien mil millones de años que pondrían la cte. de Hubble muy lejos del rango permitido por las incertidumbres del modelo, entonces sí habría razones de peso para proceder a un recambio sistemático del modelo estándar. ¡Y es que las propuestas aducidas hasta el momento, quizás, no sean lo suficientemente descabelladas para que se tengan totalmente en consideración! El modelo estándar tampoco dice absolutamente nada sobre el instante de la creación del universo, simplemente remonta el tiempo hasta una fase de alta densidad y temperatura dominada por radiación térmica. Y es que hay tres hechos confirmados: las abundancias cósmicas primordiales de los elementos ligeros, la existencia de la radiación electromagnética de fondo correspondiente a una emisión térmica a unos 2,73 grados Kelvin, y la existencia de tres familias de neutrinos, relacionado con el modo de llevarse a cabo la nucleosíntesis primordial y confirmado en los aceleradores de partículas. El profundizar más en el tiempo es más un problema de física fundamental y no del propio modelo estándar. De los teoremas de Hawking-Penrose, el modelo tiene una singularidad inicial, pero cualquier explicación de lo que pasa en ese “instante inicial” está más allá de lo que se sabe en física fundamental. Y es que las soluciones a los problemas con la singularidad inicial no parecen estar, aún, en el buen camino. 100 101 científicos, al convencerles de la posibilidad de que las distintas fuerzas de la naturaleza fueran manifestaciones de un solo campo unificado. Capítulo VI. TEORÍAS UNIFICADAS (GTU´S) 1.Introducción De esos esfuerzos ven la luz las teorías de campo que unifican las tres fuerzas (electromagnética, débil y fuerte), denominándose “Grandes Teorías Unificadas” o GTU. Las GTU no se proponen una unificación del campo total al no incluir la gravedad, mucho más débil que las cuatro anteriores. Estas teorías, aunque no resuelven todos los problemas de la Física, han significado un gran avance en la unificación de toda la física de partículas. Hemos visto como casi todas las teorías basadas en el modelo estándar tienen en común el inicio de la expansión en una singularidad, la cual se caracteriza por un aumento desmesurado de la densidad, con una tendencia hacia el infinito y una subsiguiente temperatura que alcanza los millones de grados; con ello se entra en un mundo que va más allá de la relatividad general de Einstein y de la propia mecánica cuántica, lo que la mayoría llama la buscada “gravedad cuántica”. Hay una idea general en el convencimiento de los físicos de que aunque las GTU han aclarado la dinámica del universo primordial, mientras no exista una teoría del todo unificada con la inclusión, por consiguiente, del campo gravitatorio, no se puede describir el origen del universo, que requiere del descenso o contracción de distancia hasta la escala de Planck (10-33 cm.) Claro que la meta de esta “gravedad cuántica” debe pasar por unas fases previas, que son las síntesis parciales hasta llegar a la síntesis general que representaría la anterior. Pues esos pasos previos es lo que son, justamente, las GTU´s o teorías unificadas. A continuación nos iremos introduciendo en este mundo de las GTU. Esta vía fue abierta por el propio Einstein, el que partiendo de su teoría de la relatividad general que describía la gravedad, y la teoría de Maxwell para el electromagnetismo, buscó, por cierto sin conseguirlo, una teoría unificada más amplia que integrase ambas fuerzas. Cuando Einstein hizo este intento era poco lo que se conocía de la fuerza débil y fuerte, fuerzas que hoy en día se cree tan fundamentales como la gravedad y el electromagnetismo. Einstein creía que la teoría del campo unificado surgiría de la fusión entre la mecánica cuántica y su relatividad general. Einstein no pudo elaborar esta teoría del campo unificado, pero sí sus trabajos inspiraron a otros Para los químicos del siglo pasado los átomos eran simples pequeños pedazos de materia de forma esférica de un tamaño aproximado de 10-8 cm. (o sea, 1/100.000.000 de centímetro). La primera cuestión fue entonces preguntarse si estos átomos tenían estructura o no. El resultado fue positivo, y la primera imagen de Bohr fue el símil de un sistema planetario o un centro-Sol que era el llamado núcleo y los planetas que daban vueltas alrededor del centro, los electrones; ahora bien, las órbitas de estos electrones poseían ciertas reglas 102 debido a su pequeñez, lo que las hacía diferentes de las órbitas de los planetas. La diferencia es que estaban “cuantizadas”, lo que quería decir que sólo eran permitidas aquellas que poseían solamente cierta energía, definida por E= h ν, siendo h una constante llamada de Planck y ν la frecuencia de ese movimiento (ν=1/T, siendo T el período de la onda que va acompañando a esos electrones). “nucleones”). La masa de los nucleones es de unos 940 MeV, o sea, unas dos mil veces mayor que la de los electrones. El neutrón es ligeramente más pesado que el protón; sólo 1,3 MeV más pesado. Al tener los electrones carga, según las leyes de la electrodinámica, todo objeto cargado eléctricamente moviéndose en una órbita circular, debería emitir radiación constantemente, lo que haría reducir la energía de dichos electrones cayendo hacia el núcleo en un período muy corto, menor de un segundo. El que ello no suceda, como enseña la experiencia representaba una contradicción, superada por la mecánica cuántica que establece entre sus leyes que los electrones puedan moverse sobre trayectorias específicas (estados estacionarios cuantizados), tales que en las mismas éstos no emitan radiación, siendo dichas trayectorias totalmente estables. Los cambios del electrón de una a otra de estas órbitas se producen a través de la captación o emisión de radiación cuantizada hν. Existe una órbita de energía más baja, dentro de las estacionarias, es el llamado estado fundamental; fuera de estos estados los átomos están excitados, por las órbitas excitadas de los electrones. Se accede meramente al estado fundamental por emisión de energía en forma de luz, como acabamos de decir. Pero para definir las órbitas de los electrones no basta tan sólo la energía; se necesita también saber el momento angular de los mismos. (El momento angular describe lo rápido que se mueve el elcetrón alrededor del núcleo). En la teoría cuántica este momento angular, también está cuantizado, y sólo puede valer un múltiplo del momento angular mínimo, dado por el llamado cuanto de acción de Planck que vale h/2π =h. Así los posibles Bombardeando los átomos con partículas α (partículas cargadas positivamente y obtenidas a partir de sustancias radiactivas naturales que las emiten) se vio que el átomo, realmente, estaría muy “vacío”, pues el 99% de toda la masa total del átomo estaba en su centro o núcleo. En física de altas energías se expresa la masa en unidades de energía (debido a la equivalencia masa-energía de la ecuación relativista, vista con anterioridad, E=mc2). En estas unidades la masa del electrón vale 0,5 MeV (MeV es el llamado megaelectronvoltio, que vale un millón de electronvoltios; y este último es, a su vez, la energía necesaria para mover un electrón en un potencial eléctrico de un voltio). Y es que se usan estas unidades por la pequeñez que representarían estas masas de las partículas en nuestras unidades ordinarias (un electrón tiene de masa 9 * 10-28 gramos). Como los electrones tienen carga negativa (igualmente cuantizada), y los átomos son neutros, los núcleos poseen carga positiva de valor igual y contraria a la de los electrones que le rodean. El núcleo resultó harto complicado, formado por dos tipos de partículas elementales, los protones cargados positivamente y los neutrones sin carga (ambos reciben el nombre general de 103 mesones π de spin cero, o los mismos fotones (partículas de luz) de spin 1. momentos angulares son h, 2h, 3h, etc., además de cero. Ocurre que el electrón tiene, también, la posibilidad de girar sobre sí mismo, es decir, tiene un momento angular intrínseco. (Imaginemos al electrón como una pequeña bola girando sobre sí misma, pero con energía, de igual forma, cuantizada). El momento angular intrínseco del electrón es siempre ½ h, o sea, la mitad del momento angular mínimo del mismo. Ahora bien, el momento angular se define como un vector, y este puede apuntar en dos direcciones contrarias, así que este momento angular intrínseco del electrón puede valer +1/2 h y –1/2 h. A este momento angular intrínseco del electrón se le ha denominado “spin”. De modo que hasta el momento un electrón de un átomo (de la corteza atómica) viene caracterizado unívocamente por varios números, como son su momento angular y su spin. Estos números se denominan “números cuánticos”. El átomo más simple es el del hidrógeno que posee un núcleo formado por un protón y sólo posee un electrón en su corteza atómica. Existe otro sistema curioso llamado “positronio” que está formado por un electrón y su antipartícula, el positrón. Y es también un estado ligado como el átomo de hidrógeno, ya que la carga eléctrica del positrón es igual a la carga eléctrica del protón. La diferencia entre ambos sistemas es que la masa del protón es 2.000 veces (aproximadamente) que la del electrón, y electrón y positrón tienen la misma masa, orbitando uno alrededor del otro. Claro está, la vida del hidrógeno es prácticamente infinita, mientras que la del positronio es menor de una millonésima de segundo. El estado del positronio puede ser descrito a través del momento angular de ambos constituyentes. Lo que importa es la orientación relativa de los spins del electrón y del positrón. Existen dos clases de estados posibles de spin para el positronio: que la orientación de ambos spins sea contraria (parapositronio), o que la orientación sea la misma - en la misma dirección (ortopositronio). La vida del parapositronio es mucho más corta que la del ortopositronio. Esto es consecuencia del hecho de que la aniquilación de electrón y positrón (materia y antimateria), en el positronio se efectúa mediante interacción electromagnética. Con el tiempo se demostró que dos electrones en un átomo no pueden poseer nunca dos mismos números cuánticos, es lo que se ha denominado “principio de exclusión de Pauli” (regla enunciada en los años veinte del siglo pasado por el físico Wolfgang Pauli). En los años cuarenta se encontró que el principio de Pauli era una consecuencia necesaria de la mecánica cuántica cuando se considera juntamente con la teoría de la relatividad. Este principio es válido (una regla similar) para todas aquellas partículas como protones y neutrones cuyo spin no sea entero, es decir, sea 0, 1, 2, 3,... (A menudo se toma la unidad mecanicocuántica igual a 1; el spin ½ h se pone spin 1/2). Un ejemplo de partícula en la que no vale este principio es para los Como es sabido el campo electromagnético está descrito por las llamadas ecuaciones de Maxwell (formuladas en el año 1861 por el físico escocés James Clerk Maxwell). 104 de estructura fina, α, (introducida inicialmente por el físico Sommerfeld) sin dimensiones y de valor 1/137,036. Las ecuaciones de Maxwell son válidas que sepamos en órdenes de magnitud tan altos como los poderosos campos electromagnéticos observados en las galaxias, hasta los que tienen sólo 10-36 cm. de extensión (10.000 veces menores que el núcleo atómico). Recordemos que tanto la electricidad como el magnetismo se presentaban como independientes con anterioridad a Maxwell y Faraday, por ello la teoría de Maxwell podríamos considerarla como la primera teoría unificada de la electricidad y el magnetismo. En lenguaje más moderno ( de la mecánica cuántica y la teoría cuántica de campos) que el original de los tiempos de Maxwell, decimos que las ecuaciones de Maxwell describen la propagación de cuantos electromagnéticos, fotones, en el espacio. En igual forma se describe la atracción o la repulsión entre objetos portadores de carga. La electrodinámica cuántica (de exactitud admirable) nace de la fusión de la mecánica cuántica con las ecuaciones de Maxwell. Poco después de la formulación de la mecánica cuántica por Heisenberg, Schrödinger, Born, Pauli y otros, Dirac combinó esa teoría con la relatividad y las ecuaciones de Maxwell. El resultado fue una ecuación del movimiento de partículas cargadas con propiedades curiosas, que describe de forma satisfactoria las propiedades de los electrones; pero esa ecuación implicaba la existencia de otra partícula, con la misma masa que el electrón y con carga opuesta, positiva (el positrón). Anderson, del Instituto Tecnológico de California, la descubrió posteriormente. Por ejemplo, dos electrones se influyen mútuamente por medio de su repulsión eléctrica intercambiando quantums de fotones, en este caso “virtuales”, para distinguirlos de los llamados fotones reales (los de la luz visible, por ejemplo). En la siguiente figura se indica esta “dispersión” por los llamados esquemas realizados inicialmente por Richard Feynman (diagramas de Feynman). Es usual (en física cuántica) describir la intensidad de una interacción mediante un parámetro llamado “constante de acoplamiento”. Para constantes mayores que 1 (grandes) se habla de interacción muy fuerte. Si dicha constante es mucho menor que 1, estamos ante una interacción débil. La constante de acoplamiento de la interacción electromagnética se denomina constante Al igual que el electrón, todas las partículas descritas por la ecuación de Dirac deberían tener una “antipartícula”. Los diagramas de Feynman de la desintegración del positronio, en sus dos versiones es la siguiente: 105 constante de acoplamiento α, lo que implica que la intensidad de la desintegración del ortopositronio es inferior en un determinado factor en relación con la intensidad de desintegración del parapositronio. La consecuencia es el alargamiento de la vida del ortopositronio. Para 2.La intensidad fuerte En un núcleo como el del uranio con 92 protones (y el mismo número de neutrones), es muy difícil en el marco de la electrodinámica concentrar en un volumen tan pequeño como el núcleo un número tan elevado de protones. La repulsión eléctrica a estas distancias es tan enorme que se esperaría la explosión de dicho núcleo en breve tiempo, a no ser que hubiese “otras fuerzas”, además de las eléctricas, que pudieran estabilizar el núcleo. Dichas fuerzas existen y son las llamadas fuerzas nucleares o fuertes (interacciones fuertes), y que actúan sólo en el interior del núcleo, es decir, a distancias del orden de 10-13cm. Orto La desintegración del parapositronio se describe mediante un diagrama en el cual el electrón y positrón llegan por la izquierda y se aniquilan mutuamente, creándose al mismo tiempo dos quantums de fotones. Todo ello es consecuencia especial de las ecuaciones de Maxwell, puesto que se demuestra que dos quantums de fotones no pueden formar nunca en estado con momento angular 1 (en unidades h). Por ejemplo, dos protones se repelen mutuamente hasta que al acercarse a menos de 10-13 cm. prevalece la fuerza nuclear, atrayéndose los protones entre sí. Ello es la causa de que se formen los núcleos atómicos y de que el tamaño de los mismos sea típicamente de 10-12..10-13 cm. El ortopositronio (con los vectores de spin apuntando en el mismo sentido) es un estado de momento angular 1. El parapositronio es un estado de momento angular cero (vectores de spin apuntando en sentido puesto). Por este motivo el ortopositronio no puede desintegrarse en dos fotones, sino en tres o más, al contrario que el parapositronio. En el marco de cuántica, por cada reacción hay que adicional en forma La interacción entre cuerpos eléctricamente cargados puede ser descrita en términos de intercambio de fotones virtuales, entonces no era muy difícil suponer que lo mismo podía suceder para la interacción fuerte. En esta dirección apuntaron las primeras ideas de los años treinta del siglo pasado por medio del japonés Yukawa. Éste propuso que las interacciones fuertes entre la electrodinámica fotón extra de la pagar un precio de un factor de la 106 nucleones se realizaban gracias intercambio de una nueva partícula. al intercambio de un solo mesón. La teoría de perturbaciones es inaplicable, y con ello el tratamiento de Yukawa. En la teoría cuántica existe una clara relación entre la masa de la “partícula intercambiada” y el alcance de la interacción correspondiente. Por ejemplo, la interacción electromagnética y la gravitatoria tienen alcance ilimitado porque los fotones y gravitones carecen de masa. Entonces, dado el pequeño alcance de las fuerzas nucleares la partícula intercambiada en esta interacción debe ser muy masiva. Y así es, resultando masas que en unidades de energía valen 100...150 MeV (o sea, unos 1/7 o 1/9 de la masa del protón). Así que el procedimiento ha tenido que variar de forma radical, y los conocimientos adquiridos más recientemente han conducido a una teoría de la interacción fuerte llamada cromodinámica cuántica (QCD, Quantum Chromodynamics), teoría que se ocupa de los llamados quarks. La peculiar partícula llamada “neutrino” fue predicha por Wolfgang Pauli a raíz de resultados extraños obtenidos en el estudio de la llamada desintegración β que, realmente, es un tipo especial de interacción llamada interacción débil. Diez años después de la propuesta de Yukawa se descubrieron experimentalmente dichas partículas, los mesones π (que no tienen spin - partículas escalares- y poseen una masa de unos 140 MeV). Hay tres mesones π distintos: uno cargado positivamente (π+), otro con carga negativa (π-) y un tercero neutro (π0). También se tiene que la partícula πes la antipartícula del π+, mientras que π0 es su propia antipartícula. La solución propuesta por Pauli para la desintegración del neutrón en un protón y un electrón fue la del diagrama: νe- n e- Pero resulta que la constante de acoplamiento para la interacción fuerte es mucho mayor que la de acoplamiento electromagnético, α (α=1/137,036), mayor que 1 (aproximadamente 10); así que no es posible construir la teoría de la interacción fuerte por analogía con la de la electrodinámica cuántica, que resuelve el problema del intercambio de dos o más fotones, mediante la llamada “teoría de perturbaciones” (del proceso básico, que es el intercambio de un fotón). p νe- fue la partícula propuesta, “neutrino” (bautizada así por el físico Fermi), necesaria para la conservación de la energía. Realmente, conviene rebautizar el neutrino que aparece en la ecuación anterior como “antineutrino electrónico” (νe-). (También existen otros tipos de neutrinos). La desintegración β anterior puede escribirse en la forma: Y es que la probabilidad de que dos o más mesones π tomen parte en la interacción fuerte de dos nucleones es mucho mayor que la probabilidad del n 107 p + e-+ νe- Y el “zoo” de partículas con la construcción de los aceleradores creció sin cesar. π- Las partículas que interaccionan fuertemente se denominan hadrones. Y dentro de los hadrones hay dos familias distintas: mesones y bariones. Λ p Como consecuencia de una ley de conservación importante: la ley de conservación del número bariónico, que dice que “el número de bariones menos el número de antibariones se conserva en todo proceso físico”. Otros mesones (además del π) son los mesones K, de masa alrededor de la mitad de la masa del protón, y los mesones ρ, cuya masa es ¾ de la del protón. De forma matemática se asigna a cada barión el número bariónico A=+1 y a cada antibarión el número bariónico A=1. A los mesones se les atribuye el número bariónico 0; y lo mismo a los que no interaccionan fuertemente como los electrones. Así que, el número bariónico se mantiene constante en todo proceso físico. Todos los mesones son inestables y se desintegran al final en electrones, positrones, fotones y neutrinos. También poseen spin entero. El mesón ρ tiene spin 1 (mesón vectorial) y hay otros de spin 2, 3, 4, etc. Se sabe que la masa de los mesones aumenta con el spin. (Hoy se cree que existen casi infinitos mesones con spin arbitrariamente grande). Esta ley de conservación es análoga a la ley de conservación de la carga eléctrica. Junto con los nucleones conocidos existen una serie de partículas emparentadas como los hiperones (Λ, Σ, Ξ) y las llamadas partículas ∆, que son más pesadas que los nucleones. Por ello todas estas partículas se denominan bariones (de “baryos”, “pesado” en griego). Su característica especial es un spin no entero, en general de spin ½ (los ∆ tiene spin 3/2). Existen otros bariones con spin 5/2, 7/2, etc.; cadena de partículas que crecen de forma indefinida con spines arbitrariamente elevados. La conservación del número bariónico garantiza que el protón sea una partícula estable. O sea, la conservación del número bariónico exige, pues, la estabilidad del protón. Y es que la conservación del número bariónico y la estabilidad de la materia guardan conexión mutua. Sin embargo, la no conservación del número bariónico es, en el marco de las modernas teorías de campos de partículas elementales, algo perfectamente natural, esperándose para la vida media del protón unos 1031 años (por el contrario, la edad del universo actual es de unos 1010 años). Todos los bariones, excepto el protón son inestables, de forma que al final queda un protón, junto con otras partículas como los electrones. En el grupo de partículas dotadas de spin ½ como el electrón y el neutrino, están los leptones ( de “lepto” – ligero -, aunque existan leptones más pesados que El hiperón Λ (masa 1116 MeV) se desintegra en la forma: 108 partículas ∆ (∆++,∆+, ∆- y ∆0). En particular existe una partícula elemental de carga +2, a saber, la partícula ∆++. También hay partículas sin “socios de isospin”, como el mesón η. Otros, los mesones ρ, de spin 1 y masa 2/3 de la del nucleón. Existe, también, el mesón neutro, w, de spin 1. el protón). Entre ellos están el muón µ y el neutrino asociado a él, el neutrino muónico νµ. Los leptones parecen estar emparentados de modo que cada pareja está formada por un neutrino y un leptón cargado. Así: νe νµ ντ e- µ- τ- La razón física de la existencia de la simetría de isospin es consecuencia de la estructura interna de las partículas que interaccionan fuertemente. La simetría de isospin es una simple consecuencia de la estructura de quarks de los hadrones. El leptón tiene una masa de 1,8 GeV, y no se sabe si la masa de los neutrinos es nula. Hay muchos más hadrones que leptones, pues sólo se conocen seis leptones y, sin embargo, algunos cientos de hadrones. De aquí puede concluirse que los leptones son de carácter más fundamental que los hadrones, puesto que los hadrones resultaron ser “sistemas” formados por unos constituyentes elementales: los quarks. (Concepto propuesto originalmente por Murray Gell-Mann y Georges Zweig en el año 1964). Es fácil construir mesones a base de subunidades de spin ½. Lo más fácil son los mesones con una subunidad de spin ½ y con una antipartícula. El sistema, pues, tiene spin entero (0, 1, 2, 3,...). La posibilidad más simple, es tener dos constituyentes distintos a los que llamaremos quarks u y d (up –arriba- y down –abajo-). Con dos quarks q distintos pueden construirse cuatro sistemas quark-antiquark diferentes, concretamente uu, ud, du y dd. / En particular los mesones suelen aparecer en grupos de cuatro. Ejemplo, el grupo π+, π0, π-, η o el grupo ρ+, ρ0, ρ-, w). Luego los mesones pueden se sistemas quarkantiquark. El modelo de quarks de los hadrones ha pasado de ser una hipótesis a convertirse en la teoría de los hadrones. Heisenberg propuso que la interacción fuerte es invariante bajo el intercambio de protones y neutrones entre sí. Esta invariancia se denomina “simetría de isospin”. (Que se cumple para la interacción fuerte pero no, por ejemplo, para la interacción electromagnética). Si los bariones son sistemas formados por varios quarks, necesitamos para la construcción de un nucleón más de un quark. Pero, como es imposible construir un barión a partir de dos quarks, ya que el spin de un sistema de dos quarks no pude ser semientero como lo es el spin de un nucleón, es necesario, pues, interpretar dichos bariones como sistemas formados por tres quarks. Entonces, los hadrones pueden ser distribuidos en distintos grupos según esta simetría de isospin. Los miembros de un grupo tienen todos el mismo spin, el mismo número bariónico, y casi la misma masa, pero distintas cargas eléctricas. Ejemplos de estos grupos de isospin son los mesones π (π0, π-, π+) y las llamadas 109 Si nos fijamos en las partículas ∆, sólo existen cuatro alternativas distintas para construir sistemas qqq con los quarks u y d. A saber: uuu, uud, udd y ddd. Las cuatro partículas ∆ tendrían estas cuatro configuraciones: La respuesta es que no se han tenido en cuenta el spin de los quarks. Los mesones π tienen spin 0, así que ambos spines se orientan en sentido contrario. Los mesones ρ, de la misma configuración de quarks que el π, tiene spin 1, porque los spines de ambos quarks están orientados en la misma dirección (lo mismo que sucedía con el positronio con sus dos configuraciones). El mesón π corresponde en su estructura de spin al parapositronio y el mesón ρ a la del ortopositronio. Las partículas ∆ tiene spin 3/2, lo que se consigue cuando los spines de los tres quarks apuntan en la misma dirección. En el núcleo con spin ½, dos de los quarks tienen los spines orientados en la misma dirección, y el otro en dirección opuesta. ∆++=(uuu), ∆+=(uud), ∆0=(udd), ∆-=(ddd) Con esta identificación procuraremos determinar las propiedades de los quarks, en particular sus números cuánticos. El número bariónico del quark debe ser la tercera parte del número bariónico del nucleón, o sea, 1/3. (El nº bariónico de un quark no es entero). Como ∆++= (uuu), la carga eléctrica del quark u es 2/3. De la misma forma, la carga del quark d es – 1/3. Por primera vez nos encontramos en la física objetos cuyo número bariónico y cuya carga eléctrica no son enteros. El protón, que tiene carga eléctrica +1, debe ser interpretado como un sistema cuya estructura de quarks es uud: el neutrón tendría la estructura udd. Ahora sólo falta suponer que la fuerza que actúa entre los quarks debe ser tal que los spines en un mesón se orienten, naturalmente, en direcciones opuestas y que se necesita energía para orientarlos en la misma dirección (es el caso del mesón ρ). La diferencia entre la masa del mesón ρ y la del mesón π no es más que la energía “a aportar” para “invertir” el spin de uno de los quarks en el mesón π, para obtener el mesón ρ. Algo análogo sucedería para todos los bariones. Veamos ahora los mesones. La carga eléctrica del sistema ud es –1, puesto que la carga del anti-u es –2/3. De igual forma, la carga del sistema du es +1, y la carga de uu o dd es uno. Así identificamos: Un problema que parecería sustancial en un principio, es el hecho de que los propios quarks no han sido observados nunca como partículas reales. Y es que cabría imaginar que la estructura de quark de los nucleones sería similar a los núcleos atómicos, formados por nucleones, e igual que en éstos poder extraerlos de dichas estructuras (como un nucleón de un núcleo atómico). π+= (du), π-= (ud), ρ+= (du), ρ-= (ud) Los sistemas neutros π0 y η o ϕ0 y w tienen estructura más complicada, ya que estos sistemas son superposiciones de varias configuraciones de quark-antiquark neutras. Sin embargo, todas estas partículas tienen masas muy distintas, así que, ¿cómo es posible describir partículas de masas tan distintas mediante las mismas configuraciones de quarks? Lo anterior se ha intentado en numerosos experimentos, mas, en ningún caso, fue 110 A este tipo de comportamiento (fuerzas de interacción fuerte se tornan débiles a gran energía) los físicos teóricos le han denominado “asintóticamente libre”. Y es que la teoría cromodinámica tiene esta propiedad, puesto que según la teoría cuántica, a distancias menores que un nucleón, unos 10-13 cm, los quarks se comportan como partículas que existen libremente. posible extraer quarks como partículas independientes de la unidad nucleónica. La teoría denominada “cromodinámica” resuelve todos los problemas apuntados, y en ella los quarks aparecen como los objetos fundamentales de la física hadrónica, aunque aparezcan permanentemente confinados en el interior de los hadrones. Por experimentos de difracción de electrones puede analizarse el propio protón. Dichos experimentos dan como resultado que la carga eléctrica en el protón esté concentrada en unos pocos puntos, que son los mismos quarks que actúan como portadores de la carga eléctrica, y que se determinó en 2/3 y – 1/3, respectivamente. En el año 1950 se veía que los leptones y quarks podían reunirse en una sola unidad utilizando la notación simbólica: Al calcular la contribución de los quarks al impulso total del protón cuando éste se mueve a gran velocidad, se encuentra que la suma de los impulsos de los quarks da solamente la mitad del impulso del nucleón, así que debe haber otros componentes en el nucleón a parte de los quarks, que no portan cargas eléctricas. Pues bien, estos nuevos “objetos” son los llamados “gluones” (del inglés “glue”, pegamento), responsables de la unión de los quarks a los hadrones. La partícula neutra Λ no se producía sola sino que aparecía siempre en compañía de otra partícula, el mesón K. El fenómeno de la creación de nuevas partículas se llama producción asociada. νe : u e : d pero, entonces, no había sitio para el muón y su neutrino. Finalmente se encontró que junto al isospin existe otro número cuántico, al que se denominó “extrañeza” (“strangeness”). La extrañeza es un número que puede asociarse a cada partícula, análogo al número bariónico. Es cero para las partículas normales como los nucleones, mesones π, etc. Sin embargo, a la partícula Λ se le atribuyó extrañeza –1. Es curioso que los quarks que se observan de forma indirecta en los experimentos de electrones y los realizados por neutrinos, no tienen en apariencia estructura, como los leptones, algo extraño puesto que aquellos interactúan “fuertemente”. Parece como si los quarks se “olvidaran” de esa interacción fuerte en cuanto reciben el impacto de un electrón o neutrino de gran energía (comportamiento llamado “scaling”). En un proceso de interacción fuerte se mantiene constante la extrañeza. Por ejemplo, si al principio en un proceso de interacción fuerte es cero, al final también la extrañeza debe ser cero, lo que explica que las partículas extrañas sólo pueden producirse por pares; si se crea una partícula de extrañeza –1, debe, simultáneamente, crearse una partícula de 111 extrañeza +1, para que la extrañeza total siga siendo cero. interaccione con ella y, sin embargo, continúe siendo un neutrino? La extrañeza se relaciona con la existencia de otro quark al que se llama quark “extraño” s. En particular, identificamos la partícula Λ con el barión en el cual se encuentran los tres quarks: Λ= (uds). Como la carga eléctrica de la partícula Λ es cero, se infiere que la carga eléctrica del quark s vale –1/3, igual que la carga eléctrica del quark d. El quark s es un hermano pesado del quark d (la diferencia es de unos 150 MeV). Existe y es la siguiente: νµ νµ El neutrino incidente transfiere parte de su energía e impulso al hadrón (por ejemplo, un protón en un núcleo). Este último se excita y se desintegra a continuación en hadrones. El neutrino conserva su identidad. Por fin, todos los hadrones descubiertos en el laboratorio hasta 1964 podían interpretarse como sistemas constituidos por los quarks u, d y s. Ya se mencionó que podía existir un paralelismo entre leptones y quarks. En especial se relacionó el electrón y su neutrino con los quarks u y d. Como había que relacionar el número s con el muón, y junto al muón existe el neutrón muónico, resulta que se asocian cuatro leptones con los tres quarks, en la forma: El proceso anterior sólo puede producirse si existe una nueva fuerza débil que haga posible que el neutrino no se transforme durante la interacción débil. Dicha interacción recibe el nombre de “interacción de la corriente neutra”. νe: νµ ↔ u: s e : µ d: Y es que con la ayuda de la interacción de la corriente neutra se puede desarrollar una teoría unificada de las interacciones débiles y electromagnéticas. El esquema anterior sería más satisfactorio si existiese otro quark. E incluso se propuso un nombre para este eventual número quark: “encanto”. Cuando se descubrió la interacción de la corriente neutra sólo existía un mecanismo posible que era la existencia de un nuevo quark de carga eléctrica 2/3. Para el año 1974 se descubrió una nueva partícula llamada ψ que tenía una masa de unos 3.100 MeV y con un tiempo de desintegración muy alto, pues vivía mil veces más de lo esperado. La interpretación más probable del fenómeno sería el “encanto”. Así que la curiosa asimetría entre leptones y quarks expuesta anteriormente, quedaría resuelta en la forma: u : c d : s νe : νµ e- : µ- Ahora bien, la masa efectiva del quark c debe ser mucho mayor que la del quark s. ¿Habría una reacción en la que un neutrino incida sobre la materia, 112 Consecuencia de lo anterior es que existirían estados cc, o el nuevo quark unido a su propio antiquark (como el caso del quark s, con el estado ss del mesón Φ). Los estados con estructura cc se denominaron charmonio (del inglés “charm”, encanto). energía. Muchos de tales estados tenían una masa de 1,86 GeV. Pero, ¿qué hay de los bariones encantados? El barión “extraño” más ligero es la partícula Λ de composición uds. La versión “encantada” de la Λ seria una partícula cuya composición será udc. A esta partícula se le dio el nombre de Λc, aunque la carga de la misma es +1, no como la de Λ que es nula. Al ser el quark c más pesado que el s, la masa de Λc debe ser mayor que la de Λ, es decir, debe superar, por lo menos en 1 GeV, la masa de la partícula Λ; esto es, debe valer unos 2,2 o 2,3 GeV. Como dijimos, en noviembre de 1974 se encontró la partícula ψ, y que fue nuevamente localizada en el anillo SPEAR en Stanford, llamándose J (símbolo que representa en chino el nombre del investigador Ting). ¡Así que la partícula quedó bautizada como J/ψ!. Esta partícula representa el espectro de los estados del “charmonio” (los formados por el quark c y el antiquark c, unidos por interacción fuerte, como ya hemos dicho). El momento angular total de la misma es 1. Si los spines tienen orientaciones opuestas se tiene una partícula pseudoescalar llamada ηc, con una masa de unos 3.000 MeV. Hasta 1979 no se obtuvo esta partícula Λc , encontrándose una masa de 2.273 MeV. Fue observada en las desintegraciones: Λc Λ π+ π+ π- y pK-π+ 3. Cromodinámica cuántica QCD (Quantum Chromodynamics) Pero solamente la idea del “encanto” sería correcta si se encontraran partículas “encantadas”, formadas por el nuevo quark c y uno o varios de los ya conocidos. La más ligera de las nuevas partículas encontradas sería la partícula D0, compuesta por el sistema µc, nuevos mesones que llevan el número cuántico “encanto”. Ahora es momento de analizar la enigmática partícula ∆++. La partícula ∆++ tiene una masa de 1232 MeV y consta de tres quarks u. Posee momento angular igual a 3/2, debido a que los tres quarks u tiene sus spines dirigidos en la misma dirección. Como ∆++ es la partícula más ligera con carga eléctrica +2, se espera que los tres quarks u en el estado ∆++ se encuentren más o menos en reposo mutuo. Este estado recibe el nombre de estado fundamental del sistema formado por dichos tres quarks u. Un mesón D debería transformarse con ayuda de la interacción débil en un estado que contenga un quark s, que contendría partículas “extrañas”, como por ejemplo un mesón K. Una posible configuración final que se obtiene es el estado formado por el mesón K y los mesones π (Kππ). La figura siguiente representa ∆++. Los físicos de Stanford lograron identificar partículas “encantadas” al determinar la masa de los estados Kππ, creados en la aniquilación e+e- de gran 113 configuración ∆++ de modo que ésta sea antisimétrica con relación al intercambio de los quarks. Sólo habría que asegurarse que la configuración es antisimétrica en los números cuánticos de color; es decir, escribimos la configuración ∆++ como una superposición de seis posibilidades distintas. Cada una está relacionada con la adyacente por el intercambio de dos quarks de color; se obtiene la segunda a partir de la primera por intercambio de los quarks rojo y verde, mientras que el quark azul sigue igual. Como los signos de los seis términos se van alternando, la suma de todos los términos es antisimétrica frente al intercambio de cualquier par de quarks, como exige el principio de Pauli. Si intercambiamos entre sí dos de los quarks u, obtenemos lo mismo que antes. O sea, la configuración ∆++ es simétrica respecto al intercambio de los quarks. Los quarks son objetos de spin ½ como los electrones, y éstos últimos siguen la ley descubierta por Pauli, que dice que dos objetos de spin ½ no pueden hallarse en configuración simétrica, sino sólo en configuración antisimétrica. Así que no existe ningún motivo para creer que este principio no valiera, también, para los quarks. Por lo tanto, la configuración ∆++ debería ser antisimétrica respecto al intercambio de dos quarks y no simétrica. Esta idea puede generalizarse a todos los bariones, exigiendo que todas las configuraciones de tres quarks sean totalmente antisimétricas respecto al número cuántico de color. Ningún color es más privilegiado que otro. Dichas configuraciones se les llama singletes de color, o bajo el grupo de color, es decir, bajo un grupo de todas las transformaciones matemáticas que pueden realizarse en el espacio de color. Como existen tres colores, este grupo de denomina grupo SU(3). Parece, pues, que debería existir un principio especial que difiere del principio de Pauli, llamado “paraestadística de rango tres”, que explicaría por qué el estado ∆++ es simétrico y no antisimétrico con relación al intercambio de quarks. En el año 1970 Harald Fritzsch y Gell-Mann, reconsideraron esta idea y la modificaron. Introdujeron un número cuántico, el número cuántico “color”, que condujo a la moderna teoría de la interacción fuerte, la cromodinámica cuántica. Se toma para caracterizar cualquier estado de un quark por dos índices distintos: su color y su tipo. El índice de color va de uno (rojo) a tres (azul), mientras que el tipo denota u, d, s o c. La trialdad del número cuántico de color está íntimamente ligada al hecho de que los bariones están formados por tres quarks. En esta teoría se supone que cada quark puede existir en tres variedades, que descubriremos como colores (una variedad roja, una verde y una azul). A continuación exponemos un ejemplo de interacción gluónica entre dos quarks. Si los quarks se dan en tres colores diferentes, es muy fácil construir la 114 Los colores de los quarks cambian por la interacción con un gluón. En la teoría de grupos que rige en la Cromodinámica, resulta que los singletes de color son los estados ligados de la teoría, igual que los singletes de carga forman los ligados de la electrodinámica. En otras palabras, los quarks tienen tendencia a permanecer en estados singletes de color cuando las fuerzas entre quarks vienen dadas por la carga de color. Ahora la cuestión es encontrar una teoría análoga a la electrodinámica cuántica (QED= quantum electrodynamics), basada en la teoría de Maxwell, en la que las cargas de color jueguen el mismo papel que la carga eléctrica en la última. rojo verde gluón Verde q Rojo q En un símil con la electrodinámica en el espacio de los colores, el papel de la carga eléctrica lo desempeña ahora las cargas de color en donde los fotones son sustituidos por los gluones. Veamos la equivalencia entre conceptos en ambas teorías. Los distintos gluones se caracterizan por sus propiedades de transporte de color. Con los tres colores existen nueve posibilidades distintas de acoplamiento de los gluones a los quarks: rojo rojo verde verde azul azul rojo verde azul QED Electrón.............................Quark u Muón.................................Quark d ........................................................ Carga eléctrica...................Carga de color Fotón.................................Gluón Átomo...............................Mesón, barión verde azul rojo azul rojo verde verde verde azul Ahora bien, la diferencia esencial entre ambas teorías radica en que existen ocho cargas de color distintas, y una sola carga eléctrica. Las ocho cargas de color forman el grupo SU(3) de color o grupo de aforo de la electrodinámica y como este grupo no es abeliano, se conoce a la teoría de la Cromodinámica como teoría de aforo no abeliana. (Este tipo de teoría fue estudiado por primera vez en 1953 por los físicos Yang y Mills) En las tres últimas no hay cambio de color. Existe una posibilidad que es totalmente simétrica con respecto al color, específicamente la superposición: Rojo rojo+ verde verde+ azul QCD azul Un hecho importante es que los propios gluones llevan cargas de color, por lo que tienen las mismas propiedades que las cargas de color. Esta posibilidad hay que descartarla pues representa un singlete de color. Las otras posibilidades restantes forman las ocho cargas de color SU(3), y para cada carga de color hay un gluón especial; es decir, hay ocho gluones distintos. La forma de representar una transformación del color de un quark por 115 (Se juntan un gluón rojo- verde y un gluón rojo- azul para formar un gluón verde- azul) un gluón (lo que se llama un vértice quark- gluón), viene representado en la siguiente figura: No existe ninguna línea de color que termine o empiece en punto alguno. L q(verde) q(rojo) En la cromodinámica sólo las configuraciones incoloras, es decir, los singletes de color, se presentan como partículas aisladas. Tanto quarks, como gluones, o todos los objetos de color existen sólo en el interior de partículas “blancas” (confinamiento). Gluón También en cromodinámica existe una interacción entre los llamados gluones coulombianos y los llamados gluones magnéticos. Así que, por ejemplo, es posible que un gluón coulombiano se divida en otro coulombiano y uno magnético, pudiéndose unir posteriormente en un único gluón coulombiano (ver figura). (El gluón viene representado por esta línea discontinua roja- verde, que implica qué color se transforma en cuál otro) En electrodinámica, sin embargo, la partícula responsable de la existencia de fuerzas eléctricas, el fotón, es eléctricamente neutro (no posee carga eléctrica, en contraste con el gluón). La ausencia de carga del fotón permite que las ondas electromagnéticas, ondas de luz, se muevan en la misma dirección sin influirse mutuamente. (Si tuviesen carga se atraerían o repelerían entre sí, algo parecido a lo que ocurre en cromodinámica). Al ser los gluones objetos de color, existe una interacción directa no solamente entre gluones y quarks, sino entre gluones entre sí; es decir, hay un vértice entre tres gluones distintos. Los estados ligados de quarks pesados poseen la propiedad de que ambos constituyentes (quark- antiquark) están muy cerca el uno del otro. Se estima su tamaño en 10-15 cm, unas 50 veces más pequeños que un protón. Cuando los quarks pesados están tan cerca uno de otro, pueden despreciarse los efectos producidos por la nube gluónica resultante de lo que se llama la “polarización del vacío, con lo que la fuerza entre los quarks es esencialmente la ley de Coulomb; así que los mesones azul verde rojo Vértice trigluónico. 116 líneas de campo por esa atracción cromomagnética, las líneas quedaran más densamente distribuidas en el espacio de lo que había que suponer con la ley de la fuerza coulombiana. Entonces, como hay mayor polarización del vacío a mayores distancias, la carga de color de los quarks debería crecer. pesados serían muy parecidos en su estructura a los estados ligados electrónpositrón, o también al átomo de hidrógeno. La situación, sin embargo, no es del todo la misma, porque los gluones que rodean permanentemente a los quarks juegan un papel, aún en estos sistemas quarkantiquark muy pesados. Pero, ¿qué pasaría si en este sistema pesado quark- antiquark fuésemos separando lentamente dichos quarks, más aún que lo dicho anteriormente? Entonces, al irse comprimiendo más y más las líneas del campo cromodinámico, se llega a una configuración en la cual todas las líneas de campo serían paralelas (como las líneas del campo eléctrico de un condensador plano –ver figura). Esto sucede para distancias mayores de 10-13 cm. (El símil sería una “cinta de gluones” que representarían las líneas cromoeléctricas). Puede describirse la fuerza coulombiana entre dos quarks pesados mediante líneas de campo cromoeléctricas, que son enteramente análogas a las líneas de campo electrodinámicas. Estas líneas nacen siempre en un quark y mueren en el antiquark correspondiente. Igual que en la electrodinámica, cuanto menos densa es la distribución de líneas en el espacio, más débil es la fuerza de color en el punto en cuestión. Consideremos, ahora, los efectos de la “polarización del vacío” causada por los gluones. El interaccionar directamente, en cromodinámica cuántica, como hemos dicho con anterioridad, dos quantums coulombianos con los quantums magnéticos, ello significa que hay una atracción cromomagnética entre las líneas de campo cromoeléctrico (esta atracción es debida a los quantums magnéticos que saltan de una línea de campo a otra –ver figura). El resultado es que la fuerza entre los quarks a distancias mayores de los 10-14 centímetros es constante, y se necesita mucha energía para separar dos quarks, así que es casi imposible separar quarks a distancias macroscópicas. (Las fuerzas son incluso mayores que las de las interacciones fuertes de las fuerzas nucleares responsables de la cohesión de los núcleos). El resultado es claro, al comprimirse las q q q q Como hemos visto, por el contrario, la fuerza entre quarks se debilita a distancias muy pequeñas, lo que se llama “libertad 117 asintótica”, que garantiza que los quarks se comportan como partículas prácticamente libres a dichas distancias cortas. cargas eléctricas se mueven en círculo, por eso una partícula cargada y con spin posee un campo magnético muy similar al campo magnético de un imán. Estudiemos, ahora, la existencia de las fuerzas nucleares. Sabemos que si dos átomos pasan muy cerca uno de otro, los electrones de ambas cortezas atómicas provocan una fuerte repulsión entre ambos átomos, por ello la materia ordinaria no se deja comprimir indefinidamente. Estas fuerzas se las conoce como fuerzas de Van der Waals. Dos electrones con spines apuntando en la misma dirección ejercen una mutua atracción magnética, repeliéndose cuando dichos spines apuntan en sentido contrario. Para partícula y antipartícula, como el electrón y el positrón (sistema que ya hemos visto, llamado “positronio”), la situación es contraria: si los spines apuntan en la misma dirección se atraen. Pues se cree que las fuerzas nucleares son como las fuerzas de Van der Waals de la Cromodinámica. Los hadrones son singletes de color, por ello las fuerzas de color superintensas no actúan sobre ellos, solamente sobre quarks y gluones. Sin embargo, las fuerzas de color entre quarks, en el caso de que los constituyentes de color en el interior de los de los hadrones estén repartidos (no concentrados en un punto), generarán de igual forma que en el símil de los átomos, fuerzas efectivas entre estos objetos singletes de color (hadrones). Como con las fuerzas de Van der Waals, es de esperar que las correspondientes de la cromodinámica decrezcan muy rápidamente al aumentar la distancia entre los hadrones (distancia característica 10-13 cm), sintiéndose únicamente a distancias relativamente cortas. Veamos qué sucede con los mesones, que en cierto modo es el equivalente al positronio en la QCD. Es de esperar que las fuerzas cromomagnéticas entre los dos quarks de un mesón sean completamente análogas a las fuerzas magnéticas del positronio, y así los mesones en los cuales los spines de los quarks apuntan en la misma dirección deben ser más pesados que aquellos en los que los spines tiene direcciones contrarias. Esta es la causa de que los mesones vectoriales, en concreto, sean más pesados que los mesones pseudoescalares correspondientes. Las fuerzas cromomagnéticas de los quarks en el interior de los bariones se suman de forma análoga a como se hace con las fuerzas cromoeléctricas. Así como existen ocho tipos de fuerzas cromoeléctricas correspondientes a las ocho cargas de color distintas, existen también ocho fuerzas cromomagnéticas distintas. O sea, aquello que se creyó como fundamental, que eran las fuerzas nucleares, quedan como un subproducto de las fuerzas superintensas de la cromodinámica. (Tan poco fundamentales como pueden serlo las fuerzas de Van der Waals en la física atómica). Si se calculan los efectos de las ocho fuerzas cromomagnéticas distintas para los bariones, se obtiene que las fuerzas magnéticas son repulsivas cuando los spines de los tres quarks apuntan en la La existencia de un momento angular en una partícula con cargas implica que las 118 misma dirección, y atractivas cuando dos de los spines apuntan en direcciones opuestas. Se esperan bolas de gluones de 1 GeV a 2 GeV, que se desintegrarían con facilidad en varios mesones π. Los físicos han intentado obtener alguna subestructura del electrón, pero ha resultado hasta el momento presente un objeto puntiforme, es decir, sin estructura hasta distancias de, por lo menos,10-7 cm. En el año 1977, investigando con un haz de protones de unos 400 GeV de energía dirigido contra un pedazo de materia, en el centro de investigaciones americano Fermilab de Chicago, se obtuvieron muchísimas parejas de muones, producto claro de la desintegración de una nueva partícula de masa gigantesca, 9,5 GeV. Sin embargo, por otro lado, sabemos que el electrón se rodea de una nube de polarización del vacío, que, en cierto modo, es una subestructura derivada de su interacción electromagnética, que pude calcularse exactamente dentro de la QED. A esta estructura se denomina “estructura fina del electrón”. En el año 1978, en el laboratorio DESY de Hamburgo, se confirmó el mismo resultado. Se trataba de un nuevo grado de libertad (de un nuevo quark). La nueva partícula recibió el nombre de Υ (ypsilón). La carga de este nuevo quark es 1/3 y recibió el nombre de b. Con ayuda de los experimentos de dispersión de electrones y neutrinos ha podido determinarse el valor de la constante de acoplamiento de QCD que vale aproximadamente 1/3. (Mucho mayor, pues, que la cte. de estructura fina electrodinámica, α). El mesón Y, pues, era un estado ligado de estructura bb, siendo tres veces más pesado que el mesón J/ψ. Como hemos visto, la cromodinámica de los quarks y los gluones es el prototipo de una teoría de aforo. Donde el grupo SU(3) de los colores juega el papel de grupo de aforo. Y es que las teorías de campo de aforo parecen jugar un papel fundamental en la descripción de la Naturaleza. De la cromodinámica se deduce que debe haber hadrones formados solamente por gluones. Dos gluones, por ejemplo, pueden formar un singlete de color. O sea, el estado gluónico más simple consta de dos gluones. También, es posible construir objetos singletes de color con tres o más gluones. A esta clase de hadrones se le ha llamado “bolas de gluones” (pedazos de materia gluónica pura, una especie de bola de fuego formada por energía gluónica). 4.La interacción débil Se ha visto que también las interacciones débiles y electromagnéticas son susceptibles de ser descritas por una teoría de campos de aforo. Al ser los gluones eléctricamente neutros y no tener tampoco interacciones débiles, estos objetos parecen ser “partículas sin propiedades”. Los procesos de la interacción débil pueden dividirse en dos clases distintas: a) Procesos en los que la carga eléctrica cambia en una unidad. Ejemplo, la 119 desintegración β (reacciones de las corrientes cargadas): νe νe p+ e-+ νe n e- b) Procesos en los que la carga eléctrica no experimenta cambio (reacciones de las corrientes neutras) como la dispersión de neutrinos: Z e- νµ + p νµ + p Hay una constante, llamada constante de Fermi, que da la intensidad de la interacción correspondiente, en las reacciones de las corrientes cargadas. Su valor es 1,16 * 10-5 GeV-2 =(294 GeV)-2 y tiene dimensiones del inverso de una energía al cuadrado. Este pequeño valor de la constante es la razón por la que la interacción débil es mucho más débil que la interacción electromagnética. El neutrino electrónico incidente emite un bosón Z virtual que, a su vez, entra en interacción con el electrón. Los dos procesos anteriores podrían representarse en la forma: En el segundo proceso sería el bosón Z el que haría el mismo papel. El primer proceso sería análogo al de la interacción electromagnética entre dos electrones producida mediante el intercambio de un fotón virtual. Sólo habría que cambiar el fotón virtual por la partícula virtual W. νe- n La masa del bosón W está relacionada con la constante de Fermi. La energía crítica de 294 GeV no es más que la masa del bosón W dividida por la constante de interacción entre los fermiones y el bosón W. La masa de estos bosones ha de ser más pesada que unos 40 GeV. We p Los bosones W y Z actuarían de modo análogo al fotón en QED, así que podría haber alguna relación profunda entre la QED y la interacción débil. El electrón incidente emite un bosón W virtual y se transforma en un protón. El bosón W se desintegra de inmediato en un electrón y un antineutrino. Por un lado, la interacción electromagnética viene descrita por una constante universal, la constante de estructura fina α. Y es que todas las cargas eléctricas que aparecen en la naturaleza son múltiplos de la carga 120 elemental eléctrica, e (igual a la carga eléctrica del positrón). En general existe una invariancia de las leyes de la Naturaleza a las transformaciones de paridad mas, ¿sería este caso, también, en la interacción débil? Pues, de igual forma, se introduce una carga de la interacción débil designada como carga débil. La carga débil describe con qué intensidad interacciona una partícula con el portador de las fuerzas débiles, el bosón. En el año 1956 la profesora Wu de la Universidad de Columbia, demostró que esto no era así. Para ello se estudió la desintegración débil del isótopo de cobalto 60 en níquel. La desintegración era: Existen en la teoría dos bosones W: W+ y W-. Un electrón puede convertirse en un neutrino electrónico por emisión de un bosón W virtual. De forma recíproca, un neutrino electrónico puede transformarse en un electrón por emisión de un bosón W+. En estos procesos la carga eléctrica se conserva estrictamente. 60 Co 60 Ni + e- +νe que es producida porque dentro del núcleo de cobalto se produce la desintegración β de uno de los neutrones resultando un protón, un electrón y un antineutrino. Es decir, podemos decir que la “carga débil” transforma un electrón en un neutrino, y viceversa. Y lo mismo sucedería para los quarks. Como los átomos de cobalto poseen un momento angular (giran sobre sí mismos), aplicando un campo magnético es posible orientar dichos momentos angulares de forma que todos los átomos de cobalto giren en el mismo sentido, o todos a la derecha, o todos a la izquierda. Si consideramos como plano especular el plano formado por los átomos de cobalto, los electrones deberían ser emitidos tanto hacia arriba como hacia debajo de dicho plano si la paridad se conservase. Si ponemos los leptones y quarks en la forma: νe u e- d se desprende, que el papel de las cargas es sencillo, pues transforman los componentes superiores en los inferiores, y viceversa. A este respecto recordemos las propiedades de las cargas de isospin, que transformaban un quark u en un quark d, y al contrario. Así que, las cargas débiles parecen emparentadas, de algún modo, con el isospin. El resultado de la señora Wu demostró que los electrones eran emitidos preferentemente hacia abajo, o en la dirección contraria a los momentos angulares de los núcleos (aproximadamente un 30% más de electrones hacia abajo que hacia arriba): ¡la interacción débil viola la paridad! La interacción electromagnética es invariante bajo la métrica de la reflexión especular, a la que llamamos paridad. Y no solamente la electrodinámica, sino también lo es la mecánica clásica. Un electrón diestro es una partícula cuyo spin apunta en la dirección de su impulso (por la regla del sacacorchos, por ejemplo), sin embargo, en un electrón 121 zurdo su spin apunta en dirección contraria a su impulso. Por una reflexión especular un electrón diestro se transforma en un zurdo, y al revés. Entonces, es posible estudiar la violación de la paridad en la interacción débil estudiando reacciones de fermiones zurdos y diestros. Como la interacción electromagnética conserva la paridad, la interacción de un fotón con un electrón zurdo es la misma que la de su interacción con un electrón diestro. Del estudio de la simetría de isospin de la interacción fuerte se sabe que el grupo SU(2) tiene tres cargas distintas. Dos de ellas son las que transforman la componente superior del doblete débil en la componente inferior y viceversa, o sea, dL y νe e. La tercera carga es uL eléctricamente neutra. La teoría conduce a que los bosones W y Z son los bosones de aforo de la teoría, es decir, los equivalentes de los gluones en la cromodinámica. Pero los gluones en QCD no tienen masa como los fotones, y sin embargo, los bosones W y Z sí la tienen y muy grande (80 y 90, respectivamente), y no es fácil introducir una masa para los bosones de aforo correspondientes. El truco consiste en introducir, junto a los bosones de aforo, objetos adicionales como los bosones escalares. La interacción de esos objetos escalares con los bosones de aforo se construye de forma que dichos bosones de aforo adquieren una masa efectiva. A este tipo de generación de masa se llama “ruptura espontánea de simetría”, por lo que al mismo tiempo es rota la simetría de aforo correspondiente. La posibilidad de que pueda realizarse el procedimiento sin que se produzcan resultados absurdos a altas energías, fue demostrada por Gerard´t Hoof en el año 1971. Sin embargo, para la interacción débil solamente los fermiones zurdos participan en las interacciones de las corrientes cargadas. (Los diestros son sistemáticamente ignorados). En consecuencia, los bosones W reaccionan exclusivamente con los fermiones zurdos. Como los bosones W pueden transformar un electrón en un neutrino y viceversa, los bosones W se comportan de forma análoga a las cargas débiles. Por ello, al igual que el intercambio de papeles entre los gluones y los colores de los quarks, podría creerse en un grupo de aforo (parecido al grupo de aforo SU(3) de la cromodinámica) para la interacción débil. En la última, leptones y quarks aparecen siempre como dobletes: νe u etc. (L significa levógiro) e L dL La teoría de aforo para la interacción débil utiliza el grupo de aforo del isospin débil comentado – el grupo SU(2). Los quarks y leptones zurdos son dobletes en relación a ese isospin débil. Los fermiones diestros al no participar en la interacción débil, son considerados singletes respecto de SU(2). Se obtienen tres bosones de aforo interpretados como los dos bosones W (W+, W-) y el bosón Z. El grupo de simetría correspondiente es, pues, el conjunto de transformaciones dentro de un doblete. Y esta es la simetría que vimos en la interacción fuerte, el grupo de simetría (isospin) SU(2) que describe todas las transformaciones en el doblete (ud). Luego el grupo de aforo para la interacción débil es el grupo SU(2) conocido como “isospin débil”. Ahora bien, en una teoría unificada de las interacciones electromagnéticas y débiles 122 (electrodébiles) debe haber cuatro bosones de aforo: los dos bosones W, el bosón Z y el fotón; luego debe ampliarse el anterior grupo de aforo de la interacción débil. La posibilidad más simple es añadir otro grupo U(1). Tal grupo es aquel que corresponde a una sola carga. Se obtiene así el grupo de aforo SU(2)×U(1), esto es, un grupo formado por el producto de otros dos. W debe ser unos 80 GeV y la de los bosones Z unos 90 GeV. Los físicos del CERN en enero de 1983 detectaron bosones W producto de colisiones de quarks y antiquarks de alta energía, que se desintegraban inmediatamente, por ejemplo, en un electrón (o positrón) y un neutrino. (Esta última desintegración es la observada, y la masa de los bosones W se calculó en 81 GeV). Se toma el anterior grupo como punto de partida y se generan las masas de los bosones de aforo con ayuda del mecanismo de ruptura espontánea de simetría. Entonces los bosones W adquieren cierta masa, que puede elegirse arbitrariamente. Los otros dos bosones de aforo (eléctricamente neutros) resultarán, uno con una masa algo mayor que la masa del W, que se identifica con el bosón Z, y otro sin masa que sería el fotón. En particular, el fotón y el bosón Z en esta teoría están tan íntimamente relacionados que no pueden existir el uno sin el otro. Los demás leptones y quarks (aparte de los u y d, el electrón y el neutrino) pueden incluirse con facilidad en el esquema añadiendo nuevos dobletes de isospin débiles: νe ,νµ ,ντ Los leptones diestros e L,µ L, τ L son los singletes de SU(2) Y para los quarks s y c se escribe: u d´L La intensidad de la interacción de los bosones W y Z en esencia viene definida por la interacción electromagnética. c s´L Pero los quarks d´ y s´ inscritos dentro de los dobletes son en realidad superposiciones de los quarks d y s, porque el bosón W no siempre transforma un quark u en un quark d, sino a veces, también, en un quark s (con un 5% de probabilidad). Tampoco el bosón W no siempre transforma el quark c en un quark s, sino a veces, también, en un quark d (5% de probabilidad igualmente). A esto se llama mezcla de d y s. La interacción de corriente neutra (relacionada con la interacción electromagnética) depende de un parámetro que debe ser fijado experimentalmente, y que se caracteriza por un ángulo que se denomina ΘW o ángulo de Weinberg. (Este ángulo determina en qué medida se interrelacionan las interacciones electromagnéticas y débiles). Los experimentos determinan un valor de ΘW entre 27º y 30º. No se conoce la razón del anterior comportamiento pero es importante, puesto que sin dicha mezcla d - s algunas partículas extrañas tendrían casi tanta vida como el mismo protón. En la teoría, las masas de los bosones W y Z quedan fijadas si se conoce el parámetro ΘW; así la masa de los bosones Como sólo hay dos dobletes de quarks y tres de leptones es útil introducir otro 123 doblete de quarks. Ya hemos citado la existencia del quark b, por lo tanto debe existir un compañero pesado del mismo con carga eléctrica 2/3. A este quark se denomina t. (Los nombres t y b hacen referencia a las palabras inglesas “top” y “botton”, o también “truth” y “beauty”). Así que habría tres dobletes de quarks: 5.Resumen de las teorías GTU A continuación, como resumen, haremos un rápido repaso para sentar ideas. En mecánica cuántica, el movimiento de una partícula cargada en el seno de un campo electromagnético se describe por una ecuación deducida de la clásica, en la cual figura el potencial del que derivan los campos eléctrico y magnético. Pero este potencial no está fijado de modo único, porque a partir de potenciales distintos puede obtenerse los mismos valores del campo. La operación que permite pasar de un potencial a otro sin modificar el campo electromagnético es un caso particular de lo que se denomina “transformación de gauge”. La función de onda de una partícula cargada a resultas de dicha transformación (la función de ondas es la representación matemática de un campo asociado a esta partícula, que depende de las coordenadas espaciotemporales), queda multiplicada por un factor de fase que depende también de las coordenadas espaciotemporales; la transformación es, pues, local. Se dice, entonces, que una “teoría gauge” es una teoría “invariante local”: la electrodinámica cuántica sería invariante respecto a las transformaciones gauge locales. u c t d´ s´ b´ En junio de 1983 se descubrió el bosón Z en el CERN. La masa resultó ser de unos 93 GeV. Existen, por consiguiente, tres familias de quarks y leptones: 1ª familia νe : u u e+ : e- : d d 2ª familia νµ : c c µ+ : µ:ss 3ª familia ντ : t t τ+ : τ- : b b Quarks Matemáticamente, las transformaciones del campo electromagnético por multiplicación de un factor de fase forman el grupo de transformaciones designadas con el símbolo U(1). Hay leyes de transformación mucho más complejas que corresponden a grupos de transformación mayores, como el SU(2), SU(3), etc. Estos grupos son utilizados para describir propiedades de simetría global. Yan y Mills demostraron que sólo suponiendo la existencia de ciertos “campos de fuerza” puede satisfacerse la u (arriba) 2/3 d (abajo) –1/3 c (encantado) 2/3 s (extraño) -1/3 t (cima o verdad) 2/3 b (fondo o belleza) –1/3 124 condición de invariancia local. Estos campos son los que se establecen entre partículas interaccionando entre sí. Su número y propiedades quedan definidas por la naturaleza del grupo de simetría de la interacción salvo una constante arbitraria llamada “constante de acoplamiento”. Es decir, sólo se precisa un grupo de simetría y dicha constante para que la condición de invariancia local determine completamente la forma de la interacción. Los constituyentes de spin ½ se dividen en leptones y quarks. Los leptones, sabemos, son sensibles únicamente a las interacciones electrodébiles, los quarks también a las gluónicas. El modelo estándar precisa que quarks y leptones formen familias. (Las tres expresadas anteriormente). Cada una de ellas comprende dos leptones, uno neutro y el otro cargado negativamente, y seis quarks, tres de carga eléctrica 2/3 y tres de carga –1/3. Cada quark existe en tres versiones según su color (verde, azul o rojo). Y es que en el marco de una simetría de tipo SU(3) el color desempeña un papel de carga, igual que la carga eléctrica para la simetría de tipo U(1). (De ahí el nombre de Cromodinámica). El modelo “clásico” o estándar define un grupo de simetría más amplio, el formado por el producto de tres grupos elementales: U(1)×SU(2)×SU(3). La condición de invariancia para la componente U(1)×SU(2) exige la existencia de cuatro campos de fuerza: el electromagnético, y los tres que dan lugar a las interacciones débiles. Cada campo de fuerza tiene una partícula asociada: el fotón para el primero, y las tres partículas W+, W- y Z0 de la interacción débil. A diferencia de los electrones o los neutrinos, los quarks nunca se manifiestan como partículas libres, sino siempre como componentes de otras partículas. A dicho fenómeno se llama “confinamiento de los quarks”. El grupo de simetría SU(3) requiere ocho campos de fuerza asociados a ocho gluones. El confinamiento de los quarks es un problema derivado del comportamiento de los gluones a distancias relativamente grandes (del orden del tamaño del protón, 10-12 cm) puesto que a distancias más pequeñas, menos de 10-13 cm, el comportamiento de los quarks es sencillo, pues la fuerza que les une obedece a una ley inversamente proporcional al cuadrado de la distancia, que es similar a la fuerza de Newton o la de la fuerza electrostática. El papel de la constante de gravitación G de Newton está desempeñado en la electrostática por la llamada constante de estructura fina y vale α = 1/ 137,04. El de las fuerzas gluónicas no es constante sino que varía en función de la distancia, decrece al disminuir r, primero rápido y luego lentamente. A esta propiedad se llama En el modelo estándar aparece una primera clasificación entre los “campos de fuerza”, o sea: fotón, W+, W-, Z0 y gluones, y las demás partículas o “constituyentes”. Estos últimos se clasifican, a su vez, en partículas de spin nulo y partículas de spin ½. Los constituyentes de spin nulo se llaman “partículas de Higgs”, partículas que no han sido observadas aún, pero que desempeñan un papel esencial en el modelo, pues se necesita al menos una de ellas para explicar el que las partículas W y Z puedan poseer masa. La masa de las partículas de Higgs deben estar comprendidas entre seis y doscientas veces la del protón. 125 “libertad asintótica”. (Para distancias tendentes a cero, los quarks se comportan como “partículas libres”). En el seno de este grupo se obtiene, también, una descripción correcta de los fermiones. Veámoslo, considerando solamente los fermiones más ligeros, o sea, electrón, neutrino y los quarks u y d. El principio de incertidumbre cuántico establece una relación entre la energía máxima disponible en un acelerador y la distancia más pequeña que puede explorarse. Para una energía de unos 1000 GeV, por ejemplo, no pueden explorarse distancias inferiores a 10-16 cm. Éstos pueden escribirse (incluyendo los antifermiones y los tres colores) en la forma: νe , e+, u u u , (u u u) , (d d d) e- d d d La dificultad de obtener energías tan elevadas pueden en cierto modo soslayarse extrapolando los conocimientos actuales hacia esas mayores energías. Un fenómeno que puede extrapolarse es el comportamiento de las constantes de acoplamiento del modelo estándar. Que son en total 15 fermiones. Separémoslos, ahora, en dos sistemas: νe : u u u : u u u e- : d d d d d d : e+ El primer sistema contiene 5 fermiones y el segundo 10. Estos dos sistemas de fermiones, matemáticamente, son representaciones distintas del grupo SU(5). Es notable que se obtenga de forma exacta los leptones y quarks que se necesitan. Las cargas de estos fermiones ya no pueden elegirse arbitrariamente, puesto que están perfectamente fijados. Ya hemos mencionado la constante (α) de estructura fina de la interacción electromagnética. Por su parte, el coeficiente (a3) de las fuerzas gluónicas vale aproximadamente 0,2. La tercera constante (aW) es la de las interacciones débiles. Como resultado de efectos ligados a la naturaleza cuántica de la teoría estándar, las tres constantes de acoplamiento no son relativamente constantes, pues varían con la distancia (o sea, con la energía). Extrapolando todas estas constantes (sus evoluciones; las de sus inversos en particular son rectas, aproximadamente), se encuentra que las tres rectas se cortan hacia una energía del orden de 1014 GeV, lo que parece indicar la existencia de una “gran unificación” de las tres interacciones. Es el resultado, comentado antes, del grupo único, U(1)×SU(2)×SU(3), que contiene como “subgrupos” los anteriores. Y hay varias formas posibles para este supergrupo. La más simple es la del grupo de simetría SU(5). El primer sistema formado por electrón, neutrino y tres quarks anti-d se transforman respecto del grupo SU(5) como la citada representación. Una teoría gauge fundada en SU(5) requiere veinticuatro campos de fuerza (24 cargas distintas) y tiene una sola constante de acoplamiento (α5). Y es que cuanto mayor es un grupo más cargas posee. La carga de un grupo tiene la propiedad de que se obtiene 0 cuando se suman las cargas de los elementos de una representación. Como la carga eléctrica del neutrino electrónico es cero, se 126 obtiene que Q (e-) = 3 Q (d). O sea, la carga del quark d es –1/3. También, de igual forma, se obtiene la carga eléctrica del quark u con un valor de 2/3. Así que en el marco de la teoría SU(5) las cargas eléctricas están cuantizadas. En esta desintegración del protón, éste se transforma en un mesón π y un positrón. En el proceso elemental se transforman dos quarks (u, d) del protón en un antiquark (u) y un positrón (e+). En las teorías de la gran unificación la transformación se efectúa mediante el intercambio de una partícula X superpesada. De los veinticuatro campos de fuerza, doce son ya conocidos (ocho gluones, las partículas W+, W-, Z0 y el fotón). Los otros doce campos no han sido observados hasta el presente, puesto que las masas de las partículas asociadas a ellos, que llamaremos X, tendrían una enorme masa, Mx. La vida media del protón es mayor de 1029 años y depende, en la teoría SU(5), de las masas de los doce nuevos bosones de aforo mencionados. Es sorprendente que se obtenga este valor de 1014∼1015 para la desintegración del protón y la extrapolación de las ctes. de acoplamiento (α5). Para energías muy inferiores a Mx, el modelo se comporta con buena aproximación como si las partículas x no existieran, es decir, como el modelo estándar. Sin embargo, para energías muy superiores a Mx los veinticuatro campos estarían “vigentes”, dándose una constante de acoplamiento única (las tres constantes de acoplamiento se fundirían en una). Esto es lo que ocurre, por lo que puede atribuirse a Mx un valor aproximado de 1014 GeV. Para llegar a esta energía habría que alcanzar una distancia de 10-27 cm. La desintegración del protón no es más que un caso particular del fenómeno general de la “no conservación del número bariónico”. (Triple de la diferencia entre el número de quarks y antiquarks, o también, diferencia entre el número de nucleones -protones y neutrones- y el de antinucleones). El físico soviético Sakharov fue el primero que tuvo en cuenta dicha posibilidad (la desintegración del protón) y en indicar las condiciones necesarias para su realización. La primera es la existencia de una “ligera” diferencia entre materia y antimateria, diferencia llamada “violación de CP”. La segunda, la no conservación del número bariónico. Actualmente esto es una verdadera predicción de las teorías de la gran unificación. Otra predicción de las mismas es la existencia de los monopolos magnéticos. La intensidad efectiva de un campo de fuerzas es inversamente proporcional al cuadrado de la masa de la partícula correspondiente. Así que, las fuerzas correspondientes a las partículas X serían extremadamente débiles, aunque suficientes para provocar transformaciones de quarks en leptones como, por ejemplo, u + d u + e+, lo que puede manifestarse en la desintegración de un protón (uud) en un mesón π0 (uu) y un positrón (e+). Quark up umesón Quark up u Antiquark up uπ0 protón Quark up u Intercambio par.X Quark down d e+positrón En el año 1974 G.´t Hooft y G. Polyakov demostraron que una clase entera de teorías cuánticas predicen la existencia de 127 tales monopolos, entre ellas las teorías de gran unificación. En las últimas, los monopolos no son partículas (campos) elementales sino configuraciones estables de otros campos elementales (campos de fuerza y campos de Higgs) de la teoría. Resulta una masa del monopolo de unas 1016 veces la masa del protón. (Existe la posibilidad de que alguno de tales monopolos hubiera sido creado durante el big bang). diferencia de forma notable de las anteriores, en el sentido de que tiene una escala interna, la escala dictada por la constante de gravitación de Newton. Si traducimos la constante de Newton a unidades de energía, resulta una energía de unos 1019 GeV, que se denomina energía de Planck (la correspondiente a una longitud característica de unos 10-33 cm), o sea, una energía mayor que los 1015 de la gran unificación encontrada antes. Si se ha mencionado la teoría SU(5) ha sido sólo como un simple ejemplo de teoría de campos unificada. Otros físicos barajan diferentes grupos como candidatos a la misma, por ejemplo, el grupo SO(10) que es algo mayor que el SU(5). (Y aún se han contemplado otros mayores). De todas formas todas estas teorías de la GTU siguen teniendo, todavía, una serie de problemas e inconsistencias, al margen de la no incorporación de la gravedad. Una de las dificultades persistentes es el problema de la jerarquía de las masas de los fermiones. Ahora bien, fuera de todas estas teorías unificadas de campos queda aún la interacción gravitatoria. Y es que es un problema extremadamente difícil, sobre todo porque la interacción gravitatoria se El problema puede resolverse mediante la introducción de la supersimetría, que debe romperse a energías menores de 1000 GeV, por medio de una especie de subterfugio llamado Supergravedad. 128 129 en el caso de la fuerza débil la razón había que buscarla en la simetría. Una vez que se construyó una potente simetría de estimación, los infinitos desaparecieron. Capítulo VII. SUPERSIMETRÍA.SUPERGRAVEDAD Ya dijimos que la gravedad quedaba fuera de la unificación de los otros tres campos fundamentales (GTU´s), y es que esas tres fuerzas pueden representarse por campos de fuerza que se extienden por el espaciotiempo, pero la gravedad es el mismo espaciotiempo, puesto que es un campo de curvatura en la geometría del espaciotiempo, algo así como vacío “distorsionado”. La experiencia anterior guió a los físicos teóricos hacia la búsqueda de otra simetría más potente que la anterior, capaz de resolver la gravedad del “pozo” de la renormalización; así se descubrió la “Supersimetría”. Lo esencial de la Supersimetría es el concepto de spin físico, que va más allá del símil de la noción de esfera girando alrededor de su eje. En realidad, el spin tiene sorprendentes propiedades. Por ejemplo, una partícula dotada de spin posee como una visión en “doble imagen” del universo, algo fuera de la intuición geométrica. Una partícula cargada emite y luego reabsorbe su propia partícula mensajera, un proceso de “autoacción” que dota de energía a la partícula. Matemáticamente, la cantidad de energía que produce el bucle de la partícula es infinita. Ahora bien, hay muchos procesos de autoacción más complicados que, de igual forma, conducen a efectos de energía infinita. La QED elude matemáticamente todos estos efectos mediante una simple operación de sustracción, la llamada “renormalización”. Y es tan fundamental el spin a la naturaleza de las partículas que las divide en dos clases o tipos distintos. A uno pertenecen los “bosones”, que no tienen spin – spin cero -, como la hipotética partícula de Higgs, o, que lo tienen entero, como el fotón, la partícula W y la partícula Z (las tres con spin unidad), y el gravitón que lo tiene de valor 2. Así que, de igual forma, la gravedad gravita, puesto que es en sí misma una fuente de gravedad. Por ejemplo, dos gravitones experimentan una fuerza gravitatoria mutua por intercambio de un tercer gravitón mensajero. Esto permite la producción de procesos con complejas redes de bucles de gravitones que dan lugar a términos infinitos incontrolables en la descripción matemática de la llamada “gravedad cuántica”, convirtiendo a la misma teoría en algo esencialmente inútil. El otro tipo o clase de partículas son los “fermiones”, que poseen unidades semienteras de spin. Por ejemplo, los quarks y leptones son fermiones que poseen spin ½, que significa la propiedad de doble rotación. Esta distinción entre bosones y fermiones es de importancia transcendental en física. Los fermiones están inmersos en el llamado “principio de exclusión de Pauli” que prohibe que dos electrones compartan el mismo estado cuántico. Lo mismo ocurre para neutrinos y neutrones. Gracias a ello se da la estabilidad general La situación recuerda a la fuerza débil antes de su unión con el campo electromagnético en la teoría electrodébil. Ambas teorías no son “renormalizables”; 130 La unión de bosones y fermiones une en una misma familia partículas de distintos spines, unos con spines enteros y otros con spines semienteros, de forma que la familia resulte supersimétrica en su conjunto. Si se afirma que la gravedad es una teoría supersimétrica, el gravitón, con un spin 2, no puede existir solo. Debe pertenecer a una familia de partículas relacionadas con el spin 2 a través de una operación supersimétrica. Entre éstas las hay de spin 0, ½, 1 y, también, 3/2. de los átomos, la conducción eléctrica, la fuerza que sostiene a enanas blancas y estrellas de neutrones, etc. En contraste, nada se opone a que muchos bosones se “apiñen” en el mismo lugar; esto provoca un comportamiento cooperativo, pudiendo trabajar juntos. Por ejemplo, los fotones pueden unirse coherentemente para dar lugar al movimiento electromagnético de una onda de radio. De ahí, que pese a que todas las partículas, en particular los electrones, posean una onda asociada, nunca vemos ondas macroscópicas de electrones. Así que se asimilaron los bosones a las partículas mensajeras, es decir, a la fuerza, y los fermiones a la materia (quarks y leptones son fermiones). Por ello resultó más chocante el hecho de que la supersimetría pudiera unir a ambos, bosones y fermiones (partículas con papeles, en apariencia, tan distintos). La descripción de la gravedad en esos términos constituye lo que se denomina “teoría de la Supergravedad”, que difiere de la gravedad ordinaria en que el gravitón no es la única partícula responsable de la transmisión de la fuerza gravitatoria. Hay toda una familia supersimétrica, con la ayuda de estas enigmáticas partículas de spin 3/2 que los físicos han llamado “gravitinos”. La representación más potente de la supersimetría se conoce como Supergravedad N=8. En ella existe una familia de partículas muy numerosa: 70 con spin nulo, 56 con spin ½, 28 con spin 1 y 8 con spin 3/2, además del gravitón con spin 2. Esta unión puede realizarse acudiendo a una simetría aún más poderosa que la de Lorentz-Poincaré, la que se encuentra en la base de la teoría de la relatividad. Matemáticamente, una operación supersimétrica es parecida a la extracción de una raíz cuadrada de la simetría de Lorentz-Poincaré, lo que corresponde, físicamente, a la transformación de fermión en bosón y a la inversa. La supergravedad ofrece una descripción unificada de la fuerza y la materia. Del mismo modo que los gravitones poseen asociados los gravitinos, los demás componentes (partículas) del grupo de los mensajeros (fotones, partículas W, partículas Z y gluones) se acompañan de nuevas partículas como los fotinos, winos, zinos y gluinos. Si se realizan de forma sucesiva dos operaciones supersimétricas, se obtiene una operación geométrica similar a un cambio de posición espacial. De hecho, matemáticamente la supersimetría se califica como la raíz cuadrada de la geometría. La geometría curvada de la gravedad se expresa naturalmente en el lenguaje supersimétrico, brindando su naturaleza de campo de gauge de forma poderosa. La existencia de todos esos “inos” que son fermiones, de alguna forma, dan lugar a términos infinitos de opuesto signo a los infinitos debidos a los bosones, con lo que hay una tendencia a la cancelación: 131 En el año 1747, ya el filósofo Kant reconoció la profunda conexión entre la ley general de la inversa del cuadrado (que define la fuerza gravitatoria, eléctrica y magnética) y la “tridimensionalidad” del espacio. los infinitos negativos del bucle correspondiente al gravitino se anularían con los infinitos positivos del bucle del gravitón. Los infinitos se supersimetrizarían hasta anularse. Theordor Kaluza en el año 1921 se inspiró en la capacidad de la geometría en la descripción de la gravitación, al extender el trabajo de Einstein para incluir el electromagnetismo en la formulación geométrica de la teoría de campo. Su solución fue brillante, mostró que el electromagnetismo es una forma de gravedad, aunque no la gravedad familiar que conocemos. Es la gravedad de una dimensión no visible del espacio. Dichas ecuaciones de los campos gravitatorio o eléctrico se generalizan con facilidad a otras dimensiones. En un espacio de n dimensiones hay que tratar con una ley inversa de las potencias n-1. Por eso, en tres dimensiones, n-1=2, será la ley inversa del cuadrado. En cuatro dimensiones, n-1=3, será la ley inversa del cubo, y así para las demás dimensiones. Puede demostrarse que si un planeta generara un campo gravitatorio de la inversa del cubo, sus satélites trazarían una rápida espiral hacia él, siendo absorbidos. Lo mismo ocurriría con los átomos, aún teniendo en cuenta los efectos cuánticos los electrones no poseerían órbitas estables en espacios de más de tres dimensiones, con lo que la química (inorgánica y orgánica) y, por tanto, la misma vida sería imposible. Los físicos ya estaban acostumbrados (desde la relatividad) a considerar el tiempo como la cuarta dimensión. Kaluza fue más lejos y postuló que existe aún otra dimensión adicional del espacio: cuatro dimensiones espaciales y cinco (con el tiempo) dimensiones en total. Con esas cinco dimensiones Kaluza demostró que el “campo gravitatorio” de este universo pentadimensional se comporta exactamente como la gravedad conocida más el campo electromagnético de Maxwell, contemplado desde la perspectiva de las cuatro dimensiones. Lo que decía Kaluza con su conjetura es que la ampliación del universo a cinco dimensiones equivale, simplemente, a la existencia de un solo campo de fuerza, la gravedad. (El electromagnetismo sería sólo esa parte del campo gravitatorio que opera en la postulada quinta dimensión). Otro fenómeno que depende sensiblemente de las dimensiones del espacio es la propagación de las ondas. En un espacio con un número par de dimensiones se demuestra que existirían efectos de reverberación, con lo que la onda no se propagaría con nitidez. Un ejemplo es la dificultad de transmitir señales bien definidas en una superficie de dos dimensiones como una lámina de caucho. No habría fuerzas en absoluto, solamente existe la curvada geometría pentadimensional con partículas serpenteando a través de una estructurada “nada”. Para el físico Oscar Klein, la quinta dimensión aparece “enrollada” de forma que su tamaño es imperceptible, como el símil de una manguera que desde lejos parece una simple línea. Un punto de la misma de cerca se despliega en un 132 círculo. Lo que se toma como un punto en el espacio tridimensional es en realidad un pequeño círculo en torno a otra dimensión del espacio. Desde cada punto del espacio parte un pequeñísimo bucle en una dirección que no es arriba, ni abajo, ni ninguna otra en el espacio “sentido” por nuestros sentidos (valga la redundancia). operaciones de simetría necesarias para esa gran fuerza unificada requiere siete nuevas dimensiones: en total diez dimensiones, once con el tiempo. Por tanto, la versión moderna de la teoría de Kaluza-Klein postula un universo de once dimensiones. De nuevo es preciso suponer que las siete dimensiones adicionales están “enrolladas” de modo que su tamaño es tan pequeño que no podemos percibirlas. La única forma de enrollar una dimensión adicional es un círculo, pero hay muchas formas de “enrollar” espacios de más dimensiones. En dos dimensiones, por ejemplo, pueden unirse los extremos para formar la superficie de una esfera, o la superficie de un donut (un toro). Ambas son estructuras cerradas y pueden hacerse muy pequeñas, aunque difieren en su “topología”. (El donut posee un agujero que lo atraviesa, por lo que no puede reducirse de ninguna forma a la superficie de la esfera topológicamente). Klein calculó la circunferencia de los bucles en la quinta dimensión partiendo de los valores de la unidad de carga eléctrica de los electrones y otras partículas, y de las fuerzas gravitatorias entre las distintas partículas. El valor que resultó fue 10-32cm (10-20 veces menos que un núcleo atómico). Un átomo, pues, no puede moverse en la quinta dimensión, es más bien la quinta dimensión la que se encuentra dentro del átomo. La teoría Kaluza-Klein quedó apartada de la ciencia (con el descubrimiento de las fuerzas débil y fuerte) hasta finales de los setenta, ya con las GTU y la Supergravedad. Con siete dimensiones el número de topologías posibles es muy grande. Particularmente el análogo heptadimensional de una esfera –la heptaesfera- es atractiva. En este caso, cada punto del espacio tridimensional es , de hecho, una diminuta “hiperesfera” de siete dimensiones que, además, es la elección más simple (la disposición matemática más sencilla). Vimos que en las GTU, la propiedad central de los campos de fuerza es la presencia de algunas simetrías abstractas, lo que da poder y elegancia. Esta presencia de simetrías sugiere algún tipo de geometría oculta. Precisamente en la teoría de Kaluza-Klein revitalizada, las simetrías del campo de gauge se vuelven concretas: son las simetrías geométricas que viven asociadas a las nuevas dimensiones espaciales. La esfera es una figura muy simétrica, y la heptaesfera posee simetrías adicionales no encontradas en la esfera corriente. Con éstas se pretende identificar las simetrías de gauge que subyacen en los campos de fuerza. En la teoría de Kaluza-Klein la “interrupción de las simetrías” (necesarias para la aparición de las partículas observadas a bajas energías) se consigue distorsionando la estructura Como en la idea central de Kaluza-Klein las fuerzas se acomodan introduciendo más dimensiones espaciales en el espaciotiempo; como hay varias fuerzas para acomodar ello requiere la introducción de varias dimensiones adicionales. El recuento del número de 133 operaciones de supersimetría para generar todas las proyecciones de spin requeridas para la edificación de toda la superfamilia de partículas. También hay ocho especies de gravitinos. heptadimensional, con lo que la esfera no es exacta, adquiriendo una forma “achatada”. Es concebible que la configuración de la heptaesfera sea sólo una de las disposiciones posibles de este espaciotiempo de once dimensiones. En otros posibles “dominios” del universo pudiera haber un número distinto de dimensiones enrolladas, por ejemplo, cinco normales y cinco enrolladas, etc. Como la estructura de los campos de fuerza depende de las simetrías geométricas de las dimensiones comprimidas, dichas fuerzas variarán de un dominio a otro, con lo que conllevaría un sin fin de problemas sobre órbitas estables, movimiento ondulatorio, etc. En esta situación, quizá, pudiéramos aplicar el “principio antrópico”, que nos permitiría afirmar que nosotros, como observadores, hemos “seleccionado” con nuestra presencia el dominio del universo donde sólo es perceptible el espaciotiempo de tres dimensiones espaciales, debido a que no podríamos “vivir” en ningún otro. La teoría de la Supergravedad se simplifica si hay más de tres dimensiones disponibles. Y da la casualidad que la descripción más simple se obtiene con la versión de once dimensiones, puesto que en ella las ocho operaciones distintas de simetría de la supergravedad N=8 se reducen a una sola, la supergravedad “N=1”. Entonces, la vía que procede de la Supergravedad, o la de la construcción de simetrías cada vez más generales para la unificación de las fuerzas, como una extrapolación de las GTU´s y la teoría de Kaluza-Klein, sobre la multidimensionalidad de la geometría del universo, en la vía iniciada por el mismo Einstein, coincidiría en un mundo de once dimensiones, que representaría, de confirmarse, “la unificación completa y definitiva de todas las fuerzas” en palabras de Salam. Acabamos de ver al principio del capítulo que la formulación más prometedora de la Supergravedad era la N=8, y que la operación de supersimetría relaciona partículas con distinto spin en una superfamilia de 163 partículas, familia “cerrada” bajo estas operaciones de supersimetría. Y esto es así si no existen partículas con spin mayor que 2. En los años 60, el físico John Wheeler construyó una teoría completa del mundo basada en la geometría del espaciotiempo vacío, al que llamó “geometrodinámica”, con el objetivo de explicar tanto las partículas como las fuerzas en términos de estructuras geométricas. Según este modelo, una partícula cargada es una especie de entrada o portal a un pequeño túnel que comunica un punto del espacio con otro, algo así como un puente espacial sobre otra dimensión. En el otro extremo del túnel aparecerá como otra partícula de carga eléctrica opuesta. (Los dos extremos del “agujero de Wheeler” pueden ser, por ejemplo, un par electrónpositrón). Las “líneas de fuerza” se N=8 hace referencia al número de posibles operaciones de conexión entre partículas con distinto spin. Como el spin puede apuntar tanto para arriba como para abajo, su proyección puede variar de +2 (hacia arriba) a –2 (hacia abajo) en pasos “semienteros”. Hay ocho de estos pasos entre +2 y –2, es decir, se necesitan ocho 134 1014 veces la masa del protón. La energía requerida equivale a 1019 veces dicha masa del protón (en la cual también quedaría “unificada” la gravedad). Esta energía corresponde a la energía de Planck, quien la descubrió originalmente. concentrarían a lo largo de la partícula cargada para emerger intactas al otro lado, así que no harían falta fuentes de electricidad, sino agujeros en el espacio para atrapar a los campos eléctricos. Dicha teoría no acabó de funcionar pues se restringía solamente a cuatro dimensiones. La ampliación a once dimensiones incrementaría extraordinariamente el campo, aunque no parece que las partículas sean “agujeros” en el espacio, sino más bien “excitaciones” de una geometría de once dimensiones. Así que, en la teoría unificada de las fuerzas pueden distinguirse tres umbrales cruciales, tres escalas de energía. La primera es la energía de Weinberg-Salam, unas noventa veces la masa del protón, a partir de la cual las fuerzas electromagnética y débil se funden en una sola fuerza, la electrodébil. La segunda, la energía de unificación, 1014 masas del protón, que inicia la física de las GTU. Finalmente, la energía de Planck, con sus 1019 masas del protón, que es la escala de energía a partir de la cual la física adquiere una asombrosa simplicidad. Un problema abierto es explicar, en particular, la enorme brecha existente entre la primera y segunda cantidad. Como en física cuántica se asocia una escala de energía-masa a una escala de longitud, ¿qué cantidad de energía sería necesaria para “penetrar” en la heptaesfera y poder explorar esas otras dimensiones del espacio? Según la teoría de Kaluza-Klein, es necesario ir más allá de la energía de unificación (de las GTU), 135 ocultas, curvándose sobre sí, formando una estructura inobservable. Capítulo VIII. SUPERCUERDAS Y TEORÍA M Es probable que el tamaño de estas seis dimensiones enrolladas sea aproximadamente el mismo que la longitud de la cuerda, así que la cuerda aparece en nuestro mundo como una partícula puntual. 1.Supercuerdas En la teoría de Supercuerdas como en cualquier teoría de cuerdas, las partículas elementales no son puntiformes, sino que se asemejan a cuerdas. La equivalencia de ondas y partículas en la mecánica cuántica exige que una onda gravitatoria (una perturbación en el campo gravitatorio), se identifique con una partícula llamada gravitón. De igual forma, en la teoría hay un campo que depende de la configuración de la cuerda: “el campo de cuerda”. Esta teoría combina la teoría de cuerdas con la estructura matemática supersimétrica. Estrictamente las cuerdas no son partículas independientes moviéndose en algún espacio fijo o de fondo. En la teoría de la relatividad general einsteniana, a la que la teoría de Supercuerdas debe aproximarse, el espacio y el tiempo se unifican en el continuo tetradimensional llamado espaciotiempo. La gravitación queda determinada por la curvatura del espaciotiempo. Las partículas se mueven a lo largo de geodésicas, que son las trayectorias más cortas en el espaciotiempo curvado. Las partículas ejercen una recíproca influencia sobre el tejido del espaciotiempo, provocando ondas gravitatorias que perturban las propias geodésicas. Las ecuaciones relativistas einstenianas determinan tanto las trayectorias de las partículas, como la estructura del espaciotiempo en las que estas se desplazan. El número de posibles configuraciones de una cuerda es mucho mayor que el número de puntos en el espacio. Dicho campo de fuerzas se relacionará, pues, con una nueva geometría que complica enormemente la idea de espacio. De igual modo, la partícula de tipo cuerda será una perturbación “ondulatoria” en este espacio gigantesco. Históricamente la teoría de Supercuerdas se relaciona con el modelo de resonancias duales desarrollado a fines de los años sesenta para explicar las propiedades observadas en las partículas sometidas a la interacción fuerte, los hadrones. Gabriele Veneziano intuyó una fórmula (independiente de la teoría cuántica de campos) que expresaba muchos rasgos de éstas interacciones de los hadrones. En la teoría de Supercuerdas, la gravedad se define en un mundo de nuevas dimensiones espaciales y la dimensión temporal, en total 10 dimensiones. El movimiento se desarrolla, igualmente, a lo largo de geodésicas, pero éstas ahora son superficies de área mínima en diez dimensiones. Como sólo se observan cuatro dimensiones (tres espaciales y el tiempo), las otras seis deben permanecer Más tarde se demostró que la aplicación de la fórmula de Veneziano equivalía a describir a los hadrones como cuerdas. La propuesta era que los armónicos de las vibraciones de una cuerda correspondían a los hadrones observados. Podía decirse 136 a buscar esquemas más altos de unificación. Tales esquemas no se fundaban en teorías de cuerdas sino en simetrías llamadas de gran unificación. Dichos esquemas de gran unificación, que ignoraban la gravedad, estaban asociados a grupos de simetría llamados SU(5), SO(10) o E6. Como sabemos, estas grandes simetrías pueden romperse en simetrías menores asociadas al grupo SU(3) de la QCD, y al SU(2)×U(1) de la teoría electrodébil. que las cuerdas servían para mantener ligados a los quarks, constituyentes de los citados hadrones. En la forma original, este modelo de resonancias duales solamente podía explicar partículas como el mesón π, por ejemplo, cuyo spin es entero, es decir, bosones. En el año 1971, Pierre M. Ramond y André Neveu desarrollaron una variante de la teoría general que incluía, ya, fermiones. Esta variante, llamada teoría de la cuerda girante, fue la precursora de todas las teorías supersimétricas. Las temperaturas necesarias para la gran unificación –terreno de la llamada “gravedad cuántica”- estan entre los 1030 y 1032 grados centígrados, temperaturas sólo conocidas entre los 10-43 y 10-38 siguientes a la gran explosión. No obstante, estas dos primeras teorías de cuerdas presentaban ciertos problemas. Primero, el comportamiento mecánicocuántico de la teoría para bosones sólo adquiría sentido para un espaciotiempo de 26 dimensiones. Para la teoría de la cuerda girante (también las actuales teorías de supercuerdas), el número de dimensiones del espaciotiempo es 10. Segundo, las teorías presentaban el problema de que los estados de energía más baja de la cuerda eran “taquiones”, unas partículas cuya velocidad era superior a la de la luz. Y por último, ambas teorías requerían la existencia de partículas sin masa de spin 1 y 2 que no se correspondían con los hadrones observados. Más bien, sus propiedades recordaban las de los bosones de aforo débiles de la fuerza débil (fotón y gravitón). Todos estos problemas parecían incoherencias insuperables, lo que dejó de momento en suspenso dichas teorías de cuerdas. Sabemos que muchas de estas nuevas teorías de gran unificación incorporan la supersimetría que transforma bosones y fermiones entre sí, es decir, unifica las partículas de spin entero y semientero. También, la combinación de la teoría de la relatividad general de Einstein con la supersimetría ha dado lugar a otras teorías llamadas de Supergravedad, una clase de teorías de aforo en la que el gravitino con spin 3/2 constituye la partícula de aforo responsable de la supersimetría. La Supergravedad se ha formulado en un espaciotiempo de 11 dimensiones (las cuatro conocidas y siete dimensiones espaciales adicionales). En el año 1976 Ferdinando Gliozzi, Scherk y David A. Olive sugirieron que la teoría de la cuerda girante era susceptible de supersimetrización. En los años setenta, como hemos visto en el capítulo VII, se asistió al resurgimiento del interés por las teorías de campos cuánticos (basadas en partículas puntuales), las citadas GTU´s. El éxito de todas estas teorías llevó a muchos científicos, como ya apuntamos, En el año 1980 Schwarz y Green empezaron a construir teorías de cuerdas con supersimetría. 137 El principio de incertidumbre de Heisenberg a escalas de distancia inferiores a 10-15 metros, conlleva fluctuaciones de energía manifestadas en la creación de partículas “virtuales”, partículas y antipartículas que se materializan a partir del vacío en un intervalo brevísimo antes de aniquilarse entre sí. Una tal teoría fue formulada por Grass, Harvey, Martinec y Rohm, de la Universidad de Princeton: es la denominada teoría heterótica. En dicha teoría se introducen las cargas de las fuerzas de Yang-Mills difuminándolas a lo largo de toda la cuerda heterótica. En este tipo de cuerda las ondas que viajan en el sentido de las agujas del reloj son ondas de una teoría de Supercuerdas en 10 dimensiones; las que avanzan en sentido contrario al mismo pertenecen a la teoría de cuerdas original en 26 dimensiones. Las 16 dimensiones suplementarias son consideradas internas y responsables de las fuerzas de YangMills. Cuando la resolución espacial no llega a los 10-35 metros, dichas fluctuaciones son de tal magnitud que se deben formar agujeros negros virtuales. La energía de estas fluctuaciones llega a los 1019 GeV, que es la energía de Planck. Así que el espaciotiempo a distancias muy pequeñas debe considerarse muy curvado, casi espumoso. Al moverse una cuerda, barre una superficie bidimensional del espaciotiempo, denominada “hoja del universo”, igual que una partícula puntual recorre la llamada “línea del universo”. En relatividad general las partículas se mueven a lo largo de la línea de universo que minimiza la denominada “acción de la partícula” (energía a medida que se mueve en el tiempo). La acción es proporcional a la longitud de la línea del universo, por lo que una trayectoria de mínima acción es una geodésica (distancia más corta entre dos puntos del espaciotiempo). El tratamiento mecánico-cuántico de una cuerda conduce a limitaciones sobre cualquier teoría de supercuerdas de la gravedad en varias dimensiones. Las cuerdas son de dos tipos: abiertas y cerradas. Las abiertas tienen extremos a los que se asocian cargas conservadas, relacionadas con las fuerzas de YangMills. A este tipo de cuerdas están asociadas partículas de aforo de masa nula y spin 1, pero entre ellas no está el gravitón. Los dos extremos de una cuerda abierta pueden unirse para formar una cuerda cerrada. Entre los estados vibracionales de una cuerda cerrada sí está el gravitón, de masa nula y spin 2. Para la cuerda, similarmente, la acción es proporcional al área barrida por la cuerda, con lo que la hoja de universo será una superficie de área mínima. Entonces, en cualquier teoría de cuerdas abiertas habrá, también, cuerdas cerradas, y en las mismas hay que considerar la fuerza de la gravitación. En consecuencia, si las fuerzas de Yang-Mills como las del electromagnetismo se incluyen en una teoría de cuerdas, quedaran unificadas con la gravedad. Hay una simetría implicada en esta condición de que el movimiento de la cuerda quede determinada por la minimización del área de su hoja de universo. El área es independiente de la designación de los puntos de la hoja bidimensional. Se dice que la física es simétrica bajo redesignaciones arbitrarias 138 de las coordenadas de dicha hoja del universo. 1019 GeV al cuadrado, lo que equivale a una fuerza de 1039 toneladas. Debido a esta simetría, carecen de significado las distorsiones tangentes a la superficie de la hoja en cualquier punto. Las que si lo tienen son las ondulaciones de la hoja del universo perpendiculares a su superficie. Entonces, si la cuerda se mueve en d dimensiones, hay dos direcciones de vibración sin realidad física, con lo que las vibraciones reales son vibraciones transversales en d-2 dimensiones. Las frecuencias de los modos vibracionales normales de la cuerda están separadas por intervalos muy grandes: las partículas que corresponden a los estados más bajos son de masa nula, pero los siguientes estados vibracionales presentan una masa ingente. Para frecuencias más altas, las masas crecen sin límite. Los estados de masa nula de la teoría de Supercuerdas incluyen el gravitón, las partículas de aforo de spin 1, 0 y 1/2 , y además el gravitino (como dijimos, partícula de aforo de spin 3/2 asociada a la Supergravedad). O sea, las partículas de masa nula de la teoría de Supercuerdas son las que hay en las teorías de la Supergravedad. Pero, en mecánica cuántica el movimiento de las partículas no está definido con precisión; cualquier partícula “intenta” tomar todas las trayectorias posibles entre su estado inicial y su estado final. La probabilidad de cada trayectoria tiene un peso, por lo que se asigna una probabilidad mayor a las trayectorias de menor acción: la trayectoria clásica, de mínima acción, es la más probable. Esta formulación de comportamiento cuántico, llamada método de suma sobre historias, fue propuesta por Richard P. Feynman. En virtud de la naturaleza de la interacción de una cuerda con su fondo, el movimiento de una cuerda sólo puede describirse coherentemente si la curvatura del espacio de fondo está severamente restringida. Si la suma de historias de la hoja del universo ha de ser coherente, las seis dimensiones deben curvarse de algún modo especial. Se dice que forman una clase de espacio llamado espacio de Calabi-Yau, y una generalización de dicho espacio denominada variedad de órbitas (“orbifold”). Y es que una gran parte del interés de estas teorías de supercuerdas se debe a la rica estructura que se obtiene de la exigencia de coherencia interna de la teoría. Hay otra restricción empírica de la teoría que es la necesidad de que conduzca a la quiralidad observada en la fuerza débil, y sólo cuando el espacio tiene un número impar de dimensiones (espaciotiempo de dimensiones par) cabe definir el concepto En la teoría de Supercuerdas, la adición de historias exige sumar todas las superficies posibles que unen los estados inicial y final de una cuerda, o de cuerdas de una interacción. Las frecuencias vibracionales de una Supercuerda vienen indicadas por su “tensión”, medida en unidades de energía por unidad de longitud, o de masa al cuadrado, en unidades fundamentales. Como la teoría debe describir la gravedad, la tensión de la cuerda está estrechamente relacionada con la energía de Planck, único parámetro dimensional de la teoría gravitatoria. Entonces, la tensión de la cuerda debe ser del orden de 139 de quiralidad. Cuando el espacio tiene un número impar de dimensiones, las reflexiones especulares según cada eje espacial dan un número impar de reflexiones: una forma orientada levógiramente se transforma en otra con orientación dextrógira. (En este contexto la teoría de la Supergravedad en 11 dimensiones no puede conducir a una teoría quiral por estar formulada en un número par de dimensiones espaciales, 10). diagramas prosigue por adición de agujeros a las rosquillas: dos, tres, etc. La exigencia de simetría bajo redesignación de las coordenadas del toro introduce nuevas y fuertes restricciones a la teoría. Una cuerda heterótica puede moverse en el espaciotiempo plano de 10 dimensiones, sí y sólo sí la simetría de las fuerzas no gravitatorias de la teoría está descrita por el grupo E8×E8 , el grupo spin (32)Z2, una variante del grupo SO(32), o el grupo O(16)×O(16). (Los mismos grupos citados anteriormente, obtenidos bajo la exigencia de ausencia de anomalías quirales en una teoría coherente de aforo quiral en 10 dimensiones). En el año 1984, Schwarz y Green mostraron la posibilidad de formular una teoría quiral libre de anomalías en 10 dimensiones, si el grupo de simetría de la fuerza de Yang-Mills es uno de dos grupos predeterminados. El grupo debe ser el SO(32), una generalización hasta 32 dimensiones internas de la simetría del espaciotiempo, o el grupo E8×E8, producto de dos grupos continuos descubiertos por el matemático Élie Cartan. Más tarde se ha observado otro tercer grupo, el O(16)×O(16), que está ausente de anomalías. Edward Witten, de Princeton, vio que el “arrollamiento” de las dimensiones suplementarias y la rotura de la simetría caminaban juntas. En el espaciotiempo plano de 10 dimensiones, los valores medios de los campos asociados con las fuerzas de Yang-Mills de E8×E8 o de SO(32) son nulos. Witten demostró que si la curvatura del espacio no era nula en algunas dimensiones, los valores medios de estos campos en el espacio curvado tampoco lo serían en esas mismas dimensiones. Y un valor medio no nulo de un campo indica una transición a una fase de menor simetría; así, si seis dimensiones del espaciotiempo plano original se curvan fuertemente, las fuerzas de Yang-Mills de la teoría resultante del espacio curvado están unificadas en una subsimetría de E8×E8, o de SO(32). La sencillez de la serie de diagramas de Feynman posibles para las cuerdas contrasta con la complejidad de los posibles diagramas de Feynman para las partículas puntuales. Como ejemplo citamos los diagramas posibles para dos cuerdas cerradas en interacción. Ambas pueden unirse y después separarse. El diagrama de Feynman de dicho proceso es topológicamente equivalente a la superficie de una esfera. Para una cuerda intermedia se desdobla en dos, que después vuelven a unirse. El diagrama equivale en su topología a un toro, o superficie de una rosquilla. (Con un agujero en medio). La serie de La exigencia de que la teoría mantenga su gran simetría bajo las redesignaciones de 140 las coordenadas de las hojas de universo fuerza a que las dimensiones curvadas formen un espacio de Calabi-Yau, o tal vez una “variedad de órbitas”. una “conexión simple”, con lo que las líneas de potencial electromagnético asociadas con el grupo de simetría E6 quedan atrapadas, lo que posibilita que E6 se rompa en un grupo de simetría menor, similar al asociado al modelo estándar) en el espacio (sólo poseen esta propiedad unos pocos espacios de Calabi-Yau y unas pocas variedades de órbitas) permite que los campos asociados al grupo de simetría E6 queden atrapados induciendo a que la simetría se rompa más, “sin necesidad de introducir las llamadas partículas de gran masa de Higgs, asociadas a tal rotura de simetría. Philip Candelas, Andrew E. Strominger, Gary T. Horowitz y el propio Witten crearon un sugestivo esquema, suponiendo que seis dimensiones se curvaran de ese modo, para explicar la relación de la teoría de Supercuerdas con fenómenos medidos en el rango de energías experimentales. En el esquema de Candelas (y sus colaboradores), el valor medio del campo eléctrico asociado al grupo E8×E8 se iguala al valor no nulo de la curvatura del espacio de seis dimensiones. Debido a estas características de los espacios de Calabi-Yau (o variedad de órbitas), la simetría se rompe en el grupo E6×E8, si perder la Supersimetría. (El grupo E6, constituye uno de los grupos considerados en el estudio de la unificación de las fuerzas de Yang-Mills). Conectado con cada agujero del espacio de Calabi-Yau está un grupo de modelos de vibración de cuerdas de baja energía. Ha sido determinado que nuestras familiares partículas elementales corresponden al nivel de vibración de las cuerdas de más baja energía, la presencia de agujeros múltiples causa que las formas de las cuerdas caigan en múltiples grupos, o familias. Si el espacio de Calabi-yau tiene tres agujeros, entonces son observadas tres formas de vibración y tres familias de partículas aparecen en los experimentos. El grupo E8 suplementario aumenta la simetría pero no afecta directamente a las partículas observadas. Las partículas que transmiten las fuerzas asociadas a la simetría E8 son neutras con respecto a las fuerzas de Yang-Mills pero deben ejercer atracción gravitatoria. (Se ha pensado si la materia que forman tales partículas, conocidas como materia en la sombra, no sería la clave de la masa oculta del universo). Hay, sin embargo, un problema en este razonamiento: nadie conoce cuáles de los diez mil espacios de Calabi-Yau son la forma en que están enrolladas las dimensiones. Si el actual espacio de Calabi-Yau tiene tres agujeros, se encontrará una evidencia de la actual teoría de cuerdas. Mas algunos espacios de Calabi-Yau posibles tienen tantos como 480 agujeros. Si encontráramos el criterio para seleccionar una forma específica, entonces el argumento tendría poder de validación de la teoría de cuerdas. Una predicción de esta interpretación de la teoría de Supercuerdas es la existencia del “axión”, partícula que evitaría la violación de una importante simetría de la QCD. La presencia de “agujeros” (que indica que la “variedad de órbitas” no mantiene 141 Muchos espacios de Calabi-Yau que han sobrevivido a este proceso de eliminación no producen propiedades consistentes con las observadas en nuestro universo. No obstante, esas formas no pueden ser completamente eliminadas porque las ecuaciones usadas para determinar la física de un espacio de Calabi-Yau dado son sólo aproximaciones, las cuales podrían causar errores significativos en el cálculo. La física ha desarrollado cálculos con ecuaciones que limitan y encuentran que unas pocas formas corresponden a las propiedades físicas observadas en nuestro universo, pero no puede refinar esos cálculos hasta que las técnicas no perturbativas se hagan más exactas. Lógicamente, ya que las cuerdas vibran a través de todas las dimensiones, la forma del arrollamiento afectará sus vibraciones y, por tanto, a las propiedades de las partículas elementales observadas. Por ejemplo, Andrew Strominger y Edward Witten han enseñado que la masa de las partículas depende de la forma de la intersección de varios agujeros en el espacio de Calabi-Yau. En otras palabras, la posición relativa entre uno y otro a los agujeros y el tipo de espacio de CalabiYau, según Strominger y Witten, afecta a las masas de las partículas en cierta forma, y lo mismo, desde luego, para todas las propiedades de las partículas. Se escriben las ecuaciones “aproximadas” de la teoría de cuerdas usando un método llamado “teoría de las perturbaciones”, el cual allana el camino para encontrar el criterio requerido para seleccionar un espacio de Calabi-Yau del vasto número de posibilidades. La investigación se localiza hacia métodos no perturbativos que esperan conduzca a unas ecuaciones más exactas, y por tanto un criterio para seleccionar una forma. Ya que la evidencia directa experimental de la teoría de cuerdas es imposible de obtener, observaciones indirectas deben ser un buen camino hacia el soporte de la teoría. Una de tales observaciones sería el descubrimiento de la Supersimetría, o las partículas predichas, aunque mejor sería encontrar partículas cargadas con submúltiplos de la carga fundamental, que no son posibles en otros modelos pero sí en la teoría de cuerdas (aparte de los valores 2/3 y 1/3 de los quarks y antiquarks). Dentro del armazón de la teoría de cuerdas, las cargas eléctricas pueden tener una multiplicidad de valores. Est es debido al hecho de que ciertos espacios de Calabi-Yau tienen agujeros con una propiedad inusual: requieren que las cuerdas “enrolladas" alrededor de ellos puedan desenvolverse ellas mismas sólo haciéndolo en un cierto número de veces, lo que se manifiesta en los denominadores de las posibles cargas fraccionarias. Aunque no se tiene definido un criterio para seleccionar un espacio Calabi-Yau, podemos acercarnos a una acotación hacia ellos. Es lógico empezar con un espacio de Calabi-Yau que tenga tres agujeros, y por tanto, todavía, las tres familias. Problemáticamente, un espacio Calabi-Yau puede deformarse en un infinito número de otras formas topológicamente equivalentes, sin embargo, ya que los agujeros en el espacio de Calabi-Yau cambian en forma, tamaño y posición a través de transiciones, y las vibraciones de las cuerdas que determinan las “propiedades de las partículas” dependen de las propiedades de los agujeros, pueden ser eliminados esos espacios de Calabi-Yau. Branas es el nombre dado por los físicos a las cuerdas, desde que se descubrió que la teoría de cuerdas no se limitaba a objetos de una dimensión. Una un-brana es el 142 nuevo nombre de una cuerda, la cual es un objeto uno-dimensional; una dos-brana es una membrana de una cuerda extendida en dos dimensiones; una tresbrana es la misma extendida en tres dimensiones; y así sucesivamente. Éstas surgen principalmente cuando la teoría de cuerdas se pone en once dimensiones, no diez, y ofrece muchas posibilidades en el campo de las pruebas experimentales indirectas. Planck y decreciendo, es exactamente idéntico al que tiene lugar cuando el radio es mayor que la longitud de Planck y creciendo. Esto significa que, cuando las dimensiones colapsan, su radio disminuirá hacia la longitud de Planck y bota hacia atrás de nuevo, reexpandiéndose otra vez con un radio más grande que la longitud de Planck. En otras palabras, el efecto de la dimensión enrollada que se encoge, causa expansión a un tamaño menor que la longitud de Planck. Hay un hecho esencial de la teoría de cuerdas que es imposible en física de partículas: cuerdas enrolladas. Éstas son cuerdas, envueltas sobre sí mismas; una dimensión enrollada. Las primeras cuerdas se mueven a lo largo de la superficie de un cilindro, pero las segundas se enrollan a lo largo de la dimensión circular del cilindro, moviéndose lateralmente a lo largo de él. Cuando una cuerda está enrollada, el término técnico es que es un modo de movimiento “devanado”. Claramente esto representa una nueva área de la física, pero este tipo de configuración es absurdo en la física de partículas puntuales. La energía de las cuerdas enrolladas viene de dos fuentes distintas: el movimiento familiar vibracional y la nueva energía de “enroscamiento”. El movimiento vibracional puede ser separado en dos categorías: vibraciones ordinarias y uniformes. Las vibraciones ordinarias u oscilaciones usuales, por simplicidad, las ignoraremos temporalmente. Las vibraciones uniformes son el simple movimiento de deslizamiento de una cuerda de un lugar a otro. Hay dos importantes observaciones relacionadas con el movimiento uniforme que lidera la esencia de la relación contracción/expansión. Una cuerda enrollada tiene una masa mínima determinada por el tamaño de su dimensión encurvada y el número de veces que encierra la dimensión (su número de “envolvimiento”). Por la ecuación E= mc2, podemos también ver que la cuerda tiene una energía mínima, llamada energía de enrollamiento. La vibración de la cuerda determina su energía total, más grande que esta mínima. Primero, las energías vibracionales uniformes son inversamente proporcionales al radio de la dimensión rodeada. Por le principio de incertidumbre, un radio pequeño confina una cuerda en un área más pequeña y por tanto crece la energía de su movimiento. Segundo, las energías de enroscamiento son directamente proporcionales al radio porque el radio causa que una cuerda tenga un mínimo de masa, que puede ser transformada en energía. Estas dos conclusiones enseñan que un gran radio implica grandes energías de enrollamiento y pequeñas energías vibracionales, y pequeños radios implican Hay una curiosa característica de los modos de enrollamiento a cerca del tamaño. De acuerdo con la teoría de cuerdas, el proceso físico que tiene lugar mientras el radio de la dimensión enrollada está alrededor de la longitud de 143 pequeñas energías de enrollamiento y grandes energías vibracionales. enrolladas son libres para moverse alrededor de la totalidad del círculo. Por otro lado, las cuerdas enrolladas tienen energías mínimas proporcionales a R y por tanto, por el principio de incertidumbre, pueden explorar distancias de 1/R. Sin embargo, la naturaleza de esas distancias asegura que siempre que se desvía mucho de 1 (la longitud de Planck), como sucede en nuestro universo, una medida es simple (la correspondiente a R) y otra difícil (la correspondiente a 1/R). Por esta razón, definimos la distancia de manera ordinaria sin menoscabo de la otra, desechando el camino más difícil para culminar la operación. Esta discrepancia es debida a las masas de las dos configuraciones –la de alta energía, y por tanto pequeño tamaño, en la que las cuerdas son extremadamente masivas, y la de baja energía, y por tanto gran tamaño, en la que las cuerdas son más ligeras y por tanto accesibles a la tecnología presente. Cuando el tamaño del universo es medido, esta medición se realiza con modos ligeros de cuerda, obteniéndose una imagen de alrededor de 1061 veces la longitud de Planck. Sin embargo, si fuese tecnológicamente factible, deberíamos ser capaces de usar los modos pesados de las cuerdas para medir el recíproco de las distancias. Esta conclusión supone esencialmente que, para cualquier gran radio hay un correspondiente radio pequeño en el que las energías de enrollamiento del primero son las energías vibracionales en el último, y viceversa. Puesto que las propiedades físicas dependen de la energía total de una cuerda, no hay diferencia física observable entre los correspondientes radios. Ahora consideraremos un ejemplo de los principios precedentes. Imaginemos que el radio de la dimensión enrollada es 5 veces la longitud de Planck (R=5). Una cuerda puede rodear estas dimensiones cualquier número de veces; este número es llamado “número de enrollamiento”. La energía de enrollamiento está determinada por el producto del radio por el “número de enrollamiento”. Los patrones de la vibración uniforme, que son inversamente proporcionales al radio, son en este caso proporcionales a múltiplos enteros (debido al hecho de que la energía viene en paquetes discretos, o cuantos) del recíproco del radio. Este cálculo produce el número de vibraciones. Si el radio está decreciendo de tamaño a R=1/10, los números de enrollamiento y vibración simplemente “conectan”, produciendo la misma energía total. Ver el siguiente cuadro: Debido a este hecho la contracción más allá de la longitud de Planck no puede ocurrir. Si las medidas son siempre realizadas de la manera más fácil (la única tecnológicamente posible hoy día), el resultado siempre será al menos la longitud de Planck. Imaginemos que una medida realizada usando modos enrollables revela un vasto universo en contracción. Cuando R=1, los dos modos se vuelven igual de fáciles, y siempre se obtendrá el valor de la longitud de Planck. El valor retornará al recíproco del NºEnroll. Nº Vibra. Energía Total Radio 10 2 3 3/10+20=20,3 Radio 1/10 3 2 20+3/10=20,3 Estos resultados nos dicen que hay dos caminos para definir la distancia en la teoría de cuerdas –uno relacionado con las cuerdas desenrolladas moviéndose libremente, y otro relacionado con las cuerdas enrolladas. Las cuerdas 144 relacionadas excepto en su formulación. Esto parecía ser un vasto escollo entre los físicos, separando unos de otros en cuanto a la aceptación de la teoría favorita entre las mismas. Sin embargo, la segunda revolución de supercuerdas enseñó que, en una serie compleja de dualidades, las cinco teorías son diferentes partes de una teoría unificada llamada teoría M. Esencialmente, todo el trabajo está todavía por hacer para encontrar la forma exacta de la teoría M, pero hay dos hechos fundamentales ya conocidos. Primero, las diez dimensiones de las cinco teorías básicas surgen del uso de ecuaciones aproximadas. Justamente como Kaluza encontró una excitante unión de la relatividad y el electromagnetismo por la adición de una dimensión, los teóricos modernos encuentran una unión de las cinco teorías distintas añadiendo otra dimensión. En realidad, las ecuaciones exactas de la teoría subyacen en once dimensiones. Segundo, la teoría M no se limita a unas cuerdas vibrando en una dimensión, dos membranas dos-dimensionales, pepitas tres-dimensionales o manchas llamadas tres-branas, y así campos de más dimensiones quedan incluidos. resultado dado por los modos desenrollados, así que el resultado implicará que el universo es otra vez más grande que la longitud de Planck y expandiéndose. Hay cinco tipos de teorías de cuerdas que son muy similares, pero diferentes en ciertos aspectos fundamentales: Tipo I, Tipo II A, Tipo II B, Heterótica tipo O(32) y Heterótica tipo E8×E8 (Heterótica –E). En el tipo II A, las vibraciones viajan en sentido del reloj alrededor de una cuerda idénticamente a como viajan en sentido contrario; el resultado de esto es que las partículas tienen spines en ambas direcciones (tienen ambas quirilidades). En el tipo II B, las vibraciones que van en el sentido del reloj y el contrario son exactamente opuestas, resultando el spin de sus partículas en una sola dirección (tienen una quirilidad). En las dos teoría heteróticas, las vibraciones en el sentido del reloj se parecen a las cuerdas de tipo II (las vibraciones en el sentido del reloj en II a y II B son las mismas), pero las vibraciones en dirección contraria a las agujas del reloj son parecidas a las de la teoría bosónica original. Es interesante que la teoría bosónica requiere 26 dimensiones, y la teoría tipo II requiere 10, resultando una dualidad ocasional en la que las vibraciones en el sentido del reloj ocurren en 10 dimensiones y las vibraciones en el sentido contrario en 26. Las 16 dimensiones extras deben estar contenidas en una de las dos formas en un toro; esto da lugar a dos teorías heteróticas separadas. El tipo I es similar al tipo II B excepto que incluyen cuerdas abiertas, o cuerdas cuyos extremos están separados o desconectados, así como las usuales cuerdas cerradas. Dentro de la teoría de cuerdas hay una precisa fórmula matemática que determina la influencia de cada cuerda en una interacción en el movimiento de otra. (Esta fórmula actualmente difiere ligeramente en cada teoría de cuerdas individual, pero las diferencias no son importantes). Sin embargo, esta fórmula no determina absolutamente las interacciones entre las partículas: por el principio de incertidumbre, los pares partícula/antipartícula (o en términos de cuerdas, dos cuerdas en modos de vibración opuestos) pueden temporalmente tomar energía y “saltar” a la existencia por un corto período de Antes de la segunda revolución de las Supercuerdas, las cinco teorías parecían completamente distintas y no 145 muchos de los lazos pueden ser ignorados y la teoría de las perturbaciones funciona perfectamente. Sin embargo, si la cte, es mayor que uno la estimación dada por la teoría de las perturbaciones es más grande que el marco porque las contribuciones de un número creciente de lazos son más grandes. tiempo antes de aniquilarse entre ellos. Estos pares, llamados pares de cuerdas virtuales, deben rápidamente recombinarse en un simple lazo de la cuerda. Esto se llama un proceso de “un lazo”. Obviamente, este proceso puede continuar indefinidamente, extendiéndose con dos, tres, quince, o cualquier número infinito de lazos. Como para las interacciones originales hay una fórmula para describir cada una de esas cada vez más complejas interacciones. Los teóricos de cuerdas podrían entender exactamente las interacciones entre cuerdas juntando las expresiones de cada una de estas interacciones, pero esto implica un infinito número de expresiones puesto que hay un infinito número de interacciones, cada una con más lazos que la precedente. Esto es claramente imposible, por lo que los teóricos de cuerdas tienen que usar el método de las perturbaciones, primero calculando el valor de la interacción simple, y luego refinándolo añadiendo sucesivos números de lazos hasta alcanzar la aproximación deseada. En el presente, nadie conoce las constantes de acoplamiento para cada una de las cinco teorías. Sabemos que todas las conclusiones, por tanto, más allá de la teoría de las perturbaciones no son válidas si la constante es mayor que uno. La teoría de las cuerdas incluye una ecuación para encontrar la constante, pero corrientemente es sólo una versión aproximada, ya que esta ecuación está formulada en base a perturbaciones que asumen que la respuesta será menor que uno. Como reveló Witten, basado en el trabajo previo de muchos otros, las cinco teorías de cuerdas conocidas que parecen completamente distintas, en la actualidad se ven duales unas de otras. Cuando las teorías trabajan con acoplamientos débiles –esto es, cuando tienen constantes de acoplamiento menores que unoaparecen distintas. Sin embargo, cuando se analizan usando métodos no perturbativos, con constantes de acoplamiento mayores que uno, se observan bastante interrelacionadas. Específicamente, con acoplamiento fuerte, una teoría tiene una descripción alternativa en el comportamiento débil de otra. Una constante de acoplamiento es un número en la teoría de cuerdas que determina la probabilidad de que una cuerda se divida en dos, por tanto forma un par virtual. Las matemáticas muestran que una constante de acoplamiento más grande que uno produce un incremento de la probabilidad de pares de cuerdas virtuales; constantes menores de uno conlleva un crecimiento más bajo de pares de cuerdas virtuales. (Para ser más específicos, cada par de cuerdas virtuales contribuyen con un factor que se multiplica por la constante; si es menor que uno, la multiplicación incrementará las pequeñas contribuciones; si es más grande que uno, la multiplicación favorecerá las contribuciones más grandes). Si la cte. es menor que uno, Al estudiar la teoría M haremos mención a esos métodos no perturbativos. En mecánica cuántica está la cte. de Planck, h ≅ 10-27 erg.s , básica en la escala de la incertidumbre cuántica. 146 En la teoría de cuerdas hay una nueva constante: o posponiendo para más adelante el problema de la degeneración del vacío. α´ ≅ (10-32 cm)-2 Los modelos construidos hasta ahora son bastante asimiles de las GTU, debido a las siguientes cuestiones: que juega un papel análogo a la anterior. La teoría de cuerdas hace predicciones generales sobre: i) ii) iii) 1. La existencia de tres generaciones de leptones y quarks quirales; 2. Supersimetría de baja energía; 3. Existencia de axiones; 4. Dobletes de Higgs masivos (acompañados por tripletes) que obtienen masa debido a la simetría espaciotemporal, y 5. Estructura de simetrías discretas globales y locales. tres La gravedad La simetría de gauge La supersimetría Y con un conocimiento del “vacío”, se obtienen más respuestas. La dualidad transforma e en 1/e, y no es posible que ambos e y 1/e sean mucho menores que uno. A todo lo anterior se suma la gravedad, imposible dentro de la teoría de campos. Para la teoría cuántica Witten obtiene una nueva visión del problema tradicional de confinamiento de los quarks, la cual está relacionada por la dualidad más que la física estándar. Los modelos construidos a partir de cuerdas (MCC), que se compara con las GTU, se comportan, no obstante, con varias características diferenciales. Muchas de ellas que en el Modelo Estándar no encuentran explicación, como el origen de la existencia de tres familias de fermiones quirales (la quiralidad de los fermiones es una particularidad de las teorías de cuerdas, independiente de la compactación, ya que no es derivable en la teoría de Kaluza-Klein, etc.), con la MCC se obtienen en términos de propiedades geométricas y topológicas de K. (El problema sigue siendo la selección correcta del vacío). En la elaboración de los modelos de cuerdas no se contempla ni reproduce el Modelo Estándar Minimal Supersimétrico (MEMS), que implica soslayar los procesos de cambios de Sabor. No se predicen, tampoco, las relaciones usuales entre los acoplamientos de Yukawa, sino que éstos satisfacen relaciones topológicas y geométricas en K. Hay problemas respecto a la cte. cosmológica, pues los modelos cuerdistas no explican que ésta pueda ser nula. Para resolver la cuestión se recurre al mecanismo “traductor” denominado dualidades. Una de las primeras controversias sobre la teoría de Supercuerdas es aquella en la que se subraya su diferencia con respecto al Modelo Estándar, capaz de hacer predicciones contrastadas en laboratorios, cosa que no ha podido lograr la primera teoría. O sea, podemos decir que tantos esfuerzos gastados en su elaboración La solución debe proceder del sector no perturbativo de la teoría de cuerdas, algo complicado pues es desconocido; por ello muchas teorías de cuerdas prefieren edificar modelos unificadores, soslayando 147 Sommerfeld-, son métodos que envuelven propiedades supersimétricas para determinar ciertos aspectos de la física sin usar métodos perturbativos. Demos un ejemplo. Supongamos que nos dicen que una caja cerrada contiene algún objeto desconocido con, dicen, una carga eléctrica de +2. Este podría ser dos protones, tres protones y un electrón, seis quarks –up; cualquiera de ellos compuestos por cualquier número de neutrones o cualquier otra combinación de partículas con carga eléctrica total +2. Sin embargo, también se nos dice que lo que contiene es supersimétrico y tiene una mínima masa permitida por la carga +2. Por tanto, contiene dos protones. Las conclusiones de los físicos mencionados anteriormente, una estructura tal con supersimetría y una “constante de minimalidad” (Brian Greene), o la estipulación que el contenido será el de la posible masa mínima, puede permitir que el contenido de tal “caja” teórica sea analizado rápida y exactamente. Los componentes de masa mínima consistentes con el valor de la carga son conocidos específicamente como estados BPS. pudieran acabar siendo un simple ejercicio de especulación matemática. Uno de los problemas ligados a la teoría de Supercuerdas que más resalta es la propia pequeñez de las cuerdas, puesto que cuanto más pequeño es algo, menos puede verse. Tan pequeñas son que no hay esperanzas de hacer experimentos que puedan acercarnos a sus dimensiones. Y sin experimentos no pueden hacerse comprobaciones de sus predicciones. Para desarrollar su formulación es necesario apelara diez dimensiones como mínimo; y hasta 26. La teoría, también, tiene decenas de miles de alternativas, en principio, posibles que no sabemos si son reales, y que corresponden a miles de posibles universos. En alguna de sus versiones predice 496 fuerzones, partículas como el fotón, transmitiendo la fuerza 16 diferentes tipos de carga. La explicación más frecuente sobre todo lo anterior, es que los problemas surgen al no existir, aún, una estructura matemática consistente para formularla como debería. Si hacemos un experimento mental con una cuerda de tipo I con una constante mucho menor que 1, la teoría de las perturbaciones es válida y las propiedades de la teoría pueden ser descritas satisfactoriamente. Si el valor de la constante crece, pero todavía es menor que uno, la exactitud de los cálculos decrece, pero todavía proveerá una buena aproximación de la realidad. Cuando el valor de la constante crece más allá de 1, la teoría de las perturbaciones deja de ser válida y los estados BPS deben usarse. Basado en el análisis con BPS, el comportamiento del tipo I fuertemente acoplado es exactamente el mismo que el comportamiento débilmente acoplado de La cura para esto ha sido el desarrollo de todo un conjunto de nuevas herramientas que han logrado superar, en parte, las limitaciones matemáticas de la teoría de cuerdas. Tales herramientas son las llamadas dualidades, que son como un diccionario unificador que permite a los físicos “traducir” sus cálculos desde marcos teóricos asequibles, a otros en los que lo convencional no funciona. 2.La teoría M Los estados BPS, nombre de tres físicos reconocidos por su trabajo en el área –E. Bogomoln´yi, Manoj Prasard y Charles 148 Hay adicionalmente, un conjunto notable de dualidades entre las teorías de cuerdas. Recordemos la conclusión de que la dimensión de radio R equivale a la de radio 1/R. Específicamente esta dualidad entre radios es esta: La física de la cuerda de tipo II A en un universo de radio R es la misma que la física de una cuerda de tipo II B en un universo con una dimensión 1/R. Lo mismo se aplica a las cuerdas Heteróticas –O y Heteróticas –E. las cuerdas Heteróticas –O. Los estudios sugieren que lo contrario es también verdad: el acoplamiento fuerte de las cuerdas Heteróticas –O es equivalente al acoplamiento débil de las cuerdas de tipo I. Esta propiedad es conocida como dualidad fuerte - débil. La tipo II B tiene otra importante propiedad en el mismo sentido: es dual sobre sí misma. Esto significa que la constante de acoplamiento II B y su recíproca describe la misma física. Las cuerdas de tipo II A y Heteróticas –E son en realidad figuras dos-dimensionales en un universo de once dimensiones. Sin embargo, la teoría de este universo oncedimensional es virtualmente desconocida para los teóricos. A energías bajas, es aproximada por la Supergravedad oncedimensional, una teoría de partículas puntuales. Esta teoría, la más firme candidata de cuerdas para una “teoría del todo”, ha sido denominada “Teoría –M” por Edward Witten; sin embargo, no hay consenso en lo que ese misterioso nombre significa (en efecto, sugiere teoría misteriosa). A pesar de la falta de conocimiento de sus propiedades detalladas, sabemos que unifica las cinco teorías de cuerdas en un armazón por medio de un tejido de dualidades. Esto implica que un problema demasiado complicado de resolver en una teoría puede ser resuelto en la otra, posiblemente con una mayor probabilidad de encontrar una solución satisfactoria. Por ejemplo, las cuerdas de acoplamiento fuerte son dificultosas de trabajar con ellas, siendo mucho más fáciles las de acoplamiento débil. Por tanto, el acoplamiento débil de las cuerdas de tipo I deben reemplazar al acoplamiento fuerte de la cuerda Heterótica –O en un cálculo físico, pues ambas describen las mismas propiedades físicas de fondo. Antes de la aparición de las cuerdas, las teorías más satisfactorias eran aquellas que incorporaban supersimetría y gravedad en la teoría del campo cuántico usando diez u once dimensiones. Estas teorías, como sabemos, se llamaban teorías de Supergravedad. Al final, cuatro diez-dimensionales teorías de Supergravedad fueron desarrolladas –tres de ellas eran de baja energía, aproximaciones de partículas puntuales de tipo II A, II B y cuerdas Heteróticas – E. Sin embargo, la Supergravedad de once dimensiones se encontró que jugaba un mayor papel en este tejido de dualidades. ¿Cómo puede corresponder la Supergravedad once-dimensional a la diez-dimensional teoría de cuerdas? Los investigadores han encontrado que el acoplamiento fuerte de las cuerdas, particularmente las cuerdas de tipo II A y la Heterótica –E, tiene dos dimensiones. Esta dimensión extra es una dimensión espacial diez, lo que hace un total de once. En el tipo II A, las cuerdas se vuelven menos parecidas a una cuerda y más parecidas a una superficie dosdimensional o una rueda de bicicleta o tubo interno. En la Heterótica –E, la cuerda se vuelve una membrana (o dosbrana) cuyo tamaño es gobernado por la constante de acoplamiento. 149 enteros de ondas, correspondiendo cada una a una partícula con una energía determinada; las energías, pues, son discretas, en otras palabras, están cuantizadas. La teoría M, y por tanto las otras teorías, también contienen más que cuerdas oncedimensionales. La teoría incluye todas las uno-branas a las nueve-branas. Con más generalidad, un objeto con p dimensiones espaciales es llamado una p-brana. Los físicos han probado que la masa de tales objetos, excepto las cuerdas, son inversamente proporcionales a la constante de cuerda de la teoría dentro de la cual se hace el cálculo. Con acoplamiento débil, todas las cuerdas serán más pesadas que incluso la masa de Planck. Puesto que una brana, por tanto, requiere una gran cantidad de energía para ser creada, las branas improbablemente tengan gran efecto en física. Sin embargo, con acoplamiento fuerte, la masa de esos objetos extensos se hacen más ligeros y entonces tienen un gran efecto. Un observador que viviera en las cuatro dimensiones cotidianas ve solamente un conjunto de partículas, no con energías, sino con cargas cuantizadas. El cuanto de carga –al que consideramos la unidaddepende del radio del círculo. Para obtener el valor e de la carga del electrón el círculo tendría que tener unos 10-33 cm de radio. Ese tamaño tan ínfimo hace que incluso para los átomos se les escape su existencia. Pero, aún así nos da el electromagnetismo. Ya vimos, que de la Supersimetría se sigue la Supergravedad, cuyas interacciones son realizadas por una partícula de spin 2 –el gravitón- que tiene como compañero al gravitino de spin 3/2. En el año 1978 Cremmer, Julia y Scherk enseñaron que la Supergravedad es más elegante en un espaciotiempo de 11 dimensiones (10 espaciales y 1 temporal). El tipo del mundo “real” de nuestras cuatro dimensiones, depende de cómo se desarrollan, a la forma de Kaluza y Klein, todas estas dimensiones extras. Con varias dimensiones cerradas sobre sí mismas (por ampliación de la teoría Kaluza-Klein) podrían derivarse el electromagnetismo, las fuerzas nucleares fuerte y débil, y por qué no, la gravitación. La Supergravedad pone una cota superior a la dimensionalidad del espaciotiempo: once dimensiones. Ya citamos que fueron Kaluza y Klein quienes sugirieron que el espaciotiempo podría tener una quinta dimensión oculta que no sería infinita como las otras, sino que se cerraría sobre sí misma, formando una circunferencia donde residirían ondas cuánticas, que la ceñirían totalmente. En dicha circunferencia sólo caben números En el año 1984, la quiralidad (la distinción por la naturaleza de la derecha y de la izquierda), al no poder ser deducida fácilmente de la reducción de las 11 dimensiones a cuatro, como Witten y otros recalcaron, hizo caer en desgracia la Supergravedad. Su papel fue tomado por las Supercuerdas en 10 dimensiones, que en ese momento la ocupaban cinco teorías con características matemáticas distintas: cuerdas Heteróticas E8×E8, Para la teoría M, como para la de las cuerdas, la noción de Supersimetría es de gran importancia. La supersimetría dicta que, para cada partícula conocida de spin entero (0, 1, 2, etc.), haya una partícula de igual masa y spin semientero (1/2, 3/2, 5/2, etc.), y al revés. 150 dos dimensiones espaciales y es como una hoja. Howe, Inami, Stelle y Duff mostraron que si una de las 11 dimensiones era una circunferencia, podía envolverse con la membrana una vez y pegando los bordes formar un tubo. Si el radio de la circunferencia se hace suficientemente pequeño la membrana enrollada parecerá una cuerda en 10 dimensiones, concretamente la supercuerda del tipo II A. Heteróticas SO(32), de tipo I SO(32), de tipo II A y de tipo II B. En particular, la E8×E8 mostraba –en principio- potencia suficiente para explicar las fuerzas y partículas elementales conocidas hasta entonces, quiralidad incluida. Parecía, también, que las cuerdas proporcionaban una teoría gravitatoria con coherencia con los fenómenos de la cuántica. Ahora bien, el excesivo número de teorías desconcertaba, así como la dificultad de los cálculos matemáticos en la teoría creaba ciertas dudas sobre estas teorías de cuerdas. Tampoco se entendía ¿por qué no podía asimilarse las partículas puntuales, así como alas cuerdas, también a membranas, o de forma general a objetos d p dimensiones, o sea, a pbranas? Amalie Emny Noether en el año 1917 demostró que masa, carga y otras propiedades de las partículas elementales se conservaban gracias a alguna simetría, por ejemplo, la carga eléctrica es consecuencia de una simetría de la función de ondas de la partícula. Pero ocurre que, a veces, las propiedades pueden conservarse debido a las deformaciones de los campos, lo que se llaman leyes de conservación topológicas. Por ejemplo, un nudo de un conjunto de líneas de campo, lo que se denomina un “solitón”, no puede deshacerse, entonces, el solitón no se disipará y se comportará de forma parecida a una partícula. El ejemplo clásico es el monopolo magnético. Igual que una partícula describe en su movimiento por el espaciotiempo una trayectoria unidimensional, o “línea del mundo”, una p-brana barre un volumen de mundo de p+1 dimensiones (así pues, p+1 no puede ser mayor que el número de dimensiones del espaciotiempo). Ya en el año 1962 Dirac construyó un modelo en el que el electrón no era un punto sino una burbuja minúscula, o membrana cerrada sobre sí misma. Sus oscilaciones, sugirió, generarían otras partículas como el muón. Aunque el intento no tuvo éxito, las ecuaciones que formuló para la membrana, esencialmente, son las mismas que se usan hoy. Las membranas pueden tomar forma de burbuja o extenderse en dos direcciones como una plancha de caucho. Según el esquema tradicional, las partículas que portan cargas de Noether (electrones y quarks, entre ellas) se reputan como fundamentales, así que serían derivadas las “cargas topológicas”. (Por ejemplo, los monopolos magnéticos). Montanen y Olive hicieron en el año 1977 una atrevida conjetura. Supusieron que había una formulación alternativa de la física en la que los papeles de las cargas de Noether (por ejemplo, las cargas eléctricas) y las cargas topológicas (como las cargas magnéticas) estuviesen La Supersimetría impone unas duras restricciones a las dimensiones de las pbranas. Bergshoeff, Sezgin y Townsend descubrieron una membrana en el espaciotiempo de 11 dimensiones. Tenía 151 conocidas, era mucho más frágil una dualidad entre cuerdas y pentabranas en 10 dimensiones. También subsistía el hecho de que no se conocían con seguridad las propiedades cuánticas de las pentabranas, lo que imposibilitaba la prueba de esa nueva dualidad. Ashoke Sen estableció que las teorías Supersimétricas requerían la existencia de ciertos solitones dotados de carga eléctrica y magnética, algo predicho por la conjetura de Montanen-Olive, lo que abrió las puertas al desarrollo acelerado de toda la teoría. cambiados. En esa imagen, que podríamos llamar “dual” , por ejemplo, los monopolos magnéticos serían elementales y las partículas de Noether – quarks, electrones, etc.- solitones, o “partículas” topológicas. Precisando, una partícula fundamental de carga e equivaldría en esa “dualidad” a una partícula solitónica de carga 1/e. Y como la carga de una partícula es la medida de la intensidad con que actúa, un monopolo interactuaría débilmente cuando la partícula elemental original lo hiciese fuertemente (e grande) y viceversa. En el año 1990 varios teóricos generalizaron la idea de dualidad de Montanen-Olive para las Supercuerdas en cuatro dimensiones. A esta dualidad, también mera conjetura, se llamó dualidad S. Si la conjetura fuese cierta equivaldría a una profunda simplificación matemática. Por ejemplo, en la teoría de los quarks los cálculos son harto difíciles cuando éstos interaccionan fuertemente; como los monopolos entonces interaccionarían débilmente, de la ejecución de los cálculos con una teoría dual basada en los monopolos podrían obtenerse todas las soluciones para los quarks, pues ambas teorías darían los mismos resultados finales. La dualidad T ya era conocida por los teóricos de cuerdas anteriormente, y relacionaba los dos tipos de partículas que se producen cuando una cuerda forma un bucle alrededor de una dimensión compacta. Como vimos, estas partículas “vibrantes” son análogas a las predichas por Kaluza y Klein, procediendo de las vibraciones de la cuerda que ciñe la dimensión. Dichas partículas tienen más energía si el círculo es más pequeño. Como la cuerda puede, además, dar muchas vueltas alrededor del círculo, cuantas más veces lo haga y sea mayor el círculo, mayor será su energía. Cada nivel de energía es como una partícula nueva (son las partículas de “arrollamiento” anteriormente vistas). Claro está primero había que demostrar la conjetura de Montanen-Olive con algún otro método. Las p-branas pueden asimilarse a los solitones. Andrew Strominger encontró en 1990 que una cuerda de 10 dimensiones puede dar un solitón que es una pentabrana, sugiriendo que una cuerda que interacciona fuertemente es el equivalente dual de unas pentabranas con una interacción débil. La dualidad T expresa que para una circunferencia de radio R, las partículas de arrollamiento son las mismas que las “vibrantes” para un círculo de radio 1/R, y al contrario (lo que ya enunciamos con anterioridad). Para el físico, pues, no hay Ahora bien, si no se había demostrado, aún, la dualidad propuesta por Montanen y Olive entre la electricidad y el magnetismo, en las cuatro dimensiones 152 distinción entre ambos conjuntos de partículas: una dimensión compacta gruesa da las mismas partículas que una delgada. Christopher M. Hull, junto con Townsed, apuntaron que una cuerda heterótica que interaccione débilmente podía ser la dual de una cuerda de tipo II A interaccionando fuertemente, si ambas se encontraban en seis dimensiones. La consecuencia de lo anterior es transcendental. Siempre se había creído que a longitudes inferiores a la de Planck, 10-33 centímetros, las leyes de la naturaleza se desvanecerían, sin embargo, la dualidad T nos dice que a esas escalas y a las grandes el universo no sería distinto. Podría especularse que si el universo se encogiera hasta ser menor que la longitud de Planck, se transformaría en un universo dual, que crecería mientras el otro fuese contrayéndose. Michael J. Duff, apuntó que si se reduce el espaciotiempo de las seis dimensiones anteriores a cuatro, enrollando dos, ocurre que tanto la cuerda fundamental como la solitónica adquieren una dualidad T, encontrándose, curiosamente, que la dualidad T de la cuerda solitónica es precisamente la dualidad S de la cuerda fundamental, y al revés. A este fenómeno, en el cual un intercambio de cargas en una de las imágenes es justo la inversión de la longitud en la imagen dual, se llama “dualidad de dualidades”. Ello equivale a que la dualidad S posea la misma potencia que “la bien establecida” dualidad T, prediciendo que la intensidad con la que interaccionan los objetos –sus cargas- está relacionada con el tamaño de las dimensiones invisibles. (Lo que en un universo es carga en el otro pudiera ser tamaño). La dualidad entre cuerdas y pentabranas seguía por entonces siendo una conjetura debido al problema de la cuantización de las pentabranas. El problema se resolvió obviándolo, puesto que si se enrollaban cuatro de las 10 dimensiones y las pentabranas las envolvían, éstas quedaban transformadas en objetos unidimensionales, como cuerdas (solitónicas) en un espaciotiempo de seis dimensiones. (La cuerda de diez dimensiones retiene su carácter fundamental incluso en las seis resultantes). Así que, de una dualidad entre cuerdas y pentabranas se pasaba a otra (por más, mera conjetura) dualidad entre cuerdas solitónicas y fundamentales. La ventaja era que si sabíamos cuantizar una cuerda cabía, por tanto, contrastar las predicciones de la dualidad cuerdacuerda. Podía, por ejemplo, demostrarse que la intensidad con la que interaccionaban las cuerdas solitónicas venía dada por el inverso de la intensidad de la interacción de la cuerda fundamental, lo que está de acuerdo con la conjetura. Witten en el año 1995 puso todo cuanto se había hecho sobre las dualidades T, S y cuerda-cuerda bajo el techo de la expresada teoría M en 11 dimensiones. Quedaba claro, también, que las membranas desempeñaban un muy importante papel en dicha teoría M. Hasta la cuerda E8×E8 encontró su origen en la teoría M. Witten y Horava revelaron el mecanismo por el que la dimensión extra de la teoría M se contraía en un segmento. La imagen que resultó fueron dos universos de 10 dimensiones (cada uno en un extremo de dicho segmento de línea) conectados por un espaciotiempo de 11 dimensiones. Las partículas existen exclusivamente en los universos de los 153 extremos, que pueden comunicarse entre sí exclusivamente a través de la gravedad. (Podría hacerse otra nueva conjetura: que la materia visible de nuestro universo estaría en una pared y la llamada “materia oscura” o masa invisible del universo en la otra, o el universo paralelo). radiativa. Y es que los agujeros negros tienen una entropía, que mide el desorden de un sistema a través del número de estados cuánticos disponibles; mas no se sabía el origen “microscópico” de esos estados cuánticos. Strominger y Vafa se entretuvieron en contar, gracias a la técnica de las membranas de Dirichlet, el número de estados cuánticos de las branas negras, encontrando que la entropía hallada concordaba perfectamente con la predicción de Hawking. Sabemos que a una energía E de 106 gigaelectronvoltios las intensidades de las fuerzas fuerte, débil y electromagnética convergen, y esa intensidad de interacción es casi igual al número adimensional G E2, donde G es la constante de Newton. Dijimos, también, que hay miles de millones de formas diferentes de contraer 10 dimensiones en cuatro, o sea, que no hay forma de hacer ninguna predicción que valga. Como la masa de una membrana negra puede desaparecer si se contrae el agujero al que envuelve, un espaciotiempo dotado de cierto número de agujeros internos puede convertirse en otro con un número de agujeros diferentes, lo que viola las leyes topológicas clásicas. Así que, se entrevé que la cuerda podría elegir el espaciotiempo que tenga, por ejemplo, la menor energía, habitando en él. (Sus ondulaciones son las partículas elementales que conocemos en nuestro mundo “real”). En el espaciotiempo concebido por Horava y Witten puede elegirse el tamaño de la 11ª dimensión, de forma que las cuatro fuerzas pueden converger en esa escala, que es mucho menor que la escala de Planck (1019 gigaelectronvol., valor en que se expresaba la convergencia antes de que la gravedad se “volviese fuerte”). Joseph Polchinski hacía ver el parecido entre algunas p-branas y la superficie descubierta en el siglo XIX por Peter G.L. Dirichlet. Branas que pueden asociarse a los llamados agujeros negros. Por cierto, en este contexto, las cuerdas abiertas pueden considerarse cerradas, si una parte se oculta detrás de las branas negras. Así se ha llegado a una nueva interpretación de los agujeros negros, definiéndoselos como intersecciones de branas negras que envuelven siete dimensiones enrolladas. (¿Podrá, en este sentido, la teoría M despejar las paradojas de los agujeros negros planteadas por Hawking?). A continuación ahondaremos un poco más en el tema transcendental de las dualidades. Sabemos que en teoría de cuerdas las interacciones no se miden por ctes. de acoplamiento (por cierto, de valores 1/8, 1/128 y 1/24, respectivamente para las interacciones fuertes, electromagnéticas y débiles), sino por una variable continua que lleva por nombre dilatón, φ. La dualidad S es una simetría de la teoría bajo el intercambio de φ por 1/φ. Ello implica, como hemos citado varias veces, que una teoría que aparece con Es conocido suficientemente que en el año 1974 Stephen W. Hawking demostró que los agujeros negros no eran tales (al menos totalmente), pues emiten energía 154 En la figura anterior: C=Compactación S=Dualidad S T=Dualidad T interacción de intensidad débil (φ pequeño) equivale a una teoría que opera con interacción fuerte, es decir 1/φ será entonces grande . Hay una analogía, pues, con la dualidad T, sólo que ahora no se trata del radio R de una dimensión compacta, sino de la misma intensidad de las propias interacciones. Por consiguiente, hay en total dos teorías de cuerdas independientes: Tipo II y Heterótica; las demás son duales T o duales S a estas dos. Con 11 dimensiones espaciotemporales, el dilatón φ a parece con el radio R11 de la dimensión extra añadida. La teoría II A presenta una sorpresa: con acoplo débil es una teoría de cuerdas en 10 dimensiones; conforme aumenta el acoplo se revela una dimensión especial extra desconocida y se pasa a una teoría en 10+1, o sea, en 11 dimensiones. La teoría II A corresponde a una teoría en 11 dimensiones en las que una dimensión espacial queda compactada en un círculo de radio R11=φ. Ya hemos dicho que cuando el acoplo φ es pequeño, el tamaño de la dimensión extra R11 es muy pequeño y resulta una teoría aproximada en 10 dimensiones. En resumen, según la intensidad de las interacciones (acoplo φ grande o pequeño), aparecen o desaparecen dimensiones espaciales extra. La conjetura Montanen-Olive, en su formulación física es: M2= qe2 α+ qn2/α donde α es la cte. de acoplo que da la intensidad de la interacción, y M las masas. En teoría de Supercuerdas, en vez de α, se tiene el dilatón φ y los valores de qe y qn son números enteros. La ecuación para la dualidad T es: E2=m2/R2+n2T4R2 Para la cuerda heterótica E8×E8 ocurre lo mismo, únicamente que al aumentar el acoplo φ se revela la existencia de una dimensión extra de radio R11=φ, que aumenta con φ pero que no está enrollada en una circunferencia, sino que es un segmento de longitud R11 con dos extremos (tal como ya comentamos en párrafos anteriores). Valores de los cuadrados de energía E de excitación, y donde n vale o, ±1, ±2, y T es la tensión de la cuerda. Si se hace T=1, entonces tiene el mismo aspecto si hacemos el intercambio m↔n ; R= 1/R. La relación entre las diversas teorías de cuerdas viene reflejada en el siguiente esquema: D=11 D=10 S M C Como también se comentó con anterioridad en la teoría M entran en su formulación membranas en vez de cuerdas. SO(32) C I S C IIB C IIA C E8×E8 C Añadamos, igualmente, que la teoría M, al examinar su contenido en partículas sin masa, es equivalente a la teoría de la SO(32) IIB T IIA T D=9 E8×E8 155 Supergravedad Tendríamos: en Tipo II A D=11 SUGRA 11 la información de todo el volumen del espacio, en cierta forma puede mostrarse en su superficie. Tipo II B Teoría M Heterótica E8×E8 dimensiones. La propuesta del Principio Holográfico fue enunciada en el año 1993 por G.´t Hooft, y consiste en dos asertos básicos. 1. La información contenida en alguna región del espacio puede ser representada como un Holograma – una teoría que “vive” en la frontera de la región. 2. La teoría en la frontera de la región del espacio en cuestión debería contener al menos un grado de libertad por área de Planck. Tipo I Heterótica SO(32) El físico argentino Juan Martín Maldacena ha usado D-branas para construir una teoría de cuantos similar a la QCD, en las cuatro dimensiones en que vivimos. También usó D-branas para construir una teoría de cuerdas en 10 dimensiones, con cinco dimensiones enrolladas y compactadas. Un área de Planck es el área encerrada en un pequeño cuadrado con lado igual a la longitud de Planck, Lp=1,6×10-33cm. Una versión de este Principio Holográfico es conocida como la correspondencia ads/ CFT. Ésta es un tipo de dualidad que establece que dos teorías físicas aparentemente distintas son equivalentes. Una es la física de la gravedad en un espaciotiempo conocido como anti de Sitter space (ads). El espacio cinco dimensional anti – de Sitter tiene una frontera que es cuatro dimensional, y en cierto sentido parece un espaciotiempo plano con una dimensión temporal y tres dimensiones espaciales. La correspondencia ads/CFT establece que la física de la gravedad en cinco dimensiones del espacio anti – de Sitter, es equivalente a cierta teoría supersimétrica de Yang-Mills la cual es definida en la frontera del ads. Esta teoría de Yang-Mills es, por tanto, un “holograma” de la física que acontece en cinco dimensiones. La teoría de YangMills tiene el grupo de gauge SU(N), donde N es muy grande, y es “supersimétrica” porque tiene una simetría que permite los cambios entre Maldacena utilizó una idea del Físico Geral´t Hooft simplificando los cálculos usando una teoría “ficticia” con muchos colores. La conexiónde Maldacena solo funciona en un espacio que llamó Anti-de-Sitter. Dicho universo debería “curvarse” de forma que la expansión se iría decelerando, colapsando finalmente en un big crunch. La hipótesis de Maldacena es que la curvatura del espaciotiempo descrita por la teoría de cuerdas equivale al número de colores de la teoría de campos; más colores implican menos curvatura. También, la teoría de Maldacena sostiene que el universo es holográfico, ya que su teoría de campos cuatridimensional puede imaginarse como una proyección holográfica de la teoría de cuerdas en cinco dimensiones (las otras cinco están enrolladas). En un universo holográfico, 156 a la existencia para, después, desaparecer. Los agujeros negros permiten el viaje entre diferentes tiempos, así como entre diferentes localizaciones; de esta forma, el viaje en el tiempo puede ser teóricamente posible. Se postula que los agujeros de gusano pueden existir en el centro de agujeros negros o entre universos paralelos que no tienen otro tipo de conexión. La imagen anterior es una representación de un agujero de gusano conectando dos universos paralelos. bosones y fermiones. Se espera que esta teoría eventualmente nos enseñará algo acerca de la QCD que, como sabemos, es una teoría con grupo de gauge SU(3), y que describe las interacciones entre los quarks. Sin embargo, la QCD tiene mucho menos simetría que la teoría definida en la frontera del ads; por ejemplo, la QCD no es supersimétrica. Más aun, todavía no conocemos cómo incorporar una propiedad crucial de la QCD, conocida como libertad asintótica. Haremos ahora un apartado respecto al tema, ciertamente sugestivo, de los llamados “agujeros de gusano”. Riemann fue uno de los primeros que discutió sobre los agujeros negros. Sus agujeros negros, llamados cortes de Riemann, son conexiones entre espacios (espacios múltiples conectados) con distancia nula. Por ejemplo, un insecto acostumbrado a vivir en una de las superficies de la imagen siguiente (superficie x) puede pasar a través del “corte” a la otra superficie y parecerle todo fuera de lugar. Un “agujero de gusano” es una estructura que conecta dos regiones o áreas, de otro modo muy distantes o no relacionados. Esto ha sido vislumbrado como un posible modo de viajar a través de las estrellas o el tiempo, algo ampliamente difundido por la ciencia ficción. Los agujeros de gusano conectan dos regiones del espacio que de otro modo no están conectadas, para formar lo que se llama conexión múltiple del espacio. X* *punto A Espacio ordinario Conexión del agujero de gusano *punto B Y* corte Por ejemplo, en la imagen, conectar el punto A con el punto B es mucho más rápido a través del “agujero de gusano”. Y puede aprender, quizás, a reentrar a través del corte de nuevo a “su” superficie x. La conexión es un ejemplo de “corte” de Riemann. Pero Riemann no vio estos cortes como modo de transporte entre universos. Los agujeros de gusano pueden ser posibles en distancias microscópicas como resultado de la “espuma” cuántica que permite los pares partícula/ antipartícula, al saltar momentáneamente La descripción relativista de los agujeros negros requiere agujeros de gusano en sus centros. Esos agujeros de gusano, llamados puertas de Einstein-Rosen, parecen conectar el centro de un agujero 157 puente de Einstein-Rosen accediendo al universo especular. negro con un universo especular en el “otro lado” del espaciotiempo. Al principio, el puente era considerado matemáticamente indeseable, pero nada más. Era esencial para la consistencia interna de la solución de Schwarzschild de las ecuaciones de Einstein, que son la primera aproximación relativista en relación a los agujeros negros. Sin embargo, los agujeros de gusano podrían no ser atravesados porque el centro de un agujero negro es una singularidad, un punto de curvatura infinita en el espaciotiempo, donde la gravedad podría ser también infinita y toda la materia podría ser reducida a sus más fundamentales constituyentes. Adicionalmente, viajar a través de los agujeros negros requeriría moverse más rápido que la velocidad de la luz, algo físicamente imposible. Por esta razón, los puentes de Einstein-Rosen fueron rápidamente olvidados, apareciendo otra última solución que los incluía. La asunción de ser matemáticamente indeseables les hacía ser desechados de la realidad física. En el año 1985, el cosmólogo Kip Thorne y sus colaboradores crearon una solución simple que podría conectar dos períodos en el tiempo. Las agujas de gusano tendrían unos ocupantes y permanecerían abiertos durante la duración del viaje a su través, pudiendo no crearse paradojas en el tiempo. Sin embargo, ello requería una forma exótica de materia la cual posee energía negativa. Basado en esta solución, Thorne hace la primera propuesta cabal para diseñar una máquina para viajar en el tiempo. En una versión de su máquina del tiempo, se colocan dos placas de metal en una habitación colocada en un cohete, acelerándolo a una velocidad cercana a la de la luz. Una habitación idéntica, marcando su propio tiempo en el interior, se coloca en la Tierra. El campo creado por las placas (el efecto Casimir) crea un desgarro en el espaciotiempo. A continuación los relojes de las dos habitaciones se ponen en dos “clases” diferentes debido a los efectos relativistas, con lo que el viajero es lanzado al pasado o al futuro. En el año 1963, Roy Kerr inventó la famosa solución Kerr de las ecuaciones de Einstein, una descripción más realista de los agujeros negros que la solución original de Schwarzschild. Kerr asumió que el principio que formaría los agujeros negros sería la rotación y encontró que eventualmente no colapsarían en un punto, sino más bien en un anillo. Cuando nos aproximamos a su borde, la gravedad y la curvatura del espaciotiempo tienden ambos hacia el infinito, así que la materia se encuentra inevitablemente conducida hacia él para ser destruida. Sin embargo, el viaje a través del anillo es bajo el influjo de una gran, pero finita, gravedad. Un objeto que entra en el mismo, temiendo ser aplastado por la todavía formidable gravedad, puede entrar en el Otra posibilidad de máquina del tiempo es un cilindro hecho de la mencionada materia exótica. Un viajante del tiempo permanece dentro del cilindro como materia, formándose un agujero de gusano; entonces es conducido “confortablemente” a un lugar y tiempo distantes. Las razones matemáticas de estos aparatos son bastante razonables; la dificultad es la localización y explotación de la materia exótica (incluso si existe). La llave es una condición llamada condición de energía promedio débil 158 energía inherente del vacío. En los años 70, los físicos al estudiar la rotura de simetría calcularon una constante cosmológica algo así como 10100 veces mayor que el valor observado, que es cercano a cero. Cuando Coleman añadió las contribuciones de las infinitas series de loa agujeros de gusano propuestas por Hawking, encontró que la función de onda del universo crece mucho alrededor del valor cero de la constante cosmológica, volviéndose la posibilidad extremadamente más probable. (AWEC), que debe ser violada por el agujero de gusano para funcionar. Adicionalmente, Stephen Hawking ha declarado que al entrar en el agujero negro emitirá tanta radiación que se hará inestable o incluso se cerrará permanentemente. El principal crítico de los agujeros de gusano de Thorne, Stephen Hawking, por el contrario propuso su propia teoría en la que había un infinito número de universos paralelos conectados por agujeros de gusano. Hawking y su colaborador Jim Hartle tienen dos componentes principales en su teoría: un tiempo imaginario y una función de onda del universo. Proponen un tiempo imaginario corriendo en ángulo recto al tiempo ordinario y sin empezar o acabar en singularidades. Usan el tiempo imaginario para calcular la función de ondas del universo, por tanto justifican un universo estable y único. Empiezan con un infinito número de universos adornados de un infinito número de diferentes características, y a continuación calculan la función de ondas para ver si es más grande que el universo propio que nos rodea. Esencialmente han resucitado la teoría de los muchos mundos con una diferencia importante – débiles agujeros de gusano conectan los universos, por tanto, hacen su teoría “testeable”, proveyendo una pequeña pero calculable oportunidad a un objeto cuántico saltando dentro de los universos paralelos. La imagen puede ser universos burbuja, los cuales unos crecen y otros disminuyen; algunos se conectan con muchos otros, y otros están virtualmente aislados. Tan pronto como Coleman publicó sus resultados, los críticos objetaron que había olvidado los grandes agujeros de gusano de alrededor de la longitud de Planck. Él replicó estableciendo que los grandes agujeros de gusano pueden ser ignorados. Si su razonamiento es correcto, significa que los agujeros de gusano no son matemáticamente indeseables. En efecto, ello implicaría que infinitos universos conectados por infinitos agujeros de gusano son necesarios para colocar la constante cosmológica muy cercana a cero. Si fuera negativa, el universo se enrollaría en una pequeña hiperesfera, y si fuera positiva, el universo virtualmente explotaría, así que todo esto implica que diminutos agujeros de gusano colocan al universo en una condición estable. Éste, como muchos otros desarrollos en física teórica, invoca distancias de la longitud de Planck, y aún más pequeñas distancias, las cuales los aceleradores de partículas no pueden incluso ni aproximarse. La última palabra sobre los agujeros de gusano –y la constante cosmológica- esperará hasta que podamos acceder a las longitudes de Planck o a que desarrollemos una verdadera imagen coexionada a través de la teoría de cuerdas. Sidney Coleman recientemente ha señalado que los agujeros de gusano eliminan contribuciones excesivas de la constante cosmológica, una medida de la 159 de familias, sino también las mismas propiedades físicas. Dos diferentes espacios de Calabi-Yau en la misma dirección descrita anteriormente, pero en los que subyace la misma física se llaman “múltiples espejos”, y esta propiedad de la teoría de cuerdas es llamada simetría especular, aunque los agujeros no estén reflejados en la forma ordinaria. A continuación nos adentraremos en ciertas disquisiciones acerca de la simetría y sus implicaciones en cosmología. Aunque un círculo de radio R es obviamente drásticamente diferente de uno de radio 1/R, los físicos lo “consideran” idéntico. Esto hace que los mismos lógicamente se pregunten: ¿son esas formas geométricas en el universo las que producen la misma física, o es el tamaño y no la forma lo sustancial? Basados en los principios de simetría, algunos físicos arguyen que dos formas completamente diferentes de espacios de Calabi-Yau escogen cómo las dimensiones enrollables deben regir las mismas propiedades físicas. Y yendo más allá, la técnica de los “plegamientos de órbitas” origina el espacio de Calabi-yau introducido. El procedimiento anterior de órbitas consiste en que puntos del espacio de Calabi-Yau están sistemáticamente conectados, de forma que se produce un nuevo espacio de Calabi-Yau con el mismo número de agujeros que el original. Después de investigar a fondo en la técnica anterior se encontró que el procedimiento de órbitas es una manera particular en la que subyace un interesante resultado: el número de dimensiones de los agujeros en el tipo revisado (recordemos que los agujeros de Calabi-yau pueden tener muchas dimensiones) iguala al número de dimensiones de los agujeros negros del original, y viceversa. El resultado era que, incluso aunque la forma de Calabi-Yau haya sido cambiada sustancialmente, subyacería el mismo número de familia de partículas –un paso hacia la idea de distintos espacios de Calabi-Yau generando idéntica física. Cuando los dos universos físicos de Calabi-Yau implicados son analizados, se encuentra que producen no sólo el mismo número La simetría especular en esencia reivindica que dos espacios de CalabiYau aparentemente no relacionados con sus agujeros correlacionados de la forma general anteriormente citada generan exactamente la misma física. Esto provee una herramienta matemática importante para los casos en que los detalles implican propiedades de un universo asociado a un espacio de Calabi-Yau y se está operando con ellos. Cuando aparecen dificultades matemáticas importantes, la simetría especular permite efectuar esos difíciles cálculos, al ser replanteados los mismos en términos de socio de un espacio especular de Calabi-Yau. Los resultados físicos serán los mismos, pero la dificultad del cálculo probablemente habrá sido reducida de forma importante. La teoría de cuerdas da una persuasiva conexión entre los agujeros negros y las partículas elementales. La idea empieza con una cuestión física que ha sido debatida desde 1980. Dentro de las muchas formas de Calabi-Yau, usualmente aparecen dos tipos de esferas embebidas dentro de ellos: esferas dosdimensionales, parecidas a la superficie de un globo de la forma usada en las transiciones de desplome; y esferas tresdimensionales reduciendo su volumen hasta un increíble diminuto tamaño. ¿Podría la fabrica del espaciotiempo colapsar también de igual forma? Los teóricos postula que no, porque las cuerdas no pueden rodear a esferas tres160 completamente diferente sin ninguna “calamidad” física. dimensionales, igual que un punto no puede rodear a una esfera dosdimensional de transiciones desplomadas. En efecto, los resultados de ciertas antiguas ecuaciones parecen implicar que los infinitos domeñados por la teoría de cuerdas podrían reemerger en tales puntos. Sin embargo, un trabajo de Andrew Strominger realizado usando un descubrimiento de Witten que afirma que una cuerda uni-dimensional no es el único constituyente de una teoría de cuerdas, prueba que el colapso puede en efecto ocurrir. Strominger razonó que, justo como una cuerda uno-dimensional puede rodear completamente un círculo, y justamente una membrana puede rodear completamente una esfera tresdimensional, una tres-brana puede rodear completamente una esfera tresdimensional. Esta tres-brana rodea la esfera tres-dimensional colapsando, proveyendo un escudo que separa el universo de un potencial cataclismo efecto de la singularidad. Aunque Strominger enseñó que las tres-branas protegen el universo de los efectos de una esfera colapsando hacia un punto, en realidad no invoca la rotura de la fábrica del espaciotiempo o su reparación a través de una esfera en expansión. causar Los físicos encuentran que una tres-brana enrollada a través de una esfera tresdimensional resultará un campo gravitacional, guardando la apariencia de un agujero negro extremal, o no pero que tiene la mínima masa consistente con sus cargas. Adicionalmente, la masa de la tres-brana es la masa del agujero negro y es directamente proporcional al volumen de la esfera. Por tanto, una esfera que colapsa hacia un punto como se describió antes, aparece como una pérdida de masa de un agujero negro. Otra importante implicación en la transición “conifold” es su efecto en el número de agujeros en el espacio de Calabi-Yau. Cuando una esfera tresdimensional es reemplazada por una esfera dos-dimensional, el número de agujeros en el espacio de Calabi-Yau – por tanto, el número de modos de vibración de masa baja- se incrementa en 1. Este extra modelo vibracional en el que la masa de una partícula se pierde dentro, indica que el agujero negro ha sido transformado. Por tanto, cuando ocurre una transición “conifold”, la secuencia de eventos es como sigue: un agujero negro masivo se va haciendo más ligero hacia un punto, hasta que el tiempo lo transforma en una partícula con un cierto modo de vibración. Por consiguiente, sólo la forma precisa del espacio de CalabiYau determina si una forma particular de vibración será una partícula elemental o un agujero negro, y los agujeros negros pueden sufrir “fases de transición” análogas a las que cambia el hielo en agua, para volverse o transformarse en una forma básica de vibración de cuerda o partícula fundamental. Aquí es donde Greene y Morrison vuelven otra vez. Ellos nos dan la imagen de que la esfera colapsa pudiendo, subsiguientemente, reaparecer por reexpansión de una nueva esfera con una dimensión menos que la original –un procedimiento llamado transición “conifold”. Su trabajo ha tenido éxito, pero el resultado es un espacio de CalabiYau que difiere del original en un camino mucho más drástico que la simple transición de decaimiento. Ellos han probado que un espacio de Calabi-Yau podría ser transformado en uno 161 Un principio llamado estado de determinismo cuántico dice que con un poder de computación suficiente (cercano al infinito), conociendo la función de ondas de todas las partículas del universo, podemos predecir las probabilidades relativas de sus posiciones e interacciones para cualquier punto en el pasado o en el futuro. Sin embargo, los agujeros negros presentan un “cambio” en este razonamiento –recogen vastas cantidades de materia o partículas cada uno, desde luego, cada una con su función de ondas. La cuestión es, ¿está la información contenida en esas funciones de onda perdida para siempre en el agujero negro, o puede reemerger? Antes de la aparición de la radiación de Hawking, los físicos teorizaban con la probabilidad de que la información no se perdía, pero aparecía siempre en una región del espacio inaccesible fuera de la región. Sin embargo, la radiación de Hawking implica que la masa de un agujero negro decrecerá lentamente como su radiación, por tanto, decreciendo la distancia desde el centro del agujero negro hacia el horizonte de sucesos y revelando regiones del espacio, siempre detrás del horizonte de sucesos. Ahora la cuestión es: ¿la información absorbida por el agujero negro emerge luego? Algunos, incluido el propio Hawking, mantienen que la información es eliminada del universo, añadiendo un nuevo grado de incertidumbre a dicho universo y destruyendo, incluso, el determinismo cuántico. Otros mantienen que la información no se pierde, sino que está contenida en las branas que forman el agujero negro mismo. tanto, creando una singularidad del espaciotiempo similar a la que postulaba por la teoría estándar del big bang. Otros sugieren que el tiempo se acaba en el centro de un agujero negro, lo que quizás tiene un efecto en las once dimensiones de la teoría de cuerdas, una de las cuales es el tiempo. Aún otros hacen la sugerencia de que en el interior del agujero negro se para el tiempo, pero también se crea un nuevo universo conectado a nosotros a través de la singularidad en la que el tiempo justo empezó –en efecto, los agujeros negros son nuevos big bangs que dan nacimiento a un nuevo universo en expansión. Otro problema sin resolver de la física del agujero negro es el centro exacto de la inmensa masa condensada del mismo. La relatividad enseña que el espaciotiempo está doblado en una curvatura infinita, por La ley gravitatoria aproximada de Newton del inverso del cuadrado de la distancia funciona muy bien a distancias macroscópicas como las órbitas de los planetas. Antes de terminar este capítulo haremos mención al llamado problema de las “dimensiones supernumerarias”. Sabemos que cuando las medidas de las intensidades de las interacciones fuerte, débil y gravitatoria se extrapolan a distancias cortas, se cortan en un valor común, si la extrapolación es efectuada con reglas supersimétricas. Esta unificación supersimétrica de esas tres fuerzas se produciría a los 10-32 metros (distancia mil veces mayor que la longitud de Planck). En los últimos años se ha propuesto un enfoque distinto que modifica sustancialmente el espaciotiempo, la gravedad y hasta la escala de Planck. La idea es la revisión del gran tamaño de la escala de Planck que se basa en un supuesto sobre la acción del campo gravitatorio a pequeñas distancias, lo que no está aún comprobado. 162 La ley se ha comprobado experimentalmente hasta distancias de alrededor de un milímetro, y habría que extrapolarla en 32 órdenes para llegar a la escala de Planck. decaerá con el inverso del cubo de la distancia. Una vez que dichas líneas se extienden por la circunferencia entera, sólo quedan tres dimensiones para seguir dispersándose, así que, para esas distancias mucho mayores que R la gravedad variará con el inverso del cuadrado de la distancia. Como vimos en otro apartado de esta obra, la ley del inverso del cuadrado es natural en un espacio de tres dimensiones. Si unas líneas de fuerza del campo gravitatorio emanan uniformemente de la Tierra, a mayor distancia de ella se dispersarán sobre capas esféricas de mayor área; como el área crece con el cuadrado de la distancia (4πR2) la fuerza, por consiguiente, se diluirá en igual grado. Si hay muchas dimensiones adicionales se produciría el mismo efecto, si dichas dimensiones se doblan convirtiéndose en circunferencias de radio R. Para n dimensiones espaciales supernumerarias (habría n+4 dimensiones en total – sumadas a las n, las tres espaciales normales y el tiempo), a distancias menores que R la fuerza gravitatoria seguiría una ley inversa de 2+n. Como no se ha medido la gravedad a distancias menores de un milímetro, existe la posibilidad de que estemos pasando por alto las variaciones causadas en la gravedad por las dimensiones adicionales con un tamaño R de menos de un milímetro. Si existiese una dimensión más, el espacio sería tetradimensional, y las líneas de campo que emanasen de un punto se dispersarían en una superficie de cuatro dimensiones, pero que aumentaría con el cubo de la distancia; la gravedad seguiría una ley del inverso del cubo. Ahora bien, sabemos que esa ley del inverso del cubo no describe nuestro universo, pero si la dimensión adicional que hemos supuesto se doblase dibujando una pequeña circunferencia de radio R, observaremos, a continuación, lo que sucede con las líneas de campo que salen de una masa puntual. Con esta ley del inverso de 2+n la gravedad alcanzaría la “intensidad de la escala de Planck” muy por encima de los 10-33 cm. De otro modo, la longitud de Planck –distancia a la que la gravedad se vuelve fuerte- no sería tan pequeña. Y es que la intensidad de la gravedad guarda íntima relación con el número de dimensiones en las que está actuando. Veamos la figura siguiente. Si existen las dimensiones adicionales suficientes (enrolladas en la forma prevista) podría acercarse “la escala de Planck” a la escala electrodébil; es decir, la unificación entre gravedad y las otras fuerzas tendría lugar cerca de los 10-21 cm y no a los 10-33cm supuestos hasta ahora. Las dimensiones necesarias para esto, dependen de su magnitud. Con sólo una, para una gravedad intensa alrededor de c R Cuando las líneas de campo están más cerca de la masa que la distancia R, éstas pueden dispersarse uniformemente por “las cuatro dimensiones” y la gravedad 163 los 10-19 metros, ésta tendría un radio del orden de la distancia Tierra - Sol. Pero la observación excluye dicha posibilidad. Dos dimensiones supernumerarias resolverían el problema si midiesen alrededor del milímetro. Si hubiese más dimensiones serían aún menores. (Con siete, serían de sólo 10-14 metros –el tamaño del núcleo de uranio). recientes avances en la teoría ha sido caer en la cuenta de que la teoría contiene “paredes”, llamadas D-branas (brana viene de membrana; y la D de Dirichlet, una propiedad matemática de las mismas). Las D-branas gozan de las características precisas: las partículas como los fotones o los electrones se representan por longitudes de cuerda con dos cabos adheridos a una D-brana; los gravitones, sin embargo, son bucles de cuerda que pueden vagar en todas dimensiones al carecer de extremos que los anclen en una D-brana. Recordemos que en la teoría supersimétrica anterior se imaginaba las dimensiones suplementarias enrolladas en circunferencia con diámetros de unos 10-35 metros; ahora estamos hablando de circunferencias de al menos 10-14 metros de radio, o de hasta casi un milímetro. La gravedad, pues, se vuelve una fuerza intensa cerca de las energías del orden del TeV (Teraelectronvolt.=1000 GeV), escala de energías de los próximos aceleradores de partículas. Cabría preguntarse: ¿si esas dimensiones son tan “grandes”, por qué no han sido percibidas hasta ahora? También, las energías necesarias para crear microagujeros negros en las colisiones de partículas estarían cercanas ya a los experimentos. Estos agujeros negros son de unos 10-19 metros de tamaño, evaporándose en unos 10-27 segundos al emitir la llamada radiación de Hawking. La respuesta habría que buscarla en el hecho de que la materia y todas las fuerzas conocidas –excepto la gravedadestán “adheridas a una pared” del espacio de las dimensiones adicionales. En esas dimensiones adicionales no pueden moverse electrones, protones, fotones y demás partículas del modelo estándar establecido; así que las líneas de campo eléctricas y magnéticas no pueden extenderse hacia esos espacios de dimensiones extras, puesto que la pared es espacialmente tridimensional. Solamente las líneas de campo gravitatorias pueden extenderse hacia esos espacios de dimensiones superiores; sólo el gravitón (transmisor de la gravedad) puede viajar libremente por ellas. Esas dimensiones adicionales “sólo” pueden percibirse por intermedio de la gravedad. Las colisiones de partículas producirán gravitones en cantidades enormes, y aunque los mismos no podrán ser detectados directamente, sí serán descubiertos indirectamente a través del cálculo de la energía absorbida, al calcular la energía que faltará en los residuos de dichas colisiones. Las mediciones de la gravedad, por otro lado, detectarían la conversión de la ley de la inversa del cuadrado de Newton en una ley de la inversa de la cuarta potencia (para dos dimensiones adicionales) a distancias de alrededor del milímetro. Habría una multitud de posibles desviaciones de la gravedad newtoniana; En la teoría de cuerdas, este hecho se presenta naturalmente. En realidad, uno de los hallazgos importantes de los 164 Dichos universos podrían diferir mucho del que habitamos, tanto en partículas como en fuerzas peculiares, etc. Una posibilidad es que tuviesen propiedades idénticas a las de nuestro universo; podría imaginarse que la “pared” donde vivimos está plegada en una serie de veces en las dimensiones extras. Los objetos del otro lado de un pliegue parecerían muy lejos, y sin embargo se encontrarían a menos de un milímetro en esas dimensiones adicionales. La luz tendría que viajar de doblez a doblez y estas podrían estar, por ejemplo, a decenas de miles de millones de años-luz, y no obstante transmitir su “gravedad” de forma inmediata. quizás la más interesante sería la aparición de "fuerzas repulsivas” más de un millón de veces más intensas que la gravedad entre masas separadas menos de un milímetro. Otras partículas más allá del modelo estándar podrían, además del gravitón, propagarse a través de dichas dimensiones supernumerarias, porque esas dimensiones no estarían vacías, sino que tendrían una multitud de estructuras interesantes. Los efectos de estas nuevas partículas en esas dimensiones adicionales proporcionarían respuestas a otros misterios de la física de partículas y la cosmología, por ejemplo, explicar las masas de los neutrinos. El neutrino quizás adquiera su masa (que parece existir según el experimento Super Kamiokande en Japón) mediante la interacción con un campo compañero existente en las dimensiones supernumerarias. Como con la gravedad, la interacción se diluiría mucho al estar disperso el compañero por esas dimensiones adicionales, así que el neutrino sólo podría adquirir una masa muy pequeña. La historia de la hipótesis sobre dimensiones adicionales, se inició en 1990 cuando Ignatios Antoniadis sugirió que algunas de las dimensiones de la teoría de cuerdas podrían ser de hasta 10-19 metros, mas mantuvo la gravedad cuántica, aún, en los 10-35 metros. Petr Horava y Edward Witten señalaron que una dimensión adicional de 10-30 metros era suficiente para incorporar la gravedad dentro de la unificación supersimétrica, a la escala de 10-32 metros. Nima Arkani-Hamed, Savas Dimopoulos y Georges Dvali concibieron la teoría de las dimensiones supernumerarias en febrero de 1998. Posteriormente, Lisa Randall y Raman Sundrum han propuesto que la gravedad podría concentrarse en una membrana de un espaciotiempo pentadimensional infinito. La gravedad se manifestaría tan débil en nuestro universo porque estaríamos en una membrana diferente. El misterio de la “materia oscura” se especula aquí que pudiera residir en universos paralelos, puesto que “sí” afectaría a nuestro universo por medio de la gravedad, sin embargo no por la luz porque nuestra especie de fotón está adherida a nuestra membrana, y no puede, entonces, viajar desde la materia “paralela” hasta nuestros ojos. 165 de nuestro pasado quedaría relegado a ser simplemente el inicio más reciente de una cadena sin fin de universos, en los que el Cosmos oscila de modo cíclico entre un cierto tamaño máximo muy distendido y unas bolas de fuego calientes y muy densas. Capítulo IX. RESUMEN DE NUESTRA TEORÍA. IMPLICACIONES Antes de abordar el resumen final de nuestra teoría es aleccionador exponer las ideas apuntadas por Paul Davies en su obra “El universo desbocado”. El problema más importante de este modelo cíclico estriba en cómo se evitan las singularidades. Se han sugerido varias posibilidades, a nivel de simples conjeturas. La primera es suponer que los efectos cuánticos son importantes a una densidad suficientemente alta......La consideración cuántica de la gravedad, si dispusiéramos de la teoría adecuada, permitiría describir el mismo espaciotiempo cuántico, en el que ocurren fluctuaciones de geometría. Cuando la densidad de la materia es tan alta que todo el universo que es dado observar se halla comprimido en un volumen comparable al de un núcleo atómico, las fluctuaciones de espacio-tiempo bien pueden ser tan violentas que llegan a romper toda la dinámica del Universo, con lo que se evita la aparición de una singularidad y se permite que el espaciotiempo siga existiendo. Una segunda propuesta es que la gravedad podría convertirse en una fuerza repulsiva, en vez de ser de atracción, para densidades muy altas, a causa de haber aparecido una gran energía o presión negativas en el universo........Finalmente, existe también la posibilidad de que, a pesar de la formación de una singularidad en alguna parte, esto no implica la desaparición de todo el universo. Este sería el caso si hubiera movimientos altamente asimétricos cerca de la singularidad y el espaciotiempo pudiera “pasar de lado” esta barrera singular evitando de ese modo la aniquilación. Nos dice: “Se ha propuesto una teoría completamente distinta basada en una extensión extraordinariamente sencilla del modelo convencional del big bang. El punto débil de dicha teoría convencional reside en la presencia de una singularidad del espaciotiempo en el acontecimiento de la creación. Vimos en el capítulo 2 que la singularidad inicial ha sido considerada por algunos como indicación de que el universo no había existido nunca “antes” de ese momento. De modo análogo, si el Universo se vuelve a contraer, se colapsará hacia una singularidad final en el futuro, la catástrofe cósmica última, en la que el espacio, el tiempo y la materia dejarían de existir sin que quedara absolutamente nada, ni siquiera el espacio vacío. Tanto si estas ideas sobre las singularidades del espaciotiempo son correctas como si no lo son, es claro que las leyes conocidas de la física dejan de ser aplicables y no es posible hacer ninguna predicción más allá de esos extremos temporales. Algunos astrónomos y cosmólogos han conjeturado que un Universo en contracción puede sobrevivir a su encuentro con la singularidad del futuro, emerger, como el ave fénix, desde otra bola de fuego primordial y volver a expansionarse en un nuevo ciclo de actividad. Además, este proceso de expansión y contracción podría repetirse ad infinitus, lo que daría inmortalidad al universo. Según esta imagen, el big bang 166 invierte durante la contracción cósmica. Hablando con propiedad, el tiempo no se puede invertir, ya que no se está moviendo: es, en realidad, sólo una medida del cambio y del movimiento. La elección de las palabras es sólo una conveniencia lingüística; lo que sucede verdaderamente es que todos los procesos físicos se invierten en comparación con el orden temporal original”. Aunque sólo son conjeturas, se conoce tan poco de los últimos límites de la gravedad y de la estructura del espaciotiempo que, como mínimo, algunos científicos han considerado seriamente la posibilidad del modelo del cosmos oscilante”. Y continúa: “Se supone que al inicio de cada ciclo el universo emerge de la bola de fuego con un nuevo conjunto de valores fundamentales, y los números concretos que observamos ahora son justamente los que aparecieron esta vez. Sin embargo, es evidente que no podríamos observar valores muy distintos de los actuales, porque la existencia de vida en el Universo depende de esos números”. A continuación nos adentraremos en los entresijos de nuestra teoría. Ya apuntamos la importancia de la teoría M en cuanto a una posible “explicación” final de la totalidad del universo en una teoría unificada. Claro está, ello nos lleva a buscar los puntos de encuentro entre las ideas apuntadas a lo largo de este trabajo y la teoría M, en particular en la visión de Petr Horava y Edward Witten, de los universos de 10 dimensiones, cada uno en un extremo de un segmento de línea de la dimensión extra de dicha teoría, totalizando en espaciotiempo de 11 dimensiones. Las partículas y las cuerdas existen exclusivamente en los universos paralelos de los extremos que pueden comunicarse entre sí a través de la gravedad. Más adelante prosigue: “Algunas personas encuentran muy atractiva la idea de un universo cíclico. Continúa, por supuesto, la cuestión de la entropía y el problema del Universo que se detiene, pero esto queda un poco de lado debido a la naturaleza peculiar de la gravedad. Mientras dura el movimiento cíclico, el Universo no puede alcanzar el equilibrio: la expansión y la contracción cósmica siguen “dando cuerda” al sistema, y la entropía sigue creciendo. Ambos universos son duales. Si el tamaño de uno es d, el del otro sería 1/d. Lo mismo puede decirse del segundo respecto al primero. [Pues si d2=1/d1 en el par (d2,d1), d1=1/d2 en el par (d1,d2)]. Sin embargo, un Universo en contracción es de tamaño finito y como Newton hizo notar hace tiempo, hay una inestabilidad intrínseca que impide a un Universo gravitante finito permanecer estático: siempre debe expansionarse o contraerse. Por lo tanto, el movimiento cósmico debe continuar y, aparentemente, la entropía crece sin límite, lo que provocaría que las bolas de fuego fueran progresivamente más calientes y los ciclos más largos”. Ahora bien, en las conclusiones de nuestra teoría aparecen partículas de energía negativa y tiempos negativos. Hay, pues, que relacionar biunívocamente el tamaño 1/d del universo paralelo al nuestro –caracterizado por el tiempo t, presente de nuestro universo de tamaño d, con el instante “propio” de ese universo paralelo, que es negativo. Hay una relación clara, o conexión –gravitatoria o Y finalmente: “Lo que Gold propone es que, en cierto sentido, el tiempo se 167 no- entre nuestro universo en el instante t (con su característico tamaño actual d), y el universo “dual” o paralelo de tamaño “actual” 1/d, pero con su tiempo “propio” T-t (con el origen en el tiempo T del final de nuestro universo cotidiano). “movido” (progresado) en absoluto, respecto al más original de todos los “sucesos” acaecidos con “anterioridad”. Ello equivale, en este sentido filosófico, a la anulación del tiempo, relativizando esta dimensión hasta prácticamente su extinción. Dado que estos acontecimientos originales (“big bangs”), pueden producirse en cualquier “punto” de la “nada”, con completa aleatoriedad, no hay relación alguna, o mejor, es imposible relacionar de alguna forma entre sí las distintas “localizaciones” (en las dimensiones que correspondan en ese ciclo) de dichos acontecimientos. Est equivale, también, dentro de este dominio filosófico, a anular las otras tantas 10 dimensiones espaciales. La imagen final, o lo que realmente está significando todo esto, es que los sucesos que “acontecen históricamente”, es decir, que “alguna vez” fueron “reales” o tuvieron “existencia”, quedan enmarcados en las 11 dimensiones que permiten su “relación” o conexión entre sí. Cuando el universo paralelo se “condensa” al máximo en el instante –T (equivalente a T-T=0) con un tamaño casi nulo, de 10-38 cm o menos, nuestro universo estará en el instante T y con un tamaño de 1/10-38cm. (Estas magnitudes serían sólo indicativas). En ese instante “comienza un nuevo ciclo” –cambian las propiedades de ambos universos, es decir, las 11 dimensiones se configuran “al azar” de otro modo, “contrayéndose” otras dimensiones, no precisamente las siete actuales. Pero “el mecanismo”, podríamos decir, de la teoría M (en la interpretación de Witten) de la conexión de los dos universos duales a través del “cordón” gravitatorio (preeminencia de la dimensión temporal, en cierta forma) volvería a mantenerse. Una vez que se produce ese nuevo suceso “real”, podríamos decir creativo, de ese big bang, ambos universos vuelven a progresar uno en dirección del tiempo positivo, t, y el otro hacia atrás, en dirección del tiempo negativo, -t, hasta un nuevo acontecimiento creativo. Y en cierto modo, esa “película” que va de T a 0 queda configurada (realmente la “película” de 0 a T si el tiempo –T lo identificamos con T), teniendo, eso sí, “en sus entrañas”, permanentemente, una cierta aleatoriedad. Los “solitones” –duales de nuestras partículas, consecuencia de las dualidades T y S- del universo complementario, al aplicar el concepto de tiempo propio negativo, se transforman, así mismo, en partículas, aunque desde nuestro punto de vista, con masas y energías negativas, algo extensible al cuanto de radiación hν al ser las frecuencias (inversa del tiempo) negativas. Entonces, la “traducción” a nuestro mundo positivo de esas partículas negativas (cuando hay “entrelazamiento cuántico”) de “tiempo propio negativo”, son las antipartículas de energía positiva observadas en nuestro mundo y que forman la antimateria. Hay, pues, una conexión “gravitatoria” entre nuestro universo con tiempo t, y el complementario de tiempo “propio” T-t (siendo T la “duración” total del universo – edad -, desde su aparición a su Desde un punto de vista filosófico, parece como si el conjunto de ambos mundos, al moverse cada uno, respectivamente, en sentidos temporales contrarios, dejase a los “sucesos creativos”, nacidos a “partir de la Nada”, en el instante cero del tiempo, es decir, como si no se hubiese 168 En cada “película”, citada anteriormente, o mejor, “secuencia creativa”, aparecen “configurados” tanto el origen –iniciocero, como el futuro –final- T. desaparición - también, tiempo de la expansión). Se observa que los tiempos en ambos universos “progresan” en direcciones contrarias –aunque partiendo de orígenes distintos, uno desde 0 y el otro desde el final, o futuro T). La secuencia creativa se produce “meramente” por azar; un acontecimiento en el que las “dimensiones” nuevamente se configuran en un cierto modo, origina que el futuro se “produzca”, también, de una cierta forma, salvaguardando el papel del azar. Es como si “existiera” un “entrelazamiento cuántico” (o “conexión” definida en la teoría M) entre los dos universos en los instantes creativos, 0 y T(al menos). Realmente es la repetición de la misma “historia” o “secuencia” en uno u otro sentido. El tiempo del universo complementario es el mismo de nuestro universo t, y en el aparecen los “solitones” como duales de nuestras partículas. Pero “dentro” de dicho universo complementario (ese “dentro” está relacionado con su tiempo propio T-t) aparecen las partículas de masa y energía “negativas”. A partir de los anterior se origina algo de extraordinaria relevancia, que es el “entrelazamiento cuántico” que se manifiesta en la aparición de los pares partícula-antipartícula. Este “entrelazamiento” (conexión) supone la “aparición” de las partículas negativas en nuestro universo: la “aparición” se traduce en una “ausencia” en nuestro universo de tiempo t de la partícula negativa que se encuentra en el tiempo Tt del otro universo. Esta “ausencia” equivale a una negación de la masa negativa, es decir –(-m)=+m, que es la llamada antipartícula de nuestro universo de masa positiva. Cuando se produce un nuevo principio (o “explosión” inicial), en ese “instante” (simultaneidad entre ambos mundos) en el otro universo se “crea”, de igual forma, nuestro futuro del instante T (final del mundo). Por supuesto que el azar “ya ha realizado” su función. La creación del universo lo es, pues, de su inicio y su final, y la duración del mismo es la que se “tarda” desde la secuencia inicial del origen a la del final. En el futuro T vuelve a producirse el cambio del tiempo a direcciones negativas, la explosión se transforma en implosión, volviendo a originarse el “acontecimiento” casual de un nuevo baile azaroso de las dimensiones. De lo anterior parece deducirse que la masa positiva de la antipartícula en el instante t, bajo la visión del tiempo, en sentido positivo, es equivalente a la masa negativa de la partícula (negativa) en el instante T-t, bajo la visión del tiempo en sentido negativo (inversión del tiempo): ¡Partícula de masa positiva y de masa negativa de uno y otro universo son equivalentes, pues son producidos por la misma radiación! Y de otra forma: ¡Partícula y antipartícula son lo mismo si se invierte el tiempo! Volvemos a encontrar que la antimateria es exactamente la masa negativa del otro universo, o equivalencia entre (-m, -t) característica del otro universo en su fase implosiva, y el (+m, +t) o la antimateria de nuestro universo en implosión. ¿Por qué al final la expansión se convierte en implosión? Simplemente porque en ese instante cambia el tiempo (se hace 169 nuevo “baile” de las 11 dimensiones físicas. A partir del instante 0´ explosiona hacia T´; el tiempo se vuelve positivo. El hecho es que se inicia un nuevo proceso; un nuevo ciclo tiene lugar. negativo). La sugerencia es que el cambio de tiempo, junto con la aparición de la antimateria en nuestro universo, es equivalente a nuestra visión actual de un mundo de materia en tiempo positivo, ahora bien, en fase de implosión. Al ser los universos duales, todo depende de la referencia. Para el otro universo, somos nosotros los “irregulares”. [Apunte para una filosofía adjunta: El hombre es duración (no así Dios), y es duración porque es temporal o finito. Dios no es temporal,; está fuera del tiempo: es infinito. Dios “es” (“Soy el que soy”), lo que para nosotros es “incomprensible”, porque si durásemos más, en principio, seríamos más. La “completitud” está fuera de nuestra capacidad de “entender”. La conexión , o argamasa entre todos los seres dotados de vida (incluido Dios), el Amor, no tiene, entonces, por dimensión el tiempo]. La dualidad del otro universo es importante por su efecto gravitatorio en cuanto al cambio implosión – explosión, pero no dice nada en cuanto al posible “extraño comportamiento” dentro de ese universo complementario de las distintas partículas de su seno. Y es que “lo extraño” sólo es nuestra “visión” de ese universo, pues dentro de él su comportamiento es similar al nuestro. Lo importante sería el estudio de la implosión en general, aún en nuestro universo. Detallemos, ahora, lo que ocurre en la expansión e implosión de los dos universos. La implosión realmente se caracteriza por su tiempo negativo, es decir, por mover la “secuencia” hacia atrás (como si la entropía se fuese haciendo cada vez más negativa), y su tiempo propio es T-0=T, igual que la fase expansiva (o sea, con movimiento “regular”). El universo “positivo” en el que estamos permanece en explosión desde 0 a T. En este ciclo el universo “negativo” está en implosión desde T a 0. “Nuestro” universo (el que posee “ahora” vida en su interior) al llegar a T experimenta un cambio (provocado por el “entrelazamiento cuántico” con su universo dual que experimenta un nuevo big bang), aparece en T´ (nueva “duración de la presente e incipiente “secuencia creativa”) y desde ahí comienza su implosión. Con la implosión aparece el tiempo negativo, y la materia pasa a ser antimateria; la vida deja de tener su sede en el mismo “pasando” (figuradamente) al otro universo dual. En un gráfico x, y vemos la forma de la función x=1/y, dual de la y=1/x. y 1 0 El otro universo pasa a su máxima “contracción”, y vuelve a “crearse” un nuevo “ciclo”, un nuevo universo, con un 170 1 x conseguirse colocando el universo dual dentro del punto 0 de tamaño nulo, es decir, hacia el infinito negativo de normas o distancias menores que cero, inexistentes en nuestro universo. Esto sería posible si la dualidad de d fuese – 1/d. Sobre esta última dualidad deberíamos colocar nuestra interpretación de la teoría M. La gráfica es simétrica, tal como se observa. Nosotros nos inclinamos por la dualidad y=-1/x, cuya gráfica es la siguiente. y 0 1 También, llegados a este punto de los dos universos duales positivo y negativo, separados por el punto origen, casi nulo, más bien infinitésimo, es conveniente aclarar que la fase inicial del big bang no es un estado “cuasi infinito” (también en extensión) de energía-masa superconcentrada, sino más bien, un punto nulo origen tanto de un universo como del otro (como el punto de entrada o “puerta” de un universo en otro). Esa otra imagen del big bang “cuasi infinito”, aún cuando no pueda ser desechada, aparece como menos intuitiva y “conecta” peor esos dos mundos. Nos apuntamos a la hipótesis de una “nada” sin diferenciación en el tiempo ni en el espacio, más bien fuera de ellos, pero en la que puede ser posible, por azar, la aparición de cualesquiera ciclos explosivos e implosivos duales, en cualquier “lugar” de esa nada, que por indiferenciada no es abarcable. x 1 Una secuencia del complementario sería: ∞ d=∞ d=1 universo y su 0 -1/d=0 -1/d=-1 d=2 -1/d=-1/2 d=0 Las dos posibilidades que acabamos de exponer pueden obviarse si consideramos el punto de separación de ambos universos al punto donde se sitúa el observador. Esto equivale a “mover” el “otro” universo, el dual negativo, de acuerdo con el observador correspondiente, algo que en primera impresión parece fantástico... ¿Cómo la simple mente, la sencilla perspectiva es “capaz” de “mover” una masa-energía casi infinita?... La paradoja solamente reside en nuestros conceptos de espacio y -1/d=-∞ Vemos que los círculos que representan el universo y su complementario dual ocupan el mismo “espacio”, y con mucha más razón si d ∞. Así, para evitar posibles complicaciones, sería mejor separar ambos círculos, lo que puede 171 tiempo, ya que la intrínseca “relatividad” es consubstancial a la materia, al universo todo, a la propia realidad. Hay una “equivalencia” entre la implosión del universo dual (de distancias negativas) y el recorrido “hacia atrás” en el tiempo de la secuencia de expansión en el universo positivo real. Y hay una diferencia significativa respecto a esta equivalencia con la fase de implosión en el mundo real, puesto que ya esta fase es otro suceso o “acontecimiento creativo” distinto (pueden haber variado hasta las coordenadas en las que se está realizando la nueva fase expansiva - implosiva). Recordemos que en el universo dual del d , es decir, d´=1/d , se da, para la expansión en el d la implosión y con dirección hacia 0 (ubicación del observador), y con tiempo negativo o “contrario” al tiempo de la secuencia positiva de 0 a T. Hagamos una representación de ambos universos duales, quizás más intuitiva. Para ello “disfracemos” el universo complementario del “real” nuestro, bajo un signo imaginario (el nuestro sería imaginario del otro). Así, representaremos en un gráfico todas las distancias “positivas” con referencia al origen 0 de una ubicación del “observador” en el eje X. El eje 0Y lo consideramos imaginario, es decir, fuera de nuestro universo de distancia positivas, y todo el universo dual complementario queda comprendido en el eje imaginario OY. Es como si ante un nuevo acontecimiento creativo que se “realiza” primero en A, y después de T en B (correspondiente al punto T-T=0 “del tiempo”) –el tiempo en el universo real, nuestro, progresa de 0 a T, y en el complementario de T a 0, con lo que vuelve, nuevamente, a originarse el “acontecimiento creativo” en 0, puesto que la nueva creación, ahora, se desarrolla en el universo dual negativo volviera a “crearse” una nueva “historia” universal o secuencia, ahora de 0 a T´ (distinto de T). En uno de los universos se va de 0 a T´ y en el otro de T´ a 0, volviéndose otra vez al punto nulo original. Es como si el tiempo no progresase, sino que son ciclos de 0 a Tx (secuencias históricas) que continuamente vuelven al punto original cero. i(imaginario) (el 1 de la dualidad es la “nueva” longitud de Planck ≅10-16 cm) 10-38 El universo real en su expansión va del pasado al futuro; el universo dual complementario en implosión va desde el “mismo” futuro al “mismo” pasado, recorriendo la secuencia hacia atrás, es decir, con un tiempo contrario (negativo) al nuestro conocido. (No obstante esta es una hipótesis pendiente de una “posterior” comprobación). Secuencia de expansión 1022 A 0 10-38 -10-38 B Secuencia de implosión (distancia negativa) -1022 X Terminación del ciclo de expansión Para centrar ideas, volvemos a concluir que el modelo defendido por Witten, dentro de la teoría M, del universo de 11 dimensiones que por compactación de Inicio del big bang 172 una dimensión se transforma por acoplo fuerte en la teoría de Supercuerdas heterótica E8×E8 con dos universos de 10 dimensiones en los extremos del segmento R11=φ correspondiente a una dimensión extra, es el que más se adapta a nuestra teoría. son menores de cero. De todas formas, el principio de incertidumbre cuántico permite esta variación en más o menos alrededor de cero (R11 y –R11) lo que permite la conexión “gravitatoria” entre los orígenes y finales de ambos universos. También, y por el mismo motivo está permitido el “entrelazamiento cuántico” de los pares partícula-antipartícula. La conjetura que hacemos es que si a uno de los dos universos ( que podría corresponder al que contiene la “materia oscura” en forma de “solitones” – monopolos magnéticos, etc.) le aplicamos sucesivamente las dualidades –T y –S, por su dualidad recíproca, en 4 dimensiones se transforman en el mismo. Es decir, hacemos una transformación que equivale a la identidad, o sea, dicho universo vuelve a transformarse en el mismo. Las últimas indagaciones en multidimensiones parecen conducir (al menos es una posibilidad) a que la gravedad a distancias muy pequeñas no estaría identificada (en su aproximación newtoniana) por una ley de la inversa del cuadrado de la distancia, sino de una ley de la inversa del cubo, del cuádruplo, etc. de dicha distancia. Con todo ello, la fuerza gravitatoria se hace mucho más fuerte. Con unas dimensiones adicionales en un número de siete como requeriría la Supergravedad, y la misma teoría M, la gravedad podría identificarse con las teorías fuerte y electrodébil a unos 1016 GeV, por consiguiente, la misma distancia y tiempo de Planck serían mucho menores. El tamaño rondaría ya los 10-16 cm, aproximadamente. Entonces se daría la paradoja que esa longitud mínima de Planck sería mayor que la distancia 10-22 cm que requiere como mínimo el origen de la expansión del universo actual (por encima de los 1022 cm) –todo ello por la relación dual 1/1022=1/d, siendo d=1022)... Luego, hay un “colchón” que puede ser entre 10-22 y 10-16 cm en que el universo tendría menor tamaño que la longitud de Planck; intervalo el cual “creemos” no puede tener “existencia real” en nuestro universo, por lo que habría que sustituir esa “ausencia” del universo durante ese intervalo por el otro universo dual de éste, que sí “aparecería” , entonces, entrar en nuestra propia realidad. El tamaño (si la multidimensionalidad lo confirma) de la La dualidad –T es la sustitución de R por -1/R , es decir, entramos en un “mundo” de normas o distancias negativas (también de energías negativas). La dualidad –S equivale a la sustitución de los solitones por partículas “fundamentales”, pero negativas; entonces, los solitones se transforman en las partículas de nuestro universo pero con energías negativas. El resultado es un universo que parece “en todo” idéntico al nuestro pero ¡negativo! La localización de este universo es a una distancia positiva de R11=φ. Pero desde el otro universo “negativo” nuestro universo positivo quedará a la distancia –R11=-φ (negativa). Si la distancia entre los orígenes o centros (relativos) de los universos es a la vez R11 y –R11, debe ser R11=-R11, para lo cual R11=-R11=0, es decir, dichos centros coinciden. Conclusión: para nuestro universo, su dual negativo está situado en el lugar del observador, y precisamente en un punto, pues todas las distancias al ser negativas 173 longitud de Planck 10-16 sería en la dualidad equivalente a 1. La magnitud 1022 será 1022/10-16 = 1038 veces en esa unidad. constantes del universo en su conjunto con independencia de su edad. Ello permite que la “realidad”, identificación más sutil de la materia, sea la misma para todo observador (la misma secuencia histórica), en cualquier circunstancia del espaciotiempo. Expresándolo en un segmento: 0 B 10-38 (1 en dualidad) A 1022 Norma positiva 10-16 (Nueva distancia de Planck) 1022 (1 en dualidad) B´ A´ 0 Después de haber visto en el Capítulo IV que en nuestra teoría no existe una identificación (al estilo de un tensor común esfuerzo-energía, de la relatividad general) entre masa y energía, eso sí, con una “conexión” por intermedio de la expansión cósmica, nos faltaba establecer los límites de esta última relación. Queremos decir, ¿cuál es el mecanismo por el que la gravitación domina todos los ámbitos (desde los más pequeños a los más grandes), y se anula la “expansión cósmica” en el interior de los objetos celestes?... A nuestro modo de ver la razón, simplemente, tiene que ver con la “densidad”. Nos explicaremos. Norma negativa 10-16 10-22 A y A´ son puntos duales (longitud de Planck) y B y B´, también, son duales. En el intervalo AB y BA, el universo da un salto cuántico de 22 órdenes de magnitud (“desaparece” nuestro universo), siendo sustituido por su “equivalente dual” el A´B´ y B´A´. En nuestro universo solamente transcurrirá (en tiempo propio) un instante infinitesimal ∆t = 10-38/c; y en el complementario 1038/c, es decir, un tiempo propio enorme (como el de nuestra expansión). La “anulación” de la gravitación (universo plano) gracias a la expansión de Hubble, se basó en una equivalencia entre la energía potencial del campo gravitatorio, y la velocidad de recesión de Hubble; de ello se dedujo la relación entre la cte. H de Hubble, la cte. de gravitación Y la “densidad media” del universo ( a efectos cosmológicos), resultando la fórmula H2= 8/3 πGρm. Y tal es así que postulamos la ley ya expresada con anterioridad, y que dice que a nivel cosmológico global, la gravitación queda “anulada” de forma exacta por la expansión cósmica. (En este sentido ambas son opuestas). A continuación haremos dos aclaraciones, a nuestro entender importantes, sobre dos aspectos de nuestra teoría. Hemos visto que según nuestro modelo cosmológico, tanto H (cte. de Hubble) como G (cte. de gravitación) varían con la edad de universo. En nuestra teoría, tanto c (velocidad de la luz) como h (cte. de Planck) no varían con dicha edad del universo. Las últimas, pues, tanto la primera, c, en relatividad y la segunda, h, en cuántica conservan su magnitud, comportándose como verdaderas Pero, la ley anterior es válida para la totalidad, es decir, tiene un efecto de “globalidad” en todo el universo; no obstante hay partes o zonas del mismo que, aún a nivel cosmológico, se desvían 174 Simplemente, mientras no se llega a la magnitud en la densidad del orden necesario para que exista ese “equilibrio” entre recesión y gravitación, la “dilatación cósmica” será imperceptible (como si no existiese) en dichos objetos celestes. En ese sentido “la materia” , como dijimos en el capítulo apuntado anteriormente al comentar nuestras críticas a la identificación relativista entre masa y energía, se comporta de forma distinta a la radiación (donde no hay fuerzas intensas que aseguren su “cohesión” –bosones). en su densidad de forma perceptible de esa densidad media del universo en cada época del mismo. Esas “desviaciones” son las que originan esas variaciones observadas en nuestras observaciones de la expansión o recesión galáctica (ver los comentarios de Adam Riess –03/04/2001sobre la observación de una supernova por el telescopio Hubble). Y es que en algunos casos la expansión parece “relantizarse”, lo que podría suceder en los primeros miles de millones de años luz de nosotros; a las mayores distancias esa variación de densidad comentada, comprobada en el aumento de radiofuentes y cuásares, se traduciría en una apariencia de “aceleración” de las velocidades de recesión. Mas, eso no impide que en conjunto o globalmente, en el universo la gravitación quede anulada cósmicamente por la recesión de las galaxias, y la prueba es el universo plano observado. El segundo apunte importante que nos interesaba aclarar en relación a nuestra teoría se refiere a la verdadera topología del espacio, o del universo, distinta a las tres generalmente más conocidas de la plana o euclídea “infinita”, la hiperbólica y la elíptica. Las consecuencias de ello sobre el tipo de explosión o expansión (big bang) en cuanto a la radiación y la misma geometría del espaciotiempo pueden ser substanciales, si no nos circunscribimos tan sólo a los citados tres casos. ¿Por qué, sin embargo, en las estrellas, planetas u otros objetos estelares, se mantienen las distancias relativas (el “metro de medir”), no “expandiéndose” o “dilatándose” por la aplicación de la relación de Hubble? Nosotros pensamos que la mayor densidad (en varios órdenes de magnitud) de dichos objetos en relación con la densidad media del universo en esos momentos, hace que la “presión” originada por esa expansión cósmica sea insignificante en comparación con las otras fuerzas (fuerte, electromagnéticas, etc.) que operan dentro del objeto. El resultado es que el objeto no se ve afectado de ninguna forma por la expansión cósmica, notándose, eso sí, por el contrario el efecto de la gravitación que puede ser hasta muy intenso dado el poder acumulativo de la misma para grandes masas materiales. Por un lado, la relatividad de las visiones de los diferentes observadores del universo requiere que el espacio fuese lo más parecido a una superficie esférica – hiperesfera - (elíptica), porque en ella cada punto se separa uno de otro exactamente igual al símil de un globo inflándose, con lo que cada punto de dicha superficie no es significativo respecto a los demás. Suponiendo lo anterior (para lo que es necesaria una nueva topología, ya que en un universo plano euclídeo esta hiperesfera debería poseer un radio casi infinito, en contra de la suposición, bastante más probable, de un punto inicial del big bang con tamaño infinitésimo), imaginemos una radiación que parte desde un punto en todas las 175 direcciones de la hiperesfera –el espaciotiempo del universo. En nuestra teoría, hemos supuesto un límite en el radio del universo (radio de Hubble), así que este radio máximo será: Y para una vuelta “completa” de la radiación sobre la hiperesfera, será: φ=2π 1=LT e1=T Lmáximo=ct (siendo t el tiempo transcurrido desde el big bang) Veamos la siguiente figura: li φ φ - T=e Es decir, al cabo de un tiempo igual al número e, se produce la primera “llegada” de la radiación que salió de un punto en el pasado a ese punto; algo que supone una implicación inmediata en la radiación de fondo de microondas. También esto nos indica que la emisión de la radiación de un objeto celeste puede llegarnos directamente, o después de haber dado la “vuelta” al universo. Esta última radiación, al ser (ii) logarítmica con el tiempo, tardará “cada vez” más en dar esa “vuelta” al universo. El espectro de la radiación anterior directa estará normalmente desplazado al rojo; la de la indirecta lo estará al violeta, o al menos tendrá un desplazamiento al rojo mucho menor de lo que le correspondería por su velocidad y campo gravitatorio. L 0 - 0- O sea: φ=2π=2π LT - Este Lmáximo desde el punto 0 de emisión, según dicha figura, será igual a la longitud de la circunferencia. O sea: Lmáximo=2πR=ct ; así que: R=ct/2π (i). La hiperesfera se dilata con el tiempo, y la radiación que va por su “superficie” recorre un ángulo φ, lo que supone que dicha radiación se mueve sobre la hiperesfera con una velocidad angular W. Desde este punto de vista, serían equivalentes: 1) La luz que nos llega de un objeto que va a la velocidad de Hubble ≅c (desplazamiento al rojo enorme, proviniendo del pasado –casi del mismo big bang). 2) La luz emitida por nosotros –se supone, por un objeto situado en el pasado en el punto donde nos encontramos actualmente- que ha dado la vuelta al universo, y que estamos recibiendo ahora, que puede asimilarse (si hubiese tardado la edad del universo en esa vuelta) a la radiación de fondo de microondas. Como la velocidad de la radiación sobre la superficie la hemos considerado constante e igual a la velocidad de la luz, constancia tomada como hipótesis global, es decir, se hace extensión de este principio de relatividad restringida a la globalidad del universo. Entonces: DL(sobre la superficie) =c dt=R dφ y dφ=c dt/R Luego será: W=dφ/dt=c/R con lo que φ=∫c/R dt Coinciden, pues, y son equivalentes el observador (a velocidad cero, es decir, sobre sí mismo) y el otro objeto celeste De (i) se tiene, entonces: φ=∫c/ct/2π dt= 2π∫dt/t=2π Lt (ii) 176 La variación de la densidad provocará un cambio relativo de la velocidad de recesión de las galaxias (al principio se retardarán y después se acelerarán). que ocupa nuestra posición, o posición de ese observador, y se desplaza con velocidad c, respecto al observador citado; así que la radiación emitida por el objeto de velocidad c, al llegar al observador en el futuro (desplazamiento al rojo casi infinito) debe coincidir con la radiación (hacen el mismo recorrido: todo un círculo máximo del universo) que emite el observador y que será recibida en el futuro. La radiación recibida, pues, (por la dilatación del espacio) parece coincidir con la radiación de fondo de microondas. Obtenemos, por consiguiente, que la velocidad de la luz, que es constante localmente en todo el universo, no obstante, su longitud de onda y frecuencia (su energía) dependen del espaciotiempo: si este se dilata, la energía baja en “su temperatura”. La secuencia completa (al dar la radiación una vuelta al universo) sería: -De 0 a R hay un aumento de densidad (se ralentiza la recesión). -De R a 2R va disminuyendo la densidad más suavemente ( recesión ≅). -De 2R a R, también varía poco la densidad ( recesión ≅). -De R a 0, la densidad disminuye más aceleradamente (se acelera la expansión). Para finalizar el apunte, nos extenderemos ahora sobre la posible topología del universo, que podría hacer compatible un universo plano, con la relatividad de los observadores proporcionada por la hiperesfera, haciendo realidad lo anteriormente expuesto. Todo lo anterior guarda relación, también, con la densidad de masa-energía (aquí sí podemos identificarlas por su función) de las distintas capas esféricas (en la hiperesfera) del universo situadas a más o menos distancia del observador. El resultado es la “no homogeneidad” de esa densidad. Aunque la estructura matemática apropiada para el universo en dimensiones macroscópicas (las otras multidimensiones son inobservables), debería ser de dimensión cuatro, hay buenas razones para creer que la estructura del espaciotiempo tetradimensional está regida por las estructuras del espacio tridimensional, las llamadas variedades tridimensionales o trivariedades. Se obtiene que las distintas masas de las diferentes capas esféricas son función del coseno de φ, o sea m´= f(cosφ), y las superficies de las distintas coronas circulares son función de φ. Así que la densidad será: D´= m´/Sc´= f(cos φ)/f´(φ). Hay algunas trivariedades especialmente significativas. De lo anterior se obtiene que si vamos hacia las velocidades mayores que c/2 recorremos la esfera “real” en sentido contrario; entonces φ se hace mayor, pues va hacia 2π, y el coseno también se hará mayor, así que la densidad aumentará. Del dodecaedro se obtiene una variedad que surge cuando cada pentágono se pega con su opuesto, después de una rotación de 108 grados (3/10 de vuelta) en sentido contrario a las agujas del reloj. Dicha variedad se denomina espacio 177 dodecaédrico de Seifert – Weber, y da lugar a un universo con un volumen finito, pero sin borde ni frontera. resultante es un espacio de Seifert – Weber con una geometría hiperbólica localmente homogénea. Topológicamente, la geometría intrínseca de la superficie de una rosquilla de un agujero varía de manera muy parecida a la de una rosquilla de tres agujeros. En el cuadrado la geometría intrínseca en una región pequeña alrededor de cada punto del cuadrado es la misma que la de una pequeña región del plano. Cuando la geometría intrínseca de una variedad tiene una uniformidad de ese tipo se dice que la geometría es localmente homogénea. Se ha demostrado que en cierto sentido a la “mayoría” de las trivariedades se les puede dar una geometría localmente hiperbólica. Y es que las trivariedades hiperbólicas presentan muchas propiedades interesantes. Por ejemplo, en 1971 Mostow demostró que si una trivariedad podía recibir una geometría localmente hiperbólica, entonces la geometría quedaba determinada totalmente por la topología. Este concepto de homogeneidad local fue un importante avance para comprender las bivariedades. Se demostró que cualquier superficie podía generarse de forma que fuese localmente homogénea, y ninguna variedad puede admitir más de un tipo de geometría localmente homogénea. Como dijimos, se ha dicho frecuentemente que la curvatura del universo determina que éste sea de extensión finita o infinita, opinión tan extendida como errónea. En otras palabras, se dice que si el universo es finito su geometría debe ser elíptica y recíprocamente, también que si la geometría del universo es hiperbólica, el universo debe ser infinito. Para una superficie sólo hay tres tipos de geometría localmente homogénea: la geometría euclídea del plano (curvatura gaussiana cero), la de la superficie de una esfera –elíptica- (curvatura gaussiana positiva constante) y la de la superficie hiperbólica (curvatura gaussiana constante negativa). El espacio de Seifert – Weber, que es una trivariedad finita con una geometría localmente hiperbólica, prueba lo erróneo de las aseveraciones anteriores. Así, la mayoría de los modelos finitos de espacio son trivariedades como el espacio de Seifert – Weber con una geometría localmente hiperbólica, variedades que dan modelos de universos finitos que se expanden indefinidamente. Tanto la geometría elíptica, como la euclídea y la hiperbólica tienen sus contrapartidas tridimensionales. En el año 1976 William P. Thurston sugirió que la geometría hiperbólica localmente homogénea, podría ser la clave para entender casi todas las trivariedades. Para terminar con el presente capítulo decir que, en nuestra opinión, la presente teoría resuelve todos y cada uno de los problemas presentados al modelo estándar. A saber: a) El problema de la curvatura nula. Su resolución simplemente es consecuencia de lo expuesto en el Cuando se pegan las caras opuestas de un dodecaedro hiperbólico después de una rotación de 3/10 de vuelta, la variedad 178 Capítulo IV. Punto 8. La equivalencia entre la curvatura positiva producida por el campo gravitatorio y la curvatura negativa que representa la expansión cósmica o de Hubble no es un simple “ajuste fijo” o “casualidad” (suponiendo alguna clase de principio antrópico), es una equivalencia que se da en la naturaleza. A partir de la longitud de Planck, donde puede aplicarse para el campo gravitatorio la ley de la inversa del cuadrado de la distancia, la expansión de Hubble y la gravedad son iguales y opuestas a nivel cosmológico, es decir, en el ámbito en que está definida la ley de Hubble; para otros dominios la gravedad se hace independiente (vigencia de las leyes “clásicas einstenianas” de la relatividad general). b) El problema del horizonte. Las “regiones” del universo primordial no estuvieron nunca “desconectadas”, puesto que su tamaño indica un dominio total de la física cuántica, aún en su aspecto más clásico. Todo ese universo incipiente era un solo sistema cuántico, conectado entre sí por la no-localidad del mundo cuántico (para nada pueden interrelacionarse sus partes a través del “relativismo” del máximo de la velocidad de la luz). Así, la radiación cósmica de microondas guardará la impronta de esa “conexión cuántica” a lo largo de todo el futuro posterior. c) El problema de las fluctuaciones de la densidad. Para que las galaxias colapsaran gravitacionalmente debería haber en origen fluctuaciones. Evidentemente el “sistema cuántico”, por el principio de incertidumbre, guarda en sí la suficiente “fluctuación original” para construir en el futuro las galaxias. (el fantástico “estiramiento” de la hipotética inflación hubiera deshecho estas fluctuaciones cuánticas del origen). d) El problema de la materia obscura. La materia obscura sencillamente “no es necesaria” para que nuestro universo sea plano (sólo se necesita la equivalencia entre la gravitación y la expansión de Hubble), no obstante, podría asimilarse en cierto modo a ese otro universo complementario “negativo” lleno de “diversas” partículas. e) Problema de las reliquias exóticas. Deberíamos preguntarnos: ¿Cómo los defectos topológicos creados en las transiciones de fases como monopolos o partículas exóticas no se ven actualmente? Una explicación en nuestra teoría sería el modo como actúan las dualidades S y T de la teoría M. Ellas serían capaces de transformar, tal como hemos expuesto, dichos monopolos o partículas exóticas en las partículas de energía negativa del universo complementario situado “más allá” de la “pared frontera” de nuestro propio universo. f) Problema del estado de equilibrio térmico inicial. El mecanismo de su mantenimiento es el mismo de su origen en un mismo “sistema cuántico” de todo el universo primordial. g) El problema de la constante cosmológica. La constante cosmológica es 120 órdenes de magnitud más pequeña que la esperada en la gravedad cuántica según la teoría estándar postulada. En la nuestra, la constante cosmológica es asimilable a la constante de expansión de Hubble del inicio; existe, pues, una exactitud de origen entre la “cte. cosmológica” real y la postulada en nuestra teoría: la cte. de Hubble. Quizás, la gravedad cuántica requiera una revisión en el sentido apuntado por nuestra teoría. h) El problema de la singularidad. En nuestra teoría no hay un estado de densidad de energía infinita en el tiempo t=0 (lo que se llama singularidad); hay 179 una densidad elevadísima, pero no infinita, pues en un instante determinado la gravedad “da un salto cuántico”, transformando nuestro tiempo positivo en negativo, volviéndose “repulsiva” en vez de atractiva, es decir, no continúa el colapso sin límite hacia un punto, como podía suponerse en un “agujero negro de Hawking”. El colapso tiene un límite, produciéndose un “salto” hacia una nueva expansión. i) El problema de la escala del tiempo. En la presente teoría la “variabilidad” de la cte. de Hubble que tiende a cero, hace que el tiempo o edad del universo global sea compatible con la vida de las estrellas y galaxias más antiguas. desplazamiento hacia el rojo de las galaxias (Ley de Hubble) probablemente es correcta, debería haber un segundo mecanismo desconocido que explicaría ese agrupamiento de las velocidades. Tifft, por su lado, afirma que aunque no comprende el fenómeno, piensa que este agrupamiento de velocidades en paquetes es análogo al de los “saltos” de niveles de energía de las partículas subatómicas, de acuerdo con la mecánica cuántica. La importancia de lo anterior, si estos resultados se confirmasen por más fuentes, es transcendental en nuestra teoría pues sería algo así como su confirmación. Y es que el tamaño del universo primordial (más pequeño que la longitud de Planck) indica la existencia de un sistema cuántico que abarcaba la totalidad del mismo, así que el que las energías estuviesen cuantificadas sería consustancial con su propia esencia. Hace más de veinte años el astrónomo William G. Tifft, de la universidad de Arizona (EE.UU), afirmó haber descubierto un asombroso fenómeno: las velocidades de las galaxias muy lejanas no muestran una distribución uniforme, como era de suponer, sino que se agrupan en intervalos fijos. Según sus mediciones, los desplazamientos hacia el rojo de casi todas esas galaxias lejanas cambiaban en saltos abruptos equivalentes a 72 kilómetros por segundo; como esta observación no encajaba con la distribución homogénea de las galaxias en el cosmos (principio cosmológico), permaneció archivada. El mecanismo que hemos propuesto para la ley de Hubble, hace que cada galaxia conserve su velocidad “original”, mientras no existan otras causas “ajenas” que difuminen esa constancia original. La gravitación actuando durante un tiempo bastante grande en la formación de las galaxias, los cúmulos y supercúmulos, desvía finalmente de esa constancia a las velocidades, apareciendo entonces valores de distribución casi homogéneos en esas velocidades de recesión, resultado de la 2ª ley de la Termodinámica en su aumento del desorden (entropía). Sería, pues, totalmente natural que la distribución de velocidades de recesión sea isótropa y homogénea, excepto para las galaxias más lejanas, por ello, más cercanas al big bang. Los especialistas suponían alguna clase de fallo en las mediciones de Tifft, así que astrónomos del Royal Observatory de Edimburgo (Reino Unido) eligieron 89 galaxias lejanas para su estudio y no sólo no pudieron negar el hallazgo de Tifft, sino que sus cálculos lo confirman. En el año 1992, los astrónomos Bruce Guthrie y William M. Napier dieron a conocer los datos de su estudio. Así que, ante el resultado, Guthrie sugiere que aunque la interpretación convencional del Nuestra teoría, así como muchas de las que se proponen hoy día, arranca de la 180 El todo sostiene a las partes, que a su vez constituyen dicho todo (una visión Zen del cosmos). Se necesita al universo antes de poder dotar de realidad concreta a los átomos que constituyen el universo. ¿Son primeros los átomos o el universo?... Ninguno de los dos: Lo grande y lo pequeño, lo total y lo local, lo cósmico y lo atómico, todos se apoyan mutuamente pues son aspectos inseparables de la realidad. Existe una unidad en el universo: una unidad que proclama que sin todo no puede conseguirse nada. idea de que lo macroscópico (el universo actual) y lo microscópico (el inicio del big bang, por ejemplo) se hallan íntimamente entrelazados. No hay ninguna esperanza de comprender la materia solamente a partir de sus constituyentes parciales. Únicamente el sistema en conjunto da expresión concreta de toda la realidad. Lo grande y lo pequeño coexisten. Es más, la misma “mente” ocupa una posición central en la naturaleza, todo ello consecuencia de los postulados cuánticos, puesto que cada observación conlleva una transformación de la situación física, es decir, la realidad de cada partícula subatómica no puede aislarse de su entorno. De otro modo, el factor cuántico obliga a considerar las partículas sólo en relación con el todo, y el mundo es un entretejido de relaciones, en las cuales el observador forma parte de ellas. Ni la materia, ni el espaciotiempo son rasgos incidentales de nuestro mundo; ambos proceden de las leyes físicas quienes, en el fondo, son las verdaderas responsables de la sorprendente ordenación del mundo. 181 EN También en el año 1917 de Sitter construye un modelo cosmológico que presenta una desviación al rojo. A continuación expondremos una breve historia de los hitos más importantes tanto en cosmología teórica como observacional. En 1922 Friedmann encuentra soluciones a la relatividad general que presentan universos isótropos homogéneos expandiéndose desde una singularidad. (Modelos del big bang). Capítulo X. NOTICIAS Y ASTRONOMÍA TENDENCIAS En 1933 Zwicky encuentra que el 90% o más de la materia en enjambres de galaxias es obscura. En el año 1912 Slipher mide el espectro de nebulosas espirales, encontrándose que estaban desplazadas por efecto Doppler. En el año 1924 son medidas 41 nebulosas de las cuales 36 estaban en recesión. En 1941 Adams da cuenta de la primera evidencia de la radiación de fondo de microondas. En 1918 Shapley mide la distancia a nebulosas usando estrellas variables (Las Cefeidas) brillantes que pulsaban a intervalos regulares de unos pocos días y meses. El período de esta variabilidad estaba correlacionado con su luminosidad absoluta, la cual calibró en la cercana nube Grande de Magallanes. En el año 1948 Alpher y Herman predicen una temperatura de grados K para el universo. En el año 1964 Penzias y Wilson en los laboratorios Bell, descubren fortuitamente una energía isótropa de microondas, como reliquia del fuego primordial del big bang, con una temperatura de T=2,73 K. Entre los años 1923-1929 Hubble encontró una proporción entre la velocidad y la distancia. Fue capaz de calcular los datos referentes a las Cefeidas en la galaxia de Andrómeda con el telescopio de 100´´ en el Monte Wilson. Desarrolló una nueva medida de distancia usando el brillo de las estrellas para galaxias a mayores distancias. Correlacionó estas medidas con las nebulosas de Slipher para descubrir una proporcionalidad entre la velocidad v y la distancia d; la denominada ley de Hubble, v=Hd. En el año 1969 Couklin descubre la anisotropía de dipolo en la radiación de fondo de microondas., lo que fue confirmado en 1971 por Henry y reconfirmado por Corey y Wilkinson en 1976. En 1986 de Lapparent, Geller y Huchra encuentran la estructura a gran escala del universo, superenjambres y vacíos. Existencia de grandes burbujas, filamentos y hojas con escalas de 25 Mpc a 100 Mpc. En el año 1917 Einstein construyó un universo estático, homogéneo e isótropo solución de la relatividad general, introduciendo la llamada constante cosmológica. En el año 1992 el satélite COBE descubre fluctuaciones en la radiación de fondo de microondas, al nivel de una parte entre 100.000, que correspondería a una 182 imagen del universo a los 400.000 años del big bang. Este mapa del suelo es también la mejor evidencia de la isotropía (o simetría esférica) del universo. En diciembre del 98 el Sloan Digital Sky Survey encontró varios nuevos cuásares con desviaciones al rojo mayores de 4,9. En marzo del 99 en la revista científica Nature se publican cálculos del ROTSE que permiten obtener una cte. de Hubble de H0=65 Km/s/Mpc, con una densidad de materia de 0,25 y una cte. cosmológica de 0,75. En 1994 Wendy Freedman anuncia el valor de la cte. de Hubble en H0= 80+/-17 Km/s/Mpc basado en la observación de las Cepheidas en el enjambre de Virgo. (Así que, ¡parecía que el universo era más joven que las estrellas más viejas!) El 26 de noviembre de ese año, 1999, las medidas de las fluctuaciones de la radiación de fondo de microondas realizadas por el proyecto BOOMERANG confirman trabajos anteriores de grupos de científicos de Penn y Princeton, favoreciendo un universo plano dominado por la cte. cosmológica o densidad de energía del vacío; se tendría 0,85<ΩM+ΩΛ<1,25. Combinado esto con estudios de Supernovas (Perlmutter 1997, Kim 1998, Schmidt 1998, Riess 1998) se obtiene un valor de 0,55<ΩΛ<0,95 con una precisión del 68%. Entre los años 1995-1996 el telescopio espacial Hubble mejoró la determinación del parámetro de Hubble. En el año 1997 el paralaje de las Cepheidas medido por el satélite Hipparcos incrementa la escala de distancias en un 10%. También, en abril de 1997 se encuentra un nuevo récord de distancia en un objeto con una desviación al rojo de z=4,92. En junio de 1998 el experimento SuperKamiokade en Japón confirma que los neutrinos del muón producidos en la atmósfera de la Tierra por los rayos cósmicos oscilan entre diferentes clase de neutrino durante su viaje a través de la Tierra. El 19 de febrero del 2000 Daniel Stern encuentra un cuásar con corrimiento al rojo de 5,5 (se le supone una distancia de 13.000 millones de años luz). El 15 de marzo del 2000 , según una nota de prensa del IACC –Instituto de Astrofísica de Canarias-, se anuncia que nuestra galaxia, la Vía Láctea, se formó en un proceso rápido que duró entre 500 y 1.000 millones de años (un 5% de su edad total). En julio de 1998 se identifica un objeto con un z=5,60. En agosto de 1998 Mather afina el valor de la temperatura de la radiación de fondo de microondas a T0= 2,725 +/-0,002 K con un grado de exactitud del 95%. El 13 de abril del 2000 se anuncia (por el SDSS) el descubrimiento de un cuásar con desplazamiento al rojo z=5,82. En septiembre del 98 Lanzetta encuentra un objeto con una desviación al rojo de z=6,68. El 27 de abril del 2000 Nature publica los datos obtenidos por el vuelo del globo del proyecto BOOMERANG, midiendo las 183 fluctuaciones del fondo de microondas. Los resultados confirman trabajos anteriores, concluyendo que el universo es plano, o también, que la densidad total de energía es igual a la densidad crítica. El 10 de mayo del 2000 Hanany anuncia los resultados del vuelo de agosto del 98 del globo con los equipos del Proyecto MAXIMA que confirma el mejor ajuste, el de BALBI 2000, que corresponde a un universo plano con parámetro de densidad de ΩM∼0,3 y parámetro de densidad de la cte. cosmológica de ΩΛ∼0,7 (confirmando los datos del proyecto BOOMERANG). También, es interesante constatar que el Observatorio Compton de Rayos Gamma (CGRO) ha detectado más de 1000 fuentes de rayos gamma; incluso ha demostrado que están distribuidas isotrópicamente en el cielo, lo que implica un origen exterior al disco de nuestra galaxia. Otros hechos notables: La firma de planetas en órbita alrededor de varias estrellas cercanas ha sido detectada por espectropía de base; también hay evidencia de la existencia de agujeros negros en varios sistemas binarios de rayos X, así como que la existencia de agujeros negros gigantes en el centro de varias galaxias está establecida por encima de cualquier duda razonable. - Obtener un censo de sistemas planetarios de alrededor de unas 1000 estrellas, sus distancias y masas de planetas comparables o más grandes que Urano, para ser investigados, para un rango de tipos de estrellas y sistemas estelares. - Estudiar las características de los estados tempranos de formación de estrellas, observando la estructura y dinámica de las regiones protestelares. - Determinar la estructura tridimensional a gran escala del medio inerestelar y las regiones de formación de estrellas dentro de él. - Detectar indirectamente la masaterrestre de los planetas. - Estudiar sobre espectroscopía ultravioleta la conexión entre los discos galácticos y halos con una sensibilidad significativamente más alta que la que hasta ahora nos proporciona el Telescopio Espacial (HST). - Imaginar el comportamiento en el infrarrojo cercano y realizar estudios espectroscópicos de las jóvenes estrellas incrustadas en los enjambres. En cuanto a las estrellas y su evolución: - Estudiar el origen y manifestaciones astrofísicas de los agujeros negros. A continuación veremos las recomendaciones del Consejo Nacional de Investigación americano (Comisión de Ciencias Físicas, Matemáticas y Aplicaciones), para los próximos 5 o 10 años, en investigación astronómica y astrofísica. En cuanto a planetas, formación de estrellas y medio ineterestelar: 184 - Estudiar el comportamiento de la materia en condiciones de gravedad extrema, rotación, campo magnético y densidad de energía. - Realizar investigación concerniente al origen elementos. básica de los - - Sobre cosmología y fundamentos físicos: Desarrollar el conocimiento de las estrellas como indicadores del tamaño y edad del universo. Estudiar los efectos de rotación y campos magnéticos, así como los efectos de los compañeros binarios. - Determinar la geometría del universo por la medida de la anisotropía de la radiación de fondo de microondas. - Testear las teorías sobre el origen y evolución de la estructura del universo. - Determinar la cantidad, distribución y naturaleza de la materia obscura. - Hacer un test sobre las predicciones de la relatividad general en el régimen de Supergravedad. - Investigar la naturaleza de la radiación gamma de los rayos cósmicos y el origen de la ultraalta energía de los mismos. - Extender la radioastronomía a las frecuencias ultrabajas. Sobre galaxias y sistemas estelares: - - - Estudiar los detalles del proceso de desarrollo del universo con gran desviación al rojo, realizando un censo del universo como era un billón de años después del big bang. Tratar de conectar los objetos de gran desviación al rojo con sus descendientes, siguiendo la evolución hacia más bajas desviaciones al rojo, acometiendo un estudio detallado del proceso físico que subyace. Entender la formación y evolución de los agujeros negros supermasivos de los núcleos de las galaxias, aclarando su funcionamiento. Alejandro Álvarez Silva 185 186