El nacimiento del Universo y el modelo estándar

Anuncio
Javier Rasero
1º de física
Grupo 01
1
Índice
Contenido
Pagina
Introducción............................................................................0
La base de la cosmología .......................................................1
La radiación de fondo.............................................................2
Condiciones iniciales..............................................................4
Los primeros minutos.............................................................8
Modelo estándar de partículas...............................................14
Desarrollo del modelo estándar.............................................18
Mas allá del Modelo estándar................................................30
Mas cerca aún........................................................................33
Bibliografía............................................................................37
Contraportada ........................................................................38
2
Introducción
Esta claro el afán del ser humano por conocer todo lo que le rodea y más aun cuando se
trata de hablar del Universo. Han sido muchos los científicos que han ayudado a
conocer un poco mas si cabe el funcionamiento del Universo. Por eso yo me quiero unir
a estos científicos, aportando mi granito de arena recopilando los trabajos de infinitos
investigadores que han hecho que comprenda mejor que ocurrió en el momento de la
creación del Universo y a posteriori.
Así con este objetivo, he divido el trabajo en varias partes, siempre tomando digo, como
punto de partida la teoría del Big Bang, ya que es la teoría mas aceptada en la actualidad
y la que mejor explica sin duda, como empezó la evolución del Universo. Sabiendo
esto, he intentado ir describiendo como ha ido evolucionando el universo, desde un
instante inmediatamente superior al Big Bang, 10-43 segundos después de esta, ya que
la física actual no es capaz de explicar lo que ocurrió antes( y por tanto yo tampoco),
todo esto explicado mediante bases cosmológicas y de física de partículas.
Por ello, en una primera parte he descrito todo lo que hasta hoy en día se sabe con
seguridad de lo que ocurrió el Universo, después de nacer este, basándome sobre todo,
en el libro de, para mí, uno de los mejores físicos de mitad del siglo XX, Steven
Weinberg, con su libro “Los tres primeros minutos del Universo”.
Sin embargo, lo que hoy conocemos con seguridad sobre la evolución del Universo se
queda un poco “lejos” del momento del génesis del mismo, por lo que, en una segunda
parte he intentado, con mayor o menor éxito, adentrarme en el limite inicial que puede
dar hoy la física, eligiendo para ello, la teoría del Modelo estándar de partículas, que,
aunque no es la única y este incompleta, también es la mas se ciñe a lo que los
científicos contemporáneos creen que sucedió después del Big Bang. Para esta parte del
trabajo me he basado, sobre todo en los trabajos de 2 científicos, Jhon Gribbin y
M.Iú.Jlópov.
3
LA BASE DE LA COSMOLOGÍA
El Nacimiento del Universo ha supuesto una gran base de trabajos para los físicos del
siglo XX. Fueron muchos los primeros que le empezaron a dar vueltas a la forma en la
que universo nació. Para mediados de siglo, ya se sabia gracias a los trabajos de Hubble
y de Eddington que el Universo se expandía, mediante la conocida ley de Hubble.
V = H · r (distancia)
Por otra parte, también se conocía casi con seguridad los posibles finales del Universo.
Aunque ya se conozcan con suficiencia no esta de mas volver a recordar como se llego a
postular sobre el final del mismo. Como de sobra esta sabido, Einstein formulo en los
años 20 (del siglo XX) su famosísima teoría de la Relatividad General, que se trataba de
la explicación del espacio-tiempo y la gravedad mediante la geometría del espaciotiempo. Pues bien, al aplicar las ecuaciones de Einstein al final del universo, nos dan
dos posibles finales según de la densidad de materia existente en el universo: para una
densidad critica de materia, por un lado podríamos encontrarnos con un universo
cerrado, esto es, un universo en el cual debido a que existe una densidad de materia por
encima de la critica hace que la gravedad frene la expansión y acabe derrumbándose
sobre si mismo; y por otro lado también podría caber esperar un universo abierto, donde
la gravedad no pueda frenar la expansión cósmica debido a que la densidad de materia
es menor a la densidad critica.
A partir de ahora me detendré para la realización de este trabajo sólo en el segundo
modelo. Estos dos modelos, y en especial el de un universo abierto, fue fuertemente
desarrollado y defendido por primero el astrofísico ruso Friedmann y después por el
también astrofísico Lemaitre. Este ultimo a su vez, fue el primero en preguntarse como
nació el universo y desarrollar las primeras teorías sobre el nacimiento del mismo. El
modelo desarrollado por éste, fue el de La Gran Explosión o Big Bang. Esta teoría fue
respaldada por muchos cosmólogos, como George Gamow, y hoy en día es el modelo
que se acepta sobre el nacimiento del Universo. Este ultimo además también trabajó en
el origen de los elementos químicos y la nucleosíntesis y como tendría que ser el
universo actual para que hubiese nacido de una gran explosión.
A nivel microscópico, se habían hecho grandes avances en la comprensión de la física
cuantica, gracias a Luis de Broglie y a su teoría de la dualidad onda-crepúsculo de la
materia, el principio de Incertidumbre de Heisenberg, el cual mide la imprecisión de
saber la posición de una partícula a partir de su momento, las bases cuanticas de Planck
y la radiación de Cuerpo negro, el efecto fotoeléctrico por parte de Einstein...
A nivel nuclear, se empezaba a conocer el funcionamiento y estructuración del núcleo,
así como la forma de reaccionar del mismo, gracias a Bohr, Shrödinger, Millikan...
Como hemos podido ver para mediados del siglo XX, ya se había desarrollado
enormemente la física moderna, pero sin embargo aún quedaba algo por descubrir
actualmente para poder aplicar todo esto en el principio del Universo. Ya en los años
40, Gamow predijo para que el Universo naciera de una gran masa caliente de materia y
radiación, hoy en día deberían quedar redictos de esta temperatura y seria la mayor
prueba de que el Universo nació a partir de una gran bola de fuego, es la llamada
radiación de fondo microondas.
4
FONDO DE RADIACIÓN DE MICROONDAS
El descubrimiento de la radiación de fondo del Universo, de la prueba más clara que
demuestra que el Universo nació de una gran explosión se llevo a cabo por los
radioastrónomos Arno A. Penzias y Robert W. Wilson. Sin embargo, aunque se
predecía su existencia gracias a los trabajos de Gamow, Lemaitre..., este hecho fue
descubierto por pura casualidad.
Era el año 1964 y mientras estos dos radioastrónomos estudiaban señales procedentes
del Universo en el laboratorio Bell Telephone en Crawford Hill, New Yersey con una
antena de radio, se dieron cuenta de que se producía un ruido en todas las
observaciones. Este ruido destacaba por que, fuera la que fuera la dirección con la que
se apuntara la antena, era siempre de la misma intensidad, lo cual hicieron pensar que se
trataba de un fallo de la antena. Para comprobar esto, aislaron la antena mediante un
recurso llamado carga en frío, en la cual se trataba de comparar la energía proveniente
de la antena con la producida por una fuente artificial a unos 4 º C por encima del cero
absoluto del helio liquido. Con esto se conseguía que la energía proveniente de la antena
solo dependiese de la estructura de la antena, de la atmósfera y de la fuente astronómica
de donde se estudian las ondas de radio.
Después de eliminar todos estos escollos, pensaron que el ruido debería ser casi
mínimo, posiblemente producido como ya he dicho por las condiciones atmosféricas.
Empezaron con una longitud de onda corta, de 7,35 cm, y para su sorpresa vieron que el
ruido era más intenso de lo esperado y además, independiente de la dirección del cielo a
la que se apuntase el cielo.
En una primera hipótesis, eliminaron que pudiera provenir de nuestra Galaxia, ya que al
ser esta tan parecida a la galaxia M31, Andrómeda, se hubiese producido el mismo
ruido cuando se estudio la M31 y eso no era así. Por tanto, no sabían de donde
procedían. Lo único que conocían era la intensidad de este ruido. Entonces mediante un
fenómeno radioeléctrico, la temperatura equivalente, ya que cualquier cuerpo con una
temperatura por encima del cero absoluto emite un ruido radioeléctrico debido a los
movimientos térmicos de los electrones internos de la fuente, asociaron este ruido a una
fuente de ondas de radio con una temperatura entre 2,5 y 4,5 K.
Esta temperatura coincidía con la anunciada
por un joven físico teórico P.J. Peebles,
basándose en los estudios de Gamow, el ruso
Zeldovich y Fred Hoyle y teniendo en
cuenta la edad que se predecía que tendría el
Universo en eso años, predijo que si el
Universo hubiese nacido de una Gran
Explosión, el Big Bang,
tendría
actualmente una temperatura de alrededor 5 K, que se acerca a los resultados obtenidos
por Wilson y Penzias.
Pero, quedaba la respuesta de si el ruido encontrado por los dos radioastrónomos seria
verdaderamente lo predicho por Peebles. Para ver esto, se basaron en un termino
estadístico aplicado a la temperatura de una gran masa, el llamado equilibrio térmico.
5
Este principio se basaba en que si el universo nació efectivamente de una gran bola de
fuego, durante ese periodo de tiempo a cierta temperatura todas las partículas deberían
de estar en equilibrio estadístico, esto es, que tan fácil como se crea una partícula nueva
se ha destruido otra, lo que hace que el sistema quede en equilibrio estadístico.
Ya se sabia que esta temperatura, presumible de una radiación de fondo de microondas,
provenía de un estado en equilibrio térmico y además se sabia gracias a Planck que esta
radiación se trataba de una radiación de cuerpo negro, que satisface el equilibrio
térmico.
Este principio de radiación de cuerpo negro* se basa en que la densidad de energía
asociada a una longitud de onda solo depende de la temperatura del cuerpo y se llego a
la conclusión de la longitud de onda era inversamente
proporcional a la temperatura de radiación de la
materia. Esto tendría especial importancia para explicar
las condiciones iniciales del Universo primigenio. Al
principio el Universo nació de una gran masa en la cual
la radiación y la materia no se diferenciaban a gran
temperatura. Esto implicaba que la longitud de onda de
la radiación fuera muy pequeña y por tanto la
separación entre las partículas a su vez también lo
fueran.
A partir de esto se sabe que hubo un momento en la
historia del Universo en la cual la materia,
caracterizada por esta separación mínima entre partículas y la radiación de cuerpo negro
se encontraban en equilibrio térmico a una cierta temperatura, a unos 3.000 º K, que es
la temperatura del ruido de fondo de microondas si se hubiese expandido el Universo en
una factor 1000, ya que como se sabe, al expandirse el Universo la temperatura va
disminuyendo.
Pero la radiación de fondo de microondas fue solo medido para una cierta longitud de
onda, para 7,35 cm. Si el principio de radiación de cuerpo negro fuera cierto, si se
midiese con otra longitud de onda más pequeña intensidad del ruido cósmico tendría
que ser en proporción mayor que para 7,35 cm. Para sucesivas mediciones con
longitudes de onda menores, dieron unos resultados que hacia que el ruido en
proporción diera una temperatura constante en unos márgenes de 2,5 y 3,5 K. Esto
hacia que ya se pudiera asegurar que la radiación encontrada por Wilson y Penzias,
fuera el claro ejemplo del nacimiento del Universo a partir de una singularidad.
Por ultimo cabe destacar también que cuando midieron el ruido con diferentes
longitudes de onda, se percataron que este era independiente de la dirección a la que se
puntase, lo que no hizo mas que afirmar un hecho muy importante en la cosmología, el
principio cosmológico en el cual la materia del Universo, dentro de su heterogeneidad,
guarda una homogeneidad y una isotropía. Este hecho no hace mas que confirmar el
principio más importante de la cosmología, el principio cosmológico, por el cual todo el
Universo es homogéneo en todo momento, es decir presenta el mismo aspecto en un
tiempo dado para cualquier observador.
*
Radiación de cuerpo negro: E = c·T
5− µ
µ
·λ ·e
−b
( λ ·T )υ
6
CONDICIONES INICIALES DEL UNIVERSO PRIMITIVO
Como ya hemos dicho en el apartado anterior, sabemos que el universo nació de una
gran explosión a partir de una gran masa caliente, en el cual el fondo de radiación de
microondas es la prueba de ello. Para saber como transcurrió el nacimiento del Universo
hace falta comprender primeros las condiciones iniciales que tuvo que tener dicho
Universo para que haya evolucionado de tal manera hasta nuestros días.
Sabemos que la radiación de fondo es del tipo de radiación de cuerpo negro, y la
temperatura que actualmente nos lo encontramos es de 3 K, si el Universo hubiera
evolucionado en un factor de 1000 a partir de 3000 K. Extrapolando este factor, como
sabemos que la temperatura es inversamente proporcional al tamaño de Universo,
podemos decir que cuando el Universo tenia una temperatura de 3000 K, el tamaño del
mismo era 1000 veces menor al actual. Este momento, en el cual la temperatura del
Universo primigeneo se encuentra a 3000 K es de vital importancia ya que supone el
punto en el cual el Universo dejo de ser “opaco” y la radiación pudo empezar a llenar
todo el Universo.
Según la teoría de la relatividad y la famosa formula E =m·c2 , decir masa es
equivalente a decir energía, radiación. Pues bien, antes de que el Universo llegara a
enfriarse a 3000 K, éste consistía en una mezcla de radiación y materia, en cual se
destruían y se creaban continuamente pares de partículas-antipartículas a partir de la
radiación. Toda partícula puede ser creada a partir de la radiación si esta tiene la
suficiente energía para convertirse en partícula según la formula E =m·c2 . esta energía
mínima se denomina energía en reposo. Para temperaturas superiores a 3000 K, como la
energía de la radiación es directamente proporcional a la temperatura, hacia que los
fotones, que son los portadores de energía radiación, pudiesen por ejemplo, chocar dos
ellos, para producir un par electrón-positrón, si estos fotones tenían ambos la energía en
reposo del electrón-positrón. Si se tuviese un excedente de energía, esto es, que la
energía de los fotones que interaccionan es muchísimo mayor a esta energía mínima
para crear la partícula correspondiente, lo único que haría seria dotar de mayor
velocidad a los procesos creación de partículas a través de radiación y viceversa( ya que
dos partículas también pueden producir fotones).
Como sabemos gracias a la física Cuantica, la luz se propaga en cuantos de energía
llamados fotones. Durante la época en la que la temperatura era mayor a 3000 K, la
energía de estos fotones era tan grande que se creaban partículas-antipartículas a través
de estos continuamente, lo que hacia que estos fotones no pudiesen expandirse ni
irradiar el Universo debido a que se creaban y se destruían continuamente. Esta era,
desde que nació hasta que llego a enfriarse a 3000 K se la conoce como la era dominada
por la radiación, ya que como hemos visto es la principal motora de todas las reacciones
nucleares.
Para temperaturas inferiores a 3000 K, la temperatura es tan baja que hace que la
energía de los fotones sea tan baja que no puedan interaccionar para dar partículas de
materia, y esto hizo posible que se expandieran por todo el Universo, y se empezara a
dar la llamada recombinación, que es el proceso en el cual pasamos de un Universo
dominado por la radiación a un Universo en el que empieza a dominar la materia.
Actualmente tenemos conocimiento de este momento, como ya sabíamos en forma de
7
radiación de fondo microondas, que es lo máximo que se puede observar actualmente
del Universo en su nacimiento.
Como las temperaturas empezaron a bajar, y los fotones ya no producían materia y
antimateria, ésta pudo empezar a combinarse y empezar a dar los núcleos atómicos,
elementos que hoy conocemos, pero esto ya lo veremos mas adelante.
Existe también otro hecho significativo a la hora de la evolución del Universo, y es que
aunque se creaban y se destruían fotones en materia y viceversa, el numero de fotones
por partícula, que tenia que ser mayor ya que la radiación era la dominante, es el mismo
que nos encontramos actualmente. Esto es aproximadamente de 1000 millones de
fotones por partícula. Esto no hacia mas que confirmar por ejemplo, el principio
cosmológico descrito anteriormente.
Por otra parte, toda partícula-antipartícula tiene asociado a ella una temperatura umbral,
que mediante la ley de Boltzman*, (la energía es directamente proporcional a la cuarta
potencia de la temperatura), que hace que para temperaturas superiores a esta toda
partícula tenga tanta energía que se desprecie su masa y se considerada como radiación.
Esto es de vital importancia ya que nos da una idea del tipo de partículas o radiación
asociada a una determinada partícula que existió en los momentos iniciales del
Universo. De aquí surge el llamado numero efectivo, que es el numero de partículas
cuya temperatura umbral es menor a la temperatura del Universo en esos momentos.
Gracias a este numero, que se conserva mediante le principio de equilibrio térmico.
Pudiera parecer que el numero efectivo en épocas de alta temperaturas haría que hubiera
infinidad de partículas en forma de radiación, pero sin embargo, este numero se acorta
gracias a dos cosas: la primera, gracias al principio de exclusión de Pauli, en el cual una
partícula, por ejemplo el electrón, no puede dos de estos ocupar el mismo estado de
energía, y por otra parte, es que para darse estas condiciones el Universo tuvo que estar
a una temperatura de miles de millones, e incluso billones de grados centígrados, que se
dio solo al principio del Universo cuando este constituía una gran masa caliente donde
la densidad de energía, al ser proporcional a la temperatura era casi infinita.
Por otra parte según un principio de simetría de partículas, en cual toda partícula tiene
asociada su respectiva anti-partícula, y en esos momentos del Universo en el cual la
densidad era tan alta que las partículas chocaban con sus respectivas partículas para dar
radiación, ¿cómo cabria esperar que actualmente pueda estar aquí escribiendo este
trabajo, si la materia se destruía con su respectiva antimateria? (toda partícula cuando
choca con su antipartícula, ambas se aniquilan de forma violenta produciendo una
enorme cantidad de energía en forma de radiación). Esto hace pensar que durante esos
momentos en el cual la densidad era tan alta, la era de la radiación, tuvo que producirse
un exceso de materia sobre la antimateria, para que literalmente existamos hoy en día, y
el universo no esta solamente constituido por radiación.
Para conocer este exceso de materia hace falta saber que magnitudes se conservan
cuando la materia y la radiación interaccionaban continuamente produciendo nueva
materia y antimateria. Toda reacción que implicaba partículas y radiación estaba regido
mediante el principio termodinámico de equilibrio térmico, en el cual todas las
*
Ley de Stefan-Boltzmann = E =
8π 5 ·(KT )
4
15(hc) 3
8
magnitudes en un determinado estado a las cuales una partícula entra se compensa con
las mismas magnitudes al abandonar ese estado.
Más concretamente podemos decir actualmente, que las tres magnitudes que se
conservaban durante la era de la radiación, regida por el equilibrio térmico son las
siguientes:
− La carga eléctrica: aunque se destruyan o se creen nuevas partículas a partir de
otras en diferentes reacciones nucleares, la carga eléctrica del sistema es siempre
la misma, es decir la carga eléctrica de los reactivos es la misma que la de los
productos.
− El numero bariónico: las partículas llamada bariónicas, la forman partículas
como los protones y los neutrones, además de otras partículas más inestables,
junto con sus respectivas antipartículas. El numero barionico es la diferencia
entre el numero de bariones y el numero de antibariones, y dicho numero
permanece constante
− El numero leptónico: al igual que los bariones, lo leptones abarcan cantidad de
partículas, que son las partículas ligeras de carga negativa como son el electrón,
el muon y el neutrino, junto con sus respectivas antipartículas. Al igual que en el
numero bariónico, el numero leptónico, esto es, la diferencia entre numero de
leptones y el numero de antileptones permanece constante en todo momento.
Como ejemplo particular de que esto se cumple, nos encontramos la desintegración beta
en el cual un neutron se convierte en un electrón, un protón y un antineutrino:
Carga
Nº Bariónico
Nº Leptónico
n0
0
+1
0
Æ
p1
+1
+1
0
+
e-1
0
+1
+
υe
0
0
-1
Para que esto pueda darse en cualquier momento del Universo hace falta saber cual es la
relación de estas tres magnitudes con el nº de fotones por unidad de volumen (densidad
fotónica), esto es lo mismo que decir la relación de la carga, el numero bariónico y el
numero leptónico con la entropía.
Por parte de la carga eléctrica por foton no hay problema pues suponemos que el
universo no esta eléctricamente cargada, ya que de estarlo lo tendríamos que notar ya
que se producirían fuerzas electromagnéticas muy superiores a las fuerzas gravitatorias
y extrapolando podemos decir que esto también ocurrió cuando el Universo empezó a
expandirse.
En cuanto al numero barionico, como los únicos bariones estables son el protón y el
neutron (éste aunque solo tenga una vida media de 15,3 minutos de vida, el nacimiento
y evolución del Universo primitivo se produjo en menos tiempo por lo que no tiene
sentido decir que sea inestable), hace que se pueda decir que el numero de fotones por
partículas es lo mismo que hablar de 1000 millones de fotones por partícula nuclear, y
esto significa que en un momento del Universo primigenio, la diferencia entre partículas
9
nucleares y sus antipartículas, rondaron una parte un exceso de 1000 millones de
partículas mas que de antipartículas, lo que hace que el numero barionico por foton sea
de 10-9, que ocurrió cuando la temperatura del Universo descendió a temperaturas
inferiores a las cuales la materia equivale a radiación, la materia empezara a aniquilarse
con su respectiva contraria, dejando al final solo un excedente de materia barionica de
cómo hemos dicho, una proporción de 1000 millones mas que antipartículas, que hace
que hoy en día aparezcan los núcleos atómicos. Esto no quiere decir que no existan en el
Universo actualmente antipartículas, puesto que hemos dicho que se aniquilaron, basta
con saber que en el Universo hay una gran cantidad de materia y que en una proporción
de 1000 millones menos deben de existir antipartículas nucleares en el Universo aunque
todavía no hayan sido observadas.
Por otra parte, por la misma regla de tres, ocurrió lo mismo con el numero leptónico, ya
que como sabemos, el numero de electrones tiene que ser el mismo que de protones para
que las cargas eléctricas se anulen, pero esto no quiere decir que por tanto el numero
leptónico sea igual al numero bariónico, en el nº leptónico, a parte de electrones,
también se encuentra principalmente el neutrino (y su respectivo antineutrino), un
leptón sin carga pero con masa, cuya interacción con su antipartícula es tan débil que se
cree que se han podido escapar del aniquilamiento y actualmente se encuentran en gran
densidad en el universo, casi tanto como los fotones, que pueden ser uno de los motores
fundamentales en el destino del Universo. Al igual que con el nº bariónico, después de
producirse la recombinación, en el cual se pasaba de una era dominada por la radiación
a otra dominada por la materia mediante el aniquilamiento de la misma, se produjo un
excedente de materia y antimateria leptónica.
Gracias a estos excedentes de materia sabemos de donde comenzó a formarse el
Universo tal y como hoy lo conocemos (galaxias, sistemas planetarios, estrellas...), por
lo tanto sabemos que la temperatura de 3000 K marca un importante hecho en el
devenir de Universo, una etapa donde la radiación es el principal valuarte a otra donde
la materia es capaz de juntarse mediante la acción gravitatoria para formar infinitas
formas de materia.
10
LOS PRIMEROS MINUTOS DEL UNIVERSO
Gracias a la parte anterior ya se sabe, o por lo menos se intuye como tuvo que ser el
Universo para que lo conozcamos tal y como hoy nos lo encontramos. Sin embargo lo
haré no a partir del instante inicial seguridad, esto es, cuando T= 0 y la densidad, y por
tanto la temperatura era infinita. Esto se debe a que a temperatura mayores que 1,5·1012
K, donde la energía es enorme, a aparte de las partículas anteriormente nombradas,
existían también partículas muy pesadas cuyas distancias entre si eran tan pequeñas que
el Universo estaba tan fuertemente influenciado por la fuerza fuerte hace que el
Universo sea tan complejo que incluso actualmente no se puede explicar hoy con total
seguridad lo que ocurrió inicialmente.
1º Etapa: T0/ =0,02 segundos después de T = 0
Este es el momento donde el Universo se encuentra en su estado más simple de
describir físicamente. Estamos hablando de una etapa en la cual el Universo se
encuentra a 1011 K. La temperatura es pues, tan alta que el Universo este compuesto de
una mezcla sin diferencias de materia y radiación, debido a que toda partícula esta
continuamente chocando con otras partículas y fotones ( radiación) produciendo
continuamente nuevos fotones y partículas.
En este caso el funcionamiento del Universo se basa en las leyes de la mecánica
estadística y en el equilibrio térmico y que como vimos anteriormente las magnitudes
que se conservan, tales como la carga, el numero bariónico y el numero leptónico son de
muy pequeña magnitud o cero, en el caso de la carga.
Nos encontramos en un estado con una gran densidad de energía (recíprocamente por
E=m·c2, de materia) en el cual la temperatura del Universo en ese momento, 1011 K,
donde toda la materia, puesto que la temperatura umbral de estas (la temperatura
mínima para producir determinadas partículas a partir de radiación, energía), este
compuesta principalmente por electrones, protones, neutrinos, las partículas portadoras
de radiación, los fotones, y todas las respectivas antipartículas.
Por otra parte, como la temperatura es muchísima más alta que el umbral de los
electrones y por tanto la energía en reposo es escasa comparable con la energía cósmica
de ese momento, podemos decir que los electrones y positrones, actúan como si de otra
especie de radiación se tratase. Por tanto podemos conocer la densidad de energía en ese
momento que será de un factor 9/2 de energía formada por las partículas materiales
mayor que la energía electromagnética pura, la de los fotones. Esto surge de que los
electrones y los positrones ambos contribuyen a un factor de 7/4, los neutrinos y
antineutrinos otros 7/4 y esto mas 1, por tanto, 7/2 ·2+7/2·2+ 1= 9/2. Esto hace, según la
ley de Stefan-Boltzmann (la densidad de energía es directamente proporcional a la
cuarta potencia de la temperatura), que para la temperatura de 1011 K , la densidad de
energía pura mediante esta ley sea de 4,72 ·1044 eV, por lo tanto la densidad total de
energía de Universo, al ser 9/2 mayor que la energía pura, será de 21 ·1044 eV por litro.
Esto, en términos de densidad de masa son 3,8 mil millones de Kg por litro.
11
En esta etapa, el Universo se encontraba en un momento de expansión y por tanto cada
vez se estaba haciendo también más frío. Debido a esta elevada densidad de energía
cósmica el tiempo de expansión durante esta etapa es de 0,02segundos. A este tiempo se
le llama tiempo de expansión característico y que es 100 veces el tiempo en el cual el
tamaño del Universo aumenta un 1% y como al aumentar el tamaño disminuye la
temperatura, se puede decir que el tiempo de expansión es inversamente proporcional a
la temperatura.
Por otra parte, el numero de partículas por radiación es de 1 protón o un neutron por
cada 1000 millones de fotones, electrones o neutrinos, que como ya sabemos esta
proporción de materia-radiación se mantendrá constante. Como la temperatura es tan
elevada, los protones y neutrones se encuentra disociados unos de otros y las reacciones
nucleares más importantes que se dan durante esta etapa son:
− Obtención de un positrón y un neutron mediante la reacción de un antineutrino y
varios protones y viceversa.
− La reacción de un neutron con un neutrino para dar un e- y un protón y a la
inversa.
Y como en este caso el numero leptónico y la carga por fotón es tan pequeño, que hace
que haya casi el mismo numero de electrones y neutrinos como de sus antipartículas, lo
que hace que mediante estas reacciones la obtención de protones a través de neutrones
sea tan rápida como la de los protones en neutrones, y por tanto, hacen que se
encuentren en equilibrio durante esta etapa, con el mismo numero de neutrones y
protones.
Durante esta etapa se cree, puesto que no es seguro y tampoco es muy relevante, que el
Universo tenga un tamaño de unos 4 años luz aproximadamente.
2ªEtapa: 0,11 segundos después de T0/ ,
Este momento del Universo concuerda con una temperatura de unos 3 ·1010 K. El
universo en sus condiciones, prácticamente no ha cambiado desde la primera etapa. Es
decir, el Universo todavía sigue gobernado por una radiación compuesto por electrones
neutrinos, fotones y sus respectivos contrarios, puesto que la temperatura de esta
segunda etapa sigue siendo muchísimo mas grande que la umbral de las partículas y
todo esto gobernado mediante el principio de la mecánica estadística, esto es, el
equilibrio térmico.
Como la temperatura ha descendido, mediante la ley de Stefan-Boltzman, la densidad de
energía pura también habrá descendido y por consiguiente también la densidad de
energía total del Universo, que será de unas 30 millones de veces mayor que la del agua.
Además el hecho de que la temperatura descienda, hará que el tiempo de expansión sea
mayor, de unos 0,2 segundos.
Por otra parte, como la temperatura es tan elevada, los neutrones y protones seguirán
una independiente de la otra; pero con el descenso de la temperatura, las reacciones
nucleares que dependen de la temperatura*, su velocidad será menor y las reacciones de
[ ]x [ ] y
La velocidad de la reacción de lo reactivos viene dada por la ecuación v = K · A · B , La
temperatura influye en la velocidad de la reacción mediante la ecuación de Arrhenius donde la constante
*
K = Ae
− Ea
RT
.
12
de obtención de protones a partir de neutrones, se darán más fácil que al revés puesto
que el neutrón es mas pesado que el protón. Todo esto hará que, en esta etapa la
concentración de neutrones no sea la misma que la de protones, sino que se dará un
balance de partículas nucleares de 62 % de protones y un 38% de neutrones.
3ª Etapa: 1,10 segundo después de T0/ .
En este momento el Universo primigenio se encuentra a unos 1010 K. La temperatura y
por tanto la densidad de energía a descendido tanto que hace que los neutrinos dejen de
comportarse como radiación en equilibrio térmico para empezar a jugar el papel de
partículas libres. Desde este momento el papel de los neutrinos deja de ser relevante en
el funcionamiento y formación del Universo, sin obviar claro está su papel como parte
de la fuente de la gravedad, que esto si puede ser relevante en cuando al destino del
Universo.
Por otra parte, debido al enfriamiento del universo, la densidad de energía habrá decaído
más aún, a una magnitud de una 380.000 veces mayor que la densidad del agua. Por su
parte el tiempo característico de expansión habrá aumento inversamente proporcional
con la temperatura, lo que nos da tiempo de unos de 2 segundos de expansión
característica.
Es tanto el descenso de la temperatura durante esta etapa, que la temperatura umbral de
los electrones y positrones, “solo” será de la mitad de la temperatura en este momento
por lo que cada vez es más difícil crear estas partículas a través de la energía de la
radiación y por tanto se aniquilaran mas de estos pares electrón-positrón que de los que
se crean.
El universo, aun con este descenso de la temperatura, sigue siendo todavía muy caliente
para que la fuerza de interacción fuerte pueda unir los protones y los neutrones para
formar núcleos atómicos estables. El balance protón-neutrón se ha hecho más dispar,
con 76 por ciento de protones y un 24 por ciento de neutrones.
4ª Etapa: 13,82 segundos después de T0/
Esta etapa del Universo marca el momento en el cual la temperatura del Universo se
hace menor que la umbral de los electrones-positrones, por lo que empiezan a perder
protagonismo progresivamente en el Universo. Estamos hablando de una temperatura de
“sólo” unos 3000 millones de Kelvins, 3·109 K. Como se han separado de la radiación y
ya no pueden ser creados a partir de esta, a partir de ahora la temperatura del Universo
es la temperatura solamente de los fotones. Empezaran por tanto a aniquilarse los
electrones al chocar con los positrones, liberando una energía que ira retardando la
velocidad a la que se enfría el Universo. Como consecuencia última de esta separación
de los electrones-positrones de la radiación, la densidad de energía en este momento del
Universo será algo menor que la teórica mediante la ley de Stefan-Boltzmann.
Por primera vez, la temperatura ha descendido tanto que ahora es posible formar
algunos núcleos estables y muy ligeros. La formación se da en una serie de rápidas
reacciones, acotado exclusivamente a dos partículas como reactivos dado que aunque el
13
la temperatura haya descendido, el Universo sigue expandiéndose tan rápido que es casi
imposible las reacciones de mas de 2 partículas.
Las reacciones más sencillas son las del neutrón
con el protón para dar un núcleo de hidrógeno
pesado o deuterio, con un defecto de masa de la
reacción con se convertirá en radiación, en un
fotón. Después a partir de este núcleo de
deuterio, se obtiene el 23 He si reacciona con un
protón, o bien tritio 13 H si reaccionase con un
neutrón. Después, el tritio puede reaccionar con un protón y el Helio-3 con un neutrón y
así obtener un núcleo de helio-4, 24 He , que es un elemento muy estable. Sin embargo, el
deuterio es un elemento como ya hemos dicho pesado y por lo tanto inestable, y como la
temperatura en esta etapa sigue siendo suficientemente alta para destruir los núcleos de
deuterio tan pronto como se forman.
Aunque en menor medida y más lentamente, los neutrones siguen convirtiéndose en
protones mediante la desintegración β. Esto hace que la proporción protón-neutrón sea
de 83-17%.
5ª Etapa: tres minutos después de T0/
En este momento la temperatura del Universo se sitúa en solo 109 K o lo que es lo
mismo solamente 70 veces mas caliente que el centro de nuestra estrella. Los
componentes principales son los fotones, neutrino y antineutrinos, dado que la mayor
parte de los electrones y positrones han desaparecido, liberando gran cantidad de
energía que elevaron la temperatura de los fotones un 35% mayor que la de los
neutrinos.
El problema con el deuterio sigue existiendo durante esta etapa, aunque la temperatura
haya bajado considerablemente, la energía sigue siendo considerablemente alta para que
el deuterio permanezca constante sin disociarse en sus componentes principales.
Por otra parte, este enfriamiento del Universo si ha hecho que las reacciones de
obtención de neutrones y protones a partir de reacciones con electrones, neutrinos y las
respectivas antipartículas hayan disminuido y cesado de tal manera que es ahora la
desintegración β*, la desintegración del neutrón en un protón un electrón y un
antineutrino, la que juega un papel fundamental. En este momento el balance entre
protones y neutrones se ha estabilizado desde la anterior etapa con un 14 por ciento de
neutrones y un 86 de protones.
6ª Etapa: 3 minutos y 46 segundos después de T0/
Aunque pueda parecer su gran proximidad en el tiempo con la anterior etapa, esta parte
de la evolución del Universo es tan importante que merece un apartado solo para ella.
Es en este momento cuando se empieza a dar la nucleosintesis, puesto la temperatura ha
*
Desintegración β=
1
0
n→11 p + −10 e + υ
14
descendido tanto, a unos 900 millones de Kelvins (9·1010 K), que ahora los núcleos de
deuterio son estables. A partir de este deuterio se pueden formar nuevos elementos mas
pesados en reacciones que conciernen a dos partículas
Sin embargo, a pesar de que la temperatura ha descendido tanto para que el deuterio sea
estable, no hay núcleos estables con mas de 4 partículas nucleares, por lo que tan pronto
como la temperatura desciende a este grado, tan pronto como se ha formado los núcleos
de deuterio, los neutrones restantes reaccionan con los mismo produciendo núcleos de
Helio.
Por otra parte la desintegración β sigue desintegrando al neutrón, sin apenas
modificando a la relación protón-neutrón, que se encuentra en un 87 por ciento de
protones y un 13 por ciento de neutrones.
De este 13 % de neutrones, la mayor parte de ellos se encuentran ligado a los núcleos de
helio-4, que son núcleos constituidos por dos protones y dos neutrones, y puesto que la
proporción en peso de este helio es exactamente la mitad de neutrones y la mitad de
protones, esto nos conduce a decir que la proporción de helio después de la
nucleosíntesis era el doble de la proporción de neutrones, esto hace un resultado de
alrededor de 26 a 28 por ciento de 24 He .
7ª Etapa: 35 minutos después de T0/
En esta etapa, el Universo cuenta ya con solo 300 millones de Kelvin de Temperatura,
unos 3·108 K. Todos los positrones y electrones, exceptuando el pequeño exceso de
estos ( una parte de mil millones) para contrarrestar la carga positiva de los protones, se
han aniquilado mutuamente liberando una gran ola emergente de energía que elevan la
temperatura de los fotones una 40% mayor que la de los neutrinos.
La densidad de energía ha descendido
también considerablemente a una densidad
de masa equivalente a un 9,9 por ciento
mayor que la del agua, siendo de este 9,9
por ciento, el 31 por ciento neutrinos y el 69
de fotones. Debido a esta densidad del
Universo y al descenso de temperatura, el
tiempo de expansión ha descendido al grado
de que ahora es de alrededor de una hora y
cuarto.
Por otra parte, la era de la nucleosintesis ya se ha pasado, por lo que la mayor parte de
las reacciones nucleares se han detenido, estando las partículas nucleares como antes he
dicho o bien formando núcleos de helio en un 22 a 28 por ciento, o sino el restante de
las partículas nucleares en forma de protones sueltos o núcleos de hidrógeno
Aunque todas las partículas nucleares se encuentren en forma de elementos ligeros y
estables, y a pesar de que existan un electrón por cada protón (condición indispensable
para que se mantenga la carga del Universo eléctricamente nula), el Universo todavía
esta muy caliente para que se puedan formar los primeros átomos estables.
15
Después de esto, y durante 700.000 años más el Universo se mantendrá de esta forma,
eso si expandiéndose aun más y por tanto enfriándose todavía más hasta que llegue a un
punto durante este tiempo en el cual se empezaran a formar parte los primeros núcleos y
átomos estables, haciendo que la mayor parte de los electrones se encuentren formando
átomos, y produciendo pues una falta de electrones libres que harán que los fotones
puedan expandirse sin interaccionar con electrones libres, haciendo el Universo
transparente a la radiación. Debido a esto, como ya he dicho, la radiación empezara a
llenar todo el Universo, permitiendo a la materia agruparse mediante la acción de la
gravedad para formar las galaxias, estrellas... Todo esto empieza a ocurrir a una
temperatura de unos 3.500-3.000 K y es este momento el que se conoce hoy en día
gracias a la radiación de fondo microondas.
16
MODELO ESTÁNDAR DE LAS PARTÍCULAS
Hemos descrito lo que ocurrió durante un periodo de tiempo de alrededor de 4 minutos
con una gran exactitud, debido a que actualmente es lo que podemos asegurar que paso
con los conocimientos físicos actuales. Para poder comprender el Universo mas cerca
del instante inicial, casi en el mismísimo momento en el cual se origino el Universo,
hace falta conocer algo mas el mundo de las partículas y de las interacciones físicas que
actúan sobre las mismas. Para esto se ha desarrollado el modelo estándar de partículas.
El modelo estándar de partículas se trata de una teoría completa que identifica las
partículas básicas del Universo y sus interacciones.
Según el modelo estándar, en el Universo existen cuatro fuerzas fundamentales, que
entre las cuatro, en teoría son capaces de explicar físicamente todos lo sucesos que se
den en el mismo. Las cuatro fuerzas fundamentales son: la gravedad, el
electromagnetismo, la fuerza de interacción fuerte y la fuerza de interacción débil.
Fuerza de gravedad
Que decir que no se sepa ya de esta fuerza. Es siempre atractiva y es creada por la masa.
Existen dos grandes leyes que explican el funcionamiento de esta fuerza. La primera es
la ley de Gravitación universal expuesta por Newton en el siglo XVII y la segunda y
más reciente es la teoría de la relatividad expuesta por Albert Einstein a principios del
siglo XX y que se trata de una explicación de la gravedad mediante un tratamiento
geométrico del espacio-tiempo. Se trata de la fuerza que más conocemos puesto que, y
aunque sea la fuerza de más débil interacción, es la responsable desde que no salgamos
volando cuando damos un salto en la superficie terrestre hasta el movimiento planetario,
la formación de las galaxias...
Fuerza electromagnética
Otra fuerza de sobra conocida. El padre de esta fuerza es Maxwell que fue capaz de
demostrar que la electrostática y el magnetismo pertenecían a la misma fuerza, la fuerza
electromagnética. La electroestática consiste en que todas partículas con cargas
eléctricas producen una perturbación en el espacio que pueden producir fueras atractivas
o repulsivas sobre otra partícula eléctricamente cargada. Mientras el magnetismo trata
del estudio de los efectos que producen los campos magnéticos.
Al igual que la fuerza de la gravedad juega un papel fundamental en muchos procesos
cotidianos. Es la responsable de las reacciones químicas, que se producen debido a
cambios en la distribución de carga de átomos o moléculas, pero también de fenómenos
como el rozamiento, la cohesión de un tejido, la formación de disoluciones o la
electricidad. Su valor es un trillón de veces mayor que la de la fuerza gravitatoria.
Fuerza fuerte
Esta fuerza es poco conocida ya que se observa a escala muy reducida, ya que opera
únicamente a escala de distancias atómicas, esto es en el núcleo. La fuerza de
17
interacción fuerte es la responsable de que los átomos puedan existir, puesto que es la
responsable de contrarrestar las repulsiones que sufren los protones del núcleo debido a
su misma carga y además mantiene unidos a los mismos. Es tan grande la magnitud de
esta interacción que es 137 veces mayor que la fuerza electromagnética.
Fuerza débil
El cuarto y último tipo de fuerza que puede ser observada en la naturaleza es la llamada
interacción nuclear débil o interacción débil. De forma similar a lo que ocurre en los
núcleos atómicos y la fuerza de interacción fuerte, otras partículas como los electrones
interaccionan también entre ellas, pero con una fuerza muy pequeña, mucho más
pequeña que la fuerza electromagnética, de ahí su nombre de “débil” pero aun así, y al
igual que ocurre con la gravedad, es una fuerza básica para entender conceptos como la
fusión nuclear y la desintegración beta que tan importante hemos visto que es en el
devenir de la evolución del Universo.
El modelo estándar describe el Universo mediante partículas. Estas partículas a su vez
se pueden englobar en dos grandes familias: Los Fermiones y los Bosones.
Bosones
Según la teoría del modelo estándar, las fuerzas actúan entre si mediante el intercambio
de partículas transmisoras de las distintas fuerzas que hemos visto. Así, por ejemplo,
para la fuerza electromagnética, la partícula portadora de esta fuerza es el fotón. Para la
fuerza de interacción débil están los bosones W y Z y para la interacción fuerte, la que
mantiene unidos a los núcleos atómicos, se encuentran los gluones.
Fermiones
En esta familia se encuentran aquellas partículas que conforman la materia del que está
constituido el Universo. Así nos encontramos que en el universo solo existen dos
partículas, que a partir de ellas se pueden explicar la constitución de las demás
partículas. Estas son los quarks y los electrones. Además el modelo estándar señala que
toda partícula fermiónica tiene su opuesta en forma de antimateria.
A su vez, dentro de los fermiones podemos encontrarnos con dos familias, dos que se
engloban en torno a las partículas elementales (quark y electrón) así tenemos:
-Leptones
Es la familia que se engloba en torno a los electrones. Además de esto electrones,
también existen otras partículas leptónicas son el muon y la partícula tau, que se
caracterizan por ser de forma similar a los
electrones pero más masivos. Estas tres
partículas, los electrones, los mones y los
tauones destacan también por tener carga
negativa.
También dentro de esta familia nos
encontramos con los neutrinos, que son
18
partículas con masa ínfima, casi despreciable y sin carga. Existe un tipo de neutrino
asociado a cada una de las tres partículas mencionadas arriba.
Por otra parte como ya he señalado antes todas estas partículas poseen a su vez sus
respectivas antiimagenes, como por ejemplo el positrón, para el electrón, el
antineutrino, el antimuon y el anti-tau.
-Quarks
Es la otra familia fundamental de partículas. Existen 6 tipos de quarks que se encuentran
representado en la siguiente tabla:
Gracias a estos seis quarks se pueden
explicar la composición de infinidad de
partículas.
Destacan porque no pueden, y de hecho no
sienten evidencias de ello, que puedan
encontrarse en la naturaleza de forma libre, de
ahí su dificultad de asegurarse su existencia.
Por otra parte el hecho de que no podamos encontrarlos de forma libre da pie a formar
otras partículas mediante la agrupación de quarks llamadas partículas hadronicas o
hadrones. Además, los hadrones se pueden caracterizar por ser las únicas partículas a
las cuales les afecta la fuerza nuclear fuerte, ya que las distancias a las que se dan las
agrupaciones de quarks se dan en el grado en cual esta fuerza empieza a actuar.
Dentro de estos hadrones podemos encontrarnos con otras dos familias:
Bariones: Los bariones son los hadrones constituidos por tres quarks unidas mediante
respectivos gluones, los portadores de la fuerza nuclear fuerte. Así, por ejemplo, el
protón esta constituido de 2 quarks arriba y un quark abajo.
Partícula:
Protón.
Neutrón.
Hiperión Omega.
Hiperión Xi.
Hiperión Sigma.
Hiperión Lambda
Símbolo:
Masa:
p
1.673 x 10-27 kg.
n
1.675 x 10-27 kg.
3,286
Ω
2,583
Ξ
2,327
Σ
2,181
Λ
Carga:
1.6 x 10-18 Coulombs.
Neutra.
-1
0, -1
+1, 0, -1
0
Mesones: Son las partículas hadrónicas formadas por la agrupación de dos quarks.
19
Existe, se cree otra partícula, un bosón concretamente, llamado bosón de Higgs, que es
la partícula que interacciona con las demás y las dota de masas. Se hablará de ella mas
adelante.
Hemos descrito como está compuesta la materia a nivel cuántico, a la escala de las
partículas elementales, lo que nos permite saber como funcionan las reacciones entre
estas partículas y así saber y comprender mejor como funciono el Universo en sus
primeros instantes de vida.
Tomemos como ejemplo la reacción de desintegración β en la cual un neutrón se
convierte en un protón, un electrón y un antineutrino. El neutrón esta formado dos
quarks abajo y un quark arriba unidos mediante gluones, que transmiten la fuerza de
interacción fuerte (Q = 1/3+1/3-2/3= 0). Mientras el protón esta formado por dos quarks
arriba y un quark abajo (Q = 2/3+2/3-1/3= +1), de la misma forma gluonica descrita en
los neutrones. El juego de las partículas en las reacciones cuanticas se entiende mirando
la desintegración beta. En esta, el neutrón, y más específicamente un quark abajo de
este, se convierte en un quark arriba, produciéndose así el protón y liberando una
partícula W-, partícula transmisora de la interacción débil, que a su vez se convierte en
un electrón más un antineutrino.
1
0
n→11 p + −10 e + υ
2Q ↓ +Q ↑⇒ 2Q ↑ +Q ↓ + W − → e − + υ
Carga: 2 x 1/3-2/3Æ4/3-1/3 + (-1) + 0
=0Æ+1-1=0
20
DESARROLLO DEL MODELO ESTÁNDAR: HACIA LOS
LIMITES DEL INSTANTE CERO
El Modelo estándar que he dado arriba es la culminación de años y años de estudios
dedicados a la Física de partículas y Cosmología y aun así me he quedado corto. Por
eso, y por que hoy en día el modelo estándar se supone el modelo más firme sobre el
cual se puede llegar casi al instante T = 0 segundos del Universo, es importante ver el
desarrollo que se ha ido dando de este modelo estándar para poder acercarnos y
comprender lo que ocurrió en los momentos más cercanos al instante inicial del
nacimiento del Universo.
El Modelo estándar empezó a tener forma a principios de los años 20 y 30 del siglo XX
con el desarrollo de forma pareja de la llamada física moderna. Dentro de esta física
moderna destaca el gran desarrollo de la Física Cuántica , que abrió un nuevo mundo en
la concepción de lo que ocurrió a inicios del tiempo. Para inicios del siglo XX, se creía
que con los conocimientos que se tenían era suficiente para explicar lo que sucedía en el
Universo. Sin embargo, con la llegada de nuevas ideas de carácter cuantico, tales como
la hipótesis de Broglie en el cual una partícula se puede comportar como una onda y
viceversa, la teoría cuantica desarrollada por Max Planck y el principio de
Incertidumbre de Heisenberg∗. Esto nos mostraba un Universo en cual todo era posible,
hasta lo más impensable y siempre bajo principios basados en la probabilidad.
-Teoría de campos
Para empezar el desarrollo del modelo estándar, hay que empezar con la teoría de
Campos, debido a que el Universo, como hemos visto, esta compuesto por una infinidad
de partículas que interaccionan entre si a través de campo, en los cuales las partículas la
forma de actúa de las partículas solo se obedece a las reglas de la dualidad ondacorpúsculo de de Broglie y el principio de incertidumbre de Heisenberg.
Muchos científicos anteriores hablaron antiguamente sobre la idea de campos como
aquel medio por el cual una fuerza era transmitida, pero sin duda la primera aparición de
una teoría de Campos es debida a Michael Faraday a principios del siglo XIX. Faraday
fue un excelente científico llegando a ser catedrático de química en la Royal Institution
en 1833. Sus trabajos sobre las líneas de fuerzas del campo eléctrico le sirvió a
Maxwell para llevar a cabo la primera teoría de campos. Según Faraday toda partícula
cargada eléctricamente ejerce a su alrededor líneas de fuerza que comienzan en una
carga y terminan en la carga eléctrica llenando todo el espacio y constituyendo así el
campo eléctrico. Aunque esta primera teoría de campos era errónea, puesto que tanto
Maxwell y Faraday, consideraban a las líneas de fuerza como continuas, sin intervalos,
y que necesitaban un medio para propagarse al que llamaron “eter”. Aunque esto fuera
∗
Principio de incertidumbre:
∆x ⋅ ∆p = h / 2π
∆E ·∆t = h / 2π
* Teoría onda-particula= λ = h
m·v
21
erróneo sirvió para demostrar que el efecto de un campo magnético estaba expresamente
relacionado con la electrostática.
Esto se basaba en las ecuaciones de Maxwell, la primera teoría de Campos, que explican
que el magnetismo es equivalente a la electricidad dinámica. A esta primera teoría de
campo se le llama teoría clásica de la electrodinámica. Establece que la acción de todo
campo electromagnético se debe mas bien como un fenómeno local, en el cual toda
partícula cargada interacciona con las líneas de campo, y viceversa, de modo que
dependa de todas las demás interacciones entre los campos y partículas.
Pero esta teoría deja de tener sentido si nos adentramos en el mundo de la física
cuantica, ya que según esta no tiene sentido hacer una distinción entre campo y
partículas, puesto que las partículas son en si una manifestación de los campos. Fue
crucial en el entendimiento de esta afirmación entender que toda partícula puede
comportarse como onda y partícula a la vez, según la teoría de onda-partícula de De
Broglie. Así, depende de la energía del campo, que es invariante en el espacio según la
cuantica, se crean partículas a través de estos campos en una cierta región según el
principio de Heisenberg y que son la manifestación de dicho campo que lo crea.
El principio de Heisenberg dice que es imposible medir con la misma exactitud la
posición de una partícula y su velocidad al mismo tiempo. Así cuanto mayor es la
precisión con que se conoce de la velocidad, mayor es la imprecisión de saber el lugar
que ocupa. También relaciono que la incertidumbre en la transmisión de energía entre
partículas y el tiempo se emplea en ellos. así, gracias a que sabemos por el principio de
onda-corpúsculo que toda partícula puede comportarse como onda, por tanto una
determinada energía, y viceversa, podemos saber si conocemos la energía del campo
que crea la partícula la posición de dicha partícula en el espacio por el principio de
incertidumbre de Heisenberg.
Así, gracias a esto sabemos que los fotones son las partículas o cuantos (paquetes de
energía) del campo electromagnético. A esto se le conoce como la segunda
cuantizacion.
Por otra parte, las partículas cuanticas que representan a un campo determinado difiere
de la familia a la que pertenezca dicha partícula. Así por ejemplo, los electrones, que
como vimos pertenecen a la familia de las partículas llamadas bosonicas y los fotones a
las bosones. Por tanto, podemos decir que existen dos tipos de campos, el campo
bosónico y el campo fermiónico. Así el campo fermionico da lugar al mundo material,
mientras que el campo bosonico da lugar a las interacciones que lo mantienen unidos
junto a la materia.
Estas teoría cuanticas han sido aplicadas a la teoría de la electrodinámica clásica, para
dar lugar a una de las teorías mas impactantes de la física moderna actual, la
electrodinámica Cuantica o QED. Esta teoría permite explicar las interacciones
electromagnéticas entre partículas cargadas y ha servido de punto de partida a la hora de
intentar unificar todas las demás fuerzas. Por ejemplo, según la QED, todo electrón esta
rodeado de una nube de fotones virtuales, los cuales a su vez se pueden convertir en
pares electrón-positrón tomando energía del campo mediante principio de
incertidumbre, y permite explicar las interacciones entre fotón y electrón. Sin embargo,
esta teoría no es del todo concluyente ,ya que en sus ecuaciones a la hora de saber el
22
limite energético, que debe existir para que un fotón de una nube electrónicas se
convierta en pares electrón-positrón , no existe limite, es decir, es infinita y lo cual
implicaría una masa del electrón infinita, lo cual es impensable. Para poder solucionar
esto, se consigue mediante la denominada operación matemática, renormalizacion, que
no a todo el mundo científico le gusta, ya que requiere trucos matemáticos como dividir
entre infinito que hace que no sea una teoría perfecta.
-Aparición de nuevas fuerzas y un sinfín de partículas
La búsqueda de una teoría perfecta que permita unificar todas las fuerzas que se creían
que existían en la naturaleza antes del siglo XX, la gravedad y el electromagnetismo, se
vio dificultada, al descubrir que existían mas fuerzas de las conocidas en esos años
Gracias a la aportación de diferentes y enormes químicos, como Mendeleiev, Ernest
Rutherford, Bohr, James Chadwick... al conocimiento de la estructura del núcleo
atómico, se supo que los núcleos atómicos están compuestos por una partículas cargadas
positivamente, unidas a otras de mayor masa y carga neutra llamados neutrones,
formando el núcleo atómico y rodeados por una nube de electrones. Pero sin embargo,
surgió la duda de la estabilidad del núcleo, es decir, si según la teoría de la
electrodinámica, estos protones debían de repelerse por sus cargas positivas, por qué no
lo hacían sino que permanecían ligados fuertemente.
Al principio se rondó la idea de que podía ser debido a que los electrones del núcleo se
escondían detrás de los neutrones, mas masivos, debilitando su interacción
electromagnética. Pero esto no explicaba como permanecían tan fuertemente ligados en
el núcleo. El primero en dar una respuesta clara a esta cuestión fue un físico japonés
llamado Hideki Yukawa en 1935. Según Yukawa, el hecho de que los protones no
salgan repelidos por sus mismas cargas, se debe a que entre ellos debe de existir una
fuerza de gran magnitud, muchísimo mas grande que la fuerza eléctrica, que solo
operase a distancias microscópicas que hicieran que no pudieran ser percibidas para un
ojo y una mente de un mundo a gran escala. Esta es la llamada fuerza fuerte, que es la
fuerza de mayor magnitud y que opera solo a distancias llamadas nucleares.
Para describir esta nueva fuerza Yukawa
hizo una analogía con la fuerza
electromagnética. En toda interacción
electromagnética, se da un intercambio de
partículas, los fotones virtuales, que son los
responsables
de
las
interacciones
electromagnéticas. Además estos fotones se
entienden que no tienen masa, por lo que su energía de interacción solo depende de su
longitud de onda y no existe limite temporal y espacial según el principio de
incertidumbre para interaccionar puesto que la energía es muy pequeña. Pero que
ocurriría si estos fotones tuvieran masa?, entonces las energías de interacción serian tan
altas que para que una partícula interaccionase necesitaría un limite de tiempo y unas
distancias muy pequeñas, microscópicas. De aquí, razonó que debía existir otro campo,
similar al electromagnético, que solo actuase en unas distancias muy pequeñas, cuyos
cuantos de campo, al igual que los fotones son bosones pero con masa. A diferencia del
campo electromagnético, estas partículas solo pueden ser intercambiadas entre las
partículas fermiónicas que sienten el campo, razón por la cual los electrones no
intercambian mesones porque no sienten la fuerza fuerte. Otra diferencia con el campo
23
electromagnético, con los fotones, es que la partícula de la interacción fuerte tenia masa
a diferencia de los fotones que no tienen masa.
Estas hipótesis descritas por Yukawa. debían de ser confirmadas y por tanto había que
buscar la partícula que portaría la fuerza fuerte. Sin embargo, para que esta partícula
existiría y podría ser observada en estado libre harían falta unos aceleradores de
partículas millones de kilómetros dado las enormes temperaturas que necesita la
partícula para estar de forma libre, lo cual era impensable. Sin embargo, los físicos de
los años 30, de que si la gran Explosión, el Big Bang hubiese existido, entonces la
partícula esta tendría que encontrarse de forma libre dado la grandes temperaturas que
se manejaban en esos instantes.
Así buscaron en los rayos cósmicos que chocan continuamente con la Tierra y que son
una gran fuente de información del Universo primitivo. Estos estudios de los rayos
cósmicos, que consisten en ver la desviación de los rayos cósmicos debido a su carga al
pasar a través de un campo magnético, permitieron a Cecil Powell en 1947 descubrir
esta partícula portadora de la interacción fuerte a la que se la llamo pion o mesón pi.
Anteriormente, en 1936, mientras se buscaba esta partícula, el físico de altas energías
Carl Anderson, descubrió otra partícula, el muon, que en un principio se creía que era la
partícula buscada, pero después rechazada dado que no tenia la masa ni la energía
esperada para reaccionar en el núcleo y porque mas adelante se demostró que este muon
se obtenía de la desintegración del pion anteriormente mencionado.
Por otra parte, un gran paso hacia el desarrollo del modelo estándar y el mundo de las
partículas vino de la mano de Paul Dirac, uno de los físicos cuanticos más importantes
de la historia en 1928. Según Dirac, después de trabajar con las ecuaciones del
comportamiento de los electrones y hallar dos posibles soluciones a estas, generalizo
prediciendo que toda partícula material del Universo debe de tener su pareja en forma
de antimateria. Estas hipótesis causaron gran conmoción en el mundo científico al abrir
una vía de simetría para explicar las interacciones. Además, según Dirac, una partícula
material que chocara con su antiimagen material, produciría un gran estruendo en forma
de energía; y viceversa una una gran fuente de energía podría crear estos pares de
materia-antimateria.
Todas estas predicciones fueran descubiertas, otra vez, gracias a los rayos cósmicos en
1932, el mismo año en que se descubrió el neutrón, siendo el positrón la partícula de
antimateria que se descubrió. El positrón o antielectrón, al igual que las demás
partículas de la antimateria, se caracteriza por tener masas idénticas pero con cargas
opuestas, en este caso para el positrón su carga seria de +1 en oposición a la carga –1
del electrón.
Todos estos descubrimientos, hicieron que se empezaran a darse una nueva clasificación
de las partículas, dándose los primeros pasos del Modelo Estándar. La primera
clasificación se basaba en diferenciar a las partículas que sentían la fuerza fuerte y las
que no. Así se podían encontrar la familia de los leptones, que no sienten la fuerza
fuerte y la familia de los Hadrones, que son las partículas que sienten esta fuerza. Los
leptones estarían formados por el electrón y el muon, los cuales son partículas
fermionicas (partículas representantes de la masa) a su vez y que tenían ambos un espin
de ½. Por otra parte, en la familia de los hadrones, las partículas fermionicas, tales como
24
los protones y los neutrones, se les conoce como bariones y a las partículas bosonicas de
los hadrones, estos son aquellas portadoras de las fuerzas, como mesones.
Sin embargo, el numero de partículas no se limitaban a la descripción hecha. El núcleo
atómico y las reacciones nucleares dejan notar su presencia gracias a tres tipos de
radiación: la radiación α, la radiación β y la radiación γ. Pues es en esta segunda de
donde surgió el descubrimiento de una nueva fuerza, la fuerza de interacción débil. La
radiación beta consiste, como ya he dicho a lo largo de todo el trabajo, en la
desintegración de un neutrón para formar un electrón y un protón mas un antineutrino,
dada la corta vida media del neutrón (apenas 15 minutos) debido a su alta inestabilidad
cuando esta solo. Durante esta desintegración, se descubrió a principios del siglo XX,
que la masas del protón y del electrón sumadas era menor que la del neutrón que se
partía. Por eso, y tal como predijo el físico suizo Wolfgang Pauli en 1930, debía de
existir otra partícula que representase la masa que le faltaba a esta reacción de
desintegración, que seria la portadora de la fuerza nuclear débil.
Esta partícula portadora de la fuerza nuclear débil fue predicha por el físico italiano
Enrico Fermi, a la que denoto como W- , Esta nueva partícula es un bosón, la cual según
la teoría de la electrodinámica cuántica, es una partículas muy masiva, que durante la
desintegración beta, se lleva consigo la carga eléctrica negativa y un gran exceso de
energía absorbida del medio, la cual, según el principio de Incertidumbre de
Heisenberg, la traduce en una gran inestabilidad y corta vida media. Así, mientras el
neutrón se convierte en un protón y origina esta partícula W- , que a su vez, como tiene
un defecto de energía a devolver, se convierte en un electrón y una partícula aun no
descubierta en esos años llamada antineutrino.
Se podía ver que, para mediados del siglo XX, se habían descubierto tantas partículas,
que los científicos se propusieron formar una “Tabla Periódica” de partículas que les
permitiera ver alguna periodicidad entre las partículas y así descubrir nuevas partículas.
Tal y como se hizo en su día con la Tabla periódica de los elementos, que se dieron
cuenta que si se ordenaban según el numero atómico de los elementos se podía observar
ciertas características parecidas y eso les permitió descubrir nuevos elementos aun sin
descubrir; hacía falta un rasgo o una regla en la que ordenar esta tabla periódica de
elementos.
Así, para este fin, dos físicos como Murria Gell-Mann y Yuval Ne’eman ordenaron a las
partículas según su “extrañeza”. La extrañeza es una propiedad propia de las partículas
fundamentales y puede variar desde –2 hasta +2 (incluido el 0), pudiendo presentarse
extrañezas aun mayores. Destaca además, que como sabemos, la carga eléctrica tiene
que conservarse en el Universo para que no existan fuerzas eléctricas que influyan en la
estructura del Universo, entonces la extrañeza de las partículas también se conserva en
las interacciones.
Gracias a esta propiedad de la extrañeza y las antiguas propiedades ya conocidas como
el espin, la carga y otras propiedades, Gell-Mann agrupo todas las partículas en una
Tabla a la que la llamo “las ocho vías”. Este sistema incluía en el familias de uno, ocho,
diez o veintisiete miembros, en los que cada familia estaba ordenada por las mismas
características.
25
Gracias a esta Tabla de las Ocho Vías, se pudo descubrir que en la familia que agrupaba
a los bariones en diez apartados tenia un hueco, signo de que faltaba una partícula. A
esta partícula Gell-Mann la llamo Ω-. Esta partícula destaca por tener una extrañeza de
-3 y una masa equivalente energéticamente a unos 1680 MeV. Años mas tarde, gracias
también a las ocho vías, utilizada como teoría de la estructura interna de los núcleos
atómicos, Gell-Mann y el físico George Zweig en los años 60, propusieron que los
protones y los neutrones no eran partículas fundamentales de la naturaleza sino que
estaban a su vez constituidas por otras partículas, los Quarks.
Los quarks son las partículas fundamentales de la
familia de los hadrones, de la familia que sienten la
fuerza de interacción fuerte. En los años 60, cuando se
dio la teoría Cuantica de los Quarks se propusieron la
existencia de tres quarks. Los dos primeros, son los que
dan el carácter de carga a las partículas hadronica que lo
constituyen. Así, se denomino quark arriba, al quark
con carga +2/3, y quark abajo al quark con carga
1/3. Gracias a estos dos, se podía explicar la formación
de los neutrones, protones y los piones, todos ellos
hadrones. El neutrón esta formado por dos quarks abajo y un quark arriba, lo que le da
la carga 0 y el protón, por su parte, esta formado por dos quarks arriba y un quark abajo,
dándole la carga +1. Mientras, los piones son mas complejos de explicar, ya que se
creen formados por una pareja quark-antiquark; por ejemplo, un quark arriba con un
quark antiabajo darian un pi+, un abajo con un antiarriba, darian un pi- y una quark
arriba con uno antiarriba o uno abajo con otro antiabajo darian lugar a un pion pi0 .
El tercer quark predicho, seria el que daría la extrañeza a las partículas hadrónicas.
A este quark se le llamo quark extraño. Como hemos dicho, los hadrones están
compuestos por una tripleta de quarks, excepto en los piones que están formados por
parejas de quarks. Pues bien el carácter extraño, la extrañeza, de las partículas, se debe a
la sustitución de alguno o todos los quarks de las partículas por estos quarks extraños.
Gracias a este quark, podemos saber que los protones y los neutrones tienen extrañeza 0,
porque no contienen ningún quark extraño, mientras, en la partícula Ω-, su extrañeza de
–3, se debe exclusivamente a la presencia de los tres quarks que lo forman como quarks
extraños. Se caracteriza también este quark extraño por poseer el doble de mas que los
quarks arriba y abajo.
Existen otros tres quarks, los cuales tienen mas importancia mas adelante, cuando se
empiecen a dar las primera teorías de unificación de las fuerzas que permitan explicar
con mas facilidad lo que ocurrió en tiempos cercanos a la gran explosión.
Por otra parte, los quarks, como otras partículas debían de estar unidas mediante unas
partículas que fueran portadoras una fuerza que las mantenga unidas, en este caso la
fuerza de interacción fuerte. Como ya dijimos mas arriba, los protones y los neutrones
se mantenían unidos gracias a los piones, que se creían las partículas portadoras de la
fuerza fuerte. Pero como ya hemos dicho, estos piones están formado por una pareja de
quark-antiquark, por lo que debe de existir otra partícula aun mas fundamental, que sea
la responsable de mantener unidos a los quarks, formando protones, neutrones y piones,
que estos, a su vez unen a los neutrones y a los protones. A esta partículas portadoras de
26
la interacción fuerte se las llamo Gluones y como son partículas transmisoras de fuerza
pertenecen a la familia de los Bosones.
La teoría de los Quarks trajo consigo una nueva concepción de lo que ocurrió en el
Universo cuando se empezó a implicar la materia cuando fue disminuyendo la energía
para que las partículas empezaran a interaccionar entre si. Así, el juego de las reacciones
de las partículas se limitaba a la interacción de solo 4 partículas fundamentales: los
quarks arriba y abajo, el electrón y el neutrino. Así, si tomamos otra vez como ejemplo
la desintegración beta, porque es donde se da la presencia de las interacciones débiles y
fuertes, se puede ver que en este caso, ya no es el neutrón el que se convierte en un
protón y una partícula W- que a su vez producen el electrón y el antineutrino, sino que
según la teoría de los Quarks, es un quark abajo el que se cambia por un quark arriba
produciendo la partícula W- , produciendo a su vez el electrón y el neutrón.
Continuamente estoy haciendo
mención a la desintegración beta,
dada su importancia para explicar
muchísimos procesos que se dan
en otros campos de la naturaleza.
Así, gracias a la desintegración
Beta, los científicos de los años
cincuenta, mientras intentaban
construir una teoría de campo de la interacción débil les permitió descubrir un hecho
muy importante, tenia simetría. Hasta ese momento se sabia que el campo
electromagnético era un campo simétrico, ya que toda partícula de carga tiene su pareja
simétrica con carga opuesta. Esta simetría, permitió diferenciar a los neutrones y
protones mediante una propiedad a la que llamaron espín isotópico o isoespín. El espín
isotópico, consiste en una flecha imaginaria interna asociada a cada partícula nucleónica
(protón y neutrón). Así el isoespín del neutrón seria una flecha imaginaria apuntando
verticalmente y la del protón una flecha apuntando horizontalmente.
Cuando se da la desintegración beta, se produce también un cambio en el sentido de
orientación del isoespín en un giro de 90º. Pero, al igual, que no se dan cambios en las
fuerzas electromagnéticas, ya que como se ve en esta desintegración beta la cargas se
igualan, las fuerzas de interacción fuerte tampoco sufren cambios, debido a que se pasa
de un isoespín vertical, neutrón, a un isoespín horizontal, protón, los cuales se anulan. A
estos campos que cumplen esta simetría se les denomina como campos de aforo o
calibrado. Estas teorías sobre la simetría tienen especial importancia a la hora de
explicar como fue posible unificar las fuerzas conocidas en el Universo, objeto deseado
para conocer lo que ocurrió en el nacimiento del Universo.
27
LA PARCIAL UNIFICACIÓN DE LAS FUERZAS
La búsqueda de una teoría que unifique las cuatro fuerzas del Universo es el objeto mas
deseado por los científicos desde mediados del siglo XX hasta nuestros días. El
descubrir una teoría que englobe las cuatro fuerzas, es decir, la gravedad, el
electromagnetismo, la fuerza débil y la fuerte, permitiría conocer con exactitud lo que
ocurrió en el primer instante del Universo, cuando T era igual a 0, ya que en ese instante
todo constituía una gran bola de fuego, regida bajo la misma física, una física que
englobaba las cuatro fuerzas; las cuales a medida que el Universo se expandió y se
enfrio empezaron a separarse y a actuar por
separado.
El Modelo estándar aun siendo una teoría muy
relevante, solo explica parcialmente
esta
unificación de las fuerzas, ya que ha conseguido
ligar la fuerza electromagnética y la débil, e
incluso ha podido llegar a unificar la fuerza fuerte.
Sin embargo, el gran problema del Modelo
estándar y de todos los científicos es que todavía
no han sido capaces de englobar dentro de este modelo y de ningún modelo a la fuerza
de Gravedad.
-La unificación electrodebil
La unificación de las fuerzas débil y electromagnética se llevo a cabo debido a un
intento fallido anteriormente de unificar la fuerza de interacción fuerte y a la
electromagnética que había sido realizado por Yang y por Robert Lawrence Mills en
1954.
Esta teoría de Yang-Mills consistía en una teoría de campo de aforo invariante de la
interacción fuerte. Esta teoría se basaba en la simetría que presentaban las partículas
nucleares en cuanto a su espín isotópico. Mediante esta teoría, existe una simetría local
que permite cambiar todos los isoespines de los protones y los neutrones en distintas
partes del Universo e instantes del mismo, pero al final la reside una simetría global que
hace que si se cambia un protón en un neutrón en una parte del Universo,
inmediatamente y simultáneamente se cambia un neutrón por un protón (y viceversa)
conservando así la simetría global.
La de Yang-Mills, destacaba además por ser una teoría no-abeliana, ya que si se le
aplica una operación de simetría local, llamémosla A, y luego otra B, el resultado es
diferente de que se apliquen inversamente: primero B y luego A. Esta terminología se
deriva del trabajo del matemático noruego Neils Henrik Abel, el cual a principios del
siglo pasado estudió las propiedades de los grupos de transformaciones en las que se
obtiene el mismo resultado si se conmutan. Uno de los mayores atractivos de las teorías
de norma no-abelianas con simetría local es que la relatividad general pertenece a esta
familia, por lo que una formulación de este tipo para cualquiera de las otras fuerzas sería
un paso importante hacia la unificación.
28
La teoría de Yang-Mills fue objetada casi de inmediato por varias razones
fundamentales. Entre las más obvias estaba su predicción de la existencia de fotones
cargados. Si hubiera partículas cargadas con masa inferior a la del electrón, el Universo
sería totalmente distinto del que conocemos. Sin embargo, esta formulación posee
algunas características matemáticas tan especiales que motivaron a los físicos teóricos a
buscar alguna manera de modificarla para eliminar sus defectos más que a desecharla.
Aunque se trataba de una teoría errónea, les sirvió como base a los científicos del siglo
XX para aplicar sus ideas a la fuerza de interacción débil y dar un paso importantísimo
para entender el comienzo del Universo, la unificación del electromagnetismo y la
fuerza débil.
El primer científico en aplicar la teoría de Yang-Mills a la interacción débil fue Julian
Schwinger, un impresionante matemático estadounidense nacido en 1918. Según
Schwinger, también existía un isoespín “débil” en las partículas leptonicas (electrón y
neutrino), ya que al igual que los protones y neutrones intercambian su isoespín en la
desintegración beta, un electrón se crea con un antineutrino, lo que es lo mismo a decir
que un neutrino se convierte en un electrón intercambiando su isoespín. Su teoría,
consideraba al igual que la de Yang-Mills tres bosones vectoriales, dos con carga y uno
sin esta. A los cuantos de campo sin carga los considero, al igual que Yang-Mills, se le
atribuyo a los fotones; mientras a los dos bosones cargados se les llamo como W+ y
W-, los portadores de la interacción débil. Esto permitía una simetría en términos de que
la interacción débil y el electromagnetismo eran lo mismo, pero esta simetría se rompía
puesto que las partículas W tenían masa, lo que hace que tengan un alcance limitado,
mientras que el fotón no tiene masa y por tanto su alcance es infinito.
A este problema con la masa de las partículas le
dio respuesta el científico escocés Peter Ware
Higgs en 1964. Higgs encontró un método para
dotar de masa a los campos de Yang-Mills sin
romper la simetría local. La idea de Higgs se
basaba en un proceso conocido como rotura
espontánea de simetría. Este mecanismo se puede entender en términos de la interacción
gravitatoria para una bola en lo alto de un sombrero mejicano. Un sombrero mejicano
puesto horizontalmente es perfectamente simétrico. Si se pone ahora una bola en el pico
del sombrero, el sistema permanecerá simétrico mientras esta no se mueva. Si esto
sucede, la simetría bola-sombrero se romperá y la bola se depositara en el fondo del
sombrero en un estado asimétrico de energía mínima. En otros términos, el estado
simétrico es de mayor energía potencial que el asimétrico. Ahora, si se deja a la bola
sobre el borde del sombrero, por un instante habrá simetría pues la bola tendrá libertad
para caer en cualquier dirección del sombrero. Sin embargo, cuando cae, hay un
rompimiento espontáneo de la simetría, y la simetría queda escondida.
Según Higgs, refiriéndose a la masa de los campos de Yang-Mills, el estado simétrico
corresponde al caso de campos sin masa; sin embargo, la existencia de un nuevo campo
elevaría la energía de este estado por encima de otro en el que las partículas de YangMills adquieren masa. A este nuevo campo se le denomino campo de Higgs.
Basándose en los trabajos de Higgs, el científico americano Steven Weinberg, por un
lado, y el pakistaní Salam y su colega Ward por otro en 1967, llevaron a cabo una teoría
29
de las interacciones débiles basada en la teoría de Yang-Mills según la cual las tres
partículas del campo correspondiente, una neutra y las otras dos cargadas, adquirían
masa mediante un proceso de rotura espontánea de la simetría. En este modelo, el
campo de Higgs, responsable del rompimiento de simetría, y por consiguiente de la
aparición de la masa, introduce, a su vez, cuatro nuevas partículas, de las cuales tres de
ellas se mezclan con las partículas de la teoría Yang-Mills de forma que las dos
partículas cargadas y una de las neutras adquieren masa, y son identificadas como la Wy la W+, como las partículas de masa(tal y como predijo Schwinger), y la partícula Z0, la
partícula con masa pero sin carga. La cuarta partícula de Yang-Mills, que es neutra,
permanece sin masa, y resulta ser el fotón. De este modo las partículas Z y las dos W
serian las portadoras de la interacción débil y el fotón la del electromagnetismo.
De este nuevo arreglo sobra una partícula de Higgs que no se mezcla y, por lo tanto,
queda como una predicción de la teoría, que se trata de la llamada partícula o bosón de
Higgs. Sin embargo quedaban todavía algunos problemas serios por resolver. En cuanto
a la teoría misma, había que probar que el modelo fuese renormalizable, tal y como
ocurrió cuando se realizo la teoría de la electrodinámica cuántica. Pero la mayor
dificultad era experimental puesto que, ninguna de las otras partículas habían sido
observadas. a excepción del fotón
Para el primer problema de la renormalizacion, el científico holandés Gerard't Hooft
encontró solución en junio de 1971. Esta se basaba en una formulación sobre un
rompimiento espontáneo de la simetría que es renormalizable. Este paso resolvió la
dificultad teórica del modelo propuesto por Weinberg, Salam y Ward. El
descubrimiento de Hooft causó un gran revuelo entre los físicos de partículas y las
propuestas experimentales para detectar bosones portadores de la interacción débil
empezaron a ser enormes.
Experimentalmente, las Z son más fáciles de identificar pues aparecen en situaciones en
las que el campo electromagnético no juega ningún papel, tal como la dispersión de
neutrinos por protones. Así en lo experimentos llevados a cabo en la CERN, un
impresionante acelerador de partículas, en 1973, F. J. Haert y sus colaboradores
produjeron las pruebas de que las interacciones implicaban a la partícula Z. Este
experimento se baso en las huellas dejadas en una cámara de burbujas llamada
Gargamelle, al reaccionar un antineutrino o un neutrino con un electrón haciendo pasar
un rayo de neutrinos de alta energía, gracias a la partícula Z mediando de por medio.
Por otra parte, la teoría electrodebil predecía la masa para las partículas Z y las W.
Cada W debía pesar unos 92 GeV(100 veces menos de masa que el protón) y la
partícula Z pesaría alrededor de 82 GeV, razón por la cual tuvieron que pasar diez años
antes de que estas partículas pudieran ser producidas directamente en un laboratorio.
Para esta labor se el CERN construyó un acelerador en Ginebra lo suficientemente
grande para llevar a cabo la detección de estas partículas.
Para esta labor, la CERN designo a Simón Van der Meer y Carlo Rubbia. El primero
desarrolló la técnica de aceleradores que hacía falta para observar colisiones de rayos de
protones chocando frontalmente con antiprotones a más de 90 GeV. El segundo
construyó un sistema de detección de más de 500 metros cúbicos llenos de cables y
artefactos con un peso total superior a las 2 000 toneladas. Hacia enero de 1983, el
acelerador de Ginebra empezó a dar sus frutos, dando claras muestras de las existencia
30
de las partículas W y Z con masa parecidas a las predichas, que se producen durante la
colisión y que después se desintegraban en electrones energéticos y otras partículas.
Rubbia y Van der Meer anunció los resultados de estos primeros experimentos, en los
que se observaron más de mil millones de eventos, que le sirvieron para, en diciembre
de 1984, Van der Meer y Rubbia recibir el premio Nóbel.
Gracias a las masas predichas, y por tanto sus energía en reposo, para estas partículas W
y Z, sabemos, por la ley de Boltzmann que estas partículas debieron aparecer cuando la
temperatura del Universo rondaba los 1015 K, esto es, una mil millonésima de segundo
después de T = 0. entonces fue ene este momento, cuando la interacción débil se separo
de la fuerza electromagnética hasta tal y como las conocemos en la actualidad. A
medida que se consigan aceleradores de partículas que puedan producir mayores
energías, mas podremos acercarnos al instante del nacimiento del Universo.
-Hacia la unificación de la fuerza Fuerte
Ya hemos visto que los científicos de mediados del siglo XX fueron capaces de
demostrar que la fuerza electromagnética actúa de forma unificada con la fuerza fuerte a
temperaturas o energías elevadas. El siguiente paso y el mas deseado por los científicos
era el de unificar a estas dos la fuerza de interacción fuerte. Pero, para conseguir esto
primero debían de solucionar problemas relacionados con las partículas que sienten
estas fuerza fuerte, los quarks. El problema residía en la coexistencia de quarks
aparentemente idénticos, como por ejemplo, en la partícula Ω- , la cual está formada por
tres Quarks extraños, como hemos dicho aparentemente idénticos. Pero el problema
reside, en que los quarks, como son partículas fermiónicas, deberían de cumplir el
principio de exclusión de Paulí.
Para evitar que no se cumpliesen el principio de
exclusión, dos físicos teóricos japonés, Yoichiro
Nambu y M.Y.Han, propusieron la existencia de
cada quark conocido en tres variedades
denominadas colores, haciendo así, que existiesen
diferencias entre quarks de una misma partícula, y
cumplir el Principio de Exclusión. Así estos colores se denominaron: Rojo, azul y
verde; que permite explicar, mediante diversas ecuaciones matemáticas como la
partícula omega menos esta formado por tres Quarks extraños, uno rojo, azul y verde.
Por otra parte, otro problema que surgía a la hora de intentar unificar la fuerza fuerte,
era entender el porque los bariones este formados por un tripleta de Quarks mientras que
los mesones están formados en pares de Quarks. Para explicar esto, Nambu y Han,
propusieron un principio en el cual las combinaciones de los quarks para formar
partículas han de hacerse de manera que la partícula formada carezca de color. Así, cada
mesón estaría formado por un Quark de un color con otro quark anticolor. Mientras, en
los hadrones, este estado “incoloro” se conseguiría mezclando en una partícula cada uno
de los tres colores con cualquier quark arriba, abajo o extraño.
Gracias al descubrimiento de que los quarks tenían color, y de que además su estado
global debía de ser incoloro, los científicos aplicaron estos hechos a los principios
simétricos que proponían la teoría de Yang-Mills, denotada como la Cromodinamica
Cuantica o QCD. Según esta teoría, todo quarks es libre de cambiar su color
31
independientemente con los demás emitiendo a su vez un gluon, es decir, se produce un
cambio en la simetría local del Quark, que rápidamente es contrarrestado por otro Quark
que cambia de color al absorber el gluon emitido por el anterior Quark y así
sucesivamente, lo que hace que la partícula se mantenga incolora y hace además que
estos gluones emitidas y absorbidos sucesivamente sean los responsables de mantener a
los núcleos atómicos unidos, portando así la fuerza fuerte.
Paralelamente a esta teoría, se descubrió experimentalmente en 1974 la existencia de un
nueva partícula masiva a la que llamaron partícula “psi”. Para explicar el
funcionamiento de esta partícula, se incorporo un nuevo Quark a la teoría de Quarks, el
Quark “encanto”. Gracias a esta partícula encanto, supuso una prueba de vida de la
verosimilitud de la QCD, y permitió a los científicos tener un patrón donde buscar mas
partículas aun no descubiertas.
Experimentalmente, en 1975 en el acelerador de partículas, el SLAC, se sugirió y un
año mas tarde confirmado experimentalmente en Hamburgo, la existencia de una
partícula leptónica, un partícula de la familia del electrón, el doble de masivo que el
protón a la que llamaron partícula Tau o τ. Esta partícula a su vez tendría su simétrico
de antimateria la partícula antitau. Esto elevaba el numero de leptones a 6 (electrón,
neutrino y tau con sus respectivos antiimagenes), lo que haría que para conservar la
simetría con con el mundo de los hadrones, deberían existir al menos dos Quarks mas, a
los que los llamaron Quarks “cima” y Quark “fondo”.
La combinación de la teoría electrodébil y la QCD es lo que hasta ahora he venido
definiendo, el Modelo estándar de las partículas. Sin embargo, aunque haya resaltado su
importancia, se puede ver que el Modelo estándar no define concretamente como y
cuando se encontraban unificadas la fuerza fuerte con la electrodebil. Por otra, parte el
mayor problema del Modelo estándar, es que aunque haya sido capaz de unificar, con
mayor o menor éxito las fuerzas electromagnéticas, débil y fuerte, es incapaz de
explicar la unificación de la Fuerza de Gravedad, por lo que se han ido proponiendo
nuevas teorías para encontrar una Gran teoría Unificada, denotada por GUT, que
unifique todas las fuerzas.
32
MAS ALLÁ DEL MODELO ESTANDAR
LA SUPERSIMETRIA y SUPERGRAVEDAD
A partir de este momento, las teorías de Unificación o GUTs, basadas en supuestos
simétricos constituyen un entendimiento del funcionamiento del Universo todavía mas
profundo que con el Modelo estándar. Anteriormente, se habían propuesto GUTs que
trataba con familias de cinco partículas, que permitían, por ejemplo, en una familia de
tres quarks con color, electrones y neutrinos, entender como un protón se transforma en
un neutrón y como cambian de color los Quarks. Sin embargo, gracias a la
supersimteria se puede explicar como un quark se puede transformar en un Leptón.
En la teoría electrodébil se requieren cuatro
bosones, el fotón y las 2 partículas W y la Z.
Gracias a la supersimetría nació una GUT
quíntuple, que requiere 24 bosones. Cuatro de
ellos corresponderían a la teoría electrodebil,
ocho mas a la teoría QCD y todavía sobrarían
doce nuevos bosones que serian responsables de
diversas interacciones a las que llamaron
bosones X o Y. Estos hipotéticos bosones,
podrían cambiar quarks en leptones y viceversa,
portan carga de 4/3 o 1/3 y serian muy masivas.
Según esta teoría las tres fuerzas, la electrodebil
y la fuerte, habrían estado unificadas a temperaturas del grado de 1015 GeV, que
correspondería a una edad del Universo de 10-37 seg. y una temperatura de 1029 K .
Este enfoque permitió a los científicos Julian Weiss y Buno Zumino en 1974, relacionar
los leptones con los Quarks dejando de lado, a los bosones, considerándolos
simplemente como partículas portadoras de fuerzas. Esto permitió exponer una teoría de
la supersimetría que englobaba todo y permitía relacionar los bosones con los
fermiones, las partículas de la materia.
La mayor dificultad que reside para relacionar los bosones con los fermiones, es que
estos últimos obedecen al principio de exclusión de Pauli, mientras que los bosones no.
Pero según la teoría de la supersimetría, toda partícula bosonica debe tener un
compañero fermionico equivalente y viceversa. Así por ejemplo, un quark, que es un
fermión, tendría su pareja bosonica en forma de un “squark”; mientras un bosón, como
el fotón, tendría su simétrica fermionico en forma de un fotino.
A estas teoría de supersimetria se le denota de forma abreviada como SUSY. Esta
permitía una cosa sorprendente, halló una relación de equivalencia entre las operaciones
matemáticas de conversión de fermiones en bosones con las operaciones de simetría de
la Relatividad general. Las operaciones de la teoría SUSY, no solo implican las
transformaciones bosón-fermión sino que también implicaban al espacio-tiempo. De
hecho, la teoría de la relatividad General no se trata mas que un reflejo de la geometría
en el espacio-tiempo.
33
Estas teorías abrieron dos nuevos caminos a los científicos. El primer camino se baso en
aplicar estas teorías de la supersimetria en las teorías de gran Unificación, a las que
llamaron teorías SUSY-GUTs. Por otro lado independiente, se llevo a cabo un
desarrollo de las teorías supersimetricas para la gravedad a las que se conocen como la
SUPERGRAVEDAD.
La versión mas aceptada de la supergravedad, es la llamada supergravedad “N = 8”, que
según los científicos que la desarrollan (actualmente), podría explicar todo de una vez,
permitiría explicar las el funcionamiento de las fuerzas, las partículas materiales y la
geometría del espacio tiempo de una estacada. Además, esta teoría de la supergravedad
“N = 8” no presenta el problema de la renormalizacion que surgían con las teorías de la
unificación electrodébil QED, sino que ella por si misma es autonormalizable.
LAS ONCE DIMENSIONES y LAS SUPERCUERDAS
La teoría de las once dimensiones surgió muchísimo antes que todas las teorías
anteriormente descritas, pero no ha sido hasta este siglo donde han sido consideradas de
importancia. Esta teoría se debe a un joven estudiante Alemán, Theodor Kaluza. Según
Kaluza, a medida que se le añaden dimensiones al Universo, las fuerzas se van
unificando hasta un punto en el cual se puede explicar todo, ya que se encuentra todo
unificado, que seria dándole al Universo una comprensión en forma de once
dimensiones.
Esta teoría surgió, en 1919, de una nueva interpretación de la teoría de la Relatividad, ya
que ésta, describe el funcionamiento de la gravedad en cuatro dimensiones, las tres del
espacio y la cuarta correspondiente al tiempo. Pues bien, Kaluza añadió una quinta
dimensión mas a la interpretación matemática de la Relatividad General, y se dio
cuenta, de que la quinta dimensión correspondía a las ecuaciones de Maxwell, es decir,
al electromagnetismo. había conseguido pues unificar la fuerza de gravedad con la
fuerza electromagnética añadiendo una dimensión mas al Universo.
Posteriormente, el físico sueco Oscar Klein, incorporo en 1926, la idea de Kaluza a la
Teoría Cuántica. El comportamiento de los electrones, los fotones... se describe en
Física Cuántica mediante un sistema de ecuaciones representadas por la ecuación de
Schrödinger. El trabajo de Klein se baso en rescribir esta ecuación para 5 variable, y
demostró que las soluciones se daban bajo la influencia de la gravedad y el
electromagnetismo. Así, las ondas electromagnéticas podrían entenderse como una
ondulación de la quinta dimensión, la partícula Z seria la sexta, así hasta que se
representen las cuatro fuerzas fundamentales.
Esta teoría se conoce como ecuaciones de Kaluza-Klein y posteriormente se demostró
que la unificación que proponía las once dimensiones es exactamente las mismas que la
de la supergravedad. Según esta interpretación de las ecuaciones de Kaluza-Klein con la
supergravedad, solo hace faltan 11 dimensiones para explicar todo lo que pasa en el
Universo, 4 dimensiones del espacio-tiempo y 7 adicionales representando las fuerzas.
Según esta teoría el Universo nació de un estado en el que estas once dimensiones se
encontraban unificadas y enrolladas sobre si mismas, y a medida que el Universo se
expandió y se enfrió, las dimensiones se iban desplegando, formando las partículas,
fuerzas de la naturaleza hasta terminar en el Universo que conocemos hoy en día.
34
La teoría mas actual y también la mas novedosa es la teoría de las supercuerdas, en la
cual se basa en tratar a las partículas, no como partículas sino como cuerdas
unidimensionales que se desplazan en el espacio-tiempo hiperdimensional. Además
Esta teoría establece que el microcosmos está dividido en cuatro niveles de organización
en cuanto a complejidad:
El primer nivel engloba al Modelo Estándar en sí, puramente descriptivo. El segundo
nivel, es el conocido como Nivel de Simetría, mediante los cuales se crean las
relaciones entre los Campos y las partículas de materia. El tercer nivel es donde se
encuentra la planta donde los niveles de simetría se interpretan como estados de un
espacio, no de tres dimensiones, sino de once. Y en la cuarta, el máximo del nivel de
abstracción, se encuentra el mundo donde vive el constituyente fundamental de la
materia: las supercuerdas. Estos objetos definen a través de su comportamiento esos
estados que provocan la aparición de los grupos de simetría que a su vez relacionan las
fuerzas con la materia, y que a su vez explican el comportamiento de las partículas
subatómicas y los átomos.
35
MAS CERCA AÚN
Gracias al modelo estándar descrito y a las teorías modernas de unificación que van
surgiendo, nos permiten acercarnos al momento de la gran explosión de una forma
precisa. Lo mas que podemos acercarnos a este instante esta en un tiempo igual 10-43
segundos, al que se le llama tiempo de Planck, debido a Max Planck. En este instante, la
longitud del Universo, llamada longitud de Planck, que es del orden 2·10-33 cm. Por
otra parte la masa en ese momento del Universo, la masa de Planck, seria igual a 2·10-5
gramos.
1/ 2
l Planck
 h·G 
= 3 
 c 
1/ 2
≈ 2·10
− 33
cm
t Planck
 h·G 
= 5 
 c 
≈ 10 − 43 s
En este instante la temperatura del Universo es equivalente a 1032 K y la densidad de
energía de la radiación era igual a 1019 GeV. A estas temperaturas, el universo estaba
dominada por la gravedad Cuántica, cuyos efectos aun se desconocen actualmente ya
que no se posee una teoría que explique el funcionamiento de la gravedad a nivel
cuántico, siendo esta la razón de que no podamos acercarnos mas al instante en el que
nació el Universo, cuanto T era igual a 0. Por otra parte, a este instante del Universo se
le conoce como Era de Planck.
El siguiente momento decisivo en la creación del Universo se dio 10-36 segundos
después de la misma, donde finalizo la Gran unificación de las cuatro fuerzas,
separándose primero la fuerza de gravedad, a una temperatura de 1028 K y una densidad
de energía de 1015 GeV. A este periodo que va desde la era de Planck, desde 10-43
segundos hasta 10-35 segundos se le conoce como Era de GUT.
Posteriormente, a 10-12 segundos, cuando las temperaturas eran de 1016 K y una
densidad energética de 103 GeV, fue cuando se separo la unificación electrodébil.
A unos 10-5 segundos, todos los quarks se encerraron en los bariones al descender la
temperatura por debajo de los 1013 ºK. A partir de este instante, el Universo evoluciona
de la forma descrita arriba anteriormente.
LA BARIOSINTESIS
Esta etapa del universo es de vital importancia ya que, en ella se produce el excedente
de materia, de bariones, sobre los anitbariones, la antimateria, que pudo después
evolucionar de la forma vista anteriormente durante los tres primeros minutos. Esto
ocurrió durante la era de GUT, es decir antes de los 10-35 segundos después del Big
Bang.
La teoría de la síntesis de bariones fue propuesta por el científico ruso, nacido en
Moscu, Andrei Sajarov. Según Sajarov, durante la era de GUT, el numero bariónico
(diferencia entre partículas barionicas y anitbarionicas), puede que no se conservasen ,
debido principalmente a la alteración de la simetría existente. En esta variación de la
simetría de los bariones influyo en gran medida dos leyes de conservación, la carga C y
la paridad P de las partículas (a esta rotura de simetría se le suele llamar invariancia
36
CP). Pues bien, debido a esta invariancia CP, la reacciones de las partículas con sus
respectivas imágenes se diferencio de las reacciones de estas partículas con las demás
partículas diferentes.
Esto, hizo que se produjera una asimetría bariónica, que debido a que durante la era de
GUT las temperaturas eran tan altas del, orden de 1027 K, la alta velocidad de las
reacciones de la radiación existente, marcara aun mas si cabe la asimetría en los
procesos que concernían bariones, tales como: 1) la existencia de procesos en los que no
se conserva el numero bariónico, 2) la alteración de la invariancia CP y 3) la desviación
del equilibrio.
Todo esto hizo que cuando empezara la inflación, fenómeno que describo adelante, ya
hubiera un excedente bariones sobre antibariones, que siguió igual, hasta las épocas de
las nucleosíntesis, donde se conformo bajo estas bases las cantidades de materia y
antimateria existentes en el Universo.
LA INFLACIÓN
El modelo de la inflación permite explicar y dar significativo a muchos problemas que
se han presentado en el Universo y que el modelo estándar hoy por hoy no puede o no
es capaz de responder.
Uno de estos problemas, es el problema con los monopolos magnéticos, es decir, de
cargas magnéticas aisladas, ya que suponían una contradicción al modelo descrito de la
unificación de las fuerzas. La existencia de monopolos las predijo primero,V. t’Hoft, y
después el físico soviético A.M. Poliakov mientras estudiaban la forma de unificación
de la fuerzas, ya que se dieron cuenta que en los modelos donde se explican las
diferencias existentes entre el electromagnetismo y las demás interacciones mediante la
ruptura de la simetría contienen soluciones correspondientes a cargas magnéticas
aisladas g = h·c
culombios.
2e
Sin embargo en los experimentos que se llevaron a cabo en aceleradores con rayos
cósmicos, la creación de estos monopolos magnéticos (y de sus respectivos
antimonopolos) no se observaban.
Estos monopolos, se crean como resultado de una transición desde una fase simétrica
hacia una donde se ha alterado la simetría del electromagnetismo con el resto de las
interacciones. Sin embargo, y tal y como dicta el principio de equilibrio termodinámico,
el alto valor de la concentración de estos monopolos, se tuvo que contrarrestar
aniquilándose mutuamente con sus antimonopolos en esta época de transición de fase
simétrica a otra no simétrica, dado que si hubiera monopolos en gran cantidad
actualmente, probablemente el Universo no habría evolucionado hasta la forma actual.
Otro problema que el modelo estándar no consigue explicar, es el llamado problema del
“horizonte”, que surge como consecuencia de la homogeneidad del Universo en todas
las direcciones del mismo. Como vimos en el punto concerniente a la radiación de
fondo, este nos indica que el Universo es isotrópico, que es completamente homogéneo.
¿Cuanta radiación sabe una parte del cielo que debe poseer para contrarrestar las fuerzas
producidas por la radiación del lado opuesto y así parecer homogéneo?. La mayor
37
información observable del antiguo Universo es la radiación de fondo cósmica, pero en
ese momento habían pasado unos 300.000 años de expansión, por lo que los lados
opuestos estaban separados. Pero esto significa que un tiempo anterior debieron estar en
contacto estos lados opuestos del Universo, y que en ese momento la radiación debía de
ser desigual. ¿pero como pudo esto producir una uniformidad de temperatura tal
apreciable en la radiación de fondo de microondas?
Otro problema que no sabe responder el Modelo estándar es el de la existencia de las
galaxias, ya que si el Universo se creo de un estado tan uniforme, ¿cómo se pudo formar
un Universo tan heterogéneo con tantas acumulaciones diferencias entre las galaxias
existentes?
Por ultimo el mayor problema para el modelo estándar era el generado por la
“planaridad” del Universo. Las soluciones a las ecuaciones de Einstein contemplaban
una posibilidad de que el Universo pueda ser plano, es decir que ni se expanda ni se
pueda contraer. La densidad actual del Universo, se cree que es una décima de la
cantidad requerida para hacerlo cerrado, entonces, un segundo después de la génesis del
Universo, la densidad del Universo se diferenciaba en 10-13 de la densidad critica, y si se
llega a 10-37 segundos después de la creación el valor se diferenciaba en 10-47 por ciento
menor que la densidad critica. Este valor cercano a la densidad que hace que el
Universo sea plano, indica que en los primeros instantes del Universo, este era plano,
pero que en un cierto momento ocurrió algo que acelero la expansión e hizo que tuviera
el aspecto que tiene en la actualidad.
Todos estos problemas podían tener solución gracias a un modelo de la inflación, que
predice que durante un periodo de tiempo después del Big Bang, el Universo debió de
crecer de forma violenta, dando significado a estos problemas. Este modelo fue
propuesto por primera vez en 1979 por Alan Guth, un magnifico científico
estadounidense nacido en 1947. Según este, en un momento de la evolución del
Universo, cuando se rompió la unificación de las fuerzas existentes, es decir, se rompió
la simetría debido a que los bosones vectoriales intermedios descritos en la
bariosíntesis, reaccionaron con las partículas de Higgs, que hicieron que ganaran masa,
ya que como dije mucho mas atrás, las partículas de Higgs se consideran en la
actualidad la responsable de que las partículas tengan masa.
Las partículas de Higgs se diferencian de las demás partículas en que su estado de
menor energía, no se da cuando el campo que las crea es nulo. A este estado en el que el
campo es nulo pero su densidad no es mínima la llamo “falso vacío”, mientras que al
estado de menor energía en el cual el campo no es nulo lo denoto como vacío
verdadero.
Según esto, hubo un momento en la evolución del Universo, aproximadamente desde
10-43 segundos hasta 10-35 segundos después del Big Bang, que hizo que le Universo se
enfriara hasta llegar a una temperatura de 1027 K, que hizo que el campo de Higgs
alcanzara se hiciera nulo pero su densidad de energía no fuese mínima, sino que se
encontrara en el estado de falso vacío, pero la simetría de las fuerzas no se rompiera, lo
que hizo que debido a este estado de falso vacío, toda su densidad de energía fuese
imprimida como una especie de efecto de antigravitación, que hizo que el Universo, a
esos 10-35 segundos se expandiera exponencialmente, como si se hinchara, hasta
alcanzar el estado de verdadero vacío.
38
Al alcanzar el estado de verdadero vacío, cuando habían transcurrido 10-24 segundos
después del Big Bang, el Universo se habrá expandido exponencialmente en un factor
de 1050, y es en este momento cuando la rápida inflación se detuvo, debido a que al
alcanzar el estado de verdadero vacío, la simetría se rompió y la densidad de energía de
las partículas Higgs se hizo mínima, lo que hizo que el impulso que dotaba al Universo
decreciera.
Posteriormente, esta teoría fue perfeccionada por el científico ruso Linde, nacido en
1984.
Este modelo dio solución a todos los problemas expuestos al principio. Por ejemplo, el
problema del horizonte se soluciona, diciendo que en las épocas inmediatas al origen del
Universo, los lados opuestos del Universo estaban en contacto todas ellas
uniformemente, haciendo después, mediante la inflación que se separaran violentamente
y permanecieran uniforme, tal y como se observa en la actualidad al Universo.
EL problema de la planaridad también se soluciona con el modelo de la inflación,
debido a que, como el Universo se ha expandido tan violentamente, en una potencia de
1050, la región del espacio que ha recorrido la luz(horizonte), hace que no sea curva sino
plana, como consecuencia de este violento “hinchamiento” del espacio.
En cuanto a los problemas de los monopolos, el volumen de espacio que había antes de
la inflación era muy pequeño comparado con el que había después de la inflación, ya
que el Universo se expandió en una potencia de 1050. Esto aseguraba la existencia de
enorme numero de monopolos antes de la inflación, pero que debido a esta inflación,
actualmente solo se observaría una zona, horizonte, en el cual apenas se encuentran, tal
y como desvelan las observaciones actuales.
39
Bibliografía
Libros
− Steven Weinberg, “los tres primeros minutos del Universo”, Alianza
Universidad
− Jhon Gribbin, “En busca del Big Bang”, editorial Pirámide
− M.Iú.Jlópov, “El Universo y la búsqueda de las teorías unificada de campo”,
editorial URSS
− Jhon Gribbin, “El nacimiento del Tiempo”, editorial Pirámide
Revistas
− Investigación y ciencia, agosto 2003, “Mas allá del modelo estándar de
partículas”
− Investigación y ciencia, abril 2004, “Sinfonía cósmica”
− Investigación y ciencia, abril 2004, “Los planos de la creación”
Internet
−
−
−
−
−
−
−
−
−
−
−
−
http://www.uco.es/~i52cacaj/AAC/bolet27/cosmologia.html
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/068/htm/
http://hyperphysics.phy-astr.gsu.edu/hbase/particles/
http://platea.pntic.mec.es/~jdelucas/particulaselementales.htm
http://www.ciencia-ficcion.com/glosario/f/fuerfund.htm
http://www.astrocosmo.cl/
http://www.fis.usb.ve/~mcaicedo/cosmology/talkv1.5.htm
http://www.cnice.mecd.es/tematicas/cosmologia/
http://particleadventure.org/particleadventure/spanish/index.html
http://www.geocities.com/CapeCanaveral/Launchpad/2921/cosmolog.htm
http://www.astrobiology.com/astrochemistry.html
http://www.geocities.com/pedroj.geo/early_a.html
40
Descargar