Javier Rasero 1º de física Grupo 01 1 Índice Contenido Pagina Introducción............................................................................0 La base de la cosmología .......................................................1 La radiación de fondo.............................................................2 Condiciones iniciales..............................................................4 Los primeros minutos.............................................................8 Modelo estándar de partículas...............................................14 Desarrollo del modelo estándar.............................................18 Mas allá del Modelo estándar................................................30 Mas cerca aún........................................................................33 Bibliografía............................................................................37 Contraportada ........................................................................38 2 Introducción Esta claro el afán del ser humano por conocer todo lo que le rodea y más aun cuando se trata de hablar del Universo. Han sido muchos los científicos que han ayudado a conocer un poco mas si cabe el funcionamiento del Universo. Por eso yo me quiero unir a estos científicos, aportando mi granito de arena recopilando los trabajos de infinitos investigadores que han hecho que comprenda mejor que ocurrió en el momento de la creación del Universo y a posteriori. Así con este objetivo, he divido el trabajo en varias partes, siempre tomando digo, como punto de partida la teoría del Big Bang, ya que es la teoría mas aceptada en la actualidad y la que mejor explica sin duda, como empezó la evolución del Universo. Sabiendo esto, he intentado ir describiendo como ha ido evolucionando el universo, desde un instante inmediatamente superior al Big Bang, 10-43 segundos después de esta, ya que la física actual no es capaz de explicar lo que ocurrió antes( y por tanto yo tampoco), todo esto explicado mediante bases cosmológicas y de física de partículas. Por ello, en una primera parte he descrito todo lo que hasta hoy en día se sabe con seguridad de lo que ocurrió el Universo, después de nacer este, basándome sobre todo, en el libro de, para mí, uno de los mejores físicos de mitad del siglo XX, Steven Weinberg, con su libro “Los tres primeros minutos del Universo”. Sin embargo, lo que hoy conocemos con seguridad sobre la evolución del Universo se queda un poco “lejos” del momento del génesis del mismo, por lo que, en una segunda parte he intentado, con mayor o menor éxito, adentrarme en el limite inicial que puede dar hoy la física, eligiendo para ello, la teoría del Modelo estándar de partículas, que, aunque no es la única y este incompleta, también es la mas se ciñe a lo que los científicos contemporáneos creen que sucedió después del Big Bang. Para esta parte del trabajo me he basado, sobre todo en los trabajos de 2 científicos, Jhon Gribbin y M.Iú.Jlópov. 3 LA BASE DE LA COSMOLOGÍA El Nacimiento del Universo ha supuesto una gran base de trabajos para los físicos del siglo XX. Fueron muchos los primeros que le empezaron a dar vueltas a la forma en la que universo nació. Para mediados de siglo, ya se sabia gracias a los trabajos de Hubble y de Eddington que el Universo se expandía, mediante la conocida ley de Hubble. V = H · r (distancia) Por otra parte, también se conocía casi con seguridad los posibles finales del Universo. Aunque ya se conozcan con suficiencia no esta de mas volver a recordar como se llego a postular sobre el final del mismo. Como de sobra esta sabido, Einstein formulo en los años 20 (del siglo XX) su famosísima teoría de la Relatividad General, que se trataba de la explicación del espacio-tiempo y la gravedad mediante la geometría del espaciotiempo. Pues bien, al aplicar las ecuaciones de Einstein al final del universo, nos dan dos posibles finales según de la densidad de materia existente en el universo: para una densidad critica de materia, por un lado podríamos encontrarnos con un universo cerrado, esto es, un universo en el cual debido a que existe una densidad de materia por encima de la critica hace que la gravedad frene la expansión y acabe derrumbándose sobre si mismo; y por otro lado también podría caber esperar un universo abierto, donde la gravedad no pueda frenar la expansión cósmica debido a que la densidad de materia es menor a la densidad critica. A partir de ahora me detendré para la realización de este trabajo sólo en el segundo modelo. Estos dos modelos, y en especial el de un universo abierto, fue fuertemente desarrollado y defendido por primero el astrofísico ruso Friedmann y después por el también astrofísico Lemaitre. Este ultimo a su vez, fue el primero en preguntarse como nació el universo y desarrollar las primeras teorías sobre el nacimiento del mismo. El modelo desarrollado por éste, fue el de La Gran Explosión o Big Bang. Esta teoría fue respaldada por muchos cosmólogos, como George Gamow, y hoy en día es el modelo que se acepta sobre el nacimiento del Universo. Este ultimo además también trabajó en el origen de los elementos químicos y la nucleosíntesis y como tendría que ser el universo actual para que hubiese nacido de una gran explosión. A nivel microscópico, se habían hecho grandes avances en la comprensión de la física cuantica, gracias a Luis de Broglie y a su teoría de la dualidad onda-crepúsculo de la materia, el principio de Incertidumbre de Heisenberg, el cual mide la imprecisión de saber la posición de una partícula a partir de su momento, las bases cuanticas de Planck y la radiación de Cuerpo negro, el efecto fotoeléctrico por parte de Einstein... A nivel nuclear, se empezaba a conocer el funcionamiento y estructuración del núcleo, así como la forma de reaccionar del mismo, gracias a Bohr, Shrödinger, Millikan... Como hemos podido ver para mediados del siglo XX, ya se había desarrollado enormemente la física moderna, pero sin embargo aún quedaba algo por descubrir actualmente para poder aplicar todo esto en el principio del Universo. Ya en los años 40, Gamow predijo para que el Universo naciera de una gran masa caliente de materia y radiación, hoy en día deberían quedar redictos de esta temperatura y seria la mayor prueba de que el Universo nació a partir de una gran bola de fuego, es la llamada radiación de fondo microondas. 4 FONDO DE RADIACIÓN DE MICROONDAS El descubrimiento de la radiación de fondo del Universo, de la prueba más clara que demuestra que el Universo nació de una gran explosión se llevo a cabo por los radioastrónomos Arno A. Penzias y Robert W. Wilson. Sin embargo, aunque se predecía su existencia gracias a los trabajos de Gamow, Lemaitre..., este hecho fue descubierto por pura casualidad. Era el año 1964 y mientras estos dos radioastrónomos estudiaban señales procedentes del Universo en el laboratorio Bell Telephone en Crawford Hill, New Yersey con una antena de radio, se dieron cuenta de que se producía un ruido en todas las observaciones. Este ruido destacaba por que, fuera la que fuera la dirección con la que se apuntara la antena, era siempre de la misma intensidad, lo cual hicieron pensar que se trataba de un fallo de la antena. Para comprobar esto, aislaron la antena mediante un recurso llamado carga en frío, en la cual se trataba de comparar la energía proveniente de la antena con la producida por una fuente artificial a unos 4 º C por encima del cero absoluto del helio liquido. Con esto se conseguía que la energía proveniente de la antena solo dependiese de la estructura de la antena, de la atmósfera y de la fuente astronómica de donde se estudian las ondas de radio. Después de eliminar todos estos escollos, pensaron que el ruido debería ser casi mínimo, posiblemente producido como ya he dicho por las condiciones atmosféricas. Empezaron con una longitud de onda corta, de 7,35 cm, y para su sorpresa vieron que el ruido era más intenso de lo esperado y además, independiente de la dirección del cielo a la que se apuntase el cielo. En una primera hipótesis, eliminaron que pudiera provenir de nuestra Galaxia, ya que al ser esta tan parecida a la galaxia M31, Andrómeda, se hubiese producido el mismo ruido cuando se estudio la M31 y eso no era así. Por tanto, no sabían de donde procedían. Lo único que conocían era la intensidad de este ruido. Entonces mediante un fenómeno radioeléctrico, la temperatura equivalente, ya que cualquier cuerpo con una temperatura por encima del cero absoluto emite un ruido radioeléctrico debido a los movimientos térmicos de los electrones internos de la fuente, asociaron este ruido a una fuente de ondas de radio con una temperatura entre 2,5 y 4,5 K. Esta temperatura coincidía con la anunciada por un joven físico teórico P.J. Peebles, basándose en los estudios de Gamow, el ruso Zeldovich y Fred Hoyle y teniendo en cuenta la edad que se predecía que tendría el Universo en eso años, predijo que si el Universo hubiese nacido de una Gran Explosión, el Big Bang, tendría actualmente una temperatura de alrededor 5 K, que se acerca a los resultados obtenidos por Wilson y Penzias. Pero, quedaba la respuesta de si el ruido encontrado por los dos radioastrónomos seria verdaderamente lo predicho por Peebles. Para ver esto, se basaron en un termino estadístico aplicado a la temperatura de una gran masa, el llamado equilibrio térmico. 5 Este principio se basaba en que si el universo nació efectivamente de una gran bola de fuego, durante ese periodo de tiempo a cierta temperatura todas las partículas deberían de estar en equilibrio estadístico, esto es, que tan fácil como se crea una partícula nueva se ha destruido otra, lo que hace que el sistema quede en equilibrio estadístico. Ya se sabia que esta temperatura, presumible de una radiación de fondo de microondas, provenía de un estado en equilibrio térmico y además se sabia gracias a Planck que esta radiación se trataba de una radiación de cuerpo negro, que satisface el equilibrio térmico. Este principio de radiación de cuerpo negro* se basa en que la densidad de energía asociada a una longitud de onda solo depende de la temperatura del cuerpo y se llego a la conclusión de la longitud de onda era inversamente proporcional a la temperatura de radiación de la materia. Esto tendría especial importancia para explicar las condiciones iniciales del Universo primigenio. Al principio el Universo nació de una gran masa en la cual la radiación y la materia no se diferenciaban a gran temperatura. Esto implicaba que la longitud de onda de la radiación fuera muy pequeña y por tanto la separación entre las partículas a su vez también lo fueran. A partir de esto se sabe que hubo un momento en la historia del Universo en la cual la materia, caracterizada por esta separación mínima entre partículas y la radiación de cuerpo negro se encontraban en equilibrio térmico a una cierta temperatura, a unos 3.000 º K, que es la temperatura del ruido de fondo de microondas si se hubiese expandido el Universo en una factor 1000, ya que como se sabe, al expandirse el Universo la temperatura va disminuyendo. Pero la radiación de fondo de microondas fue solo medido para una cierta longitud de onda, para 7,35 cm. Si el principio de radiación de cuerpo negro fuera cierto, si se midiese con otra longitud de onda más pequeña intensidad del ruido cósmico tendría que ser en proporción mayor que para 7,35 cm. Para sucesivas mediciones con longitudes de onda menores, dieron unos resultados que hacia que el ruido en proporción diera una temperatura constante en unos márgenes de 2,5 y 3,5 K. Esto hacia que ya se pudiera asegurar que la radiación encontrada por Wilson y Penzias, fuera el claro ejemplo del nacimiento del Universo a partir de una singularidad. Por ultimo cabe destacar también que cuando midieron el ruido con diferentes longitudes de onda, se percataron que este era independiente de la dirección a la que se puntase, lo que no hizo mas que afirmar un hecho muy importante en la cosmología, el principio cosmológico en el cual la materia del Universo, dentro de su heterogeneidad, guarda una homogeneidad y una isotropía. Este hecho no hace mas que confirmar el principio más importante de la cosmología, el principio cosmológico, por el cual todo el Universo es homogéneo en todo momento, es decir presenta el mismo aspecto en un tiempo dado para cualquier observador. * Radiación de cuerpo negro: E = c·T 5− µ µ ·λ ·e −b ( λ ·T )υ 6 CONDICIONES INICIALES DEL UNIVERSO PRIMITIVO Como ya hemos dicho en el apartado anterior, sabemos que el universo nació de una gran explosión a partir de una gran masa caliente, en el cual el fondo de radiación de microondas es la prueba de ello. Para saber como transcurrió el nacimiento del Universo hace falta comprender primeros las condiciones iniciales que tuvo que tener dicho Universo para que haya evolucionado de tal manera hasta nuestros días. Sabemos que la radiación de fondo es del tipo de radiación de cuerpo negro, y la temperatura que actualmente nos lo encontramos es de 3 K, si el Universo hubiera evolucionado en un factor de 1000 a partir de 3000 K. Extrapolando este factor, como sabemos que la temperatura es inversamente proporcional al tamaño de Universo, podemos decir que cuando el Universo tenia una temperatura de 3000 K, el tamaño del mismo era 1000 veces menor al actual. Este momento, en el cual la temperatura del Universo primigeneo se encuentra a 3000 K es de vital importancia ya que supone el punto en el cual el Universo dejo de ser “opaco” y la radiación pudo empezar a llenar todo el Universo. Según la teoría de la relatividad y la famosa formula E =m·c2 , decir masa es equivalente a decir energía, radiación. Pues bien, antes de que el Universo llegara a enfriarse a 3000 K, éste consistía en una mezcla de radiación y materia, en cual se destruían y se creaban continuamente pares de partículas-antipartículas a partir de la radiación. Toda partícula puede ser creada a partir de la radiación si esta tiene la suficiente energía para convertirse en partícula según la formula E =m·c2 . esta energía mínima se denomina energía en reposo. Para temperaturas superiores a 3000 K, como la energía de la radiación es directamente proporcional a la temperatura, hacia que los fotones, que son los portadores de energía radiación, pudiesen por ejemplo, chocar dos ellos, para producir un par electrón-positrón, si estos fotones tenían ambos la energía en reposo del electrón-positrón. Si se tuviese un excedente de energía, esto es, que la energía de los fotones que interaccionan es muchísimo mayor a esta energía mínima para crear la partícula correspondiente, lo único que haría seria dotar de mayor velocidad a los procesos creación de partículas a través de radiación y viceversa( ya que dos partículas también pueden producir fotones). Como sabemos gracias a la física Cuantica, la luz se propaga en cuantos de energía llamados fotones. Durante la época en la que la temperatura era mayor a 3000 K, la energía de estos fotones era tan grande que se creaban partículas-antipartículas a través de estos continuamente, lo que hacia que estos fotones no pudiesen expandirse ni irradiar el Universo debido a que se creaban y se destruían continuamente. Esta era, desde que nació hasta que llego a enfriarse a 3000 K se la conoce como la era dominada por la radiación, ya que como hemos visto es la principal motora de todas las reacciones nucleares. Para temperaturas inferiores a 3000 K, la temperatura es tan baja que hace que la energía de los fotones sea tan baja que no puedan interaccionar para dar partículas de materia, y esto hizo posible que se expandieran por todo el Universo, y se empezara a dar la llamada recombinación, que es el proceso en el cual pasamos de un Universo dominado por la radiación a un Universo en el que empieza a dominar la materia. Actualmente tenemos conocimiento de este momento, como ya sabíamos en forma de 7 radiación de fondo microondas, que es lo máximo que se puede observar actualmente del Universo en su nacimiento. Como las temperaturas empezaron a bajar, y los fotones ya no producían materia y antimateria, ésta pudo empezar a combinarse y empezar a dar los núcleos atómicos, elementos que hoy conocemos, pero esto ya lo veremos mas adelante. Existe también otro hecho significativo a la hora de la evolución del Universo, y es que aunque se creaban y se destruían fotones en materia y viceversa, el numero de fotones por partícula, que tenia que ser mayor ya que la radiación era la dominante, es el mismo que nos encontramos actualmente. Esto es aproximadamente de 1000 millones de fotones por partícula. Esto no hacia mas que confirmar por ejemplo, el principio cosmológico descrito anteriormente. Por otra parte, toda partícula-antipartícula tiene asociado a ella una temperatura umbral, que mediante la ley de Boltzman*, (la energía es directamente proporcional a la cuarta potencia de la temperatura), que hace que para temperaturas superiores a esta toda partícula tenga tanta energía que se desprecie su masa y se considerada como radiación. Esto es de vital importancia ya que nos da una idea del tipo de partículas o radiación asociada a una determinada partícula que existió en los momentos iniciales del Universo. De aquí surge el llamado numero efectivo, que es el numero de partículas cuya temperatura umbral es menor a la temperatura del Universo en esos momentos. Gracias a este numero, que se conserva mediante le principio de equilibrio térmico. Pudiera parecer que el numero efectivo en épocas de alta temperaturas haría que hubiera infinidad de partículas en forma de radiación, pero sin embargo, este numero se acorta gracias a dos cosas: la primera, gracias al principio de exclusión de Pauli, en el cual una partícula, por ejemplo el electrón, no puede dos de estos ocupar el mismo estado de energía, y por otra parte, es que para darse estas condiciones el Universo tuvo que estar a una temperatura de miles de millones, e incluso billones de grados centígrados, que se dio solo al principio del Universo cuando este constituía una gran masa caliente donde la densidad de energía, al ser proporcional a la temperatura era casi infinita. Por otra parte según un principio de simetría de partículas, en cual toda partícula tiene asociada su respectiva anti-partícula, y en esos momentos del Universo en el cual la densidad era tan alta que las partículas chocaban con sus respectivas partículas para dar radiación, ¿cómo cabria esperar que actualmente pueda estar aquí escribiendo este trabajo, si la materia se destruía con su respectiva antimateria? (toda partícula cuando choca con su antipartícula, ambas se aniquilan de forma violenta produciendo una enorme cantidad de energía en forma de radiación). Esto hace pensar que durante esos momentos en el cual la densidad era tan alta, la era de la radiación, tuvo que producirse un exceso de materia sobre la antimateria, para que literalmente existamos hoy en día, y el universo no esta solamente constituido por radiación. Para conocer este exceso de materia hace falta saber que magnitudes se conservan cuando la materia y la radiación interaccionaban continuamente produciendo nueva materia y antimateria. Toda reacción que implicaba partículas y radiación estaba regido mediante el principio termodinámico de equilibrio térmico, en el cual todas las * Ley de Stefan-Boltzmann = E = 8π 5 ·(KT ) 4 15(hc) 3 8 magnitudes en un determinado estado a las cuales una partícula entra se compensa con las mismas magnitudes al abandonar ese estado. Más concretamente podemos decir actualmente, que las tres magnitudes que se conservaban durante la era de la radiación, regida por el equilibrio térmico son las siguientes: − La carga eléctrica: aunque se destruyan o se creen nuevas partículas a partir de otras en diferentes reacciones nucleares, la carga eléctrica del sistema es siempre la misma, es decir la carga eléctrica de los reactivos es la misma que la de los productos. − El numero bariónico: las partículas llamada bariónicas, la forman partículas como los protones y los neutrones, además de otras partículas más inestables, junto con sus respectivas antipartículas. El numero barionico es la diferencia entre el numero de bariones y el numero de antibariones, y dicho numero permanece constante − El numero leptónico: al igual que los bariones, lo leptones abarcan cantidad de partículas, que son las partículas ligeras de carga negativa como son el electrón, el muon y el neutrino, junto con sus respectivas antipartículas. Al igual que en el numero bariónico, el numero leptónico, esto es, la diferencia entre numero de leptones y el numero de antileptones permanece constante en todo momento. Como ejemplo particular de que esto se cumple, nos encontramos la desintegración beta en el cual un neutron se convierte en un electrón, un protón y un antineutrino: Carga Nº Bariónico Nº Leptónico n0 0 +1 0 Æ p1 +1 +1 0 + e-1 0 +1 + υe 0 0 -1 Para que esto pueda darse en cualquier momento del Universo hace falta saber cual es la relación de estas tres magnitudes con el nº de fotones por unidad de volumen (densidad fotónica), esto es lo mismo que decir la relación de la carga, el numero bariónico y el numero leptónico con la entropía. Por parte de la carga eléctrica por foton no hay problema pues suponemos que el universo no esta eléctricamente cargada, ya que de estarlo lo tendríamos que notar ya que se producirían fuerzas electromagnéticas muy superiores a las fuerzas gravitatorias y extrapolando podemos decir que esto también ocurrió cuando el Universo empezó a expandirse. En cuanto al numero barionico, como los únicos bariones estables son el protón y el neutron (éste aunque solo tenga una vida media de 15,3 minutos de vida, el nacimiento y evolución del Universo primitivo se produjo en menos tiempo por lo que no tiene sentido decir que sea inestable), hace que se pueda decir que el numero de fotones por partículas es lo mismo que hablar de 1000 millones de fotones por partícula nuclear, y esto significa que en un momento del Universo primigenio, la diferencia entre partículas 9 nucleares y sus antipartículas, rondaron una parte un exceso de 1000 millones de partículas mas que de antipartículas, lo que hace que el numero barionico por foton sea de 10-9, que ocurrió cuando la temperatura del Universo descendió a temperaturas inferiores a las cuales la materia equivale a radiación, la materia empezara a aniquilarse con su respectiva contraria, dejando al final solo un excedente de materia barionica de cómo hemos dicho, una proporción de 1000 millones mas que antipartículas, que hace que hoy en día aparezcan los núcleos atómicos. Esto no quiere decir que no existan en el Universo actualmente antipartículas, puesto que hemos dicho que se aniquilaron, basta con saber que en el Universo hay una gran cantidad de materia y que en una proporción de 1000 millones menos deben de existir antipartículas nucleares en el Universo aunque todavía no hayan sido observadas. Por otra parte, por la misma regla de tres, ocurrió lo mismo con el numero leptónico, ya que como sabemos, el numero de electrones tiene que ser el mismo que de protones para que las cargas eléctricas se anulen, pero esto no quiere decir que por tanto el numero leptónico sea igual al numero bariónico, en el nº leptónico, a parte de electrones, también se encuentra principalmente el neutrino (y su respectivo antineutrino), un leptón sin carga pero con masa, cuya interacción con su antipartícula es tan débil que se cree que se han podido escapar del aniquilamiento y actualmente se encuentran en gran densidad en el universo, casi tanto como los fotones, que pueden ser uno de los motores fundamentales en el destino del Universo. Al igual que con el nº bariónico, después de producirse la recombinación, en el cual se pasaba de una era dominada por la radiación a otra dominada por la materia mediante el aniquilamiento de la misma, se produjo un excedente de materia y antimateria leptónica. Gracias a estos excedentes de materia sabemos de donde comenzó a formarse el Universo tal y como hoy lo conocemos (galaxias, sistemas planetarios, estrellas...), por lo tanto sabemos que la temperatura de 3000 K marca un importante hecho en el devenir de Universo, una etapa donde la radiación es el principal valuarte a otra donde la materia es capaz de juntarse mediante la acción gravitatoria para formar infinitas formas de materia. 10 LOS PRIMEROS MINUTOS DEL UNIVERSO Gracias a la parte anterior ya se sabe, o por lo menos se intuye como tuvo que ser el Universo para que lo conozcamos tal y como hoy nos lo encontramos. Sin embargo lo haré no a partir del instante inicial seguridad, esto es, cuando T= 0 y la densidad, y por tanto la temperatura era infinita. Esto se debe a que a temperatura mayores que 1,5·1012 K, donde la energía es enorme, a aparte de las partículas anteriormente nombradas, existían también partículas muy pesadas cuyas distancias entre si eran tan pequeñas que el Universo estaba tan fuertemente influenciado por la fuerza fuerte hace que el Universo sea tan complejo que incluso actualmente no se puede explicar hoy con total seguridad lo que ocurrió inicialmente. 1º Etapa: T0/ =0,02 segundos después de T = 0 Este es el momento donde el Universo se encuentra en su estado más simple de describir físicamente. Estamos hablando de una etapa en la cual el Universo se encuentra a 1011 K. La temperatura es pues, tan alta que el Universo este compuesto de una mezcla sin diferencias de materia y radiación, debido a que toda partícula esta continuamente chocando con otras partículas y fotones ( radiación) produciendo continuamente nuevos fotones y partículas. En este caso el funcionamiento del Universo se basa en las leyes de la mecánica estadística y en el equilibrio térmico y que como vimos anteriormente las magnitudes que se conservan, tales como la carga, el numero bariónico y el numero leptónico son de muy pequeña magnitud o cero, en el caso de la carga. Nos encontramos en un estado con una gran densidad de energía (recíprocamente por E=m·c2, de materia) en el cual la temperatura del Universo en ese momento, 1011 K, donde toda la materia, puesto que la temperatura umbral de estas (la temperatura mínima para producir determinadas partículas a partir de radiación, energía), este compuesta principalmente por electrones, protones, neutrinos, las partículas portadoras de radiación, los fotones, y todas las respectivas antipartículas. Por otra parte, como la temperatura es muchísima más alta que el umbral de los electrones y por tanto la energía en reposo es escasa comparable con la energía cósmica de ese momento, podemos decir que los electrones y positrones, actúan como si de otra especie de radiación se tratase. Por tanto podemos conocer la densidad de energía en ese momento que será de un factor 9/2 de energía formada por las partículas materiales mayor que la energía electromagnética pura, la de los fotones. Esto surge de que los electrones y los positrones ambos contribuyen a un factor de 7/4, los neutrinos y antineutrinos otros 7/4 y esto mas 1, por tanto, 7/2 ·2+7/2·2+ 1= 9/2. Esto hace, según la ley de Stefan-Boltzmann (la densidad de energía es directamente proporcional a la cuarta potencia de la temperatura), que para la temperatura de 1011 K , la densidad de energía pura mediante esta ley sea de 4,72 ·1044 eV, por lo tanto la densidad total de energía de Universo, al ser 9/2 mayor que la energía pura, será de 21 ·1044 eV por litro. Esto, en términos de densidad de masa son 3,8 mil millones de Kg por litro. 11 En esta etapa, el Universo se encontraba en un momento de expansión y por tanto cada vez se estaba haciendo también más frío. Debido a esta elevada densidad de energía cósmica el tiempo de expansión durante esta etapa es de 0,02segundos. A este tiempo se le llama tiempo de expansión característico y que es 100 veces el tiempo en el cual el tamaño del Universo aumenta un 1% y como al aumentar el tamaño disminuye la temperatura, se puede decir que el tiempo de expansión es inversamente proporcional a la temperatura. Por otra parte, el numero de partículas por radiación es de 1 protón o un neutron por cada 1000 millones de fotones, electrones o neutrinos, que como ya sabemos esta proporción de materia-radiación se mantendrá constante. Como la temperatura es tan elevada, los protones y neutrones se encuentra disociados unos de otros y las reacciones nucleares más importantes que se dan durante esta etapa son: − Obtención de un positrón y un neutron mediante la reacción de un antineutrino y varios protones y viceversa. − La reacción de un neutron con un neutrino para dar un e- y un protón y a la inversa. Y como en este caso el numero leptónico y la carga por fotón es tan pequeño, que hace que haya casi el mismo numero de electrones y neutrinos como de sus antipartículas, lo que hace que mediante estas reacciones la obtención de protones a través de neutrones sea tan rápida como la de los protones en neutrones, y por tanto, hacen que se encuentren en equilibrio durante esta etapa, con el mismo numero de neutrones y protones. Durante esta etapa se cree, puesto que no es seguro y tampoco es muy relevante, que el Universo tenga un tamaño de unos 4 años luz aproximadamente. 2ªEtapa: 0,11 segundos después de T0/ , Este momento del Universo concuerda con una temperatura de unos 3 ·1010 K. El universo en sus condiciones, prácticamente no ha cambiado desde la primera etapa. Es decir, el Universo todavía sigue gobernado por una radiación compuesto por electrones neutrinos, fotones y sus respectivos contrarios, puesto que la temperatura de esta segunda etapa sigue siendo muchísimo mas grande que la umbral de las partículas y todo esto gobernado mediante el principio de la mecánica estadística, esto es, el equilibrio térmico. Como la temperatura ha descendido, mediante la ley de Stefan-Boltzman, la densidad de energía pura también habrá descendido y por consiguiente también la densidad de energía total del Universo, que será de unas 30 millones de veces mayor que la del agua. Además el hecho de que la temperatura descienda, hará que el tiempo de expansión sea mayor, de unos 0,2 segundos. Por otra parte, como la temperatura es tan elevada, los neutrones y protones seguirán una independiente de la otra; pero con el descenso de la temperatura, las reacciones nucleares que dependen de la temperatura*, su velocidad será menor y las reacciones de [ ]x [ ] y La velocidad de la reacción de lo reactivos viene dada por la ecuación v = K · A · B , La temperatura influye en la velocidad de la reacción mediante la ecuación de Arrhenius donde la constante * K = Ae − Ea RT . 12 de obtención de protones a partir de neutrones, se darán más fácil que al revés puesto que el neutrón es mas pesado que el protón. Todo esto hará que, en esta etapa la concentración de neutrones no sea la misma que la de protones, sino que se dará un balance de partículas nucleares de 62 % de protones y un 38% de neutrones. 3ª Etapa: 1,10 segundo después de T0/ . En este momento el Universo primigenio se encuentra a unos 1010 K. La temperatura y por tanto la densidad de energía a descendido tanto que hace que los neutrinos dejen de comportarse como radiación en equilibrio térmico para empezar a jugar el papel de partículas libres. Desde este momento el papel de los neutrinos deja de ser relevante en el funcionamiento y formación del Universo, sin obviar claro está su papel como parte de la fuente de la gravedad, que esto si puede ser relevante en cuando al destino del Universo. Por otra parte, debido al enfriamiento del universo, la densidad de energía habrá decaído más aún, a una magnitud de una 380.000 veces mayor que la densidad del agua. Por su parte el tiempo característico de expansión habrá aumento inversamente proporcional con la temperatura, lo que nos da tiempo de unos de 2 segundos de expansión característica. Es tanto el descenso de la temperatura durante esta etapa, que la temperatura umbral de los electrones y positrones, “solo” será de la mitad de la temperatura en este momento por lo que cada vez es más difícil crear estas partículas a través de la energía de la radiación y por tanto se aniquilaran mas de estos pares electrón-positrón que de los que se crean. El universo, aun con este descenso de la temperatura, sigue siendo todavía muy caliente para que la fuerza de interacción fuerte pueda unir los protones y los neutrones para formar núcleos atómicos estables. El balance protón-neutrón se ha hecho más dispar, con 76 por ciento de protones y un 24 por ciento de neutrones. 4ª Etapa: 13,82 segundos después de T0/ Esta etapa del Universo marca el momento en el cual la temperatura del Universo se hace menor que la umbral de los electrones-positrones, por lo que empiezan a perder protagonismo progresivamente en el Universo. Estamos hablando de una temperatura de “sólo” unos 3000 millones de Kelvins, 3·109 K. Como se han separado de la radiación y ya no pueden ser creados a partir de esta, a partir de ahora la temperatura del Universo es la temperatura solamente de los fotones. Empezaran por tanto a aniquilarse los electrones al chocar con los positrones, liberando una energía que ira retardando la velocidad a la que se enfría el Universo. Como consecuencia última de esta separación de los electrones-positrones de la radiación, la densidad de energía en este momento del Universo será algo menor que la teórica mediante la ley de Stefan-Boltzmann. Por primera vez, la temperatura ha descendido tanto que ahora es posible formar algunos núcleos estables y muy ligeros. La formación se da en una serie de rápidas reacciones, acotado exclusivamente a dos partículas como reactivos dado que aunque el 13 la temperatura haya descendido, el Universo sigue expandiéndose tan rápido que es casi imposible las reacciones de mas de 2 partículas. Las reacciones más sencillas son las del neutrón con el protón para dar un núcleo de hidrógeno pesado o deuterio, con un defecto de masa de la reacción con se convertirá en radiación, en un fotón. Después a partir de este núcleo de deuterio, se obtiene el 23 He si reacciona con un protón, o bien tritio 13 H si reaccionase con un neutrón. Después, el tritio puede reaccionar con un protón y el Helio-3 con un neutrón y así obtener un núcleo de helio-4, 24 He , que es un elemento muy estable. Sin embargo, el deuterio es un elemento como ya hemos dicho pesado y por lo tanto inestable, y como la temperatura en esta etapa sigue siendo suficientemente alta para destruir los núcleos de deuterio tan pronto como se forman. Aunque en menor medida y más lentamente, los neutrones siguen convirtiéndose en protones mediante la desintegración β. Esto hace que la proporción protón-neutrón sea de 83-17%. 5ª Etapa: tres minutos después de T0/ En este momento la temperatura del Universo se sitúa en solo 109 K o lo que es lo mismo solamente 70 veces mas caliente que el centro de nuestra estrella. Los componentes principales son los fotones, neutrino y antineutrinos, dado que la mayor parte de los electrones y positrones han desaparecido, liberando gran cantidad de energía que elevaron la temperatura de los fotones un 35% mayor que la de los neutrinos. El problema con el deuterio sigue existiendo durante esta etapa, aunque la temperatura haya bajado considerablemente, la energía sigue siendo considerablemente alta para que el deuterio permanezca constante sin disociarse en sus componentes principales. Por otra parte, este enfriamiento del Universo si ha hecho que las reacciones de obtención de neutrones y protones a partir de reacciones con electrones, neutrinos y las respectivas antipartículas hayan disminuido y cesado de tal manera que es ahora la desintegración β*, la desintegración del neutrón en un protón un electrón y un antineutrino, la que juega un papel fundamental. En este momento el balance entre protones y neutrones se ha estabilizado desde la anterior etapa con un 14 por ciento de neutrones y un 86 de protones. 6ª Etapa: 3 minutos y 46 segundos después de T0/ Aunque pueda parecer su gran proximidad en el tiempo con la anterior etapa, esta parte de la evolución del Universo es tan importante que merece un apartado solo para ella. Es en este momento cuando se empieza a dar la nucleosintesis, puesto la temperatura ha * Desintegración β= 1 0 n→11 p + −10 e + υ 14 descendido tanto, a unos 900 millones de Kelvins (9·1010 K), que ahora los núcleos de deuterio son estables. A partir de este deuterio se pueden formar nuevos elementos mas pesados en reacciones que conciernen a dos partículas Sin embargo, a pesar de que la temperatura ha descendido tanto para que el deuterio sea estable, no hay núcleos estables con mas de 4 partículas nucleares, por lo que tan pronto como la temperatura desciende a este grado, tan pronto como se ha formado los núcleos de deuterio, los neutrones restantes reaccionan con los mismo produciendo núcleos de Helio. Por otra parte la desintegración β sigue desintegrando al neutrón, sin apenas modificando a la relación protón-neutrón, que se encuentra en un 87 por ciento de protones y un 13 por ciento de neutrones. De este 13 % de neutrones, la mayor parte de ellos se encuentran ligado a los núcleos de helio-4, que son núcleos constituidos por dos protones y dos neutrones, y puesto que la proporción en peso de este helio es exactamente la mitad de neutrones y la mitad de protones, esto nos conduce a decir que la proporción de helio después de la nucleosíntesis era el doble de la proporción de neutrones, esto hace un resultado de alrededor de 26 a 28 por ciento de 24 He . 7ª Etapa: 35 minutos después de T0/ En esta etapa, el Universo cuenta ya con solo 300 millones de Kelvin de Temperatura, unos 3·108 K. Todos los positrones y electrones, exceptuando el pequeño exceso de estos ( una parte de mil millones) para contrarrestar la carga positiva de los protones, se han aniquilado mutuamente liberando una gran ola emergente de energía que elevan la temperatura de los fotones una 40% mayor que la de los neutrinos. La densidad de energía ha descendido también considerablemente a una densidad de masa equivalente a un 9,9 por ciento mayor que la del agua, siendo de este 9,9 por ciento, el 31 por ciento neutrinos y el 69 de fotones. Debido a esta densidad del Universo y al descenso de temperatura, el tiempo de expansión ha descendido al grado de que ahora es de alrededor de una hora y cuarto. Por otra parte, la era de la nucleosintesis ya se ha pasado, por lo que la mayor parte de las reacciones nucleares se han detenido, estando las partículas nucleares como antes he dicho o bien formando núcleos de helio en un 22 a 28 por ciento, o sino el restante de las partículas nucleares en forma de protones sueltos o núcleos de hidrógeno Aunque todas las partículas nucleares se encuentren en forma de elementos ligeros y estables, y a pesar de que existan un electrón por cada protón (condición indispensable para que se mantenga la carga del Universo eléctricamente nula), el Universo todavía esta muy caliente para que se puedan formar los primeros átomos estables. 15 Después de esto, y durante 700.000 años más el Universo se mantendrá de esta forma, eso si expandiéndose aun más y por tanto enfriándose todavía más hasta que llegue a un punto durante este tiempo en el cual se empezaran a formar parte los primeros núcleos y átomos estables, haciendo que la mayor parte de los electrones se encuentren formando átomos, y produciendo pues una falta de electrones libres que harán que los fotones puedan expandirse sin interaccionar con electrones libres, haciendo el Universo transparente a la radiación. Debido a esto, como ya he dicho, la radiación empezara a llenar todo el Universo, permitiendo a la materia agruparse mediante la acción de la gravedad para formar las galaxias, estrellas... Todo esto empieza a ocurrir a una temperatura de unos 3.500-3.000 K y es este momento el que se conoce hoy en día gracias a la radiación de fondo microondas. 16 MODELO ESTÁNDAR DE LAS PARTÍCULAS Hemos descrito lo que ocurrió durante un periodo de tiempo de alrededor de 4 minutos con una gran exactitud, debido a que actualmente es lo que podemos asegurar que paso con los conocimientos físicos actuales. Para poder comprender el Universo mas cerca del instante inicial, casi en el mismísimo momento en el cual se origino el Universo, hace falta conocer algo mas el mundo de las partículas y de las interacciones físicas que actúan sobre las mismas. Para esto se ha desarrollado el modelo estándar de partículas. El modelo estándar de partículas se trata de una teoría completa que identifica las partículas básicas del Universo y sus interacciones. Según el modelo estándar, en el Universo existen cuatro fuerzas fundamentales, que entre las cuatro, en teoría son capaces de explicar físicamente todos lo sucesos que se den en el mismo. Las cuatro fuerzas fundamentales son: la gravedad, el electromagnetismo, la fuerza de interacción fuerte y la fuerza de interacción débil. Fuerza de gravedad Que decir que no se sepa ya de esta fuerza. Es siempre atractiva y es creada por la masa. Existen dos grandes leyes que explican el funcionamiento de esta fuerza. La primera es la ley de Gravitación universal expuesta por Newton en el siglo XVII y la segunda y más reciente es la teoría de la relatividad expuesta por Albert Einstein a principios del siglo XX y que se trata de una explicación de la gravedad mediante un tratamiento geométrico del espacio-tiempo. Se trata de la fuerza que más conocemos puesto que, y aunque sea la fuerza de más débil interacción, es la responsable desde que no salgamos volando cuando damos un salto en la superficie terrestre hasta el movimiento planetario, la formación de las galaxias... Fuerza electromagnética Otra fuerza de sobra conocida. El padre de esta fuerza es Maxwell que fue capaz de demostrar que la electrostática y el magnetismo pertenecían a la misma fuerza, la fuerza electromagnética. La electroestática consiste en que todas partículas con cargas eléctricas producen una perturbación en el espacio que pueden producir fueras atractivas o repulsivas sobre otra partícula eléctricamente cargada. Mientras el magnetismo trata del estudio de los efectos que producen los campos magnéticos. Al igual que la fuerza de la gravedad juega un papel fundamental en muchos procesos cotidianos. Es la responsable de las reacciones químicas, que se producen debido a cambios en la distribución de carga de átomos o moléculas, pero también de fenómenos como el rozamiento, la cohesión de un tejido, la formación de disoluciones o la electricidad. Su valor es un trillón de veces mayor que la de la fuerza gravitatoria. Fuerza fuerte Esta fuerza es poco conocida ya que se observa a escala muy reducida, ya que opera únicamente a escala de distancias atómicas, esto es en el núcleo. La fuerza de 17 interacción fuerte es la responsable de que los átomos puedan existir, puesto que es la responsable de contrarrestar las repulsiones que sufren los protones del núcleo debido a su misma carga y además mantiene unidos a los mismos. Es tan grande la magnitud de esta interacción que es 137 veces mayor que la fuerza electromagnética. Fuerza débil El cuarto y último tipo de fuerza que puede ser observada en la naturaleza es la llamada interacción nuclear débil o interacción débil. De forma similar a lo que ocurre en los núcleos atómicos y la fuerza de interacción fuerte, otras partículas como los electrones interaccionan también entre ellas, pero con una fuerza muy pequeña, mucho más pequeña que la fuerza electromagnética, de ahí su nombre de “débil” pero aun así, y al igual que ocurre con la gravedad, es una fuerza básica para entender conceptos como la fusión nuclear y la desintegración beta que tan importante hemos visto que es en el devenir de la evolución del Universo. El modelo estándar describe el Universo mediante partículas. Estas partículas a su vez se pueden englobar en dos grandes familias: Los Fermiones y los Bosones. Bosones Según la teoría del modelo estándar, las fuerzas actúan entre si mediante el intercambio de partículas transmisoras de las distintas fuerzas que hemos visto. Así, por ejemplo, para la fuerza electromagnética, la partícula portadora de esta fuerza es el fotón. Para la fuerza de interacción débil están los bosones W y Z y para la interacción fuerte, la que mantiene unidos a los núcleos atómicos, se encuentran los gluones. Fermiones En esta familia se encuentran aquellas partículas que conforman la materia del que está constituido el Universo. Así nos encontramos que en el universo solo existen dos partículas, que a partir de ellas se pueden explicar la constitución de las demás partículas. Estas son los quarks y los electrones. Además el modelo estándar señala que toda partícula fermiónica tiene su opuesta en forma de antimateria. A su vez, dentro de los fermiones podemos encontrarnos con dos familias, dos que se engloban en torno a las partículas elementales (quark y electrón) así tenemos: -Leptones Es la familia que se engloba en torno a los electrones. Además de esto electrones, también existen otras partículas leptónicas son el muon y la partícula tau, que se caracterizan por ser de forma similar a los electrones pero más masivos. Estas tres partículas, los electrones, los mones y los tauones destacan también por tener carga negativa. También dentro de esta familia nos encontramos con los neutrinos, que son 18 partículas con masa ínfima, casi despreciable y sin carga. Existe un tipo de neutrino asociado a cada una de las tres partículas mencionadas arriba. Por otra parte como ya he señalado antes todas estas partículas poseen a su vez sus respectivas antiimagenes, como por ejemplo el positrón, para el electrón, el antineutrino, el antimuon y el anti-tau. -Quarks Es la otra familia fundamental de partículas. Existen 6 tipos de quarks que se encuentran representado en la siguiente tabla: Gracias a estos seis quarks se pueden explicar la composición de infinidad de partículas. Destacan porque no pueden, y de hecho no sienten evidencias de ello, que puedan encontrarse en la naturaleza de forma libre, de ahí su dificultad de asegurarse su existencia. Por otra parte el hecho de que no podamos encontrarlos de forma libre da pie a formar otras partículas mediante la agrupación de quarks llamadas partículas hadronicas o hadrones. Además, los hadrones se pueden caracterizar por ser las únicas partículas a las cuales les afecta la fuerza nuclear fuerte, ya que las distancias a las que se dan las agrupaciones de quarks se dan en el grado en cual esta fuerza empieza a actuar. Dentro de estos hadrones podemos encontrarnos con otras dos familias: Bariones: Los bariones son los hadrones constituidos por tres quarks unidas mediante respectivos gluones, los portadores de la fuerza nuclear fuerte. Así, por ejemplo, el protón esta constituido de 2 quarks arriba y un quark abajo. Partícula: Protón. Neutrón. Hiperión Omega. Hiperión Xi. Hiperión Sigma. Hiperión Lambda Símbolo: Masa: p 1.673 x 10-27 kg. n 1.675 x 10-27 kg. 3,286 Ω 2,583 Ξ 2,327 Σ 2,181 Λ Carga: 1.6 x 10-18 Coulombs. Neutra. -1 0, -1 +1, 0, -1 0 Mesones: Son las partículas hadrónicas formadas por la agrupación de dos quarks. 19 Existe, se cree otra partícula, un bosón concretamente, llamado bosón de Higgs, que es la partícula que interacciona con las demás y las dota de masas. Se hablará de ella mas adelante. Hemos descrito como está compuesta la materia a nivel cuántico, a la escala de las partículas elementales, lo que nos permite saber como funcionan las reacciones entre estas partículas y así saber y comprender mejor como funciono el Universo en sus primeros instantes de vida. Tomemos como ejemplo la reacción de desintegración β en la cual un neutrón se convierte en un protón, un electrón y un antineutrino. El neutrón esta formado dos quarks abajo y un quark arriba unidos mediante gluones, que transmiten la fuerza de interacción fuerte (Q = 1/3+1/3-2/3= 0). Mientras el protón esta formado por dos quarks arriba y un quark abajo (Q = 2/3+2/3-1/3= +1), de la misma forma gluonica descrita en los neutrones. El juego de las partículas en las reacciones cuanticas se entiende mirando la desintegración beta. En esta, el neutrón, y más específicamente un quark abajo de este, se convierte en un quark arriba, produciéndose así el protón y liberando una partícula W-, partícula transmisora de la interacción débil, que a su vez se convierte en un electrón más un antineutrino. 1 0 n→11 p + −10 e + υ 2Q ↓ +Q ↑⇒ 2Q ↑ +Q ↓ + W − → e − + υ Carga: 2 x 1/3-2/3Æ4/3-1/3 + (-1) + 0 =0Æ+1-1=0 20 DESARROLLO DEL MODELO ESTÁNDAR: HACIA LOS LIMITES DEL INSTANTE CERO El Modelo estándar que he dado arriba es la culminación de años y años de estudios dedicados a la Física de partículas y Cosmología y aun así me he quedado corto. Por eso, y por que hoy en día el modelo estándar se supone el modelo más firme sobre el cual se puede llegar casi al instante T = 0 segundos del Universo, es importante ver el desarrollo que se ha ido dando de este modelo estándar para poder acercarnos y comprender lo que ocurrió en los momentos más cercanos al instante inicial del nacimiento del Universo. El Modelo estándar empezó a tener forma a principios de los años 20 y 30 del siglo XX con el desarrollo de forma pareja de la llamada física moderna. Dentro de esta física moderna destaca el gran desarrollo de la Física Cuántica , que abrió un nuevo mundo en la concepción de lo que ocurrió a inicios del tiempo. Para inicios del siglo XX, se creía que con los conocimientos que se tenían era suficiente para explicar lo que sucedía en el Universo. Sin embargo, con la llegada de nuevas ideas de carácter cuantico, tales como la hipótesis de Broglie en el cual una partícula se puede comportar como una onda y viceversa, la teoría cuantica desarrollada por Max Planck y el principio de Incertidumbre de Heisenberg∗. Esto nos mostraba un Universo en cual todo era posible, hasta lo más impensable y siempre bajo principios basados en la probabilidad. -Teoría de campos Para empezar el desarrollo del modelo estándar, hay que empezar con la teoría de Campos, debido a que el Universo, como hemos visto, esta compuesto por una infinidad de partículas que interaccionan entre si a través de campo, en los cuales las partículas la forma de actúa de las partículas solo se obedece a las reglas de la dualidad ondacorpúsculo de de Broglie y el principio de incertidumbre de Heisenberg. Muchos científicos anteriores hablaron antiguamente sobre la idea de campos como aquel medio por el cual una fuerza era transmitida, pero sin duda la primera aparición de una teoría de Campos es debida a Michael Faraday a principios del siglo XIX. Faraday fue un excelente científico llegando a ser catedrático de química en la Royal Institution en 1833. Sus trabajos sobre las líneas de fuerzas del campo eléctrico le sirvió a Maxwell para llevar a cabo la primera teoría de campos. Según Faraday toda partícula cargada eléctricamente ejerce a su alrededor líneas de fuerza que comienzan en una carga y terminan en la carga eléctrica llenando todo el espacio y constituyendo así el campo eléctrico. Aunque esta primera teoría de campos era errónea, puesto que tanto Maxwell y Faraday, consideraban a las líneas de fuerza como continuas, sin intervalos, y que necesitaban un medio para propagarse al que llamaron “eter”. Aunque esto fuera ∗ Principio de incertidumbre: ∆x ⋅ ∆p = h / 2π ∆E ·∆t = h / 2π * Teoría onda-particula= λ = h m·v 21 erróneo sirvió para demostrar que el efecto de un campo magnético estaba expresamente relacionado con la electrostática. Esto se basaba en las ecuaciones de Maxwell, la primera teoría de Campos, que explican que el magnetismo es equivalente a la electricidad dinámica. A esta primera teoría de campo se le llama teoría clásica de la electrodinámica. Establece que la acción de todo campo electromagnético se debe mas bien como un fenómeno local, en el cual toda partícula cargada interacciona con las líneas de campo, y viceversa, de modo que dependa de todas las demás interacciones entre los campos y partículas. Pero esta teoría deja de tener sentido si nos adentramos en el mundo de la física cuantica, ya que según esta no tiene sentido hacer una distinción entre campo y partículas, puesto que las partículas son en si una manifestación de los campos. Fue crucial en el entendimiento de esta afirmación entender que toda partícula puede comportarse como onda y partícula a la vez, según la teoría de onda-partícula de De Broglie. Así, depende de la energía del campo, que es invariante en el espacio según la cuantica, se crean partículas a través de estos campos en una cierta región según el principio de Heisenberg y que son la manifestación de dicho campo que lo crea. El principio de Heisenberg dice que es imposible medir con la misma exactitud la posición de una partícula y su velocidad al mismo tiempo. Así cuanto mayor es la precisión con que se conoce de la velocidad, mayor es la imprecisión de saber el lugar que ocupa. También relaciono que la incertidumbre en la transmisión de energía entre partículas y el tiempo se emplea en ellos. así, gracias a que sabemos por el principio de onda-corpúsculo que toda partícula puede comportarse como onda, por tanto una determinada energía, y viceversa, podemos saber si conocemos la energía del campo que crea la partícula la posición de dicha partícula en el espacio por el principio de incertidumbre de Heisenberg. Así, gracias a esto sabemos que los fotones son las partículas o cuantos (paquetes de energía) del campo electromagnético. A esto se le conoce como la segunda cuantizacion. Por otra parte, las partículas cuanticas que representan a un campo determinado difiere de la familia a la que pertenezca dicha partícula. Así por ejemplo, los electrones, que como vimos pertenecen a la familia de las partículas llamadas bosonicas y los fotones a las bosones. Por tanto, podemos decir que existen dos tipos de campos, el campo bosónico y el campo fermiónico. Así el campo fermionico da lugar al mundo material, mientras que el campo bosonico da lugar a las interacciones que lo mantienen unidos junto a la materia. Estas teoría cuanticas han sido aplicadas a la teoría de la electrodinámica clásica, para dar lugar a una de las teorías mas impactantes de la física moderna actual, la electrodinámica Cuantica o QED. Esta teoría permite explicar las interacciones electromagnéticas entre partículas cargadas y ha servido de punto de partida a la hora de intentar unificar todas las demás fuerzas. Por ejemplo, según la QED, todo electrón esta rodeado de una nube de fotones virtuales, los cuales a su vez se pueden convertir en pares electrón-positrón tomando energía del campo mediante principio de incertidumbre, y permite explicar las interacciones entre fotón y electrón. Sin embargo, esta teoría no es del todo concluyente ,ya que en sus ecuaciones a la hora de saber el 22 limite energético, que debe existir para que un fotón de una nube electrónicas se convierta en pares electrón-positrón , no existe limite, es decir, es infinita y lo cual implicaría una masa del electrón infinita, lo cual es impensable. Para poder solucionar esto, se consigue mediante la denominada operación matemática, renormalizacion, que no a todo el mundo científico le gusta, ya que requiere trucos matemáticos como dividir entre infinito que hace que no sea una teoría perfecta. -Aparición de nuevas fuerzas y un sinfín de partículas La búsqueda de una teoría perfecta que permita unificar todas las fuerzas que se creían que existían en la naturaleza antes del siglo XX, la gravedad y el electromagnetismo, se vio dificultada, al descubrir que existían mas fuerzas de las conocidas en esos años Gracias a la aportación de diferentes y enormes químicos, como Mendeleiev, Ernest Rutherford, Bohr, James Chadwick... al conocimiento de la estructura del núcleo atómico, se supo que los núcleos atómicos están compuestos por una partículas cargadas positivamente, unidas a otras de mayor masa y carga neutra llamados neutrones, formando el núcleo atómico y rodeados por una nube de electrones. Pero sin embargo, surgió la duda de la estabilidad del núcleo, es decir, si según la teoría de la electrodinámica, estos protones debían de repelerse por sus cargas positivas, por qué no lo hacían sino que permanecían ligados fuertemente. Al principio se rondó la idea de que podía ser debido a que los electrones del núcleo se escondían detrás de los neutrones, mas masivos, debilitando su interacción electromagnética. Pero esto no explicaba como permanecían tan fuertemente ligados en el núcleo. El primero en dar una respuesta clara a esta cuestión fue un físico japonés llamado Hideki Yukawa en 1935. Según Yukawa, el hecho de que los protones no salgan repelidos por sus mismas cargas, se debe a que entre ellos debe de existir una fuerza de gran magnitud, muchísimo mas grande que la fuerza eléctrica, que solo operase a distancias microscópicas que hicieran que no pudieran ser percibidas para un ojo y una mente de un mundo a gran escala. Esta es la llamada fuerza fuerte, que es la fuerza de mayor magnitud y que opera solo a distancias llamadas nucleares. Para describir esta nueva fuerza Yukawa hizo una analogía con la fuerza electromagnética. En toda interacción electromagnética, se da un intercambio de partículas, los fotones virtuales, que son los responsables de las interacciones electromagnéticas. Además estos fotones se entienden que no tienen masa, por lo que su energía de interacción solo depende de su longitud de onda y no existe limite temporal y espacial según el principio de incertidumbre para interaccionar puesto que la energía es muy pequeña. Pero que ocurriría si estos fotones tuvieran masa?, entonces las energías de interacción serian tan altas que para que una partícula interaccionase necesitaría un limite de tiempo y unas distancias muy pequeñas, microscópicas. De aquí, razonó que debía existir otro campo, similar al electromagnético, que solo actuase en unas distancias muy pequeñas, cuyos cuantos de campo, al igual que los fotones son bosones pero con masa. A diferencia del campo electromagnético, estas partículas solo pueden ser intercambiadas entre las partículas fermiónicas que sienten el campo, razón por la cual los electrones no intercambian mesones porque no sienten la fuerza fuerte. Otra diferencia con el campo 23 electromagnético, con los fotones, es que la partícula de la interacción fuerte tenia masa a diferencia de los fotones que no tienen masa. Estas hipótesis descritas por Yukawa. debían de ser confirmadas y por tanto había que buscar la partícula que portaría la fuerza fuerte. Sin embargo, para que esta partícula existiría y podría ser observada en estado libre harían falta unos aceleradores de partículas millones de kilómetros dado las enormes temperaturas que necesita la partícula para estar de forma libre, lo cual era impensable. Sin embargo, los físicos de los años 30, de que si la gran Explosión, el Big Bang hubiese existido, entonces la partícula esta tendría que encontrarse de forma libre dado la grandes temperaturas que se manejaban en esos instantes. Así buscaron en los rayos cósmicos que chocan continuamente con la Tierra y que son una gran fuente de información del Universo primitivo. Estos estudios de los rayos cósmicos, que consisten en ver la desviación de los rayos cósmicos debido a su carga al pasar a través de un campo magnético, permitieron a Cecil Powell en 1947 descubrir esta partícula portadora de la interacción fuerte a la que se la llamo pion o mesón pi. Anteriormente, en 1936, mientras se buscaba esta partícula, el físico de altas energías Carl Anderson, descubrió otra partícula, el muon, que en un principio se creía que era la partícula buscada, pero después rechazada dado que no tenia la masa ni la energía esperada para reaccionar en el núcleo y porque mas adelante se demostró que este muon se obtenía de la desintegración del pion anteriormente mencionado. Por otra parte, un gran paso hacia el desarrollo del modelo estándar y el mundo de las partículas vino de la mano de Paul Dirac, uno de los físicos cuanticos más importantes de la historia en 1928. Según Dirac, después de trabajar con las ecuaciones del comportamiento de los electrones y hallar dos posibles soluciones a estas, generalizo prediciendo que toda partícula material del Universo debe de tener su pareja en forma de antimateria. Estas hipótesis causaron gran conmoción en el mundo científico al abrir una vía de simetría para explicar las interacciones. Además, según Dirac, una partícula material que chocara con su antiimagen material, produciría un gran estruendo en forma de energía; y viceversa una una gran fuente de energía podría crear estos pares de materia-antimateria. Todas estas predicciones fueran descubiertas, otra vez, gracias a los rayos cósmicos en 1932, el mismo año en que se descubrió el neutrón, siendo el positrón la partícula de antimateria que se descubrió. El positrón o antielectrón, al igual que las demás partículas de la antimateria, se caracteriza por tener masas idénticas pero con cargas opuestas, en este caso para el positrón su carga seria de +1 en oposición a la carga –1 del electrón. Todos estos descubrimientos, hicieron que se empezaran a darse una nueva clasificación de las partículas, dándose los primeros pasos del Modelo Estándar. La primera clasificación se basaba en diferenciar a las partículas que sentían la fuerza fuerte y las que no. Así se podían encontrar la familia de los leptones, que no sienten la fuerza fuerte y la familia de los Hadrones, que son las partículas que sienten esta fuerza. Los leptones estarían formados por el electrón y el muon, los cuales son partículas fermionicas (partículas representantes de la masa) a su vez y que tenían ambos un espin de ½. Por otra parte, en la familia de los hadrones, las partículas fermionicas, tales como 24 los protones y los neutrones, se les conoce como bariones y a las partículas bosonicas de los hadrones, estos son aquellas portadoras de las fuerzas, como mesones. Sin embargo, el numero de partículas no se limitaban a la descripción hecha. El núcleo atómico y las reacciones nucleares dejan notar su presencia gracias a tres tipos de radiación: la radiación α, la radiación β y la radiación γ. Pues es en esta segunda de donde surgió el descubrimiento de una nueva fuerza, la fuerza de interacción débil. La radiación beta consiste, como ya he dicho a lo largo de todo el trabajo, en la desintegración de un neutrón para formar un electrón y un protón mas un antineutrino, dada la corta vida media del neutrón (apenas 15 minutos) debido a su alta inestabilidad cuando esta solo. Durante esta desintegración, se descubrió a principios del siglo XX, que la masas del protón y del electrón sumadas era menor que la del neutrón que se partía. Por eso, y tal como predijo el físico suizo Wolfgang Pauli en 1930, debía de existir otra partícula que representase la masa que le faltaba a esta reacción de desintegración, que seria la portadora de la fuerza nuclear débil. Esta partícula portadora de la fuerza nuclear débil fue predicha por el físico italiano Enrico Fermi, a la que denoto como W- , Esta nueva partícula es un bosón, la cual según la teoría de la electrodinámica cuántica, es una partículas muy masiva, que durante la desintegración beta, se lleva consigo la carga eléctrica negativa y un gran exceso de energía absorbida del medio, la cual, según el principio de Incertidumbre de Heisenberg, la traduce en una gran inestabilidad y corta vida media. Así, mientras el neutrón se convierte en un protón y origina esta partícula W- , que a su vez, como tiene un defecto de energía a devolver, se convierte en un electrón y una partícula aun no descubierta en esos años llamada antineutrino. Se podía ver que, para mediados del siglo XX, se habían descubierto tantas partículas, que los científicos se propusieron formar una “Tabla Periódica” de partículas que les permitiera ver alguna periodicidad entre las partículas y así descubrir nuevas partículas. Tal y como se hizo en su día con la Tabla periódica de los elementos, que se dieron cuenta que si se ordenaban según el numero atómico de los elementos se podía observar ciertas características parecidas y eso les permitió descubrir nuevos elementos aun sin descubrir; hacía falta un rasgo o una regla en la que ordenar esta tabla periódica de elementos. Así, para este fin, dos físicos como Murria Gell-Mann y Yuval Ne’eman ordenaron a las partículas según su “extrañeza”. La extrañeza es una propiedad propia de las partículas fundamentales y puede variar desde –2 hasta +2 (incluido el 0), pudiendo presentarse extrañezas aun mayores. Destaca además, que como sabemos, la carga eléctrica tiene que conservarse en el Universo para que no existan fuerzas eléctricas que influyan en la estructura del Universo, entonces la extrañeza de las partículas también se conserva en las interacciones. Gracias a esta propiedad de la extrañeza y las antiguas propiedades ya conocidas como el espin, la carga y otras propiedades, Gell-Mann agrupo todas las partículas en una Tabla a la que la llamo “las ocho vías”. Este sistema incluía en el familias de uno, ocho, diez o veintisiete miembros, en los que cada familia estaba ordenada por las mismas características. 25 Gracias a esta Tabla de las Ocho Vías, se pudo descubrir que en la familia que agrupaba a los bariones en diez apartados tenia un hueco, signo de que faltaba una partícula. A esta partícula Gell-Mann la llamo Ω-. Esta partícula destaca por tener una extrañeza de -3 y una masa equivalente energéticamente a unos 1680 MeV. Años mas tarde, gracias también a las ocho vías, utilizada como teoría de la estructura interna de los núcleos atómicos, Gell-Mann y el físico George Zweig en los años 60, propusieron que los protones y los neutrones no eran partículas fundamentales de la naturaleza sino que estaban a su vez constituidas por otras partículas, los Quarks. Los quarks son las partículas fundamentales de la familia de los hadrones, de la familia que sienten la fuerza de interacción fuerte. En los años 60, cuando se dio la teoría Cuantica de los Quarks se propusieron la existencia de tres quarks. Los dos primeros, son los que dan el carácter de carga a las partículas hadronica que lo constituyen. Así, se denomino quark arriba, al quark con carga +2/3, y quark abajo al quark con carga 1/3. Gracias a estos dos, se podía explicar la formación de los neutrones, protones y los piones, todos ellos hadrones. El neutrón esta formado por dos quarks abajo y un quark arriba, lo que le da la carga 0 y el protón, por su parte, esta formado por dos quarks arriba y un quark abajo, dándole la carga +1. Mientras, los piones son mas complejos de explicar, ya que se creen formados por una pareja quark-antiquark; por ejemplo, un quark arriba con un quark antiabajo darian un pi+, un abajo con un antiarriba, darian un pi- y una quark arriba con uno antiarriba o uno abajo con otro antiabajo darian lugar a un pion pi0 . El tercer quark predicho, seria el que daría la extrañeza a las partículas hadrónicas. A este quark se le llamo quark extraño. Como hemos dicho, los hadrones están compuestos por una tripleta de quarks, excepto en los piones que están formados por parejas de quarks. Pues bien el carácter extraño, la extrañeza, de las partículas, se debe a la sustitución de alguno o todos los quarks de las partículas por estos quarks extraños. Gracias a este quark, podemos saber que los protones y los neutrones tienen extrañeza 0, porque no contienen ningún quark extraño, mientras, en la partícula Ω-, su extrañeza de –3, se debe exclusivamente a la presencia de los tres quarks que lo forman como quarks extraños. Se caracteriza también este quark extraño por poseer el doble de mas que los quarks arriba y abajo. Existen otros tres quarks, los cuales tienen mas importancia mas adelante, cuando se empiecen a dar las primera teorías de unificación de las fuerzas que permitan explicar con mas facilidad lo que ocurrió en tiempos cercanos a la gran explosión. Por otra parte, los quarks, como otras partículas debían de estar unidas mediante unas partículas que fueran portadoras una fuerza que las mantenga unidas, en este caso la fuerza de interacción fuerte. Como ya dijimos mas arriba, los protones y los neutrones se mantenían unidos gracias a los piones, que se creían las partículas portadoras de la fuerza fuerte. Pero como ya hemos dicho, estos piones están formado por una pareja de quark-antiquark, por lo que debe de existir otra partícula aun mas fundamental, que sea la responsable de mantener unidos a los quarks, formando protones, neutrones y piones, que estos, a su vez unen a los neutrones y a los protones. A esta partículas portadoras de 26 la interacción fuerte se las llamo Gluones y como son partículas transmisoras de fuerza pertenecen a la familia de los Bosones. La teoría de los Quarks trajo consigo una nueva concepción de lo que ocurrió en el Universo cuando se empezó a implicar la materia cuando fue disminuyendo la energía para que las partículas empezaran a interaccionar entre si. Así, el juego de las reacciones de las partículas se limitaba a la interacción de solo 4 partículas fundamentales: los quarks arriba y abajo, el electrón y el neutrino. Así, si tomamos otra vez como ejemplo la desintegración beta, porque es donde se da la presencia de las interacciones débiles y fuertes, se puede ver que en este caso, ya no es el neutrón el que se convierte en un protón y una partícula W- que a su vez producen el electrón y el antineutrino, sino que según la teoría de los Quarks, es un quark abajo el que se cambia por un quark arriba produciendo la partícula W- , produciendo a su vez el electrón y el neutrón. Continuamente estoy haciendo mención a la desintegración beta, dada su importancia para explicar muchísimos procesos que se dan en otros campos de la naturaleza. Así, gracias a la desintegración Beta, los científicos de los años cincuenta, mientras intentaban construir una teoría de campo de la interacción débil les permitió descubrir un hecho muy importante, tenia simetría. Hasta ese momento se sabia que el campo electromagnético era un campo simétrico, ya que toda partícula de carga tiene su pareja simétrica con carga opuesta. Esta simetría, permitió diferenciar a los neutrones y protones mediante una propiedad a la que llamaron espín isotópico o isoespín. El espín isotópico, consiste en una flecha imaginaria interna asociada a cada partícula nucleónica (protón y neutrón). Así el isoespín del neutrón seria una flecha imaginaria apuntando verticalmente y la del protón una flecha apuntando horizontalmente. Cuando se da la desintegración beta, se produce también un cambio en el sentido de orientación del isoespín en un giro de 90º. Pero, al igual, que no se dan cambios en las fuerzas electromagnéticas, ya que como se ve en esta desintegración beta la cargas se igualan, las fuerzas de interacción fuerte tampoco sufren cambios, debido a que se pasa de un isoespín vertical, neutrón, a un isoespín horizontal, protón, los cuales se anulan. A estos campos que cumplen esta simetría se les denomina como campos de aforo o calibrado. Estas teorías sobre la simetría tienen especial importancia a la hora de explicar como fue posible unificar las fuerzas conocidas en el Universo, objeto deseado para conocer lo que ocurrió en el nacimiento del Universo. 27 LA PARCIAL UNIFICACIÓN DE LAS FUERZAS La búsqueda de una teoría que unifique las cuatro fuerzas del Universo es el objeto mas deseado por los científicos desde mediados del siglo XX hasta nuestros días. El descubrir una teoría que englobe las cuatro fuerzas, es decir, la gravedad, el electromagnetismo, la fuerza débil y la fuerte, permitiría conocer con exactitud lo que ocurrió en el primer instante del Universo, cuando T era igual a 0, ya que en ese instante todo constituía una gran bola de fuego, regida bajo la misma física, una física que englobaba las cuatro fuerzas; las cuales a medida que el Universo se expandió y se enfrio empezaron a separarse y a actuar por separado. El Modelo estándar aun siendo una teoría muy relevante, solo explica parcialmente esta unificación de las fuerzas, ya que ha conseguido ligar la fuerza electromagnética y la débil, e incluso ha podido llegar a unificar la fuerza fuerte. Sin embargo, el gran problema del Modelo estándar y de todos los científicos es que todavía no han sido capaces de englobar dentro de este modelo y de ningún modelo a la fuerza de Gravedad. -La unificación electrodebil La unificación de las fuerzas débil y electromagnética se llevo a cabo debido a un intento fallido anteriormente de unificar la fuerza de interacción fuerte y a la electromagnética que había sido realizado por Yang y por Robert Lawrence Mills en 1954. Esta teoría de Yang-Mills consistía en una teoría de campo de aforo invariante de la interacción fuerte. Esta teoría se basaba en la simetría que presentaban las partículas nucleares en cuanto a su espín isotópico. Mediante esta teoría, existe una simetría local que permite cambiar todos los isoespines de los protones y los neutrones en distintas partes del Universo e instantes del mismo, pero al final la reside una simetría global que hace que si se cambia un protón en un neutrón en una parte del Universo, inmediatamente y simultáneamente se cambia un neutrón por un protón (y viceversa) conservando así la simetría global. La de Yang-Mills, destacaba además por ser una teoría no-abeliana, ya que si se le aplica una operación de simetría local, llamémosla A, y luego otra B, el resultado es diferente de que se apliquen inversamente: primero B y luego A. Esta terminología se deriva del trabajo del matemático noruego Neils Henrik Abel, el cual a principios del siglo pasado estudió las propiedades de los grupos de transformaciones en las que se obtiene el mismo resultado si se conmutan. Uno de los mayores atractivos de las teorías de norma no-abelianas con simetría local es que la relatividad general pertenece a esta familia, por lo que una formulación de este tipo para cualquiera de las otras fuerzas sería un paso importante hacia la unificación. 28 La teoría de Yang-Mills fue objetada casi de inmediato por varias razones fundamentales. Entre las más obvias estaba su predicción de la existencia de fotones cargados. Si hubiera partículas cargadas con masa inferior a la del electrón, el Universo sería totalmente distinto del que conocemos. Sin embargo, esta formulación posee algunas características matemáticas tan especiales que motivaron a los físicos teóricos a buscar alguna manera de modificarla para eliminar sus defectos más que a desecharla. Aunque se trataba de una teoría errónea, les sirvió como base a los científicos del siglo XX para aplicar sus ideas a la fuerza de interacción débil y dar un paso importantísimo para entender el comienzo del Universo, la unificación del electromagnetismo y la fuerza débil. El primer científico en aplicar la teoría de Yang-Mills a la interacción débil fue Julian Schwinger, un impresionante matemático estadounidense nacido en 1918. Según Schwinger, también existía un isoespín “débil” en las partículas leptonicas (electrón y neutrino), ya que al igual que los protones y neutrones intercambian su isoespín en la desintegración beta, un electrón se crea con un antineutrino, lo que es lo mismo a decir que un neutrino se convierte en un electrón intercambiando su isoespín. Su teoría, consideraba al igual que la de Yang-Mills tres bosones vectoriales, dos con carga y uno sin esta. A los cuantos de campo sin carga los considero, al igual que Yang-Mills, se le atribuyo a los fotones; mientras a los dos bosones cargados se les llamo como W+ y W-, los portadores de la interacción débil. Esto permitía una simetría en términos de que la interacción débil y el electromagnetismo eran lo mismo, pero esta simetría se rompía puesto que las partículas W tenían masa, lo que hace que tengan un alcance limitado, mientras que el fotón no tiene masa y por tanto su alcance es infinito. A este problema con la masa de las partículas le dio respuesta el científico escocés Peter Ware Higgs en 1964. Higgs encontró un método para dotar de masa a los campos de Yang-Mills sin romper la simetría local. La idea de Higgs se basaba en un proceso conocido como rotura espontánea de simetría. Este mecanismo se puede entender en términos de la interacción gravitatoria para una bola en lo alto de un sombrero mejicano. Un sombrero mejicano puesto horizontalmente es perfectamente simétrico. Si se pone ahora una bola en el pico del sombrero, el sistema permanecerá simétrico mientras esta no se mueva. Si esto sucede, la simetría bola-sombrero se romperá y la bola se depositara en el fondo del sombrero en un estado asimétrico de energía mínima. En otros términos, el estado simétrico es de mayor energía potencial que el asimétrico. Ahora, si se deja a la bola sobre el borde del sombrero, por un instante habrá simetría pues la bola tendrá libertad para caer en cualquier dirección del sombrero. Sin embargo, cuando cae, hay un rompimiento espontáneo de la simetría, y la simetría queda escondida. Según Higgs, refiriéndose a la masa de los campos de Yang-Mills, el estado simétrico corresponde al caso de campos sin masa; sin embargo, la existencia de un nuevo campo elevaría la energía de este estado por encima de otro en el que las partículas de YangMills adquieren masa. A este nuevo campo se le denomino campo de Higgs. Basándose en los trabajos de Higgs, el científico americano Steven Weinberg, por un lado, y el pakistaní Salam y su colega Ward por otro en 1967, llevaron a cabo una teoría 29 de las interacciones débiles basada en la teoría de Yang-Mills según la cual las tres partículas del campo correspondiente, una neutra y las otras dos cargadas, adquirían masa mediante un proceso de rotura espontánea de la simetría. En este modelo, el campo de Higgs, responsable del rompimiento de simetría, y por consiguiente de la aparición de la masa, introduce, a su vez, cuatro nuevas partículas, de las cuales tres de ellas se mezclan con las partículas de la teoría Yang-Mills de forma que las dos partículas cargadas y una de las neutras adquieren masa, y son identificadas como la Wy la W+, como las partículas de masa(tal y como predijo Schwinger), y la partícula Z0, la partícula con masa pero sin carga. La cuarta partícula de Yang-Mills, que es neutra, permanece sin masa, y resulta ser el fotón. De este modo las partículas Z y las dos W serian las portadoras de la interacción débil y el fotón la del electromagnetismo. De este nuevo arreglo sobra una partícula de Higgs que no se mezcla y, por lo tanto, queda como una predicción de la teoría, que se trata de la llamada partícula o bosón de Higgs. Sin embargo quedaban todavía algunos problemas serios por resolver. En cuanto a la teoría misma, había que probar que el modelo fuese renormalizable, tal y como ocurrió cuando se realizo la teoría de la electrodinámica cuántica. Pero la mayor dificultad era experimental puesto que, ninguna de las otras partículas habían sido observadas. a excepción del fotón Para el primer problema de la renormalizacion, el científico holandés Gerard't Hooft encontró solución en junio de 1971. Esta se basaba en una formulación sobre un rompimiento espontáneo de la simetría que es renormalizable. Este paso resolvió la dificultad teórica del modelo propuesto por Weinberg, Salam y Ward. El descubrimiento de Hooft causó un gran revuelo entre los físicos de partículas y las propuestas experimentales para detectar bosones portadores de la interacción débil empezaron a ser enormes. Experimentalmente, las Z son más fáciles de identificar pues aparecen en situaciones en las que el campo electromagnético no juega ningún papel, tal como la dispersión de neutrinos por protones. Así en lo experimentos llevados a cabo en la CERN, un impresionante acelerador de partículas, en 1973, F. J. Haert y sus colaboradores produjeron las pruebas de que las interacciones implicaban a la partícula Z. Este experimento se baso en las huellas dejadas en una cámara de burbujas llamada Gargamelle, al reaccionar un antineutrino o un neutrino con un electrón haciendo pasar un rayo de neutrinos de alta energía, gracias a la partícula Z mediando de por medio. Por otra parte, la teoría electrodebil predecía la masa para las partículas Z y las W. Cada W debía pesar unos 92 GeV(100 veces menos de masa que el protón) y la partícula Z pesaría alrededor de 82 GeV, razón por la cual tuvieron que pasar diez años antes de que estas partículas pudieran ser producidas directamente en un laboratorio. Para esta labor se el CERN construyó un acelerador en Ginebra lo suficientemente grande para llevar a cabo la detección de estas partículas. Para esta labor, la CERN designo a Simón Van der Meer y Carlo Rubbia. El primero desarrolló la técnica de aceleradores que hacía falta para observar colisiones de rayos de protones chocando frontalmente con antiprotones a más de 90 GeV. El segundo construyó un sistema de detección de más de 500 metros cúbicos llenos de cables y artefactos con un peso total superior a las 2 000 toneladas. Hacia enero de 1983, el acelerador de Ginebra empezó a dar sus frutos, dando claras muestras de las existencia 30 de las partículas W y Z con masa parecidas a las predichas, que se producen durante la colisión y que después se desintegraban en electrones energéticos y otras partículas. Rubbia y Van der Meer anunció los resultados de estos primeros experimentos, en los que se observaron más de mil millones de eventos, que le sirvieron para, en diciembre de 1984, Van der Meer y Rubbia recibir el premio Nóbel. Gracias a las masas predichas, y por tanto sus energía en reposo, para estas partículas W y Z, sabemos, por la ley de Boltzmann que estas partículas debieron aparecer cuando la temperatura del Universo rondaba los 1015 K, esto es, una mil millonésima de segundo después de T = 0. entonces fue ene este momento, cuando la interacción débil se separo de la fuerza electromagnética hasta tal y como las conocemos en la actualidad. A medida que se consigan aceleradores de partículas que puedan producir mayores energías, mas podremos acercarnos al instante del nacimiento del Universo. -Hacia la unificación de la fuerza Fuerte Ya hemos visto que los científicos de mediados del siglo XX fueron capaces de demostrar que la fuerza electromagnética actúa de forma unificada con la fuerza fuerte a temperaturas o energías elevadas. El siguiente paso y el mas deseado por los científicos era el de unificar a estas dos la fuerza de interacción fuerte. Pero, para conseguir esto primero debían de solucionar problemas relacionados con las partículas que sienten estas fuerza fuerte, los quarks. El problema residía en la coexistencia de quarks aparentemente idénticos, como por ejemplo, en la partícula Ω- , la cual está formada por tres Quarks extraños, como hemos dicho aparentemente idénticos. Pero el problema reside, en que los quarks, como son partículas fermiónicas, deberían de cumplir el principio de exclusión de Paulí. Para evitar que no se cumpliesen el principio de exclusión, dos físicos teóricos japonés, Yoichiro Nambu y M.Y.Han, propusieron la existencia de cada quark conocido en tres variedades denominadas colores, haciendo así, que existiesen diferencias entre quarks de una misma partícula, y cumplir el Principio de Exclusión. Así estos colores se denominaron: Rojo, azul y verde; que permite explicar, mediante diversas ecuaciones matemáticas como la partícula omega menos esta formado por tres Quarks extraños, uno rojo, azul y verde. Por otra parte, otro problema que surgía a la hora de intentar unificar la fuerza fuerte, era entender el porque los bariones este formados por un tripleta de Quarks mientras que los mesones están formados en pares de Quarks. Para explicar esto, Nambu y Han, propusieron un principio en el cual las combinaciones de los quarks para formar partículas han de hacerse de manera que la partícula formada carezca de color. Así, cada mesón estaría formado por un Quark de un color con otro quark anticolor. Mientras, en los hadrones, este estado “incoloro” se conseguiría mezclando en una partícula cada uno de los tres colores con cualquier quark arriba, abajo o extraño. Gracias al descubrimiento de que los quarks tenían color, y de que además su estado global debía de ser incoloro, los científicos aplicaron estos hechos a los principios simétricos que proponían la teoría de Yang-Mills, denotada como la Cromodinamica Cuantica o QCD. Según esta teoría, todo quarks es libre de cambiar su color 31 independientemente con los demás emitiendo a su vez un gluon, es decir, se produce un cambio en la simetría local del Quark, que rápidamente es contrarrestado por otro Quark que cambia de color al absorber el gluon emitido por el anterior Quark y así sucesivamente, lo que hace que la partícula se mantenga incolora y hace además que estos gluones emitidas y absorbidos sucesivamente sean los responsables de mantener a los núcleos atómicos unidos, portando así la fuerza fuerte. Paralelamente a esta teoría, se descubrió experimentalmente en 1974 la existencia de un nueva partícula masiva a la que llamaron partícula “psi”. Para explicar el funcionamiento de esta partícula, se incorporo un nuevo Quark a la teoría de Quarks, el Quark “encanto”. Gracias a esta partícula encanto, supuso una prueba de vida de la verosimilitud de la QCD, y permitió a los científicos tener un patrón donde buscar mas partículas aun no descubiertas. Experimentalmente, en 1975 en el acelerador de partículas, el SLAC, se sugirió y un año mas tarde confirmado experimentalmente en Hamburgo, la existencia de una partícula leptónica, un partícula de la familia del electrón, el doble de masivo que el protón a la que llamaron partícula Tau o τ. Esta partícula a su vez tendría su simétrico de antimateria la partícula antitau. Esto elevaba el numero de leptones a 6 (electrón, neutrino y tau con sus respectivos antiimagenes), lo que haría que para conservar la simetría con con el mundo de los hadrones, deberían existir al menos dos Quarks mas, a los que los llamaron Quarks “cima” y Quark “fondo”. La combinación de la teoría electrodébil y la QCD es lo que hasta ahora he venido definiendo, el Modelo estándar de las partículas. Sin embargo, aunque haya resaltado su importancia, se puede ver que el Modelo estándar no define concretamente como y cuando se encontraban unificadas la fuerza fuerte con la electrodebil. Por otra, parte el mayor problema del Modelo estándar, es que aunque haya sido capaz de unificar, con mayor o menor éxito las fuerzas electromagnéticas, débil y fuerte, es incapaz de explicar la unificación de la Fuerza de Gravedad, por lo que se han ido proponiendo nuevas teorías para encontrar una Gran teoría Unificada, denotada por GUT, que unifique todas las fuerzas. 32 MAS ALLÁ DEL MODELO ESTANDAR LA SUPERSIMETRIA y SUPERGRAVEDAD A partir de este momento, las teorías de Unificación o GUTs, basadas en supuestos simétricos constituyen un entendimiento del funcionamiento del Universo todavía mas profundo que con el Modelo estándar. Anteriormente, se habían propuesto GUTs que trataba con familias de cinco partículas, que permitían, por ejemplo, en una familia de tres quarks con color, electrones y neutrinos, entender como un protón se transforma en un neutrón y como cambian de color los Quarks. Sin embargo, gracias a la supersimteria se puede explicar como un quark se puede transformar en un Leptón. En la teoría electrodébil se requieren cuatro bosones, el fotón y las 2 partículas W y la Z. Gracias a la supersimetría nació una GUT quíntuple, que requiere 24 bosones. Cuatro de ellos corresponderían a la teoría electrodebil, ocho mas a la teoría QCD y todavía sobrarían doce nuevos bosones que serian responsables de diversas interacciones a las que llamaron bosones X o Y. Estos hipotéticos bosones, podrían cambiar quarks en leptones y viceversa, portan carga de 4/3 o 1/3 y serian muy masivas. Según esta teoría las tres fuerzas, la electrodebil y la fuerte, habrían estado unificadas a temperaturas del grado de 1015 GeV, que correspondería a una edad del Universo de 10-37 seg. y una temperatura de 1029 K . Este enfoque permitió a los científicos Julian Weiss y Buno Zumino en 1974, relacionar los leptones con los Quarks dejando de lado, a los bosones, considerándolos simplemente como partículas portadoras de fuerzas. Esto permitió exponer una teoría de la supersimetría que englobaba todo y permitía relacionar los bosones con los fermiones, las partículas de la materia. La mayor dificultad que reside para relacionar los bosones con los fermiones, es que estos últimos obedecen al principio de exclusión de Pauli, mientras que los bosones no. Pero según la teoría de la supersimetría, toda partícula bosonica debe tener un compañero fermionico equivalente y viceversa. Así por ejemplo, un quark, que es un fermión, tendría su pareja bosonica en forma de un “squark”; mientras un bosón, como el fotón, tendría su simétrica fermionico en forma de un fotino. A estas teoría de supersimetria se le denota de forma abreviada como SUSY. Esta permitía una cosa sorprendente, halló una relación de equivalencia entre las operaciones matemáticas de conversión de fermiones en bosones con las operaciones de simetría de la Relatividad general. Las operaciones de la teoría SUSY, no solo implican las transformaciones bosón-fermión sino que también implicaban al espacio-tiempo. De hecho, la teoría de la relatividad General no se trata mas que un reflejo de la geometría en el espacio-tiempo. 33 Estas teorías abrieron dos nuevos caminos a los científicos. El primer camino se baso en aplicar estas teorías de la supersimetria en las teorías de gran Unificación, a las que llamaron teorías SUSY-GUTs. Por otro lado independiente, se llevo a cabo un desarrollo de las teorías supersimetricas para la gravedad a las que se conocen como la SUPERGRAVEDAD. La versión mas aceptada de la supergravedad, es la llamada supergravedad “N = 8”, que según los científicos que la desarrollan (actualmente), podría explicar todo de una vez, permitiría explicar las el funcionamiento de las fuerzas, las partículas materiales y la geometría del espacio tiempo de una estacada. Además, esta teoría de la supergravedad “N = 8” no presenta el problema de la renormalizacion que surgían con las teorías de la unificación electrodébil QED, sino que ella por si misma es autonormalizable. LAS ONCE DIMENSIONES y LAS SUPERCUERDAS La teoría de las once dimensiones surgió muchísimo antes que todas las teorías anteriormente descritas, pero no ha sido hasta este siglo donde han sido consideradas de importancia. Esta teoría se debe a un joven estudiante Alemán, Theodor Kaluza. Según Kaluza, a medida que se le añaden dimensiones al Universo, las fuerzas se van unificando hasta un punto en el cual se puede explicar todo, ya que se encuentra todo unificado, que seria dándole al Universo una comprensión en forma de once dimensiones. Esta teoría surgió, en 1919, de una nueva interpretación de la teoría de la Relatividad, ya que ésta, describe el funcionamiento de la gravedad en cuatro dimensiones, las tres del espacio y la cuarta correspondiente al tiempo. Pues bien, Kaluza añadió una quinta dimensión mas a la interpretación matemática de la Relatividad General, y se dio cuenta, de que la quinta dimensión correspondía a las ecuaciones de Maxwell, es decir, al electromagnetismo. había conseguido pues unificar la fuerza de gravedad con la fuerza electromagnética añadiendo una dimensión mas al Universo. Posteriormente, el físico sueco Oscar Klein, incorporo en 1926, la idea de Kaluza a la Teoría Cuántica. El comportamiento de los electrones, los fotones... se describe en Física Cuántica mediante un sistema de ecuaciones representadas por la ecuación de Schrödinger. El trabajo de Klein se baso en rescribir esta ecuación para 5 variable, y demostró que las soluciones se daban bajo la influencia de la gravedad y el electromagnetismo. Así, las ondas electromagnéticas podrían entenderse como una ondulación de la quinta dimensión, la partícula Z seria la sexta, así hasta que se representen las cuatro fuerzas fundamentales. Esta teoría se conoce como ecuaciones de Kaluza-Klein y posteriormente se demostró que la unificación que proponía las once dimensiones es exactamente las mismas que la de la supergravedad. Según esta interpretación de las ecuaciones de Kaluza-Klein con la supergravedad, solo hace faltan 11 dimensiones para explicar todo lo que pasa en el Universo, 4 dimensiones del espacio-tiempo y 7 adicionales representando las fuerzas. Según esta teoría el Universo nació de un estado en el que estas once dimensiones se encontraban unificadas y enrolladas sobre si mismas, y a medida que el Universo se expandió y se enfrió, las dimensiones se iban desplegando, formando las partículas, fuerzas de la naturaleza hasta terminar en el Universo que conocemos hoy en día. 34 La teoría mas actual y también la mas novedosa es la teoría de las supercuerdas, en la cual se basa en tratar a las partículas, no como partículas sino como cuerdas unidimensionales que se desplazan en el espacio-tiempo hiperdimensional. Además Esta teoría establece que el microcosmos está dividido en cuatro niveles de organización en cuanto a complejidad: El primer nivel engloba al Modelo Estándar en sí, puramente descriptivo. El segundo nivel, es el conocido como Nivel de Simetría, mediante los cuales se crean las relaciones entre los Campos y las partículas de materia. El tercer nivel es donde se encuentra la planta donde los niveles de simetría se interpretan como estados de un espacio, no de tres dimensiones, sino de once. Y en la cuarta, el máximo del nivel de abstracción, se encuentra el mundo donde vive el constituyente fundamental de la materia: las supercuerdas. Estos objetos definen a través de su comportamiento esos estados que provocan la aparición de los grupos de simetría que a su vez relacionan las fuerzas con la materia, y que a su vez explican el comportamiento de las partículas subatómicas y los átomos. 35 MAS CERCA AÚN Gracias al modelo estándar descrito y a las teorías modernas de unificación que van surgiendo, nos permiten acercarnos al momento de la gran explosión de una forma precisa. Lo mas que podemos acercarnos a este instante esta en un tiempo igual 10-43 segundos, al que se le llama tiempo de Planck, debido a Max Planck. En este instante, la longitud del Universo, llamada longitud de Planck, que es del orden 2·10-33 cm. Por otra parte la masa en ese momento del Universo, la masa de Planck, seria igual a 2·10-5 gramos. 1/ 2 l Planck h·G = 3 c 1/ 2 ≈ 2·10 − 33 cm t Planck h·G = 5 c ≈ 10 − 43 s En este instante la temperatura del Universo es equivalente a 1032 K y la densidad de energía de la radiación era igual a 1019 GeV. A estas temperaturas, el universo estaba dominada por la gravedad Cuántica, cuyos efectos aun se desconocen actualmente ya que no se posee una teoría que explique el funcionamiento de la gravedad a nivel cuántico, siendo esta la razón de que no podamos acercarnos mas al instante en el que nació el Universo, cuanto T era igual a 0. Por otra parte, a este instante del Universo se le conoce como Era de Planck. El siguiente momento decisivo en la creación del Universo se dio 10-36 segundos después de la misma, donde finalizo la Gran unificación de las cuatro fuerzas, separándose primero la fuerza de gravedad, a una temperatura de 1028 K y una densidad de energía de 1015 GeV. A este periodo que va desde la era de Planck, desde 10-43 segundos hasta 10-35 segundos se le conoce como Era de GUT. Posteriormente, a 10-12 segundos, cuando las temperaturas eran de 1016 K y una densidad energética de 103 GeV, fue cuando se separo la unificación electrodébil. A unos 10-5 segundos, todos los quarks se encerraron en los bariones al descender la temperatura por debajo de los 1013 ºK. A partir de este instante, el Universo evoluciona de la forma descrita arriba anteriormente. LA BARIOSINTESIS Esta etapa del universo es de vital importancia ya que, en ella se produce el excedente de materia, de bariones, sobre los anitbariones, la antimateria, que pudo después evolucionar de la forma vista anteriormente durante los tres primeros minutos. Esto ocurrió durante la era de GUT, es decir antes de los 10-35 segundos después del Big Bang. La teoría de la síntesis de bariones fue propuesta por el científico ruso, nacido en Moscu, Andrei Sajarov. Según Sajarov, durante la era de GUT, el numero bariónico (diferencia entre partículas barionicas y anitbarionicas), puede que no se conservasen , debido principalmente a la alteración de la simetría existente. En esta variación de la simetría de los bariones influyo en gran medida dos leyes de conservación, la carga C y la paridad P de las partículas (a esta rotura de simetría se le suele llamar invariancia 36 CP). Pues bien, debido a esta invariancia CP, la reacciones de las partículas con sus respectivas imágenes se diferencio de las reacciones de estas partículas con las demás partículas diferentes. Esto, hizo que se produjera una asimetría bariónica, que debido a que durante la era de GUT las temperaturas eran tan altas del, orden de 1027 K, la alta velocidad de las reacciones de la radiación existente, marcara aun mas si cabe la asimetría en los procesos que concernían bariones, tales como: 1) la existencia de procesos en los que no se conserva el numero bariónico, 2) la alteración de la invariancia CP y 3) la desviación del equilibrio. Todo esto hizo que cuando empezara la inflación, fenómeno que describo adelante, ya hubiera un excedente bariones sobre antibariones, que siguió igual, hasta las épocas de las nucleosíntesis, donde se conformo bajo estas bases las cantidades de materia y antimateria existentes en el Universo. LA INFLACIÓN El modelo de la inflación permite explicar y dar significativo a muchos problemas que se han presentado en el Universo y que el modelo estándar hoy por hoy no puede o no es capaz de responder. Uno de estos problemas, es el problema con los monopolos magnéticos, es decir, de cargas magnéticas aisladas, ya que suponían una contradicción al modelo descrito de la unificación de las fuerzas. La existencia de monopolos las predijo primero,V. t’Hoft, y después el físico soviético A.M. Poliakov mientras estudiaban la forma de unificación de la fuerzas, ya que se dieron cuenta que en los modelos donde se explican las diferencias existentes entre el electromagnetismo y las demás interacciones mediante la ruptura de la simetría contienen soluciones correspondientes a cargas magnéticas aisladas g = h·c culombios. 2e Sin embargo en los experimentos que se llevaron a cabo en aceleradores con rayos cósmicos, la creación de estos monopolos magnéticos (y de sus respectivos antimonopolos) no se observaban. Estos monopolos, se crean como resultado de una transición desde una fase simétrica hacia una donde se ha alterado la simetría del electromagnetismo con el resto de las interacciones. Sin embargo, y tal y como dicta el principio de equilibrio termodinámico, el alto valor de la concentración de estos monopolos, se tuvo que contrarrestar aniquilándose mutuamente con sus antimonopolos en esta época de transición de fase simétrica a otra no simétrica, dado que si hubiera monopolos en gran cantidad actualmente, probablemente el Universo no habría evolucionado hasta la forma actual. Otro problema que el modelo estándar no consigue explicar, es el llamado problema del “horizonte”, que surge como consecuencia de la homogeneidad del Universo en todas las direcciones del mismo. Como vimos en el punto concerniente a la radiación de fondo, este nos indica que el Universo es isotrópico, que es completamente homogéneo. ¿Cuanta radiación sabe una parte del cielo que debe poseer para contrarrestar las fuerzas producidas por la radiación del lado opuesto y así parecer homogéneo?. La mayor 37 información observable del antiguo Universo es la radiación de fondo cósmica, pero en ese momento habían pasado unos 300.000 años de expansión, por lo que los lados opuestos estaban separados. Pero esto significa que un tiempo anterior debieron estar en contacto estos lados opuestos del Universo, y que en ese momento la radiación debía de ser desigual. ¿pero como pudo esto producir una uniformidad de temperatura tal apreciable en la radiación de fondo de microondas? Otro problema que no sabe responder el Modelo estándar es el de la existencia de las galaxias, ya que si el Universo se creo de un estado tan uniforme, ¿cómo se pudo formar un Universo tan heterogéneo con tantas acumulaciones diferencias entre las galaxias existentes? Por ultimo el mayor problema para el modelo estándar era el generado por la “planaridad” del Universo. Las soluciones a las ecuaciones de Einstein contemplaban una posibilidad de que el Universo pueda ser plano, es decir que ni se expanda ni se pueda contraer. La densidad actual del Universo, se cree que es una décima de la cantidad requerida para hacerlo cerrado, entonces, un segundo después de la génesis del Universo, la densidad del Universo se diferenciaba en 10-13 de la densidad critica, y si se llega a 10-37 segundos después de la creación el valor se diferenciaba en 10-47 por ciento menor que la densidad critica. Este valor cercano a la densidad que hace que el Universo sea plano, indica que en los primeros instantes del Universo, este era plano, pero que en un cierto momento ocurrió algo que acelero la expansión e hizo que tuviera el aspecto que tiene en la actualidad. Todos estos problemas podían tener solución gracias a un modelo de la inflación, que predice que durante un periodo de tiempo después del Big Bang, el Universo debió de crecer de forma violenta, dando significado a estos problemas. Este modelo fue propuesto por primera vez en 1979 por Alan Guth, un magnifico científico estadounidense nacido en 1947. Según este, en un momento de la evolución del Universo, cuando se rompió la unificación de las fuerzas existentes, es decir, se rompió la simetría debido a que los bosones vectoriales intermedios descritos en la bariosíntesis, reaccionaron con las partículas de Higgs, que hicieron que ganaran masa, ya que como dije mucho mas atrás, las partículas de Higgs se consideran en la actualidad la responsable de que las partículas tengan masa. Las partículas de Higgs se diferencian de las demás partículas en que su estado de menor energía, no se da cuando el campo que las crea es nulo. A este estado en el que el campo es nulo pero su densidad no es mínima la llamo “falso vacío”, mientras que al estado de menor energía en el cual el campo no es nulo lo denoto como vacío verdadero. Según esto, hubo un momento en la evolución del Universo, aproximadamente desde 10-43 segundos hasta 10-35 segundos después del Big Bang, que hizo que le Universo se enfriara hasta llegar a una temperatura de 1027 K, que hizo que el campo de Higgs alcanzara se hiciera nulo pero su densidad de energía no fuese mínima, sino que se encontrara en el estado de falso vacío, pero la simetría de las fuerzas no se rompiera, lo que hizo que debido a este estado de falso vacío, toda su densidad de energía fuese imprimida como una especie de efecto de antigravitación, que hizo que el Universo, a esos 10-35 segundos se expandiera exponencialmente, como si se hinchara, hasta alcanzar el estado de verdadero vacío. 38 Al alcanzar el estado de verdadero vacío, cuando habían transcurrido 10-24 segundos después del Big Bang, el Universo se habrá expandido exponencialmente en un factor de 1050, y es en este momento cuando la rápida inflación se detuvo, debido a que al alcanzar el estado de verdadero vacío, la simetría se rompió y la densidad de energía de las partículas Higgs se hizo mínima, lo que hizo que el impulso que dotaba al Universo decreciera. Posteriormente, esta teoría fue perfeccionada por el científico ruso Linde, nacido en 1984. Este modelo dio solución a todos los problemas expuestos al principio. Por ejemplo, el problema del horizonte se soluciona, diciendo que en las épocas inmediatas al origen del Universo, los lados opuestos del Universo estaban en contacto todas ellas uniformemente, haciendo después, mediante la inflación que se separaran violentamente y permanecieran uniforme, tal y como se observa en la actualidad al Universo. EL problema de la planaridad también se soluciona con el modelo de la inflación, debido a que, como el Universo se ha expandido tan violentamente, en una potencia de 1050, la región del espacio que ha recorrido la luz(horizonte), hace que no sea curva sino plana, como consecuencia de este violento “hinchamiento” del espacio. En cuanto a los problemas de los monopolos, el volumen de espacio que había antes de la inflación era muy pequeño comparado con el que había después de la inflación, ya que el Universo se expandió en una potencia de 1050. Esto aseguraba la existencia de enorme numero de monopolos antes de la inflación, pero que debido a esta inflación, actualmente solo se observaría una zona, horizonte, en el cual apenas se encuentran, tal y como desvelan las observaciones actuales. 39 Bibliografía Libros − Steven Weinberg, “los tres primeros minutos del Universo”, Alianza Universidad − Jhon Gribbin, “En busca del Big Bang”, editorial Pirámide − M.Iú.Jlópov, “El Universo y la búsqueda de las teorías unificada de campo”, editorial URSS − Jhon Gribbin, “El nacimiento del Tiempo”, editorial Pirámide Revistas − Investigación y ciencia, agosto 2003, “Mas allá del modelo estándar de partículas” − Investigación y ciencia, abril 2004, “Sinfonía cósmica” − Investigación y ciencia, abril 2004, “Los planos de la creación” Internet − − − − − − − − − − − − http://www.uco.es/~i52cacaj/AAC/bolet27/cosmologia.html http://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/068/htm/ http://hyperphysics.phy-astr.gsu.edu/hbase/particles/ http://platea.pntic.mec.es/~jdelucas/particulaselementales.htm http://www.ciencia-ficcion.com/glosario/f/fuerfund.htm http://www.astrocosmo.cl/ http://www.fis.usb.ve/~mcaicedo/cosmology/talkv1.5.htm http://www.cnice.mecd.es/tematicas/cosmologia/ http://particleadventure.org/particleadventure/spanish/index.html http://www.geocities.com/CapeCanaveral/Launchpad/2921/cosmolog.htm http://www.astrobiology.com/astrochemistry.html http://www.geocities.com/pedroj.geo/early_a.html 40