Archivo MS-WORD 2007 - Exploremos el universo

Anuncio
El big bang: aproximación al universo y a la sociedad (1)
Sergio Torres Arzayús
PhD en física
Investigador
International Center for Relativistic Astrophysics, Roma, Italia
Hace 400 años Galileo Galilei abrió una ventana al universo que revolucionó la concepción del
mundo en que vivimos poniendo así en marcha el desarrollo de la cosmología moderna. Un
aspecto básico de la manera como Galileo se aproxima al universo es el de basar los modelos del
cosmos en observaciones astronómicas. Siguiendo esa directriz, hoy contamos con una teoría
científica del origen y evolución del universo – teoría del big bang – basada en innumerables
observaciones que entrelazan coherentemente diversos dominios de la física que abarcan desde
las partículas sub-atómicas hasta los cúmulos de galaxias. Durante el período de gestación entre
los años 1940-1970, la teoría del big bang suscitó notorias peleas entre los físicos y astrónomos
que forcejeaban argumentos unos pocos a favor y la gran mayoría en contra de la teoría. Cabe
preguntarse, ¿qué sucedió para que la teoría del big bang terminara siendo aceptada por la
comunidad científica?
Escudriñando el pasado del universo
El telescopio es como una máquina de tiempo porque las imágenes que nos entrega son
construidas con los rayos de luz que llegan a sus lentes después de un largo viaje por el espacio
profundo que separa los objetos astronómicos. Cuando observamos el Sol estamos viendo la luz
que salió de esa estrella hace ocho minutos. Quiere decir que estamos observando el pasado, lo
que fue el Sol hace ocho minutos. Esto sucede porque la luz se propaga a una velocidad finita de
300.000 kilómetros por segundo. Las galaxias lejanas se encuentran a millones de años luz de
distancia, lo cual quiere decir que la luz se demora millones de años viajando por el espacio antes
de estrellarse contra las placas fotográficas de los astrónomos; en esa fotografía estamos
observando lo que las galaxias eran hace millones de años. En resumen, el telescopio nos pone
de frente a los objetos astronómicos como eran en el pasado y por lo tanto nos permite
(1) Basado en el libro El big bang: aproximación al universo y a la sociedad, Sergio Torres Arzayús,
Editorial Siglo del Hombre, Bogotá, 2011 ( www.astroverada.com/libro/ ). El libro expone con claridad
los argumentos de la cosmología, incluyendo los puntos débiles y ofreciendo una valoración honesta del
estado de avance de la cosmología. El autor presenta estos temas en forma de un diálogo —basado en
discusiones reales— que tuvo lugar durante cuatro jornadas entre tres amigos, un panadero curioso, un
sociólogo y un astrofísico, quienes, al igual que el lector, tienen muchas preguntas sobre el universo y
quieren entender lo que los científicos están encontrando en el cosmos.
1
investigar cómo era el universo en el pasado y eventualmente llegar a saber cómo se originó y
evolucionó.
Entre más potente sea un telescopio mayor penetración al pasado del universo se puede lograr.
Cabe preguntarse si existe un límite en la profundidad del tiempo a partir del cual no hay nada
que observar, lo cual sucedería si el universo tuvo un comienzo en el tiempo. En contraste, si el
universo es eterno, entonces no existiría tal borde en el tiempo. Si hacemos observaciones cada
vez más profundas vemos cúmulos y más cúmulos de galaxias hasta un punto en el que
tropezamos con una barrera de luz, un fondo de radiación a una distancia de 13.700 millones de
años-luz. Ese fondo de radiación fue observado accidentalmente en 1964 por los radio
astrónomos Arno Penzias y Robert Wilson, de los Laboratorios Bell en Nueva Jersey, mientras
hacían mediciones del ruido emitido por la atmósfera a frecuencias correspondientes a
microondas. Ellos se dieron cuenta de que existía una componente residual de la señal de ruido
en sus receptores que no dependía de la dirección a la cual apuntaban la antena. Observaciones
posteriores pudieron medir las características espectrales de la radiación de fondo y así
establecer que esta fue originada como resultado del big bang — el evento que dio origen al
universo (Torres 1994).
La teoría del big bang dice que el universo tuvo un origen en el tiempo, que el espacio se está
expandiendo y que en el pasado el universo era caliente y denso como el interior del Sol donde
se formaron los elementos químicos ligeros y donde surgieron vibraciones acústicas que
empujaron la materia hacia agrupaciones donde se forman las estructuras de galaxias observadas
por los astrónomos. La teoría es consistente con las observaciones astronómicas. En resumen: la
rata de expansión del espacio (parámetro de Hubble, H0) aumenta con la profundidad a la cual se
hacen observaciones, 22 kilómetros por segundo por cada millón de año-luz de distancia, lo cual
implica una edad del universo de 13.700 millones de años; en el pasado el universo era más
caliente y denso; está compuesto en su gran mayoría por los elementos más ligeros de la tabla
periódica — un 75% hidrógeno, 25% helio y unas trazas de litio y de deuterio; todo el espacio
está impregnado por un fondo de radiación de microondas con energías que siguen la
distribución característica de los cuerpos en equilibrio termodinámico (distribución de Planck);
ese fondo de microondas tiene, en promedio, la misma temperatura (2.725 grados kelvin), pero
también exhibe pequeñas desviaciones de ±70 millonésimas de grado kelvin por debajo y por
arriba del promedio; las galaxias se agrupan en vecindades de tamaños aproximadamente
iguales. Este impresionante conjunto de observaciones ha sido reforzado por mediciones
independientes realizadas con tecnologías diversas durante un periodo de 80 años. Con toda esta
lista de trofeos a su favor, el big bang sin embargo no es una teoría acabada y no está libre de
retos observacionales, pero hasta el momento no han surgido observaciones que den pie para
rechazarla. Vivimos en una época privilegiada porque por primera vez en la historia de la
humanidad hemos podido desarrollar una cosmología que está respaldada por datos y no por
especulaciones filosóficas como era de costumbre (Torres 2005).
2
Soporte empírico del big bang
La década 1990-2000 fue de singular importancia para el entendimiento del universo gracias a los
nuevos resultados experimentales que surgieron a raíz de ambiciosos proyectos encaminados a
descifrar la estructura del universo a gran escala. Durante estos años aprendimos que el espacio
se expande aceleradamente, observamos las irregularidades en la radiación de fondo predichas
por la teoría, medimos la geometría del espacio y pudimos identificar de qué está hecho el
universo y cuáles son las proporciones de los elementos primordiales que lo componen.
Hacia finales de 1988 los equipos High-Redshift liderado por el astrónomo Brian Schmidt del
Observatorio de Mount Stromlo (Australia) y Supernova Cosmology Project liderado por Saul
Perlmutter del Lawrence Berkeley Laboratory anunciaron que tenían evidencia convincente sobre
la expansión acelerada del espacio basado en observaciones de supernovas tipo Ia (“uno-a”)
lejanas. La idea de estos experimentos es extender las mediciones que hizo el astrónomo Edwing
Hubble en 1929 cuando demostró que las galaxias lejanas se alejan de nosotros a una velocidad
que aumenta de acuerdo con la distancia. La velocidad con la que se aleja la galaxia se obtiene
midiendo el desplazamiento hacia el rojo de las líneas en su espectro; la distancia se obtiene
comparando el brillo aparente de la galaxia (o de una estrella en la galaxia) con el brillo
intrínseco. Claro está, para que funcione el método es necesario conocer el brillo intrínseco y
aquí es donde las supernovas son instrumentos ideales. Una supernova tipo Ia es 20 veces más
brillante que la entera galaxia con sus 200.000 millones de estrellas lo cual permite observarlas a
distancias muy lejanas; por otro lado el brillo intrínseco de una supernova Ia es conocido ya que
este resulta de la explosión de una estrella enana blanca cuando adquiere una masa de 1,4 masas
solares (límite de Chandrasekhar).
La aparición de estructura en el universo —galaxias, cúmulos de galaxias y agrupaciones
mayores— debe haber dejado una huella en la radiación de fondo que se manifiesta en pequeñas
desviaciones (anisotropías) de la temperatura en la radiación de fondo con respecto a su valor
promedio. Esto sucede debido a que la radiación de fondo y la materia estaban acopladas. En el
pasado el universo era muy caliente, la materia y la radiación (fotones) interactuaban como bolas
de billar que chocan con mucha frecuencia formando un fluido. El fluido fotón-materia, llamado
plasma primordial, es muy parecido al medio que se encuentra en las capas exteriores del Sol. El
campo gravitacional presente durante las primeras épocas del universo exhibía pequeñas
fluctuaciones que inducen vibraciones acústicas en el plasma primordial. Tanto la materia como
la radiación participaban por igual de las compresiones aleatorias que impartían las ondas
acústicas en el plasma primordial hasta el momento en el que la temperatura baja lo suficiente
(3.000 grados kelvin, 380.000 años después del tiempo cero) para permitir la formación de
átomos neutros. En este momento las condiciones del medio cambian radicalmente haciendo
que el fluido fotón-materia se disocie. A partir de este momento la materia sigue una historia
separada agrupándose en las regiones de sobre-densidad donde más adelante se forman las
primeras galaxias. Por otro lado los fotones quedan viajando libremente y hoy los observamos
como un fondo de radiación. Los cálculos teóricos indican que al momento del divorcio entre la
3
materia y la radiación las vibraciones acústicas y las fluctuaciones gravitacionales dejan una
huella en la radiación de fondo que se manifiesta como pequeñas variaciones en la temperatura
que se dan de manera desordenada entre regiones vecinas. El efecto de fluctuaciones del campo
gravitacional en los fotones aparece como anisotropías en la radiación de fondo a escalas
mayores de un grado, al alcance de la resolución angular del experimento COBE (Cosmic
Background Explorer) de la NASA. Las anisotropías en la radiación de fondo producidas por las
vibraciones acústicas aparecen a escalas angulares menores de un grado y son visibles con los
instrumentos del experimento WMAP (Wilkinson Microwave Anisotropy Probe) también de la
NASA. El satélite COBE, lanzado al espacio en 1989, tenía instrumentos a bordo diseñados para
medir el espectro y las anisotropías en la temperatura de la radiación de fondo (Torres 2006). El
WMAP, lanzado al espacio en el 2001, extendió las mediciones del COBE a escalas angulares
menores de un grado con mayor sensibilidad y con la capacidad de detectar la polarización de la
radiación (Torres 2003).
El experimento COBE detectó variaciones en la
temperatura de la radiación de fondo con amplitud
de apenas 30 millonésimas de grado kelvin (escala
angular >10°). Con esta observación quedó
confirmado que en el universo recién nacido
existieron las ya mencionadas fluctuaciones del
campo gravitacional. Las anisotropías de la radiación
de fondo a escala angular pequeña (< 1°) fueron
observadas en el año 2000 por el experimento
Boomerang, de la Universidad de Roma y del
Instituto Tecnológico de California, usando sensores
a bordo de un globo atmosférico. Los datos de este
experimento revelaron por primera vez la geometría
Figura 1. Mapa del fondo cósmico de
radiación observado por WMAP. Los colores
del espacio, definiendo así el futuro dinámico del
representan desviaciones de la temperatura
universo. De acuerdo con la teoría general de la
(±70 millonésimas de grado kelvin) con
respecto al valor promedio. Las manchas
relatividad de Einstein – la cual provee el marco
amarillas son regiones más calientes que el
teórico del big bang – el espacio posee una
promedio y las manchas azules más frías. El
geometría que viene determinada por las
tamaño promedio de las manchas es 0,6°
(créditos: NASA/WMAP).
trayectorias seguidas por rayos de luz. Por ejemplo,
cuando la luz se propaga en trayectorias que siguen
los postulados de la geometría de Euclides, que aprendimos en el bachillerato, decimos que el
espacio es plano. En un espacio plano la suma de los ángulos internos de un triangulo suman
180°. El espacio también puede ser curvo. En este caso las trayectorias de la luz se curvan y la
suma de los ángulos en un triangulo es mayor de 180° si el espacio es cerrado o menor de 180° si
el espacio es abierto. Es importantísimo saber si la geometría del universo es plana o curva
abierta o cerrada ya que este simple dato determina la futura evolución dinámica del universo: si
la geometría es curva cerrada entonces la expansión del espacio se frenará y llegará a un máximo
después del cual el universo comienza a contraerse; si la geometría es plana o abierta, la
4
expansión continuará sin límite. Los resultados del experimento Boomerang indican que la
geometría del universo es plana. Esta medición es de una sencillez admirable que recuerda la
medición de la curvatura de la Tierra realizada por Eratóstenes hace 2.200 años. A cualquier
estudiante de bachillerato se le puede ocurrir que la manera más directa de determinar si el
espacio es plano o no sería dibujando un triangulo y midiendo muy cuidadosamente la suma de
los ángulos internos del triangulo, si el resultado es 180° entonces la geometría es plana.
Conceptualmente esta fue la operación realizada por el Boomerang: con las mediciones se
construye un triangulo en el espacio que tiene como base las regiones calientes y frías en el
fondo de radiación y como altura la distancia de 13.700 millones de años-luz que existe entre
observador y la superficie del plasma primordial donde se originaron las anisotropías en la
radiación de fondo.
Modelo de concordancia
Entre los investigadores que estudian el universo existe el secreto bien protegido de que los
objetos astronómicos y sus mecanismos son sistemas simples. En nivel de complejidad, una
mosca es muchísimo más compleja que una estrella. Este hecho permite elaborar un modelo del
universo relativamente sencillo y económico
Tabla 1. Los parámetros que definen el modelo big
que explica coherentemente una amplia gama
bang del universo y los valores derivados del
proyecto WMAP
de observaciones sobre el universo. La
economía del modelo se manifiesta en el hecho
Parámetro
Valor
de que solo se requieren seis parámetros para
Densidad de materia atómica
5%
explicar el universo. Con los datos del WMAP,
Densidad de materia oscura
22%
acumulados durante nueve años consecutivos
Densidad de energía oscura
73%
-9
de operación, se logró dar un salto
Amplitud de las vibraciones
2.43x10
acústicas
impresionante en consolidar el modelo
Variación de las
0.96
cosmológico debido a su alta precisión la cual le
irregularidades con escala
permite percibir diferencias de temperatura de
Profundidad (opacidad) del
0.088
una millonésima de grado kelvin. La cobertura
plasma
de los datos del WMAP es suficiente para inferir
los parámetros del modelo cosmológico con
una precisión sin precedentes. La tabla presenta un listado de los seis parámetros junto con los
valores derivados de las observaciones del WMAP.
Los últimos tres parámetros describen las condiciones reinantes en el plasma primordial donde
se originó la radiación del fondo. Los primeros tres parámetros están indicando la composición
del universo: la materia atómica de la cual están hechas las estrellas, los planetas, las plantas y
los seres humanos es apenas un 5%, el resto es materia oscura y energía oscura. La existencia de
materia oscura (22% del universo) se ha podido establecer por sus efectos gravitacionales (Torres
1994b): las velocidades excesivas de galaxias en cúmulos indican la presencia de materia oscura
que provee la fuerza de gravedad para mantener al cúmulo unido; de manera similar, la
velocidad excesiva de rotación de estrellas en galaxias espirales a distancias alejadas del centro
5
de la galaxia necesita de materia oscura como fuente de la fuerza centrípeta requerida; el efecto
de lente gravitacional que amplifica el brillo de cuásares lejanos es producido por materia oscura
en los cúmulos de galaxias que se encuentran a mitad de camino entre el cuásar y el observador.
La energía oscura no goza de un sustento empírico tan sólido como el de la materia oscura, sin
embargo es una componente del universo que últimamente ha cobrado singular relevancia ya
que ésta sería el agente responsable de la aceleración en la expansión del espacio. La naturaleza
de la energía oscura se desconoce en este momento, empero
mientras que las observaciones astronómicas avanzan los
teóricos han postulado la existencia de esta extraña forma de
energía basados en el hecho de que las ecuaciones de la
relatividad general de Einstein permiten introducir un término
que actúa como una presión negativa que causa la expansión
acelerada del espacio. Este término, llamado “constante
cosmológica” es famoso porque fue introducido por el mismo
Einstein en su trabajo en cosmología de 1927 para forzar una
solución de sus ecuaciones que fuera consistente con la noción
de que el universo fuera estático – lo cual era la base empírica
por esos años.
La maravillosa conexión que existe entre el mundo de las
partículas nucleares y la estructura del universo a escalas de
galaxias y cúmulos de galaxias le da una consistencia robusta al
modelo del big bang. Un ejemplo de consistencia es que el
número de familias de neutrinos derivado de los datos del
WMAP (Nν > 2.7) es consistente con las mediciones directas
Figura 2. Curvas de probabilidad para la combinación
de parámetros ΩΛ (densidad de energía oscura) y ΩM
realizadas en experimentos con colisionadores de partículas
(densidad de materia) obtenidos independientemente
(Nν=3). Otro ejemplo es la consistencia entre la escala
por tres experimentos: observaciones de supernovas
preferencial de 480 millones de años luz en el tamaño de las
lejanas (SNe), mapeos extensos 3D de galaxias (BAO) y
mediciones de anisotropías en la radiación de fondo
agrupaciones de galaxias y el tamaño preferencial de 0,6
(CMB). Los tres métodos coinciden con valores ΩM =
grados de las anisotropías en la radiación de fondo. La escala
0.28 y ΩΛ = 0.72.
angular de 0,6 grados corresponde a regiones de sobre
densidad en el plasma primordial que hoy habrán crecido a 480 millones de años-luz. Como si
esto fuera poco, se ha podido verificar que las observaciones astronómicas provenientes de tres
tipos de experimentos completamente distintos (observaciones de supernovas, mapeos extensos
de galaxias y mediciones de la radiación de fondo) coinciden en los valores de los parámetros
cosmológicos (Figura 2).
El mecanismo inflacionario da inicio al big bang
El hecho de que el big bang tenga que apelar a entidades desconocidas para explicar el 95% del
universo es visto como una seria falla del modelo. No podremos afirmar con certeza que el big
bang es un modelo valido hasta el día que se confirme la detección experimental directa de la
6
materia y la energía oscura. Además del problemita de las componentes oscuras del universo el
big bang sufre de otros problemas fundamentales: uno, la geometría plana del espacio es un
estado altamente inestable y poco probable; dos, en el universo joven no hubo tiempo para
garantizar que todas las regiones del plasma adquirieran la misma temperatura. Al rescate viene
una extensión del big bang, llamada inflación o modelo inflacionario, propuesto en 1979 por el
físico de partículas elementales Alan Guth de la Universidad de Stanford (ahora en el Instituto
Tecnológico de Massachusetts) y el físico ruso Alexei Starobinsky del Instituto Landau de Física
Teórica en Moscú. En el mecanismo inflacionario se produce una breve expansión exponencial
súper acelerada al comienzo del big bang en la cual una región más pequeña que el núcleo de un
átomo se expande, en tan solo una fracción infinitesimal de segundo, a un tamaño inimaginable
en el cual nuestro universo observable queda como una burbujita en el océano. El paso del
universo por un breve período de inflación hace que este sea grande y caliente, que esté lleno de
materia y que sea uniforme y de geometría plana, y de este modo entregue las condiciones
iniciales justo como se requieren para que ocurra el big bang. La propuesta inflacionaria además
de resolver los problemas mencionados también propone un mecanismo que genera las
partículas y las vibraciones acústicas. Lo mejor de todo es que las observaciones del COBE y del
WMAP confirmaron aspectos importantes del modelo y el proyecto Planck de la Agencia Espacial
Europea — una versión avanzada del satélite WMAP — ya está en el espacio tomando datos que
se espera puedan confirmar definitivamente la validez del modelo inflacionario. El satélite Planck
fue lanzado al espacio el 14 de mayo del 2009 desde Guyana Francesa, contiene una plataforma
conformada por 52 bolómetros enfriados a una temperatura de 0,1 grados kelvin y diseñados
para hacer las mediciones más precisas que se han realizado de las anisotropías y la polarización
de la radiación de fondo. El observatorio Planck persigue las pruebas que permitirán confirmar o
rechazar la teoría de la inflación: la distribución estadística (gaussiana) de las anisotropías de la
radiación de fondo y los patrones característicos (“modos B”) en la polarización producidos por
las ondas gravitacionales predichas por la inflación.
¿Cómo emerge una teoría científica?
El tema del origen del universo invariablemente despierta el interés del gran público. En
innumerables presentaciones sobre el tema recibo con frecuencia la siguiente pregunta: ¿es
cierto el big bang? La pregunta es lícita pero la respuesta no es fácil y no la podemos ignorar. Es
más, dar respuesta a esta pregunta nos da la oportunidad de explorar el proceso mediante el cual
surge una teoría científica, lo cual es de vital importancia en la sociedad contemporánea. Es
importante que el público entienda el proceso científico, simplemente porque la sociedad
contemporánea fue construida sobre los cimientos de una cosmovisión científica, la democracia
no funciona con ciudadanos y líderes que ignoren o no entiendan el significado del conocimiento
científico. Para dar respuesta a esta pregunta caprichosa tenemos que examinar cómo surgió la
idea del big bang y porqué termino siendo aceptada por la comunidad científica. Por ser una
ciencia relativamente reciente y aun en proceso de desarrollo la cosmología ofrece una
oportunidad única para entender el proceso científico.
7
Al comienzo, la teoría del big bang fue rechazada por la comunidad científica en gran parte
debido al rompimiento de la teoría cuando la variable tiempo se hace igual a cero (el origen) lo
cual impedía realizar cálculos relacionados con el tiempo más importante de la teoría. Por otro
lado, existía una teoría alternativa mucho más atractiva, el modelo estacionario creado por
Hermann Bondi, Thomas Gold y Fred Hoyle, el cual era libre de esas indeseables singularidades
matemáticas. Mientras que en la Unión Soviética y en China la teoría del big bang era vetada por
considerarse contraria a los principios del materialismo dialéctico, los físicos de occidente la
miraban con sospecha por la incómoda asociación con la idea de un comienzo del universo en el
tiempo que abría las puertas para que los ideólogos contrabandearan la noción de un creador (la
idea original del big bang fue propuesta por un teólogo, el jesuita George Lemaitre). A Einstein,
por ejemplo, la idea le pareció abominable cuando Lemaitre se la presentó. Bondi, Gold y Hoyle
se jactaban de haber creado una teoría que era falsificable (en el sentido propuesto por el
filósofo Karl Popper) y señalaron que el big bang no era una teoría buena porque no era
falsificable puesto que cualquier observación del pasado del universo que no se ajuste al modelo
se le podría atribuir a efectos de “evolución galáctica”. Hoyle declaró que el big bang “es un
proceso irracional que no se puede describir en términos científicos” (Hoyle 1950).
No existía interés por el big bang de lo contrario se esperaría que los cosmólogos hubieran
perseguido agresivamente la detección de la radiación cósmica de fondo predicha en 1948 por
Ralph Alpher y Robert Herman (trabajando con el físico nuclear ruso George Gamow). La
existencia de una radiación de fondo con características específicas constituye una predicción
atrevida que reúne todos los atributos recomendados por Popper. Desde el momento en que se
hizo la predicción era clarísimo para los teóricos que detectar esa radiación significaría el
requiescant in pace inmediato para el modelo de Hoyle y al mismo tiempo un soporte
significativo al big bang, pero los astrónomos no se interesaron por hacer la medición, a pesar de
que existía la tecnología para detectarla. Alpher y Herman se retiraron de la cosmología y cuando
el descubrimiento finalmente se realizó, 30 años más tarde, Penzias y Wilson no estaban
empeñados en probar el big bang. Este experimento no fue planeado dentro del marco de una
teoría, de hecho ¡la observación ocurrió accidentalmente! Igual se puede decir del
descubrimiento de la expansión: Hubble era un astrónomo que se preocupaba por la precisión de
sus observaciones más que por su interpretación. En sus publicaciones, la interpretación de las
observaciones ocupó un lugar marginal. Hubble no estaba enterado del big bang cuando
descubrió la expansión y la única mención que aparece en su artículo con referencia a posibles
interpretaciones teóricas es la alusión que hizo al “efecto de-Sitter”, que era un fenómeno fuera
del big bang. Los estudios espectroscópicos realizados durante más de tres décadas antes de
1925 proveyeron el tercer pilar empírico del big bang — las abundancias relativas de los
elementos ligeros en el universo — sin embargo las observaciones astronómicas subyacentes
fueron realizadas en total aislamiento de los desarrollos teóricos de los cosmólogos. Queda claro
que en el caso de la cosmología moderna los datos que terminaron sustentando el modelo
aceptado por la comunidad científica surgieron fuera del dominio de un paradigma celador.
8
La revisión del contexto social en el que surgió la cosmología moderna pone en evidencia que el
big bang y conceptos soporte como materia oscura son el producto de una empresa humana.
Como tal, obviamente la teoría está influenciada por factores sociales, pero lo cierto del caso es
que el big bang se impuso a fuerza de la evidencia empírica a pesar de las preferencias de los
practicantes, en contra de las ideas preponderantes en el medio académico y a pesar de los
intentos de ideologías y de algunos influyentes teóricos (como Hoyle) por suprimirla. Mientras
que el modelo del big bang con su escandalosa singularidad espantó a los cosmólogos, la
comunidad científica quería una teoría con fundamentos matemáticos sólidos que respetara las
simetrías fundamentales. Gamow, Alpher y Herman, arquitectos del big bang, se lamentaron de
haber sido víctimas del rechazo y de la apatía por parte de sus colegas físicos, que no
consideraban a la cosmología como un campo legítimo de investigación, y de igual manera por
parte de los astrónomos que no consideraban a los físicos nucleares como “miembros del club”
(Alpher 1988). La teoría del big bang se constituyó en el modelo estándar de la cosmología
simplemente porque explica las observaciones astronómicas, hace predicciones específicas que
han sido comprobadas, y hasta el momento no han surgido datos que contradigan la teoría de
manera contundente. La teoría de Hoyle fue rechazada porque las observaciones astronómicas la
contradecían. Igual ha sucedido con innumerables ideas de los teóricos.
¿Por qué hoy no se enseña en clase de ciencia las teorías del calórico, el flogisto, el éter
luminífero, los epiciclos tolemaicos, los “rayos-n” y tantos otros espejismos todos ellos a su
manera producto del proceso científico? La respuesta es que esas teorías fueron insuficientes
para explicar datos nuevos o porque otros científicos no pudieron reproducir los experimentos
que le daban sustento. La ciencia incorpora de manera estructural un mecanismo agresivo de
identificar y corregir errores lo cual genera la tendencia a producir conocimiento del mundo
basado en realidades empíricas robustas, estables y confiables. Ese mecanismo auto-censurador
se manifiesta en la pasión con la que los científicos se entregan despiadadamente a encontrar
errores en las teorías de sus colegas y con el tiempo se encarga de desechar teorías que no
corresponden con las observaciones. Aquí está la razón por la cual la aproximación científica goza
de ventajas epistémicas. ¿Cuándo se ha visto a un astrólogo practicante empeñado en destruir
los fundamentos conceptuales de su práctica? En contraste, como bien lo expresa Sabato, “Al fin
y al cabo, los primeros que en el siglo XX comenzaron a dudar de la ciencia fueron los
matemáticos y físicos, de modo que cuando todo el mundo empezaba a tener ciega fe en el
conocimiento científico sus más avanzados pioneers empezaban a dudar de él” (Sabato 1983).
Esta manera de aproximarse a la naturaleza promueve una actitud de honestidad y respeto hacia
los datos empíricos del mundo externo, lo cual es un mensaje pertinente a los ciudadanos de la
sociedad contemporánea que en algunos casos exhiben la peligrosa tendencia a despreciar la
evidencia científica cuando esta no se acomoda a su cosmovisión. Consideren lo que está
ocurriendo con el calentamiento global: los estudios muestran que la gente cree en el
calentamiento global y en la conexión con causas humanas no por la evidencia científica sino por
el grado en que el concepto cuadra con el ideario y los valores de su grupo (Kahan 2010).
9
Mapas del universo
La cosmología del big bang no es una teoría
completa así como la mecánica clásica con la que
construimos casas, puentes y aviones tampoco es
una teoría completa. La tarea del cosmólogo es la de
elaborar un mapa del universo que nos explique de
qué está hecho, qué objetos lo conforman y cómo se
originó. Un modelo del universo es una
representación que organiza de manera coherente y
racional las observaciones astronómicas. Sabemos
que cualquier teoría tiene un carácter aproximativo,
Figura 3. Mapa de Andreas Cellarius (1660)
dinámico y provisional que en todo momento debe
ilustrando el modelo del mundo de acuerdo a
ser contrastada con los datos nuevos y más precisos
Copérnico (Creditos: The British Library).
que el experimentador logra negociar con la
naturaleza. La tarea del experimentador es la de seducir a la naturaleza con el objetivo de extraer
de ella la información necesaria para dibujarla. Gota a gota los secretos más recónditos del
cosmos se revelan en las placas fotográficas, espectros y antenas de radio de los astrónomos.
Lentamente emerge suficiente información para elaborar un modelo confiable del universo, o
por lo menos, de una parte del universo. En el caso de mapas geográficos nos podemos equipar
de la más sofisticada tecnología y emprender expediciones recorriendo las playas, los ríos y los
bosques fronterizos, cuidando de no dejar pasar cualquier arruga del terreno y así verificar si el
mapa reproduce fielmente nuestras observaciones. Conceptualmente podemos así llegar al mapa
perfecto sugerido por Borges en uno de sus cuentos, en el cual los cartógrafos del imperio
levantaron un mapa tan preciso que tenía el tamaño del imperio y coincidía puntualmente con él
(Borges 1983). A diferencia de los mapas geográficos, con los modelos del universo no podemos
aspirar a constatar que el modelo llegue a coincidir con la realidad. Si un investigador declara que
su modelo es real y verdadero ¿cómo sabemos que la afirmación es cierta? Si efectivamente
podemos confirmar que el modelo coincide con la realidad quiere decir que ya conocíamos la
realidad, entonces ¿para qué un modelo? En este sentido un modelo nunca es final, siempre hay
lugar para refinarlo.
Las teorías son resultado de un proceso de adaptación en el que las teorías nuevas tienen que
competir con otras y en última instancia el criterio de sobrevivencia reside en la capacidad de la
teoría en explicar las observaciones y estar de acuerdo con los datos. El físico Murray Gell-Mann
– creador de los quarks – describe el proceso científico como un proceso complejo adaptativo
similar a como los organismos vivos y sus funciones compiten por sobrevivencia (Gell-Mann
1995). Stephen Hawking y Leonard Mlodinow explican la evolución de las teorías físicas hacia
modelos cada vez más fieles a la realidad con el concepto de realismo modelado (Hawking 2010).
El concepto se basa en la idea de que el cerebro interpreta los datos sensoriales elaborando un
modelo del mundo. Los modelos del mundo que explican los datos con mayor precisión se
pueden considerar como la realidad, sin embargo, puede darse el caso de que modelos
10
diferentes sean igualmente exitosos en explicar los datos. En este caso no se puede decir que un
modelo es más verdadero que el otro.
Es importante reconocer que las teorías físicas tienen un dominio de validez que nos permite
diferenciar las partes del modelo que se han contrastado con datos empíricos de aquellas otras
partes sujetas a la especulación. En ese sentido la validez de un modelo depende de su
aplicación. Si usamos la teoría dentro de su dominio de validez obtendremos predicciones y
resultados satisfactorios. La Tierra no es plana, pero para un agrimensor un modelo de Tierra
plana funciona perfectamente bien. La Tierra no es una esfera, pero el modelo esférico funciona
bien para cálculos de su órbita en torno al Sol. Sin embargo, la predicción de las trayectorias de
los aviones que siguen rutas de larga extensión requiere un modelo más preciso de la Tierra
donde se tiene en cuenta la forma elipsoidal del planeta. La mecánica clásica newtoniana no
funciona para velocidades cercanas a la velocidad de la luz, pero es perfectamente válida para
construir edificios y mandar satélites artificiales en órbita. Como vemos, la validez, utilidad y
precisión de una teoría no se puede destilar en una afirmación categórica que diga que la teoría
es falsa o verdadera. Como es de esperarse el conocimiento que hemos adquirido sobre el
universo, formulado en el modelo estándar de la cosmología, será aumentado a medida que
surjan nuevas observaciones. No hay duda que el modelo seguramente sufrirá ajustes. Lo que
importa es que hoy contamos con un modelo del universo basado en datos experimentales, no
en especulación filosófica, profecías, influencias sobrenaturales, edictos de oráculos,
inspiraciones de chamanes o verdad revelada.
Figura 4. Mapa moderno del universo. El universo visible11
para el ser humano es una esfera limitada por la distancia
que la luz viaja desde el comienzo del tiempo. La luz proveniente de las regiones más profundas nos informa sobre
las condiciones existentes justo después del big bang cuando aun no se habían formado estrellas, todo era una
sopa de partículas elementales. Lo más sorprendente es que ¡el ser humano está localizado en el mero centro de
ese universo visible! (Ilustración: Claudia María Gutiérrez)
Referencias
Alpher, R.A., Herman R., (1988), “Reflections on early work on big bang cosmology”, en Physics
Today, August 1988: 24-34.
Borges, J.L, (1983), “Del rigor en la ciencia”, en Narraciones ed. M. R. Barnatán, Cátedra:
Madrid, p. 129.
Gell-Mann, M, (1995) The quark and the jaguar: Adventures in the simple and the complex,
Henry Holt and Company: New York.
Hawking, S., Mlodinow, L, (2010), The grand design, Bantam Books: New York.
Hoyle, F. (1950), The nature of the universe, New York: Harper, p. 113.
Kahan, D. (2010), “Fixing the communications failure”, en Nature, 463: 296-297.
Sabato, E. (1983), Hombres y engranajes, Alianza Editorial: Madrid, p. 42
Torres, S. (1994), “El origen del universo”, en Innovación y Ciencia, 6(2): 44-49.
Torres, S. (1994b), “La materia oscura del universo”, en Innovación y Ciencia, 3(3): 40-46.
Torres, S. (2003), “Proyecto WMAP de la NASA confirma el Big Bang”, en Innovación y Ciencia,
11(1): 42-48.
Torres, S. (2005), “El cosmos ayer y hoy”, en Innovación y Ciencia, 12(4): 22-29.
Torres, S. (2006), “El Nobel de física, Colombia y el universo”, en Innovación y Ciencia, 13(4):
20-27.
Mayor información sobre los temas tratados en este artículo se pueden encontrar en la página:
www.astroverada.com y en el portal del libro El big bang: aproximación al universo y a la
sociedad: www.astroverada.com/libro/
12
Documentos relacionados
Descargar