El universo sensible libro spanish version

Anuncio
1
Título: EL UNIVERSO
SENSIBLE.
Autor: GUILLERMO
AGUDELO MURGUÍA Y
JUAN SEBASTIAN
AGUDELO
Instituto de Investigaciones sobre la
Evolución Humana, A.C., colección
Hacia el futuro, México
© 2002 Guillermo Agudelo Murguía;
Juan Sebastián Agudelo
EL UNIVERSO SENSIBLE.
INDICE
Presentación……………………………………………………………………………. 2
Prefacio…………………………………………………………………………………...6
Introducción…………………………………………………………………………….11
Capítulo 1
LA PREGUNTA DE AUDEN, LA RESPUESTA DE GOULD……..18
Capítulo 2
LA MÚSICA DEL UNIVERSO………………………………………..48
Capítulo 3
QUANTUM: PUNTOS EXTREMOS…………………………………77
Capítulo 4
EL SIEMPRE INALCANZABLE SANTO GRIAL: LA TEORÍA
DEL TODO…………………………………………………………….102
Capítulo 5
DE BÁRBAROS Y BLASFEMOS……………………………………117
Capítulo 6
EL ABISMO DE LA SÍNTESIS: EL FENÓMENO HUMANO
COMO UNA HISTORIA UNIVERSAL…………………..…………136
Capítulo 7
EL PUNTO DE PARTIDA DETERMINA EL DESTINO………….156
Capítulo 8
LA EVOLUCIÓN CÓSMICA: UN MODELO……………………...178
Capítulo 9
COMPLEJIDAD Y EVOLUCIÓN…………………………………...206
Epílogo
LA VISIÓN DE TEILHARD DE CHARDIN………………………..226
Bibliografía………………………………………………………………………….....250
2
PRESENTACIÓN
Ha debido costar mucho esfuerzo culminar este libro, pese al acervo
de erudición y cultura científicas de los autores. Me parece una expresión de
generosidad, enhebrada con la maestría de un detective de la ciencia metido
a cirujano del conocimiento científico, muy de agradecer. Pero hay bastante
más.
Esta obra es una contribución al mundo de la ciencia y del
pensamiento, que nunca debieron separarse. Más exactamente, es una
aportación y un refuerzo a la “y” [o al guión o a la relación, llamémosla
conciencia], que a la vez los une y los distancia.
Se desarrolla en un sentido y con un compás distinto al de la ciencia
convencional, pero también difiere de las inercias hacia la estrechez de la
formación académica al uso, del prurito de rentabilidad ciega característico
de esta sociedad de sonámbulos satisfechos (N. Caballero) y sistemas
egocéntricos, de la macdonalización de los contenidos de la vida cotidiana,
incluidas educación y ciencia, etc.
Todas estas razones nos han forzado a soltar la amarra de lo esencial.
Por ello, cuando alguien nos ofrece néctar de cultura fundamental, no sólo
se agradece, sino que se comprende su utilidad en el marco de un diálogo
profundo y posible de conciencia a conciencia.
Los señores Agudelo toman como referente a un autor injusta y
torpemente desaprovechado: Pierre Teilhard de Chardin, nacido en 1881,
como Pablo Picasso o Cousinet, y muerto en 1955, con sólo unos días de
diferencia de A. Einstein. Para algunos –entre los que me encuentro-,
Teilhard de Chardin es el germen del nuevo paradigma de la complejidad,
de la evolución o de la universalidad.
3
Los autores no tratan tanto de reparar el daño que la iglesia católica
infringió a este jesuita prohibido (Vigorelli), sino de mostrar la actualidad de
sus tesis, esta vez desde la ciencia. Lo que ocurre es que, al hacerlo, impacta
inevitablemente en la esfera de la conciencia personal y colectiva del
científico. Por eso su lectura resulta a la vez ilustrativa, formativa y cercana.
El universo sensible discurre a lo largo de dos trayectorias
convergentes. Por un lado, recorre la circunferencia de la actualidad
científica de algunas realizaciones sobresalientes. Por otro, desciende al
centro de su geometría e indaga en la percepción del científico.
Desde esta dialéctica exterior-interior, nos invita a todos a reflexionar
conjuntamente sobre el eje de la posible evolución de un universo orientado
hacia el Omega teilhardiano. Esta inducción es tan importante, tan
definitoria o tan necesaria como la brújula para el excursionista. ¿Cómo
podría si no aquella circunferencia pasar de una estructura plana (recurrente
y sin profundidad) a la espiral (autoconstructiva y elevable)?
La vida humana y el quehacer científico –parafraseando al propio
Teilhard de Chardin- podrían aparecer, a los ojos de un observador externo,
como un inmenso tanteo no aleatorio. De esto deducimos [desde el criterio
de complejidad de conciencia], que existen varios grupos de científicos:
a) Los que saben o creen que saben, y centran su motivación en los qués y
en los porqués. Podríamos denominarles científicos explicativos. Sin
duda, integrarían la mayor parte de la comunidad de investigadores.
b) Los que saben que saben, y han podido ahondar en la naturaleza y raíces
epistémicas de su conocimiento. Serían los científicos reflexivos.
c) Los que saben lo que saben y no saben, y han profundizado en la propia
madurez personal, buscando su integración con la formación profesional.
Podríamos calificarles como científicos humildes.
4
d) Los que saben para qué saben que saben, a su vez, de dos clases:
1. Aquellos cuyo para qué se orienta a la rentabilidad de su sistema
concreto (tiempo, espacio, ámbito científico, nación, religión,
cultura, etc.) -que son la mayoría de ellos-. Identifiquémoslos
como científicos sistémicos, parciales o egocéntricos.
2. Aquellos cuya motivación les lleva a interpretar la vida como un
proceso de evolución trascendente cuyas coordenadas van mucho
más allá de su sistema, su parcialidad, su limitación, su terrenito,
etc. Podríamos llamarles científicos complejos, evolucionistas,
universales.
Desde luego, hay pocos con este último perfil, quizá propio de quienes
han cultivado su mentalidad y no sólo se han centrado en lo objetal
(investigaciones, sistema rentable, etc.), porque han entendido su trabajo
como punto de partida, y no como punto de llegada. Pero cada vez son más y
más.
La obra los señores Agudelo, orientada a un futuro posible vertebrado
por una sensibilidad, una conciencia, una ciencia y una educación más
complejas, es una producción del último grupo. Por tanto, podría acicatear a
los demás, no sólo desde numerosos contenidos -por ejemplo, los contenidos
sustantivos que desarrolla su trabajo-, sino desde aquello que los mueve y
los orienta. O sea, desde la respuesta al para qué del conocimiento
científico, en el seno de un universo evolutivo, del cual el ser humano actual
no es el centro ni sobre todo una culminación, sino un eslabón hallado del
ser humano que todavía no nacido, un paso hacia la noosferización, un
centímetro primero de un viaje apasionante que apenas ha empezado.
5
Ésta es, a mi juicio, la utilidad teleológica de este trabajo, que estimo
fundamental para la preparación del profesional que se forma en la
universidad o a lo largo de su vida.
AGUSTÍN DE LA HERRÁN GASCÓN
Universidad Autónoma de Madrid
6
PREFACIO
Este libro tiene una larga historia. Empezó con la lectura del trabajo
del paleontólogo y filósofo jesuíta Pierre Teilhard de Chardin y la
comprensión de que existe una discrepancia perturbadora entre el
pensamiento de Teilhard de Chardin y lo que sus sucesores científicos
piensan, sin que esto necesariamente se deba a que existen muchas
imprecisiones en el trabajo científico de Teilhard de Chardin. Hay algo
extremadamente estimulante en nuestro clima intelectual. Nunca en la
historia de nuestra especie ha habido tantas respuestas a lo que usalmente se
considera como las preguntas eternas; nunca habíamos tenido tantas teorías
coherentes que explicaran cada fenómeno, misterioso aún hace cien años.
Estamos entendiendo el cerebro; hemos hecho tremendas incursiones en la
memoria, el más misterioso de los regalos. Tenemos una cierta idea del
cosmos que dejó perplejos a nuestros antepasados, de su origen, su
composición y su tamaño. Sabemos de dónde venimos y cómo hemos
llegado a lo que somos. Conocemos también los más profundos secretos de
la materia y el átomo. Y con todo, pese a lo estimulante de todo este
conocimiento, nunca en nuestra historia ha habido tal sentimiento de
desaliento en los circulos intelectuales. Como los juerguistas de uno de esos
banquetes llenos de excesos que encontramos en la descripción de los
historiadores romanos, los pensadores actuales parecen aburridos, saciados:
nada parece motivarlos. Como si tuvieran demasiada estimulación. Y, con
tantas respuestas, parece que nunca ha habido tal desecho de teorías.
Somos prisioneros de las circunstancias históricas. La crítica sobre el
conocimiento y el pensamiento que tomó sus raices del trabajo de Nietzsche,
creció y se volvió perentorio después de la segunda guerra mundial, sucedió
7
porque algunos pensadores creyeron que buena parte de nuestro porvenir
intelectual como cultura y como especie, había sido maltratada en la retórica
del fascismo y el nazismo. Después de Hitler y de Stalin, después de
Hiroshima y del Holocausto, cada tentativa humana parecía sospechosa.
Después de los genocidios, de las carencias y de las represiones, es difícil
creer en nuestra noble naturaleza. Aun la ciencia, esa enrarecida rama del
esfuerzo humano, se mostró a sí misma más que cómplice de las atrocidades
de nuestra pasada centuria. Los proyectiles que devastaron poblaciones
enteras, los productos químicos que envenenan el planeta entero, etc., no son
más que sus propios trabajos prácticos.
La crítica del conocimiento que nos ha cuestionado nuestra
centralidad y la centralidad de la inteligencia no es, en otras palabras, sino
precisa y necesaria. Sin embargo, después de cuarenta años –pensamos– se
ha salido de cauce. Nos parece que aquellos pensadores que se enfocaron en
destapar nuestro etnocentrismo o la falsa autoconfianza que deriva de
nuestra racionalidad o lo que descansa detrás de nuestros grandiosos
propósitos políticos, ya no está siguiendo la intención de una crítica, sino
que actualmente sigue sus propios motivos; la crítica está tan vacia y más
vana que el honor del mundo que trata de destruir.
Para nosotros, buena parte del rechazo que Teilhard de Chardin ha
sufrido, surge del hecho de que él no está au courant, por así decirlo. Su
pensamiento no sólo no siguió lo que ha llegado a ser una visión del mundo
cada vez más nihilista sino que se estableció para negar ésta. Teilhard de
Chardin, a diferencia de otros pensadores del siglo XX, nos recuerda que
estamos aquí con un propósito, nos recuerda que el universo y la vida no son
ni inútiles ni accidentales, nos recuerda que el pensamiento y el intelecto son
centrales. Algunos piensan que su visión es ingenua. Nada más lejos de la
8
verdad. Él está consciente, como lo está Nietzsche, de lo vago que subyace
nuestro discurso, está consciente como ningún científico de los muchos
hechos que contradicen nuestra centralidad. A diferencia de la mayoría de
los pensadores y científicos, él dió ese paso extra y en lugar de señalar lo
obvio, se alineó con la gran tradición sintética del siglo XIX e intentó hacer
frente a nuestra posición real, no central, en el cosmos, nuestra mayor
debilidad. Él logró lo anterior porque detrás de su mente filosófica tenía un
respaldo científico. La ciencia, en otras palabras, le dió la respuesta. La
ciencia le permitió entender que si vamos a restablecer un propósito para
nuestras vidas, si vamos, como especie, a pensar en metas y teleologías,
entonces tenemos que entendernos a nosotros mismos como componentes de
una mayor y más trascendente entidad.
Teilhard de Chardin no sólo suministró un sistema coherente, una
lúcida visión y la solución a problemas filosóficos y científicos que su
misma visión impuso, sino que nos la regresó con todos los datos científicos
disponibles en ese momento. Sus datos fueron precisos y permanecen
correctos
En realidad, es sorprendente lo acertado que fue seleccionando sus
datos. Muy poco de lo que argumentó ha quedado obsoleto. Sin embargo, él
ha sido rehuido en los circulos científicos. El principal propósito de este
libro es tratar de convencer, tanto a científicos como a pensadores, que
Teilhard de Chardin tiene una importante y sólida visión que debe ser
reconsiderada. El libro, no obstante, no pretende ser un tratado de
conocimiento científico. Los expertos sabrán que para el momento en que la
información se llevó a estas páginas, eran viejas noticias. Libros de ciencia,
de divulgación, revistas especializadas, artículos periodísticos e internet
fueron las vias para llegar al filo de la información científica. Este libro
9
intenta usar lo que ahora se conoce mucho más como “dogma” en la
comunidad científica y mostrar cómo ésto se compara con las ideas de
Teilhard de Chardin; intenta demostrar que sus ideas son más válidas y
actuales hoy, que cuando fueron escritas por primera vez hace más de medio
siglo. Más allá, le pide al lector que vea como las ideas de Teilhard de
Chardin no son solamente actuales, sino realmente vitales para nuestro
futuro. Nadie, científico o filósofo, ha ofrecido tan vasta perspectiva en su
trabajo. Si nada más esto fuera, Teilhard de Chardin nos recuerda que como
humanos, podemos elegir, que pese a lo que digan las filosofías nihilistas de
nuestros días, nuestras elecciones pueden ser correctas o equivocadas y
tienen efectos más allá de nuestro círculo inmediato, más allá de nuestras
cortas vidas. Teilhard de Chardin nos recuerda que somos parte de algo más
grande y menos fugaz que nosotros mismos.
Para refrescar el trabajo de Teilhard de Chardin hemos hecho lo
siguiente: intentamos explicar lo más claramente posible las tres principales
ramas del conocimiento científico. A continuación hemos tratado de mostrar
cómo estas ramas y sus descubrimientos pueden ser entendidos siguiendo el
trabajo de Teilhard de Chardin, y cómo mediante él se llega a que no sean
solamente unas jergas sin interés, sino temas relevante que pueden iluminar
nuestra existencia. El libro, sin embargo, no será de fácil lectura. Es
afortunado por una parte y desafortunado por otra, que si uno intenta
sintetizar cualquier clase de pensamiento científico, los escritos tienen que
llevar el paso de cada disciplina. En el libro hay referencias a los más
grandes científicos y artistas. Hemos tratado de llenar la mayor cantidad de
huecos posibles. Finalmente nos hemos acogido a la creencia de que a los
lectores no se les debe dar todo masticado siempre. Así que si hay una
referencia a Haydn y el lector no está familiarizado ni con Haydn ni con la
10
pieza que se discute, o si encuentra una referencia a un filósofo del que
nunca ha oído, entonces le rogamos al lector que no solamente nos crea, sino
que haga lo que siempre han hecho los buenos lectores: que vaya y busque.
Que escuche a Haydn, que lea al filósofo. Si por algo, la obra de Teilhard de
Chardin ha sido afectada porque sus detractores no comparten su punto de
vista sobre la lectura y los lectores. Teilhard de Chardin creyó en el lector
activo y reactivo, en un inteligente y desafiante pensador que confrontara su
pensamiento. Nosotros difícilmente cumplimos su desafío, pero con este
libro esperamos haber, por lo menos, igualado su deseo.
11
INTRODUCCIÓN
Al igual que nuestras almas, siendo aire,
nos mantienen unidos, el aliento y el aire
abrazan al universo en su totalidad.
-ANAXÍMENES
Lo que el lector va a encontrar en el presente libro se refiere a la física, a la
astrofísica, a la biología, pero, sobre todo, al momento en el cual un
individuo asume su responsabilidad y otro se abstiene, en explicarnos lo que
los múltiples descubrimientos científicos del presente siglo – estructura del
ADN, relatividad, quantum, etc. – han revelado respecto de lo que somos y a
nuestro papel como especie en nuestro planeta, en nuestro cosmos. También
es un libro que se refiere a la manera que han utilizado muchos científicos
para interpretar la ciencia, sobre cómo algunos de ellos han luchado y se han
esforzado para hacer de la ciencia un simple ejercicio mental y de cómo
otros han tratado realmente de hacer que la ciencia nos conteste esas difíciles
preguntas de existencialismo y ontología.
Sin embargo, antes de empezar a hablar de ciencia, y sin referirme a
laboratorios ni citar eruditos eminentes, quiero ubicarme en mi hogar, que
supongo es la ubicación inicial de cualquier lector. Si no es verídico lo que a
continuación expongo, es rutinario para la mayoría de los lectores. Entonces
empecemos con un escenario imaginario: una sala o una biblioteca.
Imagínese que está a punto de sentarse a leer, pero antes de empezar su
lectura, se acompaña de los últimos cuartetos de Beethoven seleccionados de
su colección de música clásica. En lo personal, cuento con un CD grabado
por el Hollywood String Quartet que aquilato enormemente. Si usted está
12
familiarizado con los últimos cuartetos de Beethoven podrá comprender el
significado de mi referencia. Estos últimos cuartetos, aunados a las últimas
sonatas que Beethoven nos legó, constituyen sus meditaciones más
profundas y privadas. Son todas piezas difíciles y melancólicas que sondean
profundidades y escalan grandes alturas dentro de la música occidental.
Algunos críticos, como por ejemplo Salomon, el gran biógrafo de
Beethoven, ha considerado sus últimos cuartetos como el postrer
cuestionamiento del autor respecto al significado de la vida, del cosmos, de
la naturaleza. Al escuchar a los ejecutantes luchar con la difícil partitura,
usted se da cuenta de que es testigo de una de las actividades
quintaesenciales de la existencia humana. No sólo disfrutamos todo tipo de
ejecución, sino que cuando disfrutamos la gran música o el gran arte, la
mayoría de nosotros consideramos que estamos ante los más recónditos e
ininteligibles aspectos de nuestro desarrollo.
Cuando estamos frente al gran arte, de alguna manera creemos que esa
entidad a la cual teologías y religiones han etiquetado como alma, ha
encontrado su manifestación.
Si usted es un escéptico, tenga en cuenta que la actitud o fe a las que
me refiero no son exclusivas de auditorios musicales o artísticos. Una de la
mentes científicas más grandes de este siglo, Einstein, compartió con
nosotros su actitud. Cuando escuchó la ejecución del entonces joven
prodigio Jehudi Menuhin, al concluir el concierto le comentó al violinista:
“El día de hoy comprobé que Dios existe”. Es asombroso saber que la mente
más insigne del siglo, la mente que tan profundamente cambió el concepto
del quién, el dónde y el cómo, haya hecho tal pronunciamiento.
Verdaderamente, el comentario de Einstein expresado con esa
sencillez e imaginación que le eran tan características, podría ser lo único
13
que tendríamos en común con esa mente superior. Ya sea que uno sea
religioso o no, el que uno sea creyente o no, la mayoría de nosotros hemos
sentido reverencia ante el arte superior o ante la Naturaleza. Hemos
percibido la sensación de que el mundo no es superficial.
Y sin embargo, varios científicos contemporáneos han dedicado toda
su vida a contrarrestar esa sensación. A primera vista parecen tener la razón.
Hasta donde sabemos, lo que denominamos mente parece ser una red de
múltiples células específicas de una complejidad que tiende al infinito y que
reaccionan ante descargas químicas transmitiendo impulsos eléctricos
infinitesimales que constituyen no sólo nuestra vida sensible sino lo que
denominamos emociones.
Desde este punto de vista, una apreciación promedio del escenario
descrito –la sala en donde disfrutamos a Beethoven– sería como sigue: los
cuatro instrumentos de cuerdas que conforman el Hollywood String Quartet,
son cajas de madera que amplifican la fricción de arco y cuerda. Esa fricción
produce una vibración y pequeños cambios en la frecuencia con la que se
transporta la onda sonora. penetra en la caja y dicha caja, por su naturaleza,
la amplifica y la proyecta al micrófono. Dicho micrófono convierte las ondas
sonoras en ondas electromagnéticas que permiten su grabación. Lo que es
más, el disco que imagino es “digitalizado”, la cinta fue digitalizada al
conectar las señales electromagnéticas en “cero” y en “uno”, mismas que el
láser puede leer y una computadora puede procesar y devolver.
Cuando introducimos nuestro CD imaginario al tocadiscos y
oprimimos el botón o tecla de iniciar, nuestro tímpano debidamente afinado
por nuestra evolución en la búsqueda de presas y depredadores, vibra y
alimenta esa información a un nervio.
14
De conformidad con muchas explicaciones científicas y de acuerdo
también con los panoramas que la mayoría de los científicos se han fijado
para sí mismos, el sonido que escuchamos no tiene valor. Haciendo una
broma cruel podríamos decir que, de acuerdo con los científicos, oímos
menos que Beethoven. La acústica nos dice que la música que escuchamos
son sólo cambios mínimos en la presión del aire. Los neurólogos nos dirán
que las emociones que sentimos son simples vibraciones eléctricas. Los
psicólogos nos argumentarán que el sonido nos produce placer porque lo
ligamos a alguna sensación placentera de nuestra niñez. Sin embargo, el
sentido común nos dice lo contrario. Nos dice que la música no es algo
superficial sino que penetra nuestras almas –como nos dice el epígrafe de
Anaxímenes– y al hacerlo, abraza al universo. Esto es lo que el sentido
común dicta.
Los científicos, sin embargo, consideran al sentido común un
anatema. Stephen Jay Gould, el científico al cual nos estaremos refiriendo
ampliamente en el primer capítulo, ha sido uno de los más estrictos y
vociferantes opositores del sentido común. En uno de sus libros más
recientes Full House: The Sproad of Excellence from Plato to Darwin,1 ataca
la actitud de E. O. Wilson respecto a que usemos sentido común; Gould nos
dice:
Nothing could be more antithetical to intellectual reform than an appeal
against thoughtful scrutiny of our most hidebound mental habits –notions so
“obviously” true that we stopped thinking about them generations ago, and
moved them into ours hearts and bosoms. Please do not forget that the sun
really does rise in the east, move through the sky each day, and set in the west.
1
Aquí Full House se refiere al término del juego de póker, por lo que no tiene
traducción.
15
What knowledge could be more visceral than the earth´s central stability and
the sun´s subordinate motion?2
Al argumento de Gould no le falta validez. Muchos de los
descubrimientos científicos a partir del Renacimiento han desmentido las
ideas sobre nuestro posición en el mundo. Sin embargo, no creemos
imposible sostener que los debates tanto contra la geocentricidad como en
contra de la evolución fueron más bien ataques teológicos y no reacciones
“viscerales” ante las premisas que las dos teorías presentaron. Tampoco
debemos olvidar que mientras se conozca más y más respecto a nuestro
universo, mientras entendamos más y más respecto del átomo y sus
partículas, muchos de los conceptos discutidos primero por los filósofos
presocráticos y después por algunos autores epicúreos, han sido
confirmados.
Sin
aceleradores
de
partículas,
Demócrito
tuvo
un
entendimiento razonable del átomo como partícula básica. Los físicos están
confirmando muchas de las ideas agustinianas de su tiempo. Muy pronto
dejaremos de confundir el sentido común con el dogma.
Gould es un extraordinario artesano de la palabra y un mejor sofista.
Cuando los científicos reclaman el uso del sentido común, no reclaman el
regreso a la superstición sino el uso de la propia intuición que nos guíe al
“escrutinio atento”. Ocupando las gradas, nos consideramos unos extraños,
que sin embargo hemos sido seguidores cercanos de la ciencia y pensamos
que el sentido común y la intuición han guiado muchos de los más grandes
descubrimientos científicos. Aun con un conocimiento superficial del
método de trabajo de Einstein, sería imposible negar lo anterior.
Stephen Jay Gould, Full House: The Spread of Excellence from Plato to Darwin. Three
Rivers Press. Nueva York, 1997, p. 28
2
16
También estamos convencidos de que el sentido común ayudó a
Darwin y a Wallace, a Newton y a Maxwell; las instituciones, únicamente
con el afán de canonizar y mantener saneados sus iconos, los mantienen
arropados, como a los grandes científicos, en la seda de la lógica pura y la
razón. Einstein pudo no haber estado hablando en forma figurativa cuando
comentó que intentaba descifrar los designios de Dios. Es más, si algo ha
impulsado a la ciencia ha sido esa certidumbre de que el cosmos no es
solamente un sistema accidental no pensante; la vida no sólo es una cadena
proteica que con el tiempo sigue creciendo de una forma más elaborada.
No es que el universo no sea un sistema en el cual el azar tuvo y sigue
teniendo importancia, ni es que la vida no sea una cadena proteica. Son
desde luego datos verídicos que, sin embargo, son insignificantes e
incompletos. Lo que vamos a debatir es que el rompecabezas cuyas piezas
ha tratado de embonar la ciencia desde la época del Renacimiento, dista
mucho de estar terminado, y que los caminos que muchos científicos han
adoptado están sumamente influenciados por tendencias ideológicas como
son la destrucción, la crítica cultural y los estudios neocoloniales que en
realidad podrían impedir la culminación correspondiente debido a que las
preguntas que se están haciendo no son las correctas.
En los tres primeros capítulos nos vamos a referir al estado en que se
encuentran las ciencias, exponiendo lo que se sabe, y mostrando los métodos
que algunos de los más prominentes científicos utilizaron para interpretar. El
primer capítulo tratará la evolución y el segundo y el tercero tratarán la
física. En la segunda mitad del libro trataremos los puntos de vista
alternativos a los de los científicos que se mencionan en la primera mitad,
enfocandonos principalmente en Pierre Teilhard de Chardin. A diferencia de
muchos libros que ofrecen información similar, el nuestro intentará llenar
17
algunos huecos del rompecabezas, así como proponer y ofrecer caminos a
una solución.
Lo anterior no lo hacemos en forma individual, sino con la
información que existe en diversas bibliotecas con respecto al trabajo de
muchos científicos que, desafortunadamente, por sus ideas, han sido evitados
por los científicos contemporáneos. Lo cual es precisamente de lo que trata
este libro.
18
I
LA PREGUNTA DE AUDEN, LA RESPUESTA DE GOULD
The passion of our kind for the process of finding out
Is a fact one could hardly doubt, but I would rejoice in it more
If I knew more clearly what we wanted the knowledge for
W. H. AUDEN.
El epígrafe de este primer capítulo proviene de un poema que W. H.
Auden escribió en 1961, cuyo título es: "After Reading a Child’s Guide to
Modern Physics". El poema es una curiosidad y no es una de sus más
importantes ni profundas obras, pero sigue siendo válida por dos razones:
Primero, porque proporciona una apreciación global, inteligente, de los
principios de la física que Auden destacó y que son válidos; segundo, por
que hace una pregunta crucial y muy importante –la pregunta que conforma
el epígrafe. Al igual que la propia física, el poema contrapone lo
enormemente grande con lo infinitamente pequeño. Trata de la cosmología,
su nebuloso universo con forma de silla de montar. También trata de átomos,
partículas, su escala y lo indeterminado. Sin embargo, el poema no es un
poema didáctico, no trata de enseñarnos lo que fueron los descubrimientos
de la física ni lo que significaron. En todo caso, Auden descubrió la imagen
global mundial que los físicos pintan desagradable, rígida y fría: La
“futilidad” e insalubridad de nuestro mundo cotidiano le parecen mejor a
Auden que la gran frialdad de una nebulosa; las dificultades matrimoniales
también le parecen más fáciles de sortearse que aquellas que se nos
presentan cuando intentamos descifrar los secretos del átomo.
19
La postura de Auden no es extraña, ya que como muchos de nosotros
confrontados con las ideas científicas de nuestro tiempo, está tratando de
darle sentido al universo de la manera en que la física lo describe, situándolo
a partir de su propia experiencia. Auden está, como muchos de nosotros,
tratando de ubicar su mundo individual dentro de la lógica de un continuum
universal. De hecho lo que el poema de Auden dramatiza es su ineptitud en
cuanto a adecuar su ego a ese continuo y por consecuencia cuestiona la
naturaleza del conocimiento científico.
Una paráfrasis de la estrofa de Auden sería: a los humanos nos
encanta averiguar3 y obtener información respecto a todo, pero este
entusiasmo, este impulso por averiguar, parece poco meritorio si no sabemos
para qué es el conocimiento, si éste no nos es de utilidad. En resumen, el
poema reconoce los esfuerzos que los físicos hubieron de hacer en el siglo
XX con objeto de entender los fenómenos que conforman nuestro mundo,
pero al reconocerlo cuestiona la utilidad de los hechos. Los hechos por sí
solos no pueden explicarnos ni quiénes somos, ni qué somos, ni en dónde
nos encontramos.
Queremos considerar la pregunta retórica de Auden como un desafío
real para los científicos. En otras palabras, nos gustaría pensar que la ciencia
está lista para decirnos no sólo que existen quarks y leptones, o que el
universo tuvo como comienzo una singularidad, sino también que nos
explicara cuáles son las implicaciones de estos datos, para nosotros como
individuos, como cultura y como especie.
A partir de 1961, cuando Auden escribió su poema, muchos han sido
los científicos que han intentado contestar su pregunta. Los físicos dedicados
a partículas han escrito respecto a las implicaciones del quantum; los
20
astrofísicos han intentado explicarnos el vínculo que tienen para nuestro
futuro la flecha del tiempo y la flecha termodinámica; los biólogos han
tratado de probar la evolución, sus consecuencias e implicaciones.
De hecho, la última década ha visto un verdadero auge de la industria
editorial científica. Sin embargo, la mayoría de esos libros, en lugar de tratar
de contestar la pregunta de Auden, intentan invalidarla. En el tope del citado
auge editorial existen cuatro increíbles autores considerados best - sellers.4
El primero de ellos y el más académico fue Carl Sagan. Sagan, más que
nadie, les demostró a los editores que la ciencia se podía vender. No fue sino
hasta después del fenómeno Sagan que los científicos sintieron la suficiente
confianza para incursionar en el mercado. Sagan, sin embargo, era
explicativo, un divulgador popular ya que raramente se enfocó a la gran
meta. Aquellos libros que siguieron sus pasos sí lo hicieron, y los tres
autores que a pregunta expresa de cuáles son los científicos, aún vivos, que
los escribieron, la respuesta probablemente sería Stephen Jay Gould, Richard
Dawkins y Stephen Hawking, siendo los dos primeros biólogos y, el último,
el más eminente físico que aún vive. A diferencia del trabajo de Sagan, el de
estos autores tiene un doble propósito ya que superficialmente todos son
didácticos. El libro más importante de Dawkins, The Blind Watchmaker
podría considerarse como un libro que se refiere a la evolución, pero su
objetivo principal es desmentir el argumento de diseño. El libro más vendido
de Hawking, A Brief History of Time, no es únicamente una escalada en
nuestro entendimiento del universo y de la física de partículas, sino que está
preñado de subtonos teológicos y metafísicos que él mismo desacredita.
3
Aristóteles empieza su Metafísica diciendo “El hombre tiene necesidad de conocer”
Como todo el mundo sabe, best- seller no significa calidad sino solo ser de los más
vendidos.
4
21
Gould, el más prolífico de los tres, pudiéndose más bien decir libertino, ha
dedicado gran parte de su carrera autoral a disipar los errores en las lecturas
relativas a evolución y a luchar contra los malos entendidos de la teoría de la
evolución. Sus libros más importantes y más coherentes, sin embargo, aun
ostentan el sello de profesor. Wonderful Life, es una reconstrucción
meticulosa, aún cuando a menudo defectuosa, del bosque Cámbrico, basada
en los fósiles encontrados en Burgees Shale, un sitio en Canadá. Full House
es un recorrido por el mundo de las estadísticas y las bacterias. Nos
referiremos a Gould y a Hawking ampliamente.
De momento, es suficiente decir que existe un común denominador de
estos tres autores, y este es, que en vez de intentar contestar la pregunta de
Auden, la ignoran o la tratan de invalidar. Los tres científicos han visto su
disciplina como divorciada del principio de propósito social que Auden
parece estarle reclamando a las ciencias. Si usted pregunta a los autores
mencionados qué nos dice su información respecto a nosotros mismos y qué
objeto tiene ese conocimiento, su respuesta sería que usted está buscando
respuestas existenciales u ontológicas en el lugar equivocado. De hecho, su
programa pareciera un intento de borrar toda teleología del fenómeno que
describen, aun cuando dicho fenómeno incluya el big bang y el big crunch,
el comienzo y el final de nuestro universo. Todos ellos han rehusado tratar
cualquier esbozo de diseño en la evolución, menos aún respecto al
determinismo. Esta desmistificación, este intento de borrar cualquier
discurso extracientífico de la ciencia es sin embargo superficial. Los libros
están infiltrados de ideología. Por otro lado, a diferencia del determinismo
de épocas anteriores, el mantra de estos nuevos gurús científicos es “el azar”,
“el accidente”. No es que los autores estén tratando de defraudarnos,
creemos que cada uno de ellos escribió creyendo haber sido objetivo; sin
22
embargo, sus suposiciones los han cegado tanto con respecto a sus propios
prejuicios como con los prejuicios de su época.
Resumiendo, la respuesta común de éstos y muchos otros científicos a
Auden, sonaría así: su pregunta no es válida para la investigación científica
ya que no sólo es irrelevante sino terca y equivocada, antropocéntrica y
egoísta. El conocimiento es conocimiento puro y simple. Responde sólo a
los fenómenos que él mismo explica y explora, pero no contesta ni puede
contestar a su intento egocéntrico de colocarse en un continuo cósmico o
evolutivo. De hecho, continúa la respuesta de los científicos mencionados, si
estos hechos científicos dieran respuesta a algo, esto sería que todas las ideas
éticas, religiosas, ontológicas o existenciales que usted tenga con base en la
física o en la biología, constituyen una ficción. Causa y efecto, así como el
continuo, son invenciones conceptuales, ficciones.
En las páginas siguientes intentaremos analizar al más incisivo de
estos autores que quieren ser polémicos, Stephen Jay Gould. Asimismo
procuraremos separar los hechos científicos de las interpretaciones. A
medida que caminemos a través de Wonderful Life, trataremos de presentar
una clara imagen de la evolución, en virtud de que nuestra meta no consiste
solamente en la simple discusión de una interpretación alternativa de los
hechos, lo cual vendrá más adelante, sino que queremos satisfacer nuestras
propias demandas y plantear las teorías con una relevancia social y tan
claramente como sea posible. Después de todo, esperamos que este libro no
sea únicamente para un sector de lectores especializados.
Así como nuestros esquemas de lenguaje se remontan al modelo
cosmológico precopernicano y todavía decimos que el sol “sale” y el sol “se
mete”, subrayando la antigua creencia de que la Tierra era el centro del
universo, nuestra lectura, la forma que tenemos de leer libros y entenderlos,
23
parece provenir de la época prekantiana. Antes de Kant, los filósofos, al
reflexionar respecto al conocimiento, con frecuencia divorciaban al
conocimiento del lenguaje. Entendían el conocimiento como una entidad
autocontenida, algo así como una mónada. En otras palabras, la filosofía preKantiana entendía el lenguaje como una especie de vasija, donde la gente
simplemente vertía conocimientos previos. Kant cambió nuestra perspectiva
ya que entendió que el lenguaje no estaba subordinado al conocimiento sino
que era en sí mismo el conocimiento. Kant subrayó que “las formas de
juicio” son portadores del conocimiento. Como el lenguaje es corruptible,
prejuicioso, artificial y convencional, en consecuencia el pensamiento es
corruptible, prejuiciado y culturalmente determinado.
Sin embargo, probablemente porque parte de nuestra modernidad
supone un respeto reverencial hacia la autoría y a pesar de la crítica kantiana
que nos dice que el conocimiento no puede estar divorciado del lenguaje,
tendemos a leer libros sin la intención de clasificar información. En otras
palabras, con poca frecuencia analizamos cuál parte del texto es exposición,
cual información de hechos conocidos, cuál es interpretación, cuál
explicación de hechos distorsionados y manipulados por los antecedentes
ideológicos del autor, cuál obligación profesional o prejuicio cultural.
Podemos sostener que el grueso de los libros científicos publicados durante
la última década son tanto interpretación como explicación de hechos,
efectuadas a través de la lupa distorsionada del autor o aún más, hechos
organizados con fines proselitistas, para ganar conversos a su propia escuela.
Pocos de los autores científicos han tenido tanto poder y tan grande
auditorio como Stephen Jay Gould, un profesor de Harvard cuya bibliografía
incluye más de una docena de libros e incontables artículos. Aun cuando ha
sido frecuentemente criticado, dentro de la comunidad científica es
24
considerado –como nos dice Richard Foley en su libro Life– el pontífice de
la paleontología. Su fama, empero, no surge de su carrera estrictamente
científica, sino de una trayectoria editorial exitosa por sus escritos de ciencia
popular. La mayoría de sus libros constituyen colecciones de ensayos y
únicamente dos o tres de ellos intentan rastrear o detallar sus ideas respecto a
la evolución. Como ensayista es el mejor proselitista de la evolución y ha
demostrado suficiente claridad y perspicacia argumentativa para defender la
evolución cuando ésta ha recibido golpes retóricos e ideológicos de los
cristianos fundamentalistas, quienes creen en el creacionismo.5 Gould ha
iniciado una guerra contra el intento de prohibir la enseñanza de la evolución
en las aulas.
Desafortunadamente, la retórica pugilística que ha demostrado ser tan
ventajosa en sus argumentos contra de creacionistas y todo tipo de fanáticos,
también está inmersa en sus mas serios escritos. Es bueno cuando intenta
convertir, pero también hace enfurecer cuando sermonea al converso. Sus
dos libros más importantes Wonderful Life y Full House son tan
contenciosos como sus otros ensayos. En primer lugar aquí nos vamos a
referir a Wonderful Life. Sin embargo, consideramos necesario describir una
breve semblanza general de la evolución, de manera que el lector, quien
quizá no esté muy familiarizado con el tema o quien pudiera tener una visión
distorsionada de los principios de la evolución, pueda seguir y entender el
argumento de Gould, de manera que podamos ordenar sus valiosas
introspecciones y sus interpretaciones contenciosas.
En los años cincuenta, cuando Watson y su equipo lograron hacer un
modelo de la partícula del ácido desoxirribonucleico (ADN), lo que
5
El creacionismo no necesariamente es de un solo tipo. Existen creacionistas dogmáticos,
deterministas, no deterministas, etc.
25
modelaron fue una hélice doble; más exactamente, encontraron que las
largas cadenas del ácido nucleico, no estaban solitarias, generalmente se les
encontraba en pares, formando una estructura de doble hélice. El libro de
Watson, The double helix, es un fascinante relato de un proceso científico.
Alrededor de cuarenta años después, es del dominio público que la doble
hélice es la estructura que encierra la información que hace de nosotros lo
que somos. Cada semana, al menos, tenemos la oportunidad de leer en el
periódico algo referente al ADN. Ha permeado nuestras vidas y se utiliza en
juzgados y desde luego apenas estamos comenzando a explorar la manera en
que va a cambiar a la medicina. Resumiendo, aún cuando el Proyecto del
Genoma Humano ha descifrado todos los genes humanos, bien sabíamos qué
clase de información es la que está codificada en las secuencias del ADN.
Aunque la secuencia de bases en cualquier segmento de ADN parece no
tener orden alguno, constituye el instructivo completo para construir el
organismo de todo ser viviente. Al conjunto completo de instrucciones de
una especie se le denomina “genotipo”. El genotipo de nuestra especie
contiene no sólo las instrucciones en cuanto a cómo y cuándo se divida un
huevo fertilizado, sino a desarrollos anatómicos posteriores. También tiene
el sello de nuestros padres. Por lo tanto, como bono adicional, no muy
agradable por cierto, nuestro ADN contiene varios de los problemas
congénitos que pudieran acosarnos en años posteriores.
Los progenitores masculino y femenino, producen, cada uno, células
especializadas que contienen sólo la mitad de la información genética que
poseen las células de un individuo. Estas células llamadas gametos, al
fecundarse unen la información procedente del padre con la de la madre. De
esta manera se adquiere la información completa para formar un organismo
que presenta variaciones respecto a los progenitores. En palabras más
26
sencillas, el ADN de cada individuo es una combinación del ADN de ambos
padres y desde luego, contiene la mitad del ADN de la madre y al otra mitad
del ADN del padre. Esta precisa combinación es uno de los pivotes de la
evolución.
Recientemente el mundo se sacudió con los encabezados que dieron la
bienvenida al mundo a Dolly. Sólo aquel que viva en otro planeta no ha oído
o leído algo respecto a Dolly, la clonación de una oveja que fue el resultado
del trabajo de científicos británicos. Al ser clonada, Dolly no surgió como
una combinación de dos ramales de ADN. Los científicos extrajeron el ADN
de una oveja y pudieron hacer una réplica exacta de ella. Este experimento
ha causado gran revuelo, ya que los éticos y los políticos reaccionaron ante
la noticia, la condenaron y cuestionaron sus ramificaciones. De inmediato el
presidente Clinton presentó una iniciativa de ley que prohibe la clonación.
Casi todo el mundo piensa que la clonación puede iniciar tendencias
terribles. Para la mayoría, el experimento equivalía al hecho de que
cualquiera que tuviera acceso, el suficiente dinero y ser tan tonto o egoísta
como para crear una réplica exacta de sí mismo, diera el paso y lo lograra.
Esta percepción, desde luego, es estrecha, equivocada y crucial para nuestro
posterior argumento. Por ahora, es suficiente afirmar que Dolly fue “hija”
gemela genética de la oveja progenitora, que existen por ahí dos ovejas con
el mismo material genético, el mismo y preciso ADN. Sorprendentemente lo
que pocos toman en cuenta, es el hecho de que aun cuando el ADN
determina en gran parte lo que somos, por decirlo de alguna manera, una vez
que nuestro clon, nuestra réplica, comienza a vivir su propia vida, él o ella
tendrán diferentes experiencias y consecuentemente él o ella serán una
persona diferente.
27
De momento continuemos con la evolución. La razón por la que me
referí a Dolly es porque en caso de que usted le pagara a un científico para
que lo clonaran, su clon, aunque sería una copia exacta suya, de todos
modos, él o ella sufrirían muchos de los dolores que usted padece. Si usted
tiene problemas de rodillas, él o ella también los tendrá y si usted es miope,
él o ella será igual de miopes. En otras palabras, si usted fuera el producto de
una rama de ADN y sus hijos o hijas fueran producto de la misma rama de
ADN, no existiría ningún cambio. Por lo tanto, la naturaleza o la vida –y
aquí no puedo dejar de antropomorfizar– ha buscado la reproducción
multicelular. Lo que la combinación de dos ramas de ADN permite es la
variación, uno de los tres principales dogmas de la evolución. En forma más
literal, variación significa que tenemos un ligero parecido con alguno de
nuestros padres. Podemos tener los problemas de rodillas de la madre pero
también podemos tener un corazón sano que el padre no tiene. A primera
vista esto parece obvio pero las repercusiones de la variación son tremendas
si usted las comprueba en las dimensiones en las que opera la evolución.
Recuerde que hablar de evolución implica hablar de eras geológicas.
Los humanos han estado conscientes de la variación desde hace
mucho tiempo; de hecho, para argumentar su teoría, Darwin comienza El
orígen de las especies con el conocimiento que entresacó durante
conversaciones con granjeros y horticultores. De lo que Darwin se dió
cuenta fue del tipo de repercusión que la variación produciría a largo plazo.
Para comenzar a sondear las posibilidades permítasenos utilizar una
analogía. Tomemos el idioma inglés e imaginemos la totalidad de su medio
millón de palabras como una reserva de material genético; las diferentes
ramas de ADN están allí listas para combinarse con otras ramas de ADN.
Digamos que nuestra reserva genética es una reserva de una especie llamada
28
poema. El idioma, como el ADN tiene una estructura, por lo que aquellos
que redactan un poema tienen que seguir ciertas reglas métricas, sintácticas y
gramaticales. A pesar de las reglas y de la limitada cantidad de palabras, se
puede obtener lo siguiente:
Vanity! said the preacher. Vanity!
Esta línea de Browning repite la palabra y nos da la sensación de una
novela o historia corta. Sin embargo, también se puede obtener lo siguiente:
To glide a sunbeam by the blasted pine.
Esta línea de Tennyson observa la misma métrica que la anterior, pero
en lugar de ser dramática o narrativa es puramente lírica.
Este tipo de posibilidad imperante, esta habilidad para operar y variar
dentro de los límites y aun poder producir algo diferente, fue lo que, por lo
menos en parte, impulsó a la evolución. Como el lenguaje, la reserva
genética permite cambios y diferencias debido a la reproducción. Lo que son
sintaxis y gramática en el lenguaje, corresponde a las reglas y limitaciones
de transformación genética. La solución a esta cuestión descubre el modus
operandi de la evolución.
La evolución tiene tres aspectos. El primero es un principio
conservador y su germen, por llamarlo de alguna manera, está incrustado en
nuestro ADN. Como hemos mencionado anteriormente, el ADN es nuestro
manual de instrucciones. Aún si somos producto de dos ramales de ADN
unidos uno con el otro, la información esencial que necesitamos pasa a
través de ellos. Para continuar nuestra analogía linguistica, si pensamos en la
evolución como un proceso similar a la escritura, el principio conservador es
análogo a la gramática y a la sintaxis. Muchas de la reglas gramaticales y de
sintaxis son flexibles, pero sólo algo flexibles. Lo que es más, deben de
existir y si estamos de acuerdo con los principios de la gramática generativa
29
de Noam Chomsky y los aplicamos a nuestra analogía, podríamos decir que
esas reglas deben preexistir. Pero aquí nos estamos adelantando a nuestro
argumento.
De momento, aunque sólo superficialmente, tratemos de averiguar por
qué es necesario el principio conservador. Posteriormente hablaremos de la
física y abarcaremos la segunda ley de la termodinámica, que postula que la
entropia del universo siempre crece. Sin embargo por ahora es suficiente
decir que –según muchos científicos –la naturaleza6 tiende al desorden. En
Full House Gould destacó que muchos biólogos malinterpretaron la segunda
ley de la termodinámica cuando dijeron que la vida se opone a tal ley. Gould
está equivocado, ya que su argumento gira sobre el hecho de que, segun él,
la ley se aplica sólo a sistemas cerrados, sistemas a los cuales no se les puede
alimentar con energía. La entropía sucede en todos los sistemas. Un sistema
abierto por definición requiere suministro continuo. La segunda ley de la
termodinámica sí opera en los sistemas abiertos, tanto así que por eso se
llaman abiertos, pues reciben energía externa y reemplazan la perdida en las
transformaciones. De hecho, la entropía se estudió originalmente en
máquinas, que constituyen sistemas abiertos. Consideramos que un sistema
es cerrado cuando no se le quita ni agrega nada y además cuando el medio
en que está no lo perturba. Y, aparentemente, el único sistema que cumple
estrictamente estos requisitos es el universo.
Nosotros no somos sistemas cerrados como tampoco es nuestro
planeta. El planeta es radiado constantemente con energía solar. Nosotros los
mamíferos, que somos sistemas abiertos, sujetos a la entropía, tenemos que
comer, tenemos que recargar combustible de alguna manera. Sin embargo, a
nivel molecular, al inicio absoluto de la vida y antes de la existencia de
30
organismos complejos, cuando las primeras moléculas se agruparon y, lo que
es más importante, cuando pudieron reproducirse entre ellas, la segunda ley
de la termodinámica estaba si no contra ellas, definitivamente no a favor. La
segunda ley no funciona contra los sistemas de autoreproducción, pero si
individualmente contra los elementos que los conforman. Si ciertos patrones,
como por ejemplo el ADN, son recurrentes de generación en generación es
porque, a niveles moleculares, únicamente algunas estructuras tienen la
capacidad de tender un puente entre lo orgánico y lo inorgánico. Una vez
más, aquí la diferencia depende de la autoreproducción
y la no
autoreproducción. No debemos confundir, tal como lo han hecho algunos
biólogos, una roca que funciona únicamente a través de yuxtaposiciones, con
un compuesto orgánico que tiene la capacidad de evolucionar.
Paradójicamente, el segundo principio de la evolución incluye lo
contrario a la preservación, a saber, innovación o divergencia, como Darwin
lo llama. Hemos sido testigos de cómo en un corto lapso la herencia nos
puede convertir en animales que están más adaptados a su ambiente. La
combinación de dos ramas de ADN permite diversidad y una reserva
genética de mayores proporciones. La innovación sin embargo, al operar en
la combinación de las dos ramas de AND, también funciona en las
mutaciones. Para obtener mayor ilustración utilizaremos otra analogía y en
esta ocasión recurriremos a la música. Imagínese que el principio
conservador de la música se parece a la armonía tradicional, misma que
organiza las doce notas de la escala occidental alrededor de una tónica y un
dominante. Hacia el siglo XIX, los compositores comenzaron a sentirse
incómodos con esas limitaciones y decidieron ampliar las posibilidades hasta
que en un momento dado el sistema de tónica y dominante se desplomó y
6
Naturaleza significa todo aquello que el hombre no ha hecho.
31
para principios del siglo XX se pudo transformar el arreglo de los 12 tonos
para eliminar el valor agregado tanto del tono como del dominante. Este
nuevo sistema representó una mutación. Si los 12 tonos son el ADN,
entonces las mutaciones surgen de sus arreglos. La clave está en que la
mutación tiene como resultado una diferente estructura. Las mutaciones
ocurren debido a la alteración de las moléculas de ADN por errores de
reproducción. Entonces las mutaciones, al contrario de los cambios
musicales a los que hice referencia, no serían ni planeadas ni deseadas.
Cuando se lee El origen de las especies de Darwin, la palabra que uno
encuentra en los días de la biología premolecular es monstruosidad. Por
monstruosidad o monstruo Darwin no se refiere a nuestras ficciones y
fantasías sino a una ligera o drástica desviación de la norma. He aquí a
Darwin hablando de divergencia:
Here, then, we see in man´s productions the action of what may be called the
principle of divergence, causing differences, at first barely appreciable, steadily
to increase, and the breeds to diverge in character both from each other and from
their common parent.
(Vemos, pues, en las producciones del hombre la acción de lo que
puede llamarse el principio de divergencia, produciendo diferencias, primero
apenas perceptibles, que aumentan continuamente, y que las razas se
separan, por sus caracteres, unas de otras y también del tronco común.) 7
La divergencia es el principio que separa una especie de otra y es el
principio que nos permite evolucionar.
Charles Darwin, On the Origin of Species. [Facsímile de la primera edición]. Harvard
University Press, Cambidge (MA), 1964. p. 112
7
32
Distanciados como estamos de nuestro ambiente natural y apartados
de las condiciones primarias que acuñaron al Homo sapiens primitivo, con
frecuencia dejamos de considerar lo que es la divergencia. Ahora bien, las
mutaciones genéticas aun podrían tener consecuencias calamitosas, pero
muchas mutaciones se atienden en clínicas. En otras palabras, al poner en
manos de los doctores las mutaciones genéticas habremos aislado aquello
que no únicamente para los humanos primitivos sino para los humanos de
finales de siglo XIX y del siglo XX ha sido gran parte de nuestra cultura; es
decir, la incapacidad de adaptarnos a las desviaciones. Las desviaciones
pueden ser provechosas para la especie cuando son exitosas, pero cuando no
lo son, las consecuencias pueden ser trágicas. Es más, estas consecuencias se
deben al tercero y último principio de la evolución: la selección natural. La
selección es un principio donde el ambiente parece ejercer su mayor
influencia. Muchas mutaciones se deben a la influencia ambiental y, sin
embargo, ningún aspecto de nuestro ambiente es más despiadado que el del
principio de la selección. A pesar de lo despiadado de la selección, ella es el
eje alrededor del cual giran la conservación y la innovación. La esencia de la
selección podría interpretarse como sigue: La especie –mosca de la fruta,
humano, perro– se reproducen con más rapidez de lo que el ambiente natural
puede soportar. El Homo sapiens es el mejor ejemplo de esto. Debido a la
civilización y los ecosistemas que ha arrasado, muchas de nuestras especies
no han sobrevivido, pero de todos modos, dentro de su escasez, los
individuos se ven obligados a luchar por su supervivencia. Dentro de dicha
competencia, alguno de los individuos de una especie llegan a la edad de
reproducción y otros no, dando como resultado que los primeros estarán en
la posibilidad de perpetuar su material genético. En consecuencia, el material
33
genético que se transmite resulta el más adecuado para sobrevivir en su
ambiente. Como dice Darwin:
Natural selection acts through the preservation of variations in some way
advantageous which consecuently endure.
(La selección natural obra solamente mediante la conservación de variaciones en
algún modo ventajosas y que, por consiguiente, persisten.)8
Por lo menos para nosotros existe una cantidad considerable de
crueldad en la selección y desde luego también gran ineficiencia en el
esquema de la selección natural. Poca gente han tenido que tratar con la
ineficiencia y el dolor como Darwin mismo y como Teilhard de Chardin.
Veremos cómo éste último pudo lidiar con ellas. Darwin sin embargo
diseñó, a pesar de la crueldad y la ineficiencia, un método bien afinado para
mantener un equilibrio ecológico:
In looking at Nature, it is most necessary to keep the foregoing considerations
always in mind –never to forget that every single organic being around us might be
said to be striving to the utmost to increase in numbers; that each lives by a struggle
in some period in its life; that heavy destruction inevitably falls either on the young
or old, during each generation or at recurrent intervals. Lighten any check, mitigate
the destruction ever so little, and the number, and the number of the species will
almost instantaneously increase in amount.
(Al contemplar la naturaleza es muy necesario tener siempre presentes las
consideraciones mencionadas; no olvidar que todos y cada uno de los seres
orgánicos puede decirse que están esforzándose hasta el extremo por aumentar el
número, que cada uno vive merced a una lucha en algún período de su vida; que
inevitablemente los jovenes o los adultos, durante cada generación o repitiendose a
intervalos, padecen importante destrucción. Disminúyase cualquier obstáculo,
8
Ibid., p. 109
34
mitíguese la destrucción, aunque sea poquísimo, y el número de individuos de la
especie crecerá casi instantaneamente hasta llegar a un nivel incalculable.)9
Aquí Darwin no sólo está explicando la razón de la muerte y las
extinciones naturales, sino que nos está advirtiendo, pronosticando el futuro
ecológicamente desequilibrado
que estamos viviendo. El más famoso
ejemplo desde luego es la extinción de los depredadores. En América del
Norte, el siglo XIX presenció una campaña contra el lobo y aún a principios
del XX las pieles de lobo fueron altamente recompensadas tanto por
granjeros como por las autoridades. Una vez que el lobo desapareció, una
vez que “el contratiempo se aligeró”, la población del venado creció
estratosféricamente. El venado se ha convertido en una plaga.
Regresaremos a los tres principios evolutivos –conservación,
innovación y selección- una vez más. Pero antes de discutirlos con mayor
amplitud, me gustaría mencionar lo que Stephen Jay Gould añadió a la
introspectiva de Darwin y cómo la interpretó.
El origen de las especies de Darwin, al igual el El capital de Marx es
un monstruo de libro que catalizó nuestro siglo. Es uno de esos libros que
provocan reacciones y significan cosas completamente diferentes en
personas diferentes. Filósofos como Bergson, teólogos como Klüger y desde
luego muchos científicos, han interpretado la teoría de Darwin de manera
diferente. Algunos han encontrado a la evolución como sacrílega mientras
que otros la encuentran como consuelo. Richard Dawkins, por ejemplo, a
pesar de su enfoque objetivista, arguye un tanto inmaduramente que
“Darwin logró que alguien pudiera ser un ateo intelectualmente realizado”.
De hecho, a lo largo de este siglo la evolución ha sido interpretada de tantas
9
Ibid., pp. 66-67
35
maneras que un crítico cultural pudiera seguir nuestras huellas solamente
rastreando nuestras actitudes respecto a Darwin.
El significado etimológico de evolución simplemente implica que algo
que evoluciona es algo que se desenvuelve o se desenrolla. Sin embargo,
hasta los diccionarios definen la evolución como un fenómeno jerárquico;
por ejemplo, uno de los diccionarios más importantes el Oxford English
Dictionary, la define así ( entre otras acepciones):
"De organismos animales y vegetales y sus partes; proceso de desarrollo del estado
rudimentario al estado maduro y completo".
Esta definición con sus antípodas, lo rudimentario vs. lo maduro o
completo, ha promovido la idea de que el Homo sapiens es superior, menos
rudimentario, más maduro, en un estado más completo que el de otros
animales. Solo recientemente al ir encontrando el sistema sonar de los
murciélagos y las ballenas, la visión termal de las serpientes y la
superioridad de muchos de los sentidos animales hemos empezado a revisar
nuestra terminología. Más recientemente aun, con el surgimiento de la
ecología como ciencia, nos hemos dado cuenta de que la naturaleza no opera
con jerarquías sino con ecosistemas10.
Darwin no dijo que la evolución implicara las antípodas que la
definición del diccionario citado enlaza. Como hemos visto y de acuerdo con
Darwin, los organismos evolucionan, cambian y se adaptan a su entorno, por
lo que entender la evolución a través de aquellos términos antípodas es un
error. Nadie ha intentado tanto disipar ese mito como Stephen Jay Gould. El
10
Estamos refiriéndonos a la parte puramente material del ser y como veremos en la
segunda parte del libro, no podemos comparar aptitudes físicas solamente, sino que
36
proyecto total de Gould parece desmentir el sofisma de los retóricos y los
logistas llamado post hoc, ergo propter hoc. Si se entiende la evolución
mediante este sofisma, se puede aducir que preexistimos y que ya fuimos
predestinados en los primeros organismos que colonizaron la Tierra. En
otras palabras, Gould se ha esforzado en socavar la idea de que nuestra
inteligencia y nuestra complejidad anatómica estuviera implícita en las
primeras etapas de la vida. De acuerdo con Gould, la vida humana y la
inteligencia eran “poco probables”. Lo que trata de enfatizar, es su idea de
que la vida fue un accidente.
Las herramientas argumentativas de Gould han sido principalmente
réplicas a otros científicos, la revisión del trabajo de otros científicos y la
crítica semiótica de la iconografía de la evolución, la crítica de las imágenes
que utilizamos para entender la evolución. Wonderful Life, el que podría ser
el libro más importante de Gould, toma su título del filme de Frank Capra
It`s a Wonderful Life. Al igual que El Mago de Oz, el filme de Capra está
profundamente incrustado en la psique norteamericana. Es uno de esos
filmes que vuelven a estar obligatoriamente en cartelera durante las
vacaciones. La trama gira alrededor de una suposición. George Bailey
protagonizado por James Stewart había tenido una buena vida y había
antepuesto los intereses de terceros a los suyos. Su compañía va a la
bancarrota y Mr. Potter, protagonizado por Lionel Barrymore, lo acusa de
fraude. En absoluta desesperación, George está a punto de suicidarse
tirándose al agua cuando su ángel de la guarda se interpone tirándose
primero y sabiendo que George pediría auxilio. George piensa que su vida
no ha valido la pena y que hubiera sido mejor no haber nacido. Su ángel
tenedremos que incluir otro concepto fundamental, el conocimiento. La evolución es una
evolución de las formas en relación directa a la evolución de la conciencia.
37
decide regresarlo en el tiempo y mostrarle como afectó o como cambió la
vida de tanta gente durante su vida. En pocas palabras, el filme se basa en la
retrovisión de la vida de George.
En su libro Wonderful Life, Gould propone un experimento similar
aunque imaginario, con la cinta de la vida. Gould opina que si regresamos la
cinta de la vida y luego la volvemos a proyectar desde el principio, el
resultado probablemente nos excluiría. Los resultados, en otras palabras,
serían completamente diferentes. No sólo el Homo sapiens no se hubiera
desarrollado nunca, sino que la flora y la fauna que conocemos sería
totalmente diferente:11
I call this experiment “replaying life´s tape.” You press the rewind button and,
making sure you thoroughly erase everything that actually happened, go back to
any time and place in the past –say, to the seas of the Burgess Shale. Then let the
tape run again and see if the repetition looks at all like the original. If each replay
strongly resembles life´s actual pathway, then we must conclude that what really
happened pretty much had to occur. But suppose that the experimental version all
yield sensible results strikingly different from the actual history of life? What could
we then say about the predictability of self-conscious intelligence?12
Los científicos con frecuencia suenan como gente que sale con
preguntas tontas, con el tipo de preguntas que parecen más apropiadas para
juegos de salón que interrogantes científicas reales. Algunas de estas
preguntas han proporcionado resultados increíbles. Einstein descubrió su
principio de la relatividad especial formulándose un experimento hipotético
11
O no hubiera habido Homo Sapiens ni flora ni fauna, como de hecho sucedió en la
mayoria de los planetas que se han formado.
12
Stephen Jay Gould, Wonderful Life: The Burgess Shale and the Nature of History.
W.W. Norton & Co., Nueva York, 1989, p. 48.
38
parecido. (“si yo fuera en un tren que se desplazara a la velocidad de la
luz…”). El experimento de Gould podría ser importante –sobre todo para
demostrar la validez de la teoría del caos – pero definitivamente no es nada
original. Un cuento corto de Ray Bradbury presentó el mismo esenario de
viaje en el tiempo, en el cual unos hombres del futuro construyen una
máquina del tiempo y regresan a cazar dinosaurios. A estos cazadores de
trofeos se les prohibió distorsionar la historia, por lo que solamente se les
permitía cazar dinosaurios moribundos. Sin embargo, uno de los miembros
de la expedición pisa un insecto y cuando los cazadores regresan a su época
se encuentran con una raza de hormigas gigantes.
Los lectores más sensatos se podrían preguntar qué caso tiene dicho
ejercicio mental. Si no sucediera así, ¿por qué preocuparse? Nuestro viejo
refrán “lo pasado, pasado” es aquí aplicable. Pero la hipótesis tiene cierta
brillantez y proporciona varias introspecciones profundas e importantes. Una
de ellas, la que se pregunta cuáles métodos debemos utilizar para interpretar
el registro de fósiles. En efecto, el argumento central de Gould es que nos
hemos leído o identificado en el registro de fósiles. Pero la hipótesis también
proporciona una introspección más importante, a saber: el papel que
desempeña lo que Gould llama contingencia. Gould apoya su opinión
reconstruyendo y reinterpretando lo que él llama “los fósiles más
importantes del mundo”: Burgess Shale, que es una fauna Cambriana
impecablemente preservada. Gould no está hablando en hipérbolas. Él está
en lo correcto al colocar a Burgess Shale en lo alto de la lista. La mayor
parte de nuestro registro de fósiles es un registro de partes duras, dientes,
huesos, etc. por lo que consecuentemente la mayoría de los animales de los
39
que tenemos registro son vertebrados. Burgess Shale es importante porque
contiene invertebrados preservados.
Gould hace un espléndido trabajo al reconstruír la fauna de Burgess
Shale pero su reconstrucción tiene una intención incrustada. Como lo
apuntamos anteriormente, Gould piensa que las primeras reconstrucciones
de los bosques fueron prejuiciadas. De acuerdo con él, los primeros
biólogos, quienes interpretaron la fauna, fueron parciales, ya que la
iconografía con la cual entendieron la evolución describía un modelo
piramidal, un modelo que presenta a la evolución ya sea como una escalera o
como un cono invertido. El primer modelo resulta sencillo para aquellos que
han abierto un libro de texto y han visto el diagrama de un simio que se
desenrrolla y se convierte en un humano. El modelo de cono invertido, por
otro lado, es un poco más sofisticado. Implica entender la evolución como si
fuera un cepillo con una única raíz en la base, desplegando ramas en la parte
superior. Si fuéramos a reconstruir la fauna cambriana simplemente con el
modelo de cono invertido, el intento inmediato sería encontrar una
contraparte moderna de cada uno de los animales cambrianos. En otras
palabras, supondríamos que cada animal fue un predecesor de cada uno de
los animales que conocemos y que la extinción jamás eliminó a las especies
que no tuvieron descendencia. Gould opta por un cono normal. Él piensa
que la vida empezó con una increíble variedad y que al paso del tiempo se
redujo a un menor número de especies.
¿Hasta qué punto es radical el modelo de Gould? Al reinvertir el cono
invertido, o sea hacerlo “normal”, él tiene la posibilidad de contradecir el
modelo de evolución que va de lo “primitivo” a lo “avanzado”, de lo
“simple” a lo “complejo”. Gould puede deshacerse de la interpretación de
linealidad, progresivismo y determinismo – palabras estorbosas para Gould.
40
Está también en condiciones de mostrar que el Homo sapiens no es el
propósito hacia el cual apunta la fauna cambriana sino que más bien es
simplemente una “ramita”.
Se pueden deducir dos resultados de la crítica de Gould. El primero es
limitado pero muy importante e inteligente. El segundo es fatuo,
desafortunadamente. Comencemos con el importante e inteligente. Muchos
críticos han encajado el trabajo de Gould con el tipo de interpretación
evolucionista que ve a la suerte, al azar, como el común denominador de la
evolución. Han tomado su trabajo como adherido a un nihilismo
evolucionista. Gould no cree en jerarquías, ni en progreso ni en linealidad,
ni en determinismo, ni cree que la evolución tenga un objetivo. Desde luego,
como muchos biólogos, sabe que el azar es un factor de gran importancia.
Sin embargo, para Gould el principal empuje, –aun cuando ésta sería una
palabra errónea para él– el principal motor de la evolución, ha sido la
contingencia. Por contingencia Gould quiere decir que la evolución no es
“insensible” ni le falta un “patrón”, sino que está “determinada por miles de
improbables” y sucesos impredecibles:
I am not speaking of randomness (for E had to arise, as a consequence of A
through D), but of the central principle of all history –contingence. A historical
explanation does not rest on direct deductions from laws of nature, but on an
unpredictable sequence of antecedent states, where any major in any step of the
sequence would have altered the result. This final result is therefore dependent, or
contingent, upon everything that came before –the unerasable and determining
signature of history.13
13
Ibid., p. 283
41
Por lo tanto la contingencia no esta muy lejos de la visión de Darwin
del balance, una buena sintonía de la población con los recursos. Deshágase
de un depredador y la presa florecerá. Lo que Gould discute es que la vida en
sus diferentes etapas no contó con un único empuje: por el contrario, miles
de circunstancias propiciaron el resultado. Resumiendo, la contingencia
representa realmente una visión de la evolución generosa y ecológica.
Contempla la vida como una red de la cual no sólo somos parte sino que
somos sus dependientes. Sin embargo existe un problema, ya que la idea de
la contingencia funciona en el “condicional”. Si las aguas del periodo
cámbrico hubieran sido un poco más templadas, hubiéramos podido no estar
aquí. Se necesitan todos los “si” y los “habría” o “hubiese”. Este tipo de
argumento hipotético perpetuo podría motivar insignificantes revisiones de
las ideas que tuvimos en el pasado. Pero una cosa que no puede hacerse por
más que Gould lo intente, es probar que los humanos no son inevitables.
Somos inevitables porque estamos aquí. Mientras no podamos viajar en el
tiempo –si es que alguna vez eso es posible– no podremos manipular la
palanca que borre nuestro parentesco, por lo que el argumento es meramente
una curiosidad metafísica, que podría demostrar nuestra suerte, o lo precario
de la vida o el fino equilibrio sobre el cual cabalga nuestra existencia. Todas
estas cosas son importantes, es importante tener en mente todo esto. Con
todo ello, no se puede desmentir nuestra importancia aquí. Gould podrá
tratar de hacerlo pero en su intento realmente socavará el poder de la
contingencia. Al hacer de nuestra especie algo marginal marchita las
implicaciones ecológicas de la contingencia. Somos, después de todo, una
de las especies con mayor influencia por lo que al ambiente se refiere.
Existe un aspecto aún más defectuoso en el trabajo de Gould.
Aparecen sus peores momentos cuando intenta borrar las malas
42
interpretaciones sobre la evolución. Como hemos visto, su proyecto intenta
desmentir el progreso, el determinismo y la linealidad. Y es en hacerlo, al
intentar demostrar que estos conceptos son ficciones, en donde falla en ver
cómo sus propias ideas están infectadas con tantos prejuicios como las ideas
que trata de disipar. En orden de corregir las malas interpretaciones, Gould
ha adoptado muchas de las técnicas que los críticos culturales han
desarrollado durante este siglo. Su crítica de la iconografía de la evolución
tiene la misma redundancia que muchas de las críticas iconográficas que
llevan a cabo los semiotistas. Su intento de derrocar al Homo sapiens de sus
alturas jerarquicas, asemeja en su enfoque, si no en su estilo, a un proyecto
de destrucción. Concretando, al igual que los críticos culturales a los que se
asemeja, Gould tiende a tomar una buena idea y explayarse en ella, aplicarla
sin discriminación, sin ningún respeto ni al sentido común ni a la lógica.
Para los críticos culturales, como para Gould, se ha convertido en una moda
etiquetar cada patrón como una falacia o ficción: Como opina en Full House,
cada “tendencia fundamental” de la que nos enteramos al leer algo respecto a
la evolución “se basa en una falacia”.14
Esta tendencia ha sido, por lo menos, perjudicial. Ha enlodado su
trabajo con imprecisiones y errores, con los mismos pasos en falso de
interpretación y situaciones sin solución lógica que critica en otros.
Probablemente, sus callejones sin salida lógica se desprenden de su
interpretación del tiempo. Una vez más, en Full House destaca que debido a
que somos “criaturas que cuentan cuentos”, quienes estamos “fascinados con
las tendencias” hemos “impartido direccionalidad al tiempo”.15 Tal
enunciado, desde luego, no solo es sorprendente sino atroz, viniendo como
14
15
Op. cit. p. 19
Op. cit. p. 31
43
lo es, no de un preparatoriano quien apenas terminó su primer curso de
filosofía,
sino
del
“pontífice”
de
la
paleontología.
Hablaremos
posteriormente de la direccionalidad del tiempo cuando hablemos de física y
por lo pronto, será suficiente decir que los físicos aseveran que la dirección
del tiempo es la misma que tiene la flecha de la termodinámica. Según la
flecha de la termodinámica las cosas tienden al desorden. La analogía común
en este caso es el vaso de leche a la orilla de la mesa. Digamos que alguien
pasa y simplemente hace que la casa vibre tanto como para hacer que el vaso
se caiga y se rompa y que la leche s desparrame. Así es como
experimentamos el tiempo. Nunca hemos visto vasos que se rehacen, se
vuelven a llenar y se regresan a las mesas en donde estaban colocados.
¿Por qué Gould habría de ignorar tal hecho obvio? ¿Por qué habría
Gould de ignorar lo que la física nos dicen respecto a que el tiempo tiene una
dirección? Parte de su argumento es por absoluta ceguera, por su inhabilidad
para separar el condicional de sus experimentos mentales –sus “si” en “si
rebobináramos la cinta de la Vida”, sus “hubiera” y “habria” que siguen en
la oración principal- de la realidad, de las imposibilidades físicas. Sin
embargo, realmente es necesario para cualquier pensador poder distinguir
una hipótesis de la realidad física. La segunda razón por la cual Gould ignora
las leyes físicas podría ser ideológica. En verdad, está inmerso en el
ambiente ideológico de la academia. Sus escritos suenan a ese tipo de
nihilismo de izquierda que ha sido tan comun en la cademia: en la critica del
conocimiento de Derrida, en la crítica de la historia de Foucault, etc. Como
tantos académicos, Gould forma parte del Zeitgeist.
A la larga, el intento de Gould de desmentir la direccionalidad del
tiempo lo condujo a errores tremendos. Con objeto de defender su idea, hace
exactamente lo que critica en sus predecesores ya que forza su información
44
de manera de adecuarla a su argumento. En Wonderful Life, por ejemplo, al
tratar de demostrar que no existen ni secuencia, ni linaje, ni direccionalidad,
francamente llegó a una interpretación errónea y finalmente cercenó el linaje
de varios organismos. Uno de estos organismos que forma parte del núcleo,
la raíz, la semilla del argumento del autor debido a la copiosa variedad de los
mismos durante las etapas tempranas de la Vida, fué la Hallucigenia, un
artrópodo perfectamente descrito por su nombre científico. La Hallucigenia
es un gusano con siete pares de púas de un lado y siete extensiones tubulares
por el otro, un tubérculo como protuberancia en un extremo y una cola
tubular en el otro. Gould se refería a “esta extraña maravilla” como prueba
de una variedad de diseño en la vida primitiva. Al girarlo, lo interpretó al
reves. Tan obsesionado estaba con sus artículos revisionistas que trataban de
corregir las interpretaciones originales de la fauna, que los tubos de la
espalda resultaron ser patas –un segundo juego de patas apareció cuando el
fósil fué debidamente excavado. Las púas que Gould creía que eran patas
eran justamente eso: púas. De hecho la Hallucigenia reinterpretada con
posterioridad a Gould, probó ser ancestro de los gusanos terciopelo
(Onycophora) que aún sobreviven debajo de troncos podridos en el
hemisferio sur.
Para los admiradores de Gould, este tipo de error, este tipo de ceguera
debido a sus prejuicios –el tipo de ceguera al que Gould tan mordazmente
atacó– es solo peccata minuta. Sin embargo, no lo es. El rechazo de Gould a
nuestra tendencia a encontrar “tendencias” en nuestras lecturas e
interpretaciones de los registros de fósiles, lo invalidó. Simon Conway
Morris, uno de los asistentes de Gould en el proyecto Burgess Shale ha sido
probablemente quien ha proporcionado el argumento de mayor peso contra
la interpretación de Gould, al ofrecer una alternativa para la contingencia
45
como el modus operandi de la evolución. Originalmente, cuando Darwin
hizo su gran descubrimiento, no contaba con nuestros puntos de ventaja, ya
que el ADN y su estructura habían de descubrirse con posterioridad. No
estaba enterado de los experimentos genéticos de Mendel y su idea surgió
por medio de la observación y lo que observaba eran unicamente formas.
Darwin descubrió la evolución, porque hizo observaciones cuidadosas de los
patrones anatómicos y de sus respectivas modificaciones. Y es precisamente
en esta ingenuidad respecto a lo formal, lo anatómico o lo estructural en lo
que Gould ha sido más defectuoso.
En su libro The Crucible of Creation, Conway Morris discute el tema
a la par. Razona más allá de simples malas interpretaciones del registro de
fósiles, ya que su argumento gira alrededor de la idea de que, aun cuando
uno regrese la cinta de la vida y la vuelva a reproducir, el resultado no sería
tan diferente. ¿Por qué? Porque Conway Morris, como Darwin, es un
formalista por llamarlo de alguna manera. Tomemos tres animales: el oso
hormiguero gigante sudamericano, el equidna de Oceanía y el pangolín
gigante de Africa. Si usted observa los tres animales, va a contemplar tres
animales muy similares. Los tres tienen una lengua larga y pegajosa y garras
de cimitarra. Todos son desdentados y su hocico carece de pelo y asemeja
una manguera de hule. Todos ellos tienen protuberantes glándulas salivales y
un estómago sumamente áspero. Sin embargo y a pesar de sus muchas
semejanzas, ninguno de éstos animales están emparentados, es más, no
tienen una línea común. El equidna pone huevos y está relacionado
íntimamente con el ornitorrinco. Lo que hace a estos tres animales
semejantes, es un fenómeno que Conway Morris denomina convergencia. La
convergencia es el mismo fenómeno que asemeja al murciélago (mamifero),
al aguila (ave) y al extinto pterodáctilo (reptil). Lo que la convergencia
46
señala, es que la vida sólo puede tener tantas formas como las que puedan
hacer frente al medio ambiente de manera exitosa. Existen varios diseños
que pueden permitirle a un animal volar. En el caso de nuestros tres animales
hormigueros, la razón por la cual son tan similares es que todos ellos,
precisamente, se alimentan de hormigas, tarea difícil, que explica por qué,
para quitarse facilmente las hormigas y prevenir mordidas tienen hocico
duro y sin pelo; garras que les permitan excavar y estómago que les ayuda a
digerir, etc.
Estaremos tratando con la convergencia más ampliamente ya que es
crucial para nuestro argumento, que va más allá de las simples similitudes
anatómicas. De hecho, la convergencia se dá también a niveles moleculares.
Peces no emparentados, que nadan en aguas muy frias, han desarrollado la
misma proteina anticongelante. Por ahora, nos gustaría concluir este capítulo
con la respuesta de Stephen Jay Gould a la pregunta de Auden:
We may, as this book advocates, accept [geology´s] implications and learn to seek
the meaning of human life, including the source of morality, in other, more
appropiate, domains –either stoically with a sense of loss, or with joy in the
challenge if our temperament be optimistic.
Entónces, ¿para qué queremos el conocimiento? La respuesta de
Gould nos dice que la aceptemos por resignación o más bien para hacernos
tontos. Volveremos a Gould, con optimismo, para debatirlo respecto a lo
equivocado de sus más preciada idea, la insistencia en contemplar a la vida
como algo sin significado, la evolución como sin propósito. Pero primero,
para dar nuestra respuesta de para que queremos el conocimiento, debemos
encontrar nuestra escala, tenemos que ver como encajamos en este cosmos
47
de lo infinitamente pequeño y de lo tremendamente grande, y también
entender como lo infinitamente pequeño nos configura, como también
configura lo infinitamente grande.
48
2
LA MÚSICA DEL UNIVERSO
The larger music of the world, which contains all sounds and silences
and whichone rarely notices, either because its rhythms occur too quickly
or it takes centuries for harmonies to resolve,
emerges for a moment through the crevasse of the sky.
RODNEY JONES
Ya sea que tenga que ver con el proyecto del genoma humano y que llegue
diariamente a través del periódico o que se trate del caos y que se inserte
poco a poco en la conciencia del público por medio de artículos ocasionales
en revistas, uno de los problemas principales es interpretar la ciencia y los
datos que involucrados en un determinado contexto. La palabra contexto
viene del verbo latino contextere, que significa insertar junto o entrelazar.
Desafortunadamente, en su uso moderno la palabra ha perdido su capacidad
de indicar no sólo la manera en la que el significado se presenta, sino la idea
de un tejido que está en su totalidad construido detalladamente. En realidad,
como los teóricos de la comunicación usan la palabra hoy dia, el contexto es
solamente la parte que precede y sigue a un cierto segmento de información
y a la cual le da significado. Actualmente pensamos en contexto como si
fuera un marco de una pintura, un rectángulo completamente extraño a la
pintura a la cual enmarca. Es quizá por esta manera superficial en la que
pensamos sobre el contexto, que nos parece extremadamente difícil el que al
tomar una importante teoría científica podámos sacar mayores conclusiones
de ella.
El fenómeno no es del todo un malestar moderno. Desde fines del siglo
XVIII, con la crítica kantiana de la razón, la cultura ha tomado como su
49
cometido el cuestionamiento del significado. Esta actitud, aun cuando
saludable en sus ramificaciones políticas, es completamente opuesta a lo que
tanto pensadores como sus seguidores trataban de llevar a cabo antes de la
arremetida del periodo moderno. Los pensadores anteriores al siglo de las
luces como Descartes, Bacon y Spinoza, creían que su deber era interpretar
una visión unificada de la naturaleza y la condición humana. Mientras que
esta meta permaneció entre muchos filósofos posteriores, el comienzo del
siglo XX, para ser más precisos, de la primera guerra mundial, vió el fin de
este proyecto intelectual. Desde entonces, nuestro conocimiento ha venido a
ser más y más “atomizado”. Si en periodos previos el cometido del pensador
era ligar las humanidades con la ciencia, ahora, este pensador se ha movido
del panóptico16 al microscopio. El historiador no escribe las crónicas de las
ascensiones y caidas, como lo hace Gibbon en el libro Historia de la
decadencia y caída del imperio romano, sino que ha llegado a ser –por
decirlo de alguna manera– el que colorea, el que recrea vívidamente un
evento o fenómeno particular. El filósofo no intenta hacer conexiones entre
cosmología, historia y conocimiento, pero sí ha llegado a ser una tenaz voz
que insiste en la imposibilidad de la lógica.
Finalmente, el cambio de énfasis e interes en los pensadores alcanzó
una crísis epistemológica y moral, a la cual estos mismos pensadores gustan
de referirse como una condición postmoderna. No corresponde al ámbito del
presente libro adentrarse en la visión anacrónica del término o en su histórica
estrechez de pensamiento. Sin embargo, justo es mencionar el más
importante esfuerzo del pensamiento postmoderno, no solamente porque va
16
El panóptico fue un diseño arquitectónico de prisión en el que desde una posición
central se podían observar las celdas que están colocadas en forma poligonal a su
alrededor
50
en contra de las principales ideas que queremos presentar, sino también
porque ejemplifica la manera en la cual estos pensadores han hecho hasta lo
imposible para poner la información en contexto. Un breve vistazo a alguno
de los proyectos de estos pensadores será suficiente. Si bien su fama de
alguna manera ha disminuido, uno de los más influyentes filósofos de la
postguerra ha sido Jacques Derrida. Sus trabajos incluyen libros sobre Platón
y Freud, Rousseau y Herder, pintura y literatura. Sin embargo, a pesar de la
diversidad de sus temas, su filosofía es una insistente, o mejor dicho,
defectuosa exploración hacia la imposibilidad del significado. Mientras otro
muy influyente filósofo francés, un poco menos monomaniaco, Michel
Foucault ha abordado la filosofía históricamente. Bajo su influencia, muchos
eruditos han argumentado que la ciencia no es un método mediante el cual
entenderemos los fenómenos naturales que nos rodean, sino que es un
“tratado”, una manera de organizar la información en la cual, como cualquier
otro tratado el concepto está imbuido y simplemente refleja el sesgo de la
cultura que realzan los científicos. En otras palabras, de acuerdo con Foucault
y sus discípulos, la ciencia refleja la hegemonia de la cultura.
Existe una pizca de verdad en la crítica de Foucault. Su trabajo sobre
medicina, sobre la institucionalización de la locura y el nacimiento de la
clínica, es perspicaz y en su mayor parte correcto. Sin embargo, de lo que
muchos de sus seguidores no se han dado cuenta, es de la diferencia entre
medicina, una ciencia que es, a falta de mejores palabras, de habla
complicada, y física y biología, ciencias que pueden influir en la cultura, pero
cuyos métodos y propositos estan, si no enrarecidos, al menos fuera de la
linea principal de la cultura. Claro, muchos descubrimientos médicos han
sido posibles gracias al apoyo del gobierno y la industria farmacéutica. Pero
la injerencia politica o económica ganadas en la ciencia no necesariamente
51
han propiciado resultados prejuiciados, ni esto significa que los innegables
logros en la genética o en la física de partículas, etc., sean menos válidos. En
politica, el fin y los medios van de la mano. En la ciencia y en las artes el fin
no puede considerarse equivalente a los medios. Los tempranos Anthems
Chandos de Händel no dejan de ser piezas maestras porque el duque de
Chandos se las haya encargado, ni las sinfonias Salomon de Haydn fueron
trabajos de mero oropel simplemente porque Salomon le pago para que las
escribiera. Estas obras reflejan la cultura de su tiempo, reflejan la elevación
de una clase comerciante, por su forma sinfónica entre otras cosas, pero
también van más allá de meras agradables palmaditas en la espalda. De modo
similar, en la ciencia, mucho de lo que conocemos del átomo y de la energía
atómica viene, desafortunadamente, del proyecto Manhattan. El resultado
social de este proyecto es y seguirá siendo hasta que el último ser consciente
en la Tierra desaparezca, una de las más grandes atrocidades humanas. Y aun
cuando no pretendemos minimizar la responsabilidad personal y moral de los
científicos involucrados en este hecho –nadie pretenderia hacerlo– podemos
argumentar que lo ganado en cuanto a la formación de la idea del átomo, fue
sin paralelo; y si bien no sopesamos los beneficios futuros para la humanidad
contra los costos inmediatos, podemos razonar que es posible despojar los
descubrimientos de su idea de beneficio económico y utilitario y verlos con
más penetración en lo que realmente son por sí mismos. En otras palabras, asi
como es posible conmovernos con la catedral de Chartres o la de la Ciudad
de México, y verlas más grandes que la corrupción de la Iglesia y la
explotación que permitió su construcción, es posible valorar los
descubrimientos de la ciencia y divorciarlos de las fuerzas sociales y el
discurso cultural que los provocaron.
52
Hemos caminado un buen trecho para establecer la necesidad del
contexto y hemos cubierto quizá demasiado terreno. A pesar de todo, es
importante tratar con estas ideas actuales porque de muchas formas, lo que
nos proponemos es ir en sentido contrario de la nueva ortodoxia. Las ideas de
los filósofos y los historiadores influyen en la manera en que los científicos
interpretan su material. Como vimos en el capítulo previo cuando discutimos
el trabajo de Stephen Jay Gould, la interpretación contemporánea de la
evolución ha sido influenciada por los pensadores sociales como Comte,
Spencer, Marx, etc. La advertencia de Gould de que la evolución no es el
lugar para que los humanos nos ubiquemos en el mundo, o que si quisiéramos
obtener un código moral, deberíamos buscar en cualquier otra parte, pero no
en la evolución, está relacionada con las críticas culturales que expusimos
arriba. Tanto Gould como las críticas culturales insisten en que no podemos
encajar ningún descubrimiento científico en un contexto amplio. Dicho de
otra forma, es una insistencia en el hecho de que es imposible situar la
evolución, la física de partículas o la cosmología dentro de algun contexto.
Al rechazar el colocar la evolución o la cosmología dentro de un
contexto, los científicos han vuelto sus disciplinas una jerga, un argot que no
tiene relevancia (por eso mucha gente rehusa interesarse en los agujeros
negros o en los descubrimientos de evidencias antropologicas en el sentido de
que alguna vez compartimos el planeta con otros Homo a los que
probablemente eliminamos, etc.). A pesar de todo, nosotros pensamos como
el físico cuántico David Bohm, quien en su libro La totalidad y el orden
implicado argumenta que no estamos en una era definida por una serie de
“callejones sin salida” científicos, una época en la que todas las ciencias están
atomizadas, sino que en vez de esto, nos encontramos en el umbral de una
revolución científica, tan importante o más que la revolución galileana que
53
nos condujo a la ciencia moderna. Y nuestra insistencia sobre un contexto
proviene del hecho de que a menos que se contextualize cada rama de las
ciencias, tal revolución será imposible. Por consiguiente, el grueso de este
capítulo estará dedicado a ver cómo la evolución, que es la descripción
historica del surgimiento de la vida y de las espécies, encaja en un mayor
esquema, en un lienzo mayor, hablando de historia cósmica.
En su libro The Fabric of Reality, David Deutsch sostiene que la
ciencia moderna se puede dividir en tres ramas principales. Cada una de estas
ramas esta representada por una teoría que explica el mundo natural. Las
primeras dos ramas son la física cuántica, que trata con el átomo y sus
componentes, y la relatividad, que se ocupa del universo, su arquitectura y su
historia. La tercera rama es la evolución. En la tentativa de explicar cómo
cada rama se relaciona con la otra, Deutsch hace una diferencia entre ciencias
de “bajo nivel” y ciencias de “alto nivel”. Para Deutsch, las ciencias de alto
nivel son las que tienen la habilidad de predecir resultados con precisión, y
las de bajo nivel son aquéllas en las que la predicción de resultados es casi
imposible. La única rama de la ciencia que tiene la capacidad de predecir
resultados con una precisión casi infalible es la física cuántica. Los físicos
cuánticos tratan principalmente con probabilidades y sus ecuaciones son las
más exactas al describir el posible comportamiento de las partículas. En el
siguiente capítulo nos ocuparemos en forma un poco más amplia de la física
cuántica. Por ahora será suficiente dejar asentado que entre las ramas de la
ciencia, la física cuántica es la más exacta, y su exactitud proviene del hecho
de que es capaz de predecir con gran precisión el comportamiento de sus
objetos.
Pero ¡ay!, de ninguna manera podemos decir lo mismo de la evolución.
Por lo tanto, Deutsch etiqueta la evolución como una ciencia de bajo nivel.
54
¿Por qué lo hace así? ¿Por qué la evolución no es precisa aun cuando
describe tan bien la historia de la vida en el planeta? La respuesta descansa en
la propia historicidad de la evolución. El descubrimiento de Darwin, en otras
palabras, es historico; está basado en la observación de las transformaciones
morfológicas que han tenido lugar a lo largo del tiempo y que solamente se
confirmaron cuando los datos geológicos se analizaron contra los cálculos de
Darwin, puesto que el proceso que él describió requiere que la Tierra sea
mucho más antigua de lo que creian los científicos del siglo XIX. La
evolución no puede entonces, por sí misma, sin los recursos de la genética o
la física, predecir un resultado, ni tampoco puede decirnos el futuro de
nuestra o cualquier otra especie en el planeta sólo puede describir resultados
posibles. Pero estas predicciones son altamente falibles. La fuente de esta
falibilidad es
lo que los científicos llaman comportamiento caótico. Un
elemento caótico es un término matemático que se refiere al número de
variables inciertas dentro de un sistema. La física cuántica es exacta debido a
que el número de variables con las que se calcula cada probabilidad es
limitado y finito. Por otra parte, la biología evolucionista es falible porque la
evolución de los sistemas orgánicos en este planeta está entretejida con
muchos otros factores. En otras palabras, la evolución podría predecir los
cambios morfológicos dentro de una especie, siempre que ésta permaneciera
por un largo periodo de tiempo en un ambiente estable y reteniendo ciertos
hábitos de reproducción. Sin embargo, como todos sabemos no existe en el
planeta ningun ambiente o nicho ecológico estable. Aun antes de que la
Revolución Industrial y la explosión demográfica hicieran estragos en
nuestros frágiles y finamente armonizados ecosistemas, las especies habían
estado a merced de factores impredecibles como los cambios de clima y las
enfermedades.
55
Para muchos, la falibilidad inherente a la biología evolucionista es
prueba de que hasta ahora no hay una posible via para unificar las tres ramas
del conocimiento científico.
Para quienes así piensan, la falibilidad de la evolución, en otras
palabras, es el motivo por el cual no se puede poner ésta (la evolución) en un
contexto más amplio. De hecho, para la mayoría de los científicos, la
tentativa de aplicar una perspectiva evolucionista a cualquier otra cosa que no
sea los sistemas orgánicos es absurda o imposible. Para ellos el mundo que el
quantum y la relatividad describen es totalmente diferente, totalmente extraño
al mundo que la evolución describe. Por lo tanto, cualquier mención de
evolución fuera del reino de los seres vivientes es solamente metafórica y
forzada.
Parte del rechazo de los científicos para ver la evolución como
descriptiva de otro mundo que no sea el que el orgánico origina, pensamos, es
en primer lugar la falta de un contexto global para el universo, y también el
vacío de perspectiva y analogias adecuadas. Muchas de las analogías que
actualmente usamos para entender la evolución y la línea de tiempo que
describe, son de naturaleza didáctica, y se deja de lado el uso de analogías y
metáforas como lo hacen los poetas y que son una fuente de descubrimiento
epistemológico. Por lo tanto, en orden de empezar a colocar la evolución en
una espécie de contexto, debemos empezar por buscar una nueva analogía.
Como bien sabe todo estudiante y cualquier visitante de un museo de
historia natural, el Homo sapiens, si bien tiene muchos años en el planeta,
empequeñece cuando se le considera cronologicamente junto a la línea del
tiempo de la evolución, y ese empequeñecimiento es más desalentador
cuando se le coloca en un esquema del tiempo cósmico. Cuando los
científicos tratan de comparar la edad del planeta con la de nuestra propia
56
historia, la mayoria de las veces, tanto en libros de texto como en museos,
usan la analogía del calendario anual. La analogía funciona como sigue: si la
historia del planeta abarca un año, el momento en que el Homo sapiens
apareció corresponde al último minuto del 31 de diciembre. Mientras que esta
analogía es de alguna manera precisa y muy útil para que visualicemos las
vastas edades que precedieron a la aparición de la raza humana, en lo que
falla, por supuesto, es en colocar la evolución dentro de un contexto más
amplio. Para lograr esto, necesitamos
de una metáfora completamente
diferente, una metáfora que sea capaz de
simular un proceso que se
desenvuelve en el tiempo, pero el cual contiene a su vez diferentes tipos de
tiempos o medidas.
Los poetas han intentado tales metáforas desde el inicio de nuestra
historia literaria. Ovidio abrió su Metamorfosis con un extenso catálogo de
las eras. El epígrafe del principio del capítulo, de alguna manera usa lo que
pensamos es una mejor analogía. Si vamos a comparar toda la historia del
universo, desde el principio hasta el presente, una mejor analogía debería
involucrar nuestras cronologías, calendarios, relojes etc. sólo marginalmente.
Y si los humanos tenemos una manera diferente de medir el tiempo que no
sea a base de calendarios y relojes, un arte como la música, que depende del
tiempo y trata con él, puede ser la mejor opción. En otras palabras, para
visualizar la historia cósmica completa, uno debe imaginar una obra musical
en una vasta escala. Al igual que el antropólogo Claude Levi-Strauss, quien
al principio de su voluminosa obra sobre el mito, razona que los dramas
musicales de Wagner parecen ser la analogía perfecta para mostrar el camino
por el cual los mitos se desarrollan, nosotros pensamos que solamente
trabajos a escala similar pueden ayudarnos a imaginar las vastas cantidades
de tiempo con las cuales los científicos trabajan. Imaginemos entonces un
57
trabajo a gran escala. Para nuestro propósito, afortunadamente no tenemos
que lidiar con los dramas wagnerianos. En vez de esto, regresemos a
Beethoven, con quien empezamos el libro y permítasenos ser más osados con
nuestra analogía y olvidar el año cósmico que los científicos usan para
ilustrar nuestro tardío arribo al universo.
Imaginemos entonces que la historia del universo, la historia total del
cosmos está contenida en una de las últimas sonatas para piano del citado
compositor. La sonata Hammerklavier puede servir de más apto ejemplo.
Como los cuartetos con los que empezamos el libro, esta sonata es uno de los
trabajos más atrevidos de Beethoven. Un trabajo a gran escala con más de mil
compases de música, la sonata explora una variedad de formas musicales,
incluyendo la sonata misma, el tema y la variación y una larga fuga que en la
producción de Beethoven, sólo rivaliza con la Gran fuga de sus últimos
cuartetos. Para quienes mil compases no signifiquen nada, entonces una
aproximación para comprender qué tan larga es la sonata, es recordar que a
los pianistas les lleva alrededor de 44 minutos ejecutar la pieza. En ese lapso
lo que tenemos es una transmutación de ideas. Esta transmutación, desde la
enérgica apertura hasta el triste adagio, ocurre no sólo a través de desarrollos
lineales o diacrónicos de la música, sino a través de sus aspectos sincrónicos:
a saber, los “experimentos” armónicos que realizó Beethoven. En otras
palabras, si vamos a usar la citada sonata como una metáfora para entender la
historia y la evolución del universo, debemos considerar no sólo el impulso
lineal que emprendió el universo rápidamente después del big bang, sino
también esas “células sincrónicas” que le añadieron algo más. Permítasenos
explicar. El eje diacrónico es aquel en el que las cosas se mueven hacia
adelante pero en diferentes tiempos o ritmos. Las cronologías y las
genealogias son diacrónicas porque son lineales. El eje sincrónico es aquél en
58
el cual no hay movimiento per se; en vez de esto, hay un instante en el que
varias cosas suceden simultáneamente. En la música, si tenemos solamente
un eje diacrónico, obtenemos ritmo y las bases de la melodía. En otras
palabras, tendremos una forma rudimentaria de música. Lo que le da
profundidad a ésta, lo que la hace una forma sofisticada de arte, es la
armonía. Nuestro argumento es que, como en la música, en la historia del
universo las cronologías sólo pueden ser entendidas y colocadas en un
contexto, si vemos el escenario completo y la ocurrencia de los eventos
sincrónicos. El big bang es, por supuesto, uno de estos eventos. Pero también
lo son la formación de la materia y de los sistemas planetarios. ¿Qué
ganamos viendo el escenario de esta forma? Una anécdota acerca de la sonata
que hemos tratado podría ser suficiente para darnos cuenta. Cuando Ries –un
alumno de Beethoven– estaba cerca de publicar la sonata en Londres,
Beethoven le envió dos notas que debían ser insertadas en un compás abierto
del adagio. La mayoría de nosotros hubiera reaccionado tal como hizo Ries.
Con más de mil compases, con cuarenta o más minutos de música ¿qué
diferencia harían realmente dos segundos o menos? Para cualquiera que
posea la grabación de la sonata, la recomendación sería que experimentaran
oyendo la grabación después de las dos notas y compararan. Pero como no
todos poseen la grabación y quizá ni les interese tenerla, debemos
persuadirlos de que esas dos notas hacen toda la diferencia. No solamente son
las celulas sonoras básicas que establecen el tono y la dirección de todo el
movimiento, sino que forman el eje emocional. Sí, esos dos segundos
resuenan en todo el movimiento. Podemos argumentar que el universo no es
muy diferente. Las grandes cronologías son inevitables. Si existe una manera
de darle sentido a estas cronologías, tenemos que mirar los eventos
relativamente diminutos de la historia cósmica, y darnos cuenta de cómo
59
estos también son el pivote de otros eventos mayores. Recordemos que la
prehistoria de la materia, como la prehistoria del adagio de Beethoven es
simple, no dos notas, sino dos elementos.
Para no trabajar sólo con metáforas y tratar de discutir la manera en la
cual la historia del cosmos, la historia del universo, puede dar un contexto a
la evolución y viceversa, es necesario adentrarnos en algunos detalles
minuciosos del universo, dar un vistazo a lo que los científicos saben acerca
de él. Hay dos maneras de hacer esto. La primera y más inevitable es tomar
una aproximación histórica, para ver cuándo y cómo empezó su historia,
cuándo y cómo se desarrolló y adónde y cómo llegará en el futuro. Por lo
tanto, a esta aproximación la llamaremos histórica. Para entender tal
universo debemos colocarnos en un linea temporal. Sin embargo, mientras
que el universo ciertamente tiene una larga historia y ésta es más que
relevante para nosotros, existe otra manera de entenderlo.
60
El cosmos, durante toda la historia humana en la que los filósofos y
los científicos lo han podido observar, ha permanecido practicamente sin
cambio. Claro que sabemos de eventos violentos que han ocurrido dentro del
universo: explosiones, desapariciones, transformaciones etc. Estos eventos
en cuanto a los humanos concierne han sido imperceptibles, o si no
imperceptibles, por lo menos no han alterado significativamente la estructura
del universo. En otras palabras, todos los cataclismos que han ocurrido a
partir del arribo del hombre, han sido lo suficientemente pequeños, como
para
mantener intacta la estructura (o
el
tejido) del
universo.
Consecuentemente, la segunda manera de enfocar el universo es mirar su
estructura. Lo que resta del capítulo lo dedicaremos a explorar someramente
tanto la estructura como la historia del universo.
Antes de embarcarnos en la estructura del universo –y estamos
usando aquí muy cautelosamente la palabra estructura– debemos hacer una
aclaración. La mayoría de los no especialistas, cuando se les dice que van a
leer sobre la estructura del universo, saben que se tratará acerca de estrellas,
galaxias, pulsares, etc. Nosotros trataremos tales estructuras pero en un
intento de ver cómo se insertan en la totalidad del cosmos. Sin embargo
nuestro propósito no es taxonómico. Este libro, aun cuando pueda ser
didáctico en algunos puntos, no pretende ser un libro de texto y tampoco
pretendemos trabajar como naturalistas, que coleccionan plantas secas y
pájaros disecados, sino que nos enfocaremos en las verosímiles
explicaciones que los científicos nos ofrecen de tales fenómenos como
estrellas, galaxias, pulsares, etc.
Existen varios problemas al tratar tanto con la historia como con la
estructura del universo. El primero y más difícil de superar es que la mayoría
de los conocimientos que tenemos del universo desafían el sentido común. Y
61
no nos estamos refiriendo a los fenómenos que se encuentran dentro del
universo, sino al universo en sí. Si las fuerzas gravitacionales en un hoyo
negro –de los cuales hablaremos después– parecen insondables e
inimaginables, entonces no sólo el tamaño del universo sino su estructura y
la manera por la cual los científicos han llegado a conocer esta estructura, es
realmente para dejarnos pasmados. Otro problema más técnico cuando se
discute la estructura del universo es que nuestro “mapa” de éste, el modelo
matemático mediante el cual lo entendemos, no puede discutirse
completamente sin contemplar el universo desde un punto de vista histórico.
Este modelo matemático fue deducido en su mayor parte por Einstein y es lo
que ahora conocemos como relatividad general. Antes de entrar en detalles
de esta teoría es suficiente señalar que el entramado mediante el cual la
relatividad general hace el mapa del universo es uno de cuatro dimensiones:
así como la Tierra es tridimensional y ningún mapa bidimensional puede
captar fielmente sus características, el universo no puede ser comprendido
sin una cuarta dimensión. Por lo tanto, antes de ver cómo está formado el
universo, necesitamos tener en mente que si aunque sea momentáneamente
hablamos de estrellas o galaxias como si fueran tridimensionales, la
estructura entera y el concepto completo de espacio sólo puede ser entendido
en un entramado de cuatro dimensiones, donde al espacio se le adjudican sus
tres dimensiones usuales y al tiempo se le considera como la cuarta: por lo
tanto la relatividad general y los científicos posteriores a ella hablan de un
espacio-tiempo.
Para aclarar esto, tomemos el ejemplo que propone Brian Greene
en The Elegant Universe: Cuando queremos encontrarnos con alguien, le
decimos en qué “espacio” esperamos verlo. Para esto tenemos que
proporcionarle tres piezas de información, por ejemplo situarnos en el 9o
62
piso de un edificio que está en la esquina de la calle 3a y la avenida 2a; esto
refleja una localización particular en las tres dimensiones espaciales del
universo. Pero es igualmente importante especificar cuándo vamos a
encontrarnos en ese espacio, por ejemplo a las 3 PM. Esta pieza de
información nos indica dónde “en el tiempo” va a tener lugar nuestro
encuentro. Los eventos por lo tanto están especificados por cuatro piezas de
información: tres espaciales y una temporal.
¿Qué es el espacio-tiempo y qué nos dice acerca de la estructura
del universo? La idea del espacio-tiempo surgió de un problema científico
completamente práctico. Por miles de años, la mayoría de los estudiosos
adoptó el mapa aristotélico del universo17, donde lo celestial, el espacio más
allá de la Luna era gobernado por leyes diferentes al espacio más acá de la
Luna. Este modelo comenzó a disolverse una vez que el modelo copernicano
del universo fue adoptado. Sin embargo, nadie hasta Newton fue capaz de
dar una respuesta que explicara y sintetizara la dicotomia. La explicación de
Newton incluye tanto las leyes terrestres como las celestes.
Existen momentos particularmente intensos en la historia del
pensamiento humano y algunas veces podemos ser testigos de ellos, aun
cuando de forma idealizada, en los recuerdos autobiograficos de sus
creadores. Stravinsky, por ejemplo, traía a la memoria que:
One day, when I was finishing the last pages of L’Oiseau de Feu in St. Petesburg, I
had a fleeting vision which came to me as a complete surprise, my mind as the
moment being full of other things. I saw in my imagination a solemn pagan rite:
sage elders, seated in a circle, watched a young girl dance herself to death. They
were sacrificing her to propitiate the god of spring.18
17
18
Aun cuando en Alejandría ya había un modelo heliocéntrico de Aristarco de Samos
Stravinsky, Igor. Chronicle of My Life. London: Victor Golancz, 1936
63
La explicación de Stravinsky, aun cuando aparentemente inocua,
rastrea, por supuesto, el germen de una de las obras maestras de la música,
La consagración de la primavera. Sentimos que esto tiene mucho
significado, no solamente porque La consagración de la primavera es una
obra maestra, sino porque fue un parteaguas en la historia de la música, una
pieza que transformó la música occidental, su lenguaje armónico y melódico,
así como su rítmica. Hemos citado a Stravinsky para tener un sentido de la
proporción. En las crónicas de sus momentos inspirados, Newton, literal y
metafóricamente alcanza la estratosfera:
In those days I was in the prime of my age for invention & minded Mathematics and
Philosophy more than any time since…I began to think of gravity extending to the
orb of the moon &…from Kepler’s rule of the periodical times of the Planets being
in sesquilateral proportion of their distances from the center of their Orbs, I
deduced that the forces which keep the planets in their Orbs must be reciprocally as
the squares of their distances from the centers about which they revolve: & thereby
compared the force requisite to keep the Moon in her Orb with the force of gravity
at the surface of the earth, and found them answer pretty neatly.19
Lo que la teoría de Newton finalmente logró en su tiempo fue
proveer una explicación del comportamiento de las cosas terrestres y
celestes. Nosotros tocaremos solo muy brevemente la física Newtoniana.
Las hazañas de Newton sólo marcaron el camino de la física
moderna: sus “fallas”, los huecos y las paradojas que su sistema dejó
abiertas y sin responder, fueron el trampolín desde el cual Einstein y otros
científicos empezaron.
19
Herbert Westfall, Never at Rest: A biography of Isaac Newton. London, Cambridge
University Press, 1980
64
Algunas de las afirmaciones de Newton son muy de sentido común
y parece excesivo repetirlos aquí. Sin embargo, puesto que veremos que
Einstein, aparentemente no es tan apegado al sentido común, vale la pena dar
otra mirada.
La primera ley de Newton involucra el movimiento de los cuerpos.
Antes de Newton, la mayoría de los científicos tenía que atenerse al
concepto aristotélico de que la dinámica de los cuerpos dependía de su
composición elemental: así el agua se regía por una ley diferente que el
fuego. En la mecánica newtoniana, los objetos se describen por una sola
variable, su masa (hay que notar que pese al hecho de que Einstein
sobrepasará la mecánica newtoniana, su teoría de la relatividad y su mas
famosa fórmula incluirán este término newtoniano).
La primera ley de Newton sostiene que “todo cuerpo mantiene su
estado de reposo, o de movimiento uniforme en línea recta, a menos que se
le imponga un cambio de estado”.20 Mientras que esta última afirmación
parece trivial y obvia, sus implicaciones son grandes, ya que lo que sea que
obligue a un objeto dado a moverse es catalogado y visto por las
matemáticas newtonianas como una fuerza. Cuando una fuerza obliga a una
masa a moverse, el cambio puede ser registrado como una aceleración. De
aquí, la segunda ley de Newton:
La fuerza es igual a la masa por la aceleración F=ma
Como quiera que sea, la aplicación de una fuerza tiene un precio.
Consecuentemente, la tercera ley de Newton establece que “a cada acción
20
Isaac Newton, Mathematical Principles of Natural Philosophy and His Systems of the
World. Berkeley, University of California Press, 1934.
65
siempre se opone una reacción igual”.21 Reiterando, estas tres leyes nos
parecen bastante apegadas al sentido común. Lo que denota el genio de
Newton es que las haya aplicado a la dinámica completa del sistema solar
conocido. De acuerdo con la primera ley, los planetas no deberían orbitar al
Sol sino moverse en una línea recta, es decir “conservar su movimiento
uniforme”. Puesto que esto no es así, debía existir una fuerza responsable de
curvar su trayectoria. Finalmente Newton demostró que la gravedad era la
que originaba tal fuerza y justificaba la ley de Kepler sobre el movimiento
planetario.
Newton proveyó un bello modelo matemático del movimiento
planetario. Sin embargo, no explicó la gravitación misma. Sus Principia no
contienen una explicación causal para la gravedad. Más aun, Newton
admitió que “la causa de la gravedad era algo que él no pretendía conocer”.22
Esta “grieta” en el universo de Newton, por decirlo de alguna manera, sería
la fuente de la física de Einstein. Aunque a primera vista no lo parece, éste
no es un problema pequeño. En realidad, el no saber la causa de la gravedad,
significó para Newton el no poder explicar cómo la gravedad se conducía,
para hacerse sentir, a través de vastos espacios sin ningun contacto. Para
subsanar este problema, los seguidores de Newton propusieron que el
espacio estaba lleno de una sustancia invisible llamada éter, que era, así, una
espécie de transmisor.
No vamos a tratar los intrincados argumentos mediante los cuales
varios científicos postularon la existencia del éter. Baste decir que Einstein,
entre otros, fue capaz de eliminar el concepto proporcionando una ecuación
21
Ibid.
A. Bernard Cohen, The Newtonian Revolution, London, Cambridge University Press,
1983.
22
66
más elegante para explicar el movimiento planetario. La línea de acción de
Einstein no es fácil. De hecho, en él tenemos, si no la más grande, una de las
mentes más brillantes, no solo del siglo XX, sino de todos los tiempos. Más
aún, el camino mediante el cual fue capaz de proveernos con un mapa del
universo, es largo y, a diferencia de la mecánica de Newton, con frecuencia
desafía el sentido común. Para comenzar, entendiendo cómo Einstein fue
capaz de deshacerse del éter como un componente necesario para explicar la
acción a distancia o incluso para explicar la manera en que la luz viaja a
través del vasto espacio, y finalmente, para entender el tipo de mapa que
Einstein nos legó, es necesario retroceder un poco, porque antes de que
resolviera el problema del origen de la gravedad en la teoría de la relatividad
general, él pudo explicar la ausencia del éter en su teoría de la relatividad
especial. Esta teoría no proviene de un problema cosmológico, si bien
explica el comportamiento de las estrellas y de la materia en general, en
cualquier parte.
Einstein llegó a la teoría de la relatividad especial tratando de resolver
dos problemas que surgían de la teoría del campo electromagnético de
Maxwell y Faraday, cuando éste se considera en un espacio newtoniano
absoluto. Un campo es un dominio o ambiente donde la acción de una fuerza
actual o potencial puede ser descrita matemáticamente en cada punto del
espacio-tiempo mediante un grupo de números, que proporcionan en ese
punto la intensidad y dirección de la fuerza apropiada. (Así, para describir el
valor del campo electromagnético en cualquier punto del espacio
tridimensional, se necesita un grupo de ocho números –uno para decribir la
intensidad de la componente eléctrica y tres para especificar su dirección,
más otro grupo similar para describir la intensidad y dirección de la
componente magnética). En otras palabras, un campo explica como actúa
67
una fuerza sobre una masa, por medio de ecuaciones diferenciales. Con las
ecuaciones, la presencia del éter es innecesaria, puesto que ningún elemento
se necesita para que la aguja de un compás –la más obvia manifestación de
un campo electromagnético– se mueva. En lugar de esto, la interacción de
fuerzas y masas están explicadas como entidades matemáticas. En otras
palabras, tal como las ecuaciones de Newton explican la inercia, las de
Maxwell explican cómo una fuerza parece actuar a distancia. De hecho,
Einstein pudo llamar a las fórmulas de Maxwell “revolucionarias”, porque
“es el cambio de la acción de fuerzas a distancia, por campos como variables
fundamentales.”23
La teoría del campo, en lugar de resolver completamente las "grietas”
en la teoría de Newton, solamente las exacerbó. En el mundo de Newton, la
posición, la velocidad y la aceleración son absolutas, por lo que Einstein
inventó un experimento mental –como en general hizo– en el que se
preguntaba qué observaría si viajara a la velocidad de la luz. Un newtoniano
contestaría que vería “un haz de luz como un campo electromagnético
espacial oscilatorio en reposo”.24 Sin embargo, Einstein sostuvo que “no
parece haber tal cosa, con base en la experiencia ni de acuerdo con las
ecuaciones de Maxwell”.25 Einstein resolvió esta paradoja por la vía de Ernst
Mach, destacado filósofo de la ciencia y matemático de su tiempo. Como
Leibniz y Huygens antes que él, que criticaron el espacio absoluto de
Newton, Mach lo pensó como “una obscuridad metafísica”. Para Mach, el
espacio no era absoluto, sino que “todas las masas y velocidades, y en
23
Paul Arthur Schilpp, Albert Einstein: Philosopher Scientist. La Salle, IL: Open Court,
1969. p. 33
24
Ibid. P.54
25
Ibid.
68
consecuencia todas las fuerzas, son relativas”.26 Mach fue una inspiración
para Einstein, pero el sistema de Mach o su criterio no encajaban
completamente en la relatividad especial. Einstein resolvió la paradoja y
concluyó que uno no puede desplazarse a la velocidad de la luz, y que la
velocidad de la luz es la misma para todos los observadores sin importar su
movimiento relativo. Las implicaciones de la relatividad especial son
trascendentales y requieren un poco más de explicación. En este punto
Einstein todavía no esta tratando con la gravedad sino con la luz. Empero,
esto es importante para nosotros porque la teoría de la relatividad general
mediante la cual hacemos el mapa del universo, contiene los conceptos en
los que Einstein se apoyó para crear una explicación de la gravitación que se
equiparara con los resultados de la teoría de la relatividad especial.
Lo que tuvo de revolucionario la relatividad especial, fue que se
deshizo de un marco inmóvil de referencia donde las medidas se hacian con
respecto a un tiempo y a un espacio absolutos, para remplazar esta norma
con la luz. La luz es el único sistema absoluto de medición. La relatividad
especial remplaza el espacio absoluto con un entramado de haces de luz.
Existen otras consecuencias que se desprenden del experimento mental
donde están involucrados unos viajeros imaginarios. Permítasenos por un
momento regresar a Newton y recordar que cuando un objeto es puesto en
movimiento, una fuerza es responsible de ello. En otras palabras, para que
un objeto sea acelerado, otro objeto tiene que perder energía. La energía que
la fuerza pierde es ganada por el objeto en movimiento. Así imaginemos
ahora, el escenario común que la relatividad especial propone, e imaginemos
una nave espacial que se acelera a una velocidad cercana a la de la luz.
Puesto que la aceleración impone un intercambio de energía; puesto que, en
26
Ernst Mach, The Science of Mechanics. 6th ed. La Salle, IL: Open Court, 1960. p. 279.
69
otras palabras, las masas del astronauta y su nave se volveran plásticas, se
podrán dilatar y encojer y se incrementarán, mientras que el tiempo
transcurre más lentamente. Aquí es donde dejamos el universo “lógico” de
Newton y nos adentramos en el “absurdo” de Einstein, si bien sabemos que
este último es más exacto. Lo que revela finalmente el experimento mental,
el último resultado del escenario de Einstein, viene dado por la conclusión
de que si la masa de un objeto absorbe energía, entonces la masa decrece
cuando el objeto radia energía. Con esta conclusión, Einstein fue capaz de
mover el electromagnetismo de Maxwell, del laboratorio al universo entero,
puesto que toda la materia, estrellas y planetas, automóviles y las páginas de
este libro, está gobernada por la misma ley. La masa y la energía son
entonces intercambiables. A partir del decubrimiento de este hecho, Einstein
consideró la equivalencia de la masa con la energía:
m=E
c2
En esta ecuación m es la masa del objeto, E es la energia contenida y c
es la velocidad de la luz que está elevada al cuadrado, es decir multiplicada
por sí misma. Otra vez, la constante contra la que se miden las cosas, sean
masa o energía, es la velocidad de la luz. En su forma más famosa la fórmula
no está expresada en función de la masa, sino de la energía
E = mc2
Cualquiera que sea la manera en la que se lea la fórmula, la
conclusión es la misma: para Einstein, la materia es energía congelada. Esta
intuición, como bien sabemos, produjo tragicas consecuencias históricas y
70
ecológicas en su aplicación práctica. Y tendrá tremendas ramificaciones
cuando abordemos, no la estructura, sino la historia del universo.
Pero antes, vamos a echar una mirada al siguiente gran
descubrimiento de Einstein. Como ya dijimos, la relatividad especial trata
con la energía, la masa y la luz. Sintetiza las ecuaciones del
electromagnetismo de Maxwell, viendolo como el sistema de permuta
mediante el cual se intercambian la masa y la energía.
Lo que no trató fue la gravitación. Otra vez, Einstein diseñó la teoría
de la relatividad general para crear una explicación de la gravitación acorde
con la teoría de la relatividad especial, y en aquella postuló el principio de
equivalencia entre la aceleración y la gravedad. Veamos un ejemplo:
Imaginemos un carrito de servicio de un avión en tierra donde la
tripulación lo prepara y supongamos que tienen que empujarlo. En estos
momentos, quienes lo empujan están sintiendo la masa inercial, pero si
tratan de levantar el carro entonces sienten la masa gravitacional. En otras
palabras, la masa inercial es una propiedad de los objetos. La masa
gravitacional se siente sólo cuando hay una fuerza gravitacional. Ahora
imaginemos un escenario angustiante. Una vez que el avión despega,
encuentra turbulencias y mientras que la tripulacion está sirviendo los
alimentos, el avión se desploma en una bolsa de aire; el carro de servicio
mantendrá su masa inercial. En realidad, si la caida es lo suficientemente
pronunciada el angustiado pasajero se sentirá sin peso y probablemente verá
el carro salir volando hacia alguien.
El experimento anterior no es muy diferente del que Einstein realizó
cuando propuso la teoría de la relatividad general. El fenómeno que condujo
a Einstein a su visión tiene que ver con el hecho de que la masa gravitacional
de un objeto y su masa inercial, son en realidad la misma. Esta visión de
71
Einstein le llegó en 1907, y aun cuando hemos leido recuerdos del creativo
invento, leamos la versión del propio Einstein:
I was sitting in a chair at the patent office at Bern, when all of a sudden a thought
occurred to me: “If a person falls freely, he will not feel his weight.” I was startled.
This simple thought made a deep impression on me. It impelled me to the theory of
gravitation. 27
Así como la persona del experimento mental de Einstein se siente
carente de peso, el carro de servicio en el avión, en el ejemplo anterior,
cuando éste se precipita, también carece de peso porque el avión está en una
caída libre.
¿Qué importancia tiene el significado de todo esto? Imaginemos una
nave espacial que se mantiene en órbita debido al campo gravitacional de la
Tierra. El astronauta deja de sentir su peso, pero no porque la nave vaya
cayendo. Si selláramos las ventanas y le pidieramos que respondiera si va
viajando hacia el espacio o cayendo hacia la Tierra, no podría hacerlo.
Ninguna experiencia sensorial puede indicarle la diferencia. Ahora,
imaginemos un experimento en sentido contrario: con las ventanas aún
cerradas la nave se desploma hacia la Tierra, ésta la atrae con una fuerza
igual a la de la gravitación terrestre, es decir G. Si en lugar de tener a la nave
cayendo, se encendiera la máquina y se acelerara a 1 G, el astronauta sería
incapaz de saber en qué dirección viaja o si va cayendo, no sentiría la
diferencia, sentiría exactamente lo mismo. Por esto, Einstein concluyó
finalmente que si los efectos de la gravitación eran similares a los de la
aceleración, entonces la gravitación era una forma de aceleración. De
72
cualquier modo, la cuestión es con respecto a qué marco de referencia se
considera la aceleración, pues como vimos con el experimento hipotético del
astronauta y su incapacidad de diferenciar entre la aceleración y la gravedad,
el campo gravitacional es relativo.
La solución a este asunto requirió un cambio de paradigma, y es este
cambio el que finalmente nos conduce a lo que hemos llamado nuestro mapa
del cosmos. La razón por la cual la respuesta de Einstein constituye uno de
los grandes cambios de paradigma en la historia, es porque abandonó la
geometría euclidiana que trata con dos y tres dimensiones y adoptó una
geometria de cuatro dimensiones. Esta geometria tetradimensional de
Einstein le adjudica al usual espacio de tres dimensiones –alto, ancho y
largo- una dimensión más, el tiempo. La formulación de Einstein fue el
verdadero requiem al espacio absoluto de Newton. Ya no hay un espacio
sino un continuum espacio-tiempo.
Dentro de este marco, Einstein fue capaz de contestar lo que Newton
nunca pudo. ¿Qué es la gravedad y de dónde proviene? La gravedad es la
aceleración de los objetos que se desplazan siguiendo las trayectorias de
campo en un espacio tridimensional que se curva en la cuarta dimensión. En
otras palabras, la teoría de Einstein se aleja de la gravedad per se y nos dice
que la materia curva el espacio, y lo que llamamos gravitación es la
aceleración de los objetos cuando se deslizan a lo largo de las curvas
descritas por sus trayectorias en el tiempo.
La cuarta dimensión es algo que aun confunde a algunos científicos y
más a los no iniciados. El resultado parece más que ligeramente extraño. A
pesar de todo, la teoría ha probado ser correcta una y otra vez. La primera
27
Abraham Pais, Subtle is the Lord…The Science and the Life of Albert
Einstein. London, Oxford University Press, 1982, p. 179
73
evidencia de lo correcto de la teoría llegó cuando Eddington observó cómo
la luz se desviaba al pasar cerca del Sol durante un eclipse solar en 1919. Lo
que esta desviación de la luz probó es que el espacio se curva alrededor de
los objetos masivos. De acuerdo con Einstein, la luz viaja en línea recta, lo
que se curva es el espacio. En otras palabras, lo que la relatividad general
prueba, es que la gravedad, que usualmente concebimos como una fuerza,
puede ser entendida como un efecto de la hiperdimencionalidad fuera de la
experiencia normal, del mundo tridimensional.
La relatividad general no solamente se desembaraza del problema de
la procedencia de las formulaciones de Newton, sino que nos provee de un
mapa actual del universo mediante sus predicciones. En su estructura, la
relatividad general, ve al universo como un espacio curvo. La cuestión de si
el universo es hiperbólico y abierto o esférico y cerrado está aún por
resolverse. De cualquier manera, en este espacio curvo, una de las cosas que
observamos es que el universo es isotrópico y homogéneo. El que sea
isotrópico significa que hacia donde veamos, lo que veremos será siempre lo
mismo. Este es un efecto similar al de caminar en medio del desierto. El que
sea homogéneo, significa que aun cuando la materia está agrupada en
nebulosas, galaxias, etc. la composición global del universo es prácticamente
la misma si tomamos una porción suficientemente grande.
La relatividad general explica lo anterior por medio de la curvatura.
Sin embargo, su más importante predicción fue una con la que el mismo
Einstein no se sentía confortable. Y esta primera y más importante
predicción, desde un punto de vista cosmológico, fue que el universo se está
expandiendo. Einstein estaba consciente de esta predicción de la teoría, y
para compensar este efecto introdujo la idea de una “constante cosmológica”
en un intento de hacerla compatible con los hechos de la observación. Nadie
74
había probado que el universo se estuviera expandiendo. Como Einstein
escribió en 1917:
Had to introduce an extension of the field equations of gravitation which is not
justified by our actual knowledge of gravitation…That term is necessary only for
the purpose of making possible a quasi-static distribution of matter, as required by
the fact of the small velocities of stars. 28
Más tarde Einstein llamó a la “constante cosmológica” el más grande
error de su carrera. Esto fue bastante extraño, como veremos más adelante,
porque los cosmólogos, que no se explican cómo el universo se aceleró en
sus inicios, han revivido el concepto al menos teoricamente. Einstein, a
pesar de su oposición a un universo en expansión, finalmente tuvo la
evidencia cuando Edwin Hubble, bastante ignorante de lo que había
descubierto, le mostró la prueba de un desplazamiento de las líneas
espectrales hacia el extremo rojo. En otras palabras, Hubble descubrió,
mediante el efecto Doppler, que las estrellas se estaban alejando del Sol.
Hay dos consecuencias debidas a la expansión del universo. La
primera es que si el universo se ha estado expandiendo, debe haber un lugar
donde la expansión se inició. Georges Lemaítre, un sacerdote y matemático
Belga, fue el único científico en señalar lo anterior. Lo que Lemaítre vió fue
que si el universo se estaba expandiendo, era posible imaginar que en el
pasado el espacio era más denso y convergía en un mismo eje. En realidad,
Lemaítre propuso que el universo había empezado en un punto infinitamente
28
Albert Einstein, The Principle of Relativity. Nueva York, Dover, 1952,
p. 188
75
pequeño, una “singularidad”, “un dia sin ayer”.29 Para decirlo brevemente,
puesto que la relatividad general sostiene que el espacio no es solamente
espacio, sino espacio-tiempo, y predice que el universo se está expandiendo,
entonces para imaginar al universo en sus principios debemos imaginar un
punto sin tiempo. Lemaítre nunca llevó esta idea a su conclusión. No
obstante, al irse desarrollando, el big bang abrió las puertas de la cosmología
a los físicos nucleares.
La relatividad general no para en deducir el origen del universo. De
hecho, una de sus predicciones involucra también su destino:
En su intento de “organizar” el universo, la relatividad general
sostiene que, puesto que la materia curva el espacio, la densidad de la
materia determinará el destino del universo. Los científicos se refieren a esta
densidad como omega. Si el valor de omega es mayor que 1, esto significa
que el universo es relativamente denso y las fuerzas gravitacionales lo
obligaran a colapsarse dentro de sí mismo. Si omega es menor que 1, el
universo continuará expandiendose. Todavía se desconoce el valor de
omega, y aun pensando que discutiremos esto más adelante, lo que es
importante aquí, es darnos cuenta de que la teoría de la relatividad no
solamente le da forma al universo, sino que predice que no es estático y
absoluto, sino un continuum en expansión.
Pocos se adentraron a las consecuencias de ver al universo de tal
manera, hasta que George Gamow, un emigrante ruso a Estados Unidos,
empezo a especular con el estado de la materia en un universo muy denso y
muy pequeño. Lemaítre ya había discutido que el universo había empezado
29
A. Berger (ed.), The “big bang” and Georges Lemaitre, Dordrecht, Reidel, 1985, p.
373
76
en una explosión de energía y materia. No obstante, Gamow se planteaba
que si el universo temprano era tan denso, la posibilidad de que existiera en
él materia como la conocemos era nula. En tales condiciones, el núcleo
atómico está demasiado caliente para fusionarse en los elementos que
conocemos.
Fue Gamow quien predijo la radiación cósmica de fondo, aunque
su contribución más importante fue su idea de que si el universo se expandió
a partir de un plasma denso y caliente, debería irse enfriando a medida que
se expandía, permitiendo la formación de la materia en el estado en el que
nos es familiar. Este modo de ver las cosas es lo que nos permite colocar la
evolución humana en un contexto cósmico, pues lo que Gamow vió fue que
el universo seguía un proceso evolutivo similar. En realidad, sabemos ahora
que en el universo temprano, el universo a los 3 minutos y 42 segundos de
su inicio, se formaron principalmente elementos ligeros, cerca de 20% de
helio y 80% de hidrógeno. Y no fue sino hasta que la materia se “congeló” y
se agrupó en estrellas y galaxias, que los elementos más pesados empezaron
a formarse. En otras palabras, la tabla periódica de los elementos es un
registro del desarrollo evolutivo.
Hay científicos que rehusan aceptar este modelo y afirman, al igual
que lo hace Stephen Jay Gould con la evolución orgánica, que el universo y
su historia no se pueden entender por medio de un esquema evolucionista.
En los siguientes capítulos veremos al universo como un continuum
y trataremos de mostrar la evidencia que existe de un proceso evolutivo.
Para hacer esto, requerimos dar una ojeada a la materia, puesto que sus
elementos serán la fuente de nuestra especulación. Y para echar un vistazo a
la materia, necesitamos entender la otra rama de la física: el quantum o física
cuántica, y lo que el quantum tiene que decir acerca del universo primitivo.
77
3
QUANTUM: PUNTOS EXTREMOS
The Needle’s Tip that we would call infinitesimal, is,
in its “scanning electron micrograph,” the corbelled and tunneled
and buttressed and corrugate Tower of Babel as Bruegel
envisioned it under construction
ALBERT GOLDBARTH
Hemos tomado el título de este capítulo del poeta epicúreo Lucrecio,
quien en el siglo I A.C., fue quizá hasta ese momento de la historia humana
–sin olvidar a Demócrito y Leucipo– el más claro proponente del átomo:
Entonces, más allá, puesto que hay puntos extremos, uno tras otro en ese cuerpo,
los cuales nuestros sentidos no pueden ya distinguir, cada punto, podemos estar
seguros, existe sin partes y está dotado con lo mínimo de la naturaleza, nunca ha
sido separado fuera de sí mismo y no lo será en el futuro.
Si más y más modernos y complejos telescopios y aparatos ópticos, de
radio o microondas están demostrando que Einstein está en lo correcto y la
relatividad general ha superado su prueba, si no su justificación, a medida
que los astrónomos son capaces de detectar pulsares u oír la radiación de
fondo que dejó el big bang, y con cada descubrimiento comprendemos más
y más la extensión del universo y su asombrosa naturaleza, a medida que
usamos los instrumentos con los cuales se explora el mundo atómico, las
maravillas crecen aún más.
78
A partir del Renacimiento, cuando una temprana ciencia se asomaba
curiosa al microscopio, se topaba con sorpresa tras sorpresa, sólo para
descubrir, a medida que el microscopio alcanzaba sus límites y tuvo que
recurrir a otras herramientas, que mientras se adentraba a escalas más y más
pequeñas, el mundo que se percibía no parecía reducirse a lo que se pensaba
que eran nuestros bloques de construcción. En este capítulo veremos algunos
de los más asombrosos descubrimientos que la ciencia efectuó en el siglo
XX y que ponen a prueba la mente. Estos descubrimientos no tratan, como
los de la relatividad de Einstein, con el lugar que habitamos, sino con el
tejido fundamental del que nosotros y todo los que nos rodea estamos
hechos: los átomos y sus partículas, objetos de estudio del quantum o física
cuántica.
Como tratamos en el capítulo anterior, al final del siglo XIX los
físicos trabajaban con certidumbres. El modelo newtoniano del universo
presentaba ciertas paradojas que eran difíciles de solucionar, pero la mayoría
de los científicos pensaban que podrían resolverse sin perturbar radicalmente
el marco Newtoniano. A pesar de lo conservadores que eran Einstein y
muchos otros científicos, sus descubrimientos de principios del siglo XX no
sólo revolucionaron la física y la ciencia en general, sino que cambiaron los
paradigmas dentro de los cuales la ciencia trabajaba. Como vimos, la
relatividad de Einstein hizo eso precisamente. La teoría general sostiene que
galaxias, estrellas y planetas se desplazan a través de un espacio-tiempo
tetradimensional el cual se curva en su cuarta dimensión.
Si bien las conclusiones de Einstein parecían de muchas maneras
pasmosas, él mismo y muchos de sus contemporáneos trataban no solamente
de solucionar las paradojas cosmológicas heredadas de la mecánica clásica,
79
sino que también trabajaron con algunas paradojas y problemas que surgían
del estudio del átomo y sus componentes.
Es un hecho que si alguna rama de la ciencia ha retado al sentido
común hasta revolucionar por añadidura nuestra concepción del mundo en
que vivimos, ésta ha sido la mecánica cuántica, que es tan enigmática en sus
afirmaciones que tanto científicos como filósofos han rechazado o se han
encogido de hombros ante sus descubrimientos. La famosa cita de Einstein
de que Dios no jugaba a los dados con el universo, fue una respuesta directa
a una de las más apreciadas premisas de la física cuántica. El filósofo de la
Universidad de Columbia, David Z. Albert ha escrito que la del quantum es
“una historia perturbadora… la más perturbadora historia que quizá ha
emergido de cualquiera de las ciencias físicas desde el siglo XVII.”30i
Igualmente, Nick Herbert en su libro Quantum Reality: Beyond the New
Physics, discute que, con el quantum, los científicos “han perdido su asidero
con la realidad”.31
En una de sus mejores popularizaciones al tema, David Lindley
explica porqué el quantum parece a la vez tan opuesto a la lógica de la física
clásica y, usando una palabra que los físicos cuánticos han adoptado, tan
extraño:
This is the heart of the fundamental issue. In classical physics, we are accostumed
to thinking of physical properties as having definite values, which we can try to
apprehend by measurement. But in quantum physics, it is only the process of
meassurement that yields any number for a physical quantity, and the nature of
quantum measurements is such that it is no longer possible to think of the
David Z. Albert, , Quantum Mechanics and Experience, Cambridge, Harvard
University Press, 1992, p.1.
31
Herbert, Nick, Quantum Reality: Beyond the New Physics, New York, Doubleday,
1985, p. 15.
30
80
underlying physical property (magnetic orientation of atoms, for example) as
having any definite or reliable reality before the measurement takes place. 32
La dificultad y lo extraño de la física cuántica o quantum deriva del
hecho de que la realidad que describe –a diferencia de la distancia de un
planeta a otro o del tiempo que tarda la luz en llegar del Sol a la Tierra– no
puede ser medida a causa de que una vez que se efectúa la medición, la
realidad ha cambiado. Como la mayoría de la física cuántica, la anterior
afirmación suena paradójica. Sin embargo, más paradójico es el hecho de que
si uno ve las diferentes ramas de la ciencia e intenta señalar la disciplina que
es capaz de predecir resultados de la manera más precisa, encuentra que la
física cuántica es la más exacta de las ciencias. El problema, claro, es que
cualquiera que sea la precisión que el quantum nos de, es solamente para
desafiar nuestro sentido común.
En este capítulo intentaremos entender la mecánica cuántica: qué es lo
que estudia, cuáles son sus conclusiones y cómo estas conclusiones se ligan
con el macrocosmos que tratamos en el capítulo previo. El quantum estudia
el comportamiento del átomo y sus componentes, y lo hace prediciendo las
probabilidades de los posibles resultados. En otras palabras, una disciplina
análoga a la física cuántica en el macromundo puede ser la balística.
La balística, por ejemplo, toma un proyectil, una plataforma de
lanzamiento, la fricción, la gravedad, etc., como sus variables, y por medio
de fórmulas calcula la manera en la cual el misil viajará y dónde tocará hará
impacto. Otro modo de decir esto es que la balística toma ciertas variables y
las convierte en posibles resultados. Igualmente, la física cuántica toma el
David Lindley, Where Does the Weirdness Go: Why Quantum Mechanics is Strange,
but not as Strange as You Think,. New York, Basic Books, 1996, p. 14
32
81
átomo y calcula la probabilidad de su carga o su “color”. La diferencia,
claro, es que la balística funciona en un universo clásico. Los expertos en
balística tienen que considerar dos cosas primordiales: la materia, o sea la
substancia de que estan hechos el proyectil y el aparato de lanzamiento y los
campos, en este caso el campo gravitacional de la Tierra. El proyectil está
hecho de metal (materia), sigue una trayectoria debida a la inercia y, si no es
detenido, eventualmente caerá debido a que el campo gravitacional de la
Tierra lo atrae. La física cuántica no es tan simple.
Cuando la gente habla del quantum, están a menudo hablando de
varias interpretaciones que los científicos tratan de enmarcar para poder
describir o explicar lo que el quantum está diciendo. Por ejemplo, Niels
Bohr, pionero de la física cuántica y conocido por la interpretación de
Copenhague33, pudo argumentar que lo que el quantum nos dice es que no
existe una realidad profunda. Al igual que el Obispo Berkeley tres siglos
antes que él, Bohr sostuvo que el mundo que vemos alrededor de nosotros
puede ser lo suficientemente real, pero sus componentes, de lo que está
construido, no es real. De esto se sigue entonces que la segunda premisa de
la interpretación de Copenhague gira alrededor de la idea de que, si no existe
una realidad profunda, los científicos observan una realidad fenomenológica.
Esta realidad fenomenológica sostiene que en ausencia de un observador, el
fenómeno no existe. Dicho de otro modo, los científicos crean la realidad
33
La interpretación de Copenhague, llamada así porque fue en esta ciudad donde Bohr
trabajo, une diferentes ideas para hacer de la física cuántica un paquete manejable, sin
ninguna teoría que la soporte de una manera coherente. Así por ejemplo, no tiene sentido
preguntarse cómo se comportan el átomo y otras entidades cuánticas mientras no se les
observa. Como Bohr explicó: todo lo que podemos hacer es calcular la probabilidad
(nunca una certeza) de que un experimento particular llegue a un resultado particular. Es
la interpretación de la física cuántica que se da en la mayoría de los libros de texto y de
los cursos universitarios.
82
cuando determinan el espín34 o el momentum (producto de la masa por la
velocidad) del electrón.
Para el no especialista, lo que pretende la interpretación de
Copenhague suena escandaloso. Pero Bohr, que estructuró su premisa
principal, sostuvo que era pragmática. Para él, el trabajo de los científicos
implicaba el estudio de los fenómenos naturales sin explorar las
implicaciones éticas, filosóficas o existenciales de sus descubrimientos.
Muchos científicos han rechazado esta posición, entre los cuales quizá el
principal sea Einstein, quien sostuvo una posición casi mística ante la
ciencia. De hecho, Einstein dedicó los últimos años de su vida a un intento
de reconciliar la física clásica de su relatividad general con los herméticos
descubrimientos del quantum. Más tarde otros científicos han brindado
diferentes interpretaciones. Estas interpretaciones posteriores, desarrolladas
varios años después de la teoría cuántica, la han establecido como la más
exacta rama del conocimiento científico. Nosotros examinaremos de cerca
estas
interpretaciones,
puesto
que
algunas
incluyen
afirmaciones
interesantes, otras son solamente indignantes y otras parecen ofrecer rutas
viables para futuras investigaciones. En realidad, estas últimas nos parece
que abren nuevos panoramas. Sin embargo, antes de adentrarnos en estas
interpretaciones, nos gustaría dar un bosquejo de las principales premisas del
quantum, porque sin esto es imposible entender ninguna ciencia, menos aun
una que trata con el átomo y sus partículas y que ha inspirado tan variadas y
extrañas reacciones.
La mayoría de los libros de texto y de divulgación sobre el quantum
empiezan por una discusión sobre la luz. La razón de esto es completamente
34
El espín o spin es una propiedad de las entidades cuánticas relacionada con el concepto
de giro en la física clásica
83
simple. La física cuántica se inventó para tratar las interacciones de la luz
con los átomos. Soló después, una vez que el quantum solucionó su
problema, fue que los científicos trataron de verificar si sus descubrimientos
eran también aplicables a las entidades de mayor orden, puesto que el
quantum había revelado la estructura del núcleo atómico y de otras
partículas subnucleares, así como la naturaleza de los sólidos, líquidos y
gases. Mientras un número creciente de físicos intentaron aplicar la teoría
cuántica a cada partícula, descubieron que la teoría no solamente explica el
comportamiento de la luz, sino que aclara muchos misterios del átomo y la
materia, por lo que finalmente, cuando hablamos acerca de génesis cósmica,
acerca del momento en que el universo se inició, la cosmología se tiene que
acercar al quantum.
¿Qué es exactamente lo que el quantum tiene que decir acerca de la
luz?
Para entender los adelantos del quantum, debemos, aunque sea
brevemente, ver los diferentes problemas que los científicos se han puesto a
resolver. Uno de los más conservadores científicos a comienzos del siglo
XX pudo haber iniciado la reacción en cadena del quantum cuando trataba
de resolver más bien un enigmático problema que había venido a conocerse
como la radiación del cuerpo negro, que es, por definición, una superficie
que absorbe toda la radiación electromagnética que le llega. Los físicos en el
siglo XIX sabían que los objetos poseen un color intrínseco. Durante la
primavera las hojas son verde; la mayoría de la madera cae en el rango del
café. Estos objetos están formados por muy pequeñas piezas de materia.
Siempre que estas piezas se mueven, vibran y producen ondas de los
correspondientes campos electromagnéticos, que nuestro cerebro, a través
de los ojos
y nervios ópticos, interpreta como color. Cuanto más
rápidamente se muevan las partículas, mayor será la frecuencia de la luz que
84
se excita. Por supuesto que la vibración de la partícula puede ser alterada
aplicando una energía extra. Nosotros somos testigos de este fenómeno
cuando encendemos un foco.
De acuerdo con los físicos, los cuerpos negros no tienen un color
intrínseco; sin embargo, paradójicamente emiten radiación. Si calentamos lo
suficiente una pieza de metal, brillará con un color rojo.
En 1900, Max Planck abordó el problema de la radiación del cuerpo
negro de una nueva manera. Estudiando la radiación de osciladores
armónicos en equilibrio térmico y utilizando técnicas mecánico-estadísticas,
dividió la energía total del sistema en cantidades discretas. Haciendo esto, se
dio cuenta de que obtenía una ley de distribución apropiada de la radiación,
a condición de que los osciladores pudieran absorber o emitir energía sólo en
cantidades discretas e(épsilon) que en la actualidad se conocen como quanta.
La energía de estos quanta están relacionadas a la frecuencia v de la emisión
o absorción de la radiación como:
ε = hv
donde h es una constante de proporcionalidad conocida ahora como
constante de Planck.
El uso de la constante parecía arbitrario, y si bien resolvió el problema
de la radiación del cuerpo negro, a la mayoría de los científicos les pareció
un truco, porque para Planck la energía de la partícula tenia que ser un
múltiplo de la frecuencia por la constante. Lo que la fórmula finalmente
muestra es que la energía viene en paquetes cuya denominación es hv. Estos
paquetes, estos quanta vinieron a iniciar una revolución, puesto que forzaron
a los científicos a repensar todas sus premisas acerca de la naturaleza de la
materia.
85
Para comenzar, puesto que la teoría cuántica se desarrolló para
resolver el problema de la interacción de la luz con las partículas, la
concepción científica de la luz cambió completamente. Una vez asimilado
este cambio, los científicos pudieron aplicar las nuevas ideas a sus
investigaciones, a solucionar más y más problemas, hasta que eventualmente
se dieron cuenta de que toda la materia, la naturaleza de sólidos, líquidos y
gases, la estructura del núcleo, etc., se comportaba de acuerdo a los
principios cuánticos. Estos principios, aunque extraños, son actualmente
bastante simples. Durante todo el siglo XIX, los científicos creyeron que la
luz era una onda de energía electromagnética. Pensaban que un haz de luz
“iluminaba” una superficie y por ello se veía. Puesto que las ondas eran la
manifestación de una fuerza, deducían que, como todas las ondas, las ondas
de luz podían ejercer su fuerza, y haciendo esto, alteraban la superficie
donde brillaban. En otras palabras, tal como las ondas de sonido empujan las
moléculas de aire, las ondas de luz golpean los electrones de la superficie
donde brillan. De acuerdo con la física clásica, la intensidad de la onda
determina la perturbación de la superficie que afecta. Sin embargo, los
científicos cuánticos descubrieron que esto no era verdad para la luz. Una
luz de mayor intensidad no golpea los electrones con mayor energía. Este
último descubrimiento es uno de los muchos de la física cuántica que
confunden. Para entender qué tan contradictorio es al sentido común, lo
único que necesitamos es visualizar unas ondas de agua diferentes.
Imaginemos que tiramos una pequeña piedra en un estanque: la onda que se
produce se desplaza con rizos que se alejan del centro y perturban todo lo
que encuentran en su camino. Las hojas que flotan en la superficie podrían
equipararse a los electrones y ser “golpeados” por la onda. Si en lugar de
tirar una piedra pequeña nos las arreglamos para arrojar una gran roca, la
86
energía con la cual las hojas se mueven será mayor, tal como la fuerza con
que la ola al subir la marea golpea la costa es mayor que cuando sólo llegan
pequeñas olas. Lo que el quantum nos refiere como el efecto fotoeléctrico es
una historia menos apegada al sentido común. Si la persona que conduce un
experimento incrementa la intensidad de la luz, más fotones golpearan la
superficie, pero ellos llegaran con la misma energía. De hecho, lo que el
efecto fotoeléctrico confirma es que en orden de transferir una mayor
energía a los electrones, uno debe incrementar no la intensidad sino la
frecuencia. La energía de la luz no está en relación con su intensidad, sino
con su color. La luz azul, que es de alta frecuencia, golpea los electrones con
más fuerza que la luz roja, que es de baja frecuencia. Los resultados de los
experimentos nos dicen entonces que las ondas cortas y rápidas son más
poderosas que las largas.
Quien explicó el extraño comportamiento de la luz fue Einstein.
Tomando en cuenta la constante de Planck, razonó que la luz afecta la
superficie sobre la cual brilla, no como una onda, sino como una lluvia de
partículas. Estas conclusiones, por supuesto, contradijeron una de las más
apreciadas certidumbres de los científicos: el que la luz era una onda. Desde
los tiempos de Maxwell, la luz era entendida como la manifestación de un
campo magnético; más aún, el comportamiento de la luz en nuestra diaria
experiencia parece contradecir el hecho de que la luz sea una partícula. Un
haz de luz puede propagarse sobre un área, puede dividirse, redirigirse,
difractarse y finalmente puede cruzar su curso con el de otro haz. Todas
estas cualidades nos sugieren que la luz es una onda. Las ondas se esparcen,
se dividen, se redirijen y cruzan caminos con otros haces. Las partículas, por
otro lado, están confinadas a regiones pequeñas; su viaje está limitado a una
sola dirección y no pueden interferir unas con otras sin chocar. En pocas
87
palabras, las partículas y las ondas parecen irreconciliablemente diferentes.
No obstante, tanto la solución de Einstein al efecto fotoeléctrico como la
evidencia experimental nos lo dicen de otra manera. Nos dicen que la luz
pude ser ambos, ondas y partículas, que la luz interactúa con una superficie
mediante una lluvia de partículas que están divididas en “monedas de
energía”. La denominación de estas unidades ha venido a conocerse como
fotones.
Si la solución de Planck y Einstein parece contradictoria, cuando
algunos de estos descubrimientos empezaron a introducirse en la comunidad
científica y los científicos intentaron aplicarlos a otros aspectos de la
materia, los resultados fueron aún más extraños. Planck, Einstein y Compton
pudieron mostrar que las ondas son también partículas. En Francia, Louis de
Broglie razonó que tal como Einstein había demostrado que las ondas de luz
tienen cualidades de partículas, las partículas de materia también tienen
propiedades de onda. De hecho, en su tesis de doctorado sólo utilizó
formulaciones de Einstein y Planck. Para él, cada partícula de materia podía
ser asociada con una onda cuyas frecuencias espacial y temporal podían ser
entendidas como energía y momentum o, dicho de otra manera, existe una
dualidad formal entre las ondas y toda materia, de acuerdo con la cual la
longitud de onda se puede asociar a cualquier
momentum. En pocas
palabras, el argumento de De Broglie complementa los descubrimientos de
Einstein y Planck. Sin embargo, esto puede ser más difícil de digerir puesto
que implica que la materia puede volverse un campo. En otras palabras,
rompe con la distinción materia/campo y nos dice que todo está hecho de lo
que los científicos han venido a llamar “material cuántico”.
Mientras que estos descubrimientos constituyen la espina dorsal del
mundo con el cual la física cuántica trata, no son por sí mismos la teoría
88
cuántica. Hasta 1925, los científicos pudieron haber descubierto nuevas y
sorprendentes cosas acerca del átomo, y no obstante, para interpretarlas,
tenían que utilizar los esquemas provistos por la física clásica y entonces
jugar con sus fórmulas a manera de adaptarlas a los experimentos. De
acuerdo con Max Jammer, la situación era una “lamentable mezcolanza de
hipótesis, principios, teoremas y recetas computacionales”.35 La teoría
cuántica, empero, es todo menos una mezcolanza. Sistematizada y exacta, la
teoría
es
un
método
para
representar
el
“material
cuántico”
matemáticamente. La mecánica cuántica es, entonces, una representación del
mundo por medio de símbolos, en la que un valor matemático es dado al
material cuántico, una ley científica describe cómo esta cantidad se
transforma y, finalmente, una especie de norma determina cómo las
matemáticas pueden ser trasladadas a los fenómenos del mundo.
La primera de estas teorías en ser formulada de manera completa fue
la de Werner Heisenberg. Conocida como mecánica “matricial”, Heisenberg
desarrolló su sistema en 1925 mientras se recuperaba de una enfermedad en
la isla de Heligoland. En sus memorias recordaba lo siguiente:
At 3 a.m. one night he could no longer doubt the mathematical consistency and
coherence of the kind of quantum mechanics to which my calculations pointed. At
first I was deeply alarmed. I had the feeling that, through the surface of atomic
phenomena, I was looking at a strangely beautiful interior, and felt almost giddy at
the thought that I now had to probe this wealth of mathematical structures nature
had so generously spread out before me. 36
35
Max Jammer, The Conceptual Development of Quantum Physics, New York, Mc
Graw-Hill, 1996.
36
Werner Heisenberg, Physics and Beyond, New York, Harper and Row, 1971
89
La suposición inicial de Heisenberg parece ahora muy
simple; sin embargo, no lo fue cuando él desarrolló sus matrices. Ello
implicó algo que había oído cuando estaba trabajando en Gottingen,
Alemania, con Max Born: que una teoría física debería tener que ver
con cosas que pudieran ser observadas por experimentos. Mientras
que al principio la idea parece obvia, no lo era tanto entonces, y de
hecho el llevarla a cabo implicaba desprenderse de paradigmas de la
física clásica que los científicos seguían aplicando al mundo atómico.
Nadie había visto un electrón siguiendo una órbita elíptica alrededor
del núcleo. El modelo era adoptado de la física clásica. Lo que los
experimentos reportaban eran los estados de onda y partícula del
electrón, su espin y su momentum. Lo que los resultados confirmaban
era que había transformaciones entre los estados.
Para tratar con estas transformaciones y con las relaciones entre dos
estados, Heisenberg tuvo que recurrir a las matrices. Los científicos que
intentan popularizar la mecánica cuántica han sugerido que las matrices de
Heinsenberg se parecen a las tablas de kilometraje de los mapas. Una
analogía aún más fácil puede hacerse con el juego de ajedrez: los cuadros del
tablero pueden ser representados por unas únicas coordenadas (A1, A2, B1,
etc.) y el “estado” del juego en un momento dado, puede ser representado
por la notación de estas coordenadas. En las matrices de Heisenberg, el
“estado” de una partícula o un electrón, las “transiciones cuánticas”, pueden
ser descritas mediante una notación similar que liga los estados inicial y
final.
Aunque actualmente la mecánica matricial de Heisenberg se maneja
no solamente para reemplazar las ecuaciones de la mecánica clásica, sino
también para redefinir muchos de sus principios, como el de la conservación
90
de la energía, no llegó a tener gran éxito en la comunidad científica. Esta
falta de éxito se debió, en parte, a lo poco familiar que eran las matemáticas
en las que se fundaba. Pero más importante fue el que no proveía una
imagen física del fenómeno que representaba. No había órbitas, no había
ondas ni partículas. Por lo tanto, cuando un año después de que las matrices
de Heisenberg fueron publicadas, Erwin Schrödinger propuso una teoría
cuántica, la mecánica ondulatoria, que utilizaba la imagen de las familiares
ondas, la comunidad científica adoptó este modelo que llegó a ser el
estándar.
Desarrollada en 1926, la mecánica ondulatoria, como la mecánica
matricial, resolvió los problemas de las interacciones cuánticas; sin embargo,
la primera no se basaba en una rama impopular de las matemáticas, sino en
unas matemáticas que eran ya usadas ampliamente por los físicos. En pocas
palabras, Schrödinger usó una ecuación de onda, una ecuación similar a la
que describía las ondas comunes, como las ondas sonoras. Así, mientras que
el modelo de Heisenberg suponía que el electrón era una partícula, el de
Schrödinger lo establecía como una onda. Ambas teorías llegaron al mismo
resultado y eventualmente fue el propio Schrödinger, junto con Carl Eckhart
y Paul Dirac, quien pudo demostrar que los dos modelos eran
matemáticamente equivalentes. Este último descubrimiento provocó el
disgusto de Schrödinger, puesto que él originalmente formuló la mecánica
ondulatoria para restablecer la sensatez de la física cuántica, intentando
eludir lo extraño, como los saltos cuánticos, lo discontinuo y aleatorio de las
transiciones entre estados cuánticos.
De hecho, ninguna de las teorías anteriores, ni las teorías por venir
podrán eliminar lo extraño. Si el quantum es enigmático, es porque viola al
menos dos de nuestros principales paradigmas intelectuales: la causalidad y
91
la identidad. En un salto cuántico, el electrón en cierto nivel de energía –el
estado permitido de una cierta cantidad de energía acumulada– puede pasar
instantáneamente a otro nivel energético, emitiendo o absorbiendo energía al
hacerlo. No existe un estado intermedio y el salto ocurre sin tomar tiempo.
En consecuencia un salto cuántico viola nuestro apreciado sentido de
causalidad, lógica y continuidad. El “y” y el “uno u otro” que George Boole
codificó en los símbolos que pudieron anclar su “lógica algebraica”, pierden
su habitual significado. De manera similar, en el mundo cuántico, las
identidades, nuestra capacidad de identificar ciertas características y
añadirlas a los componentes de los átomos, como si el átomo fuera, como los
seres vivientes, sujeto a la taxonomía, no funciona. El casi arquetípico
experimento al que recurren los físicos para explicar los enigmas de la
mecánica cuántica es el experimento de la doble rendija. Richard Feynman
argumentó que el experimento contenía el “misterio central” del quantum
porque presentaba “un fenómeno que es imposible, absolutamente imposible
explicar de una manera clásica, y que tiene el corazón de la mecánica
cuántica.” Feynman añadió: “en realidad contiene el único misterio…las
peculiaridades básicas de la mecánica cuántica.”37
Desarrollado originalmente a principios del siglo XIX por el físico
inglés Thomas Young para confirmar la teoría ondulatoria de la luz
propuesta por Christopher Huygens, que se oponía a la teoría corpuscular de
Newton, el experimento es sorprendentemente simple: si un haz de luz se
proyecta en una pantalla que tiene una estrecha ranura en ella, la luz pasa a
través de esta ranura y se proyecta hacia otra pantalla que a su vez tiene dos
rendijas. La luz sale a través de ambas rendijas y se proyecta a una pantalla
donde forma un patrón de franjas de sombra y luz. Este patrón no es muy
37
Richard.Feynman, Lectures in Physics Vol. III, Boston, Addison Wesley, 1965
92
diferente al de los códigos de barras que aparecen en la mayoría de los
productos que compramos hoy día, excepto que las barras son menos
definidas y más regulares, y esta regularidad es debida a la interferencia de
dos ondas que se traslapan. Este comportamiento, entonces, es semejante a
lo que sucede con las ondas sonoras en un equipo estereofónico de música:
si colocamos las bocinas en cierta forma de manera que las ondas sonoras
choquen, uno u otro sonido puede ser eliminado. En una gran pieza
sinfónica, por ejemplo, en un momento dado, ciertas frecuencias –como las
de la flauta o el clarinete, por ejemplo– pueden no ser oídas. Igualmente, en
el experimento de las dos rendijas, las barras que se forman en la pantalla
final, vinculan las zonas brillantes con la coincidencia de las crestas de las
ondas, y las zonas obscuras con las zonas donde las crestas de uno de los
conjuntos de ondas pueden coincidir con las hondonadas del otro conjunto,
en cuyo caso los dos conjuntos de ondas se cancelan mutuamente.
Los resultados del experimento de Young, no pueden duplicarse
cuando se usan partículas. Imaginemos que en lugar de los haces de luz
usáramos municiones para hacerlos pasar a través de los agujeros. Las
municiones pasarán por el primer agujero y después, de acuerdo con la
gravedad y las fuerzas inerciales, pasarán a través de cada uno de los otros
dos agujeros. Sin embargo, al final no tendremos un patrón similar al de
barras de luz y sombras, sino que tendremos dos pilas de perdigones, una
detrás de cada agujero. El aspecto curioso, o mejor el aspecto
verdaderamente sorprendente, emerge cuando los científicos usan un haz de
electrones. Recordemos de nuestra discusión previa sobre el efecto
fotoeléctrico que, gracias a Einstein, llegamos a pensar en los electrones
como partículas. Si los electrones se lanzan a través de ambas rendijas y
llegan a una pantalla de fósforo, a una pantalla como de computadora o de
93
TV, que registre los impulsos eléctricos de cada electrón, lo que obtenemos
es exactamente es un patrón semejante al de las ondas de luz. Aun si los
electrones fueran lanzados uno por uno, eventualmente la pantalla exhibiría
el mismo patrón: cada electrón arribaría a un punto en particular de la
pantalla y dejaría un punto de luz y después de –por decir un número–
700,000 electrones que fueran lanzados uno a uno, el patrón sería
increíblemente similar al del experimento inicial.
Finalmente, el experimento de Young demuestra no solamente que la
luz es una onda, sino algo más asombroso: las entidades cuánticas viajan
como ondas pero arriban como partículas. De ahí la eficiencia tanto de la
mecánica ondulatoria como de la matricial, pese al hecho de que esta última
considera partículas, y la primera onda. Además, las implicaciones de este
experimento van más allá de la sola dualidad onda partícula. A lo que apunta
es a aquello que Feynman llamó el “único misterio”. Abundemos un poco,
pues este es un experimento crucial, y otra vez, citando los argumentos de
Feynman: “Cualquier otra situación que surge en la mecánica cuántica,
puede siempre explicarse diciendo: ¿recuerda el caso del experimento de las
dos rendijas? Es la misma cosa”.38 Así es que aquí volvemos: las partículas
individuales que se lanzan a través de las dos rendijas marcan un solo punto
en la pantalla. El sentido común nos dice que cada partícula pasa a través de
una u otra de las rendijas. Sin embargo, a medida que más y más puntos se
marcan en la pantalla, el patrón que emerge es el clásico de interferencia de
una onda que pasa a través de dos rendijas. Los electrones no solamente son
capaces de pasar a través de ambas rendijas al mismo tiempo sino que (y
volveremos a esto en un capítulo posterior) tienen que llegar a un
determinado punto en la pantalla para contribuir a la formación del patrón.
94
Las implicaciones del experimento han sido exploradas e interpretadas
de diferentes maneras. Cada una de estas interpretaciones ha provocado una
plétora de preguntas filosóficas sobre lo que nuestro mundo es y por lo tanto,
con lo que con los físicos cuánticos están tratando es con el tejido, con la
estructura fundamental del mundo. Ya hemos tocado brevemente la
interpretación de Copenhague, que sostiene que no hay una realidad
profunda. Sin embargo, la interpretación de Copenhague no es la única
interpretación. Enfrentados con la dualidad onda-partícula del electrón y
también con el hecho de que el electrón parece estar “consciente” del
observador y afectarse por el acto de la observación, de manera que puede
afectar su comportamiento en conformidad, otros físicos como Hugh Everett
y Bryce de Witt,39 y más recientemente David Deutsch en The Fabric of
Reality, han argumentado que siempre que el mundo se enfrenta a una
elección a nivel cuántico –en otras palabras, cada vez que un electrón marca
un punto y no otro en la pantalla, o escoge una rendija en lugar de la otra
entonces el universo se divide en dos o en tantas partes como opciones
pueda seguir. En otras palabras, la interpretación de los muchos mundos
sostiene, como De Witt lo escribe, que 10100 copias un poco imperfectas de
uno mismo se están dividiendo constantemente en copias adicionales.
La interpretación de los muchos mundos, como tantas otras
interpretaciones, puede ser probada matemáticamente. De hecho, esta
interpretación, en su forma completa de desarrollo matemático, es acorde
con la interpretación de Copenhague. Sin embargo, aun cuando ha probado
Richard Feynman, The Character of Physical Law, London, Penguin, 1992
Para el trabajo de Everett véase Reviews of Modern Physics, vol. 29, p. 454. Para el
trabajo de DeWitt véase Physics Today (septiembre de 1970, p. 30). Para un tratamiento
completo de la interpretación de los multiples mundos, una forma de empezar puede ser
el libro de Paul Davies, Other Worlds.
38
39
95
ser útil para los cosmólogos que han empezado a especular sobre
multiuniversos o multiversos (en su forma más usual), sus defectos son de la
clase de defectos a los que, desafortunadamente, demasiados científicos son
proclives: a permitir que a una teoría que, como hemos visto brevemente,
puede ser matemáticamente precisa pero de ninguna manera completa, se le
exijan demasiadas pretensiones. En otras palabras, la interpretación
sobreextrapola los resultados a tal extremo, que aún la prosa de su
explicación tiene ese halo inmaduro que uno encuentra en las
investigaciones entusiastas pero filosóficamente indisciplinadas. David
Deutsch es el principal ejemplo de esto. Después de discutir que “la teoría
cuántica de los universos paralelos no es el problema, [sino] la solución… la
explicación –la única que es defendible– de una realidad notable y
contraintuitiva”, Deutsch se entusiasma al decir:
Not only do the copies of an abject have any privileged position in the explanation
of shadows [by shadows Deutche means the particles in other universes] that I
have just outlined, neither do they have a privileged position in the full
mathematical explanation provided by quantum theory. I may feel subjectively that
I am distinguished among the copies of the tangible one, because I can directly
perceive myself and not the others, but I must come to terms with the fact that all
the others feel the same about themselves.
Many of those Davids are at this moment writing these very words. Some are
putting it better. Others have gone for a cup of tea.40
La especulación de Deutche es, por supuesto, un buen ejemplo de una
falacia central en la cual los científicos a menudo incurren. La falacia es en
el fondo semántica e involucra la aplicación indiscriminada de terminología
40
David Deutch, The Fabric of Reality, London, Penguin, 1967.
96
científica que tiene un significado específico en el laboratorio, distinta al que
tiene fuera de aquél.
En el corazón del asunto también hay que considerar el hecho de que
el quantum, con todo y su precisión en la descripción del micromundo y del
comportamiento del átomo y sus partículas, de ninguna manera es una
ciencia que esté completa. El quantum puede resumir en tablas las fuerzas
nucleares débil y fuerte, así como la fuerza electromagnética; sin embargo,
hasta ahora nadie ha podido arreglárselas para integrar la gravedad en el
esquema cuántico. Las razones de esta falla son diversas. Una de ellas puede
concluirse si recordamos, del capítulo previo, que la masa inercial y la masa
gravitacional son indistinguibles en la relatividad general de Einstein. La
segunda razón tiene que ver con las escalas a las cuales el quantum trabaja.
La gravedad es una fuerza demasiado débil, lo cual significa que sus efectos
no pueden detectarse en el reino de las dimensiones de Planck.41
Algunas interpretaciones del quantum toman en cuenta lo incompleto
de las teorías. Admitir lo incompleto del quantum no implica la falla de éste.
De hecho, nosotros como muchos científicos –entre ellos el matemático
Roger Penrose y los físicos Danah Zohar y John Gribbin– creemos que
finalmente el quantum desenmarañará no solamente los misterios del mundo
físico, sino los más profundos y complejos misterios, como los de la
memoria molecular que se ve en la formación del ADN, así como los de
nuestra memoria y nuestra conciencia. En la segunda parte de este libro se
La longitud y el tiempo de Planck son, de muchas maneras, las varas de medir de la
mecánica cuántica. La longitud de Planck se refiere a la escala a la cual las ideas clásicas
acerca de la gravedad y del espacio-tiempo dejan de ser válidas. Actualmente la longitud
de Planck tiene un valor aproximado de 10¬33 cm. El tiempo de Planck es el tiempo que le
tomaría a la luz el recorrer la longitud de Planck. Esta es la medida más pequeña de
tiempo que tiene algún significado y su valor es de 10¬43 seg. Ninguna medida menor de
tiempo tiene significado.
41
97
hará énfasis en estos temas.42 Sin embargo, mientras en el futuro estos
misterios pueden ser resueltos mediante los principios de la mecánica
cuántica, esto sólo sucederá cuando los pretextos, por decirlo de alguna
manera, sean borrados.
Una de las interpretaciones del quantum que reconoce estos pretextos
y enseña las posibilidades de una futura teoría cuántica fue propuesta por
David Bohm. Desafortunadamente, las ideas de Bohm, así como su
reputación estuvieron sujetas a los caprichos de las políticas académicas.
Nacido en Pennsylvania en 1917, Bohm se graduó en el Pennsylvania State
College y como muchos físicos del siglo XX, afinó su técnica primero con
Oppenheimer en Berkley y después en Los Alamos. Bohm no solamente
tenía una filosofía sospechosa, sino también una consciencia y cuando fue
requerido para que delatara a sus colegas al HCUA (House Committee on
Un-American Activities) de McCarthy, se rehusó, por lo que fue despedido
de su cargo en la Universidad de Princeton. Sus tendencias marxistas lo
hicieron sospechoso a la comunidad. Mientras escribía lo que es uno de los
más claros y accesibles libros de texto sobre la mecánica cuántica, Bohm se
convenció de las imperfecciones del quantum y desarrolló una nueva
interpretación, diversamente conocida como onda piloto, el todo indivisible
o la interpretación de las variables ocultas.
Para el quantum como una herramienta para entender la inteligencia y la conciencia ver
La nueva mente del emperador de Roger Penrose. Danah Zohar amplificó, para decir lo
menos, el argumento de Penrose y usó el quantum para razonar las raíces del ser así como
la conexión del ser con el universo en su libro The Quantum Self. Finalmente, para la
relación entre el quantum, el DNA y la memoria molecular, véase In Search of the
Double Helix de John Gribbin. Futuros capítulos estarán verdaderamente en deuda con el
trabajo de estos científicos.
42
98
El estímulo de esta interpretación fue una teoría que llegó a ser más
que una mera estadística, una teoría que podría tener alguna relevancia en el
mundo:
Se supone que todo lo que importa en una teoría física es el desarrollo de las
ecuaciones matemáticas que nos permitan predecir y dirigir el comportamiento de
grandes conjuntos estadísticos de partículas… Ciertamente esta clase de
suposición está de acuerdo con el espíritu general de nuestra época, pero la
principal propuesta de este libro es que no podemos prescindir alegremente de
tener un concepto global del mundo…En efecto, uno se da cuenta de que los
físicos no pueden sumergirse precisamente ahora en cálculos de predicción y
control: necesitan utilizar imágenes que se basen en cierto tipo de nociones
generales acerca de la naturaleza del mundo físico…43
La interpretación con la cual Bohm intenta hacer que el quantum
adopte una visión general ha sido etiquetada como determinista. Pese a todo,
como veremos, la extrañeza misma del quantum ha rescatado la
interpretación de su etiqueta. Muchos también han señalado el principal
defecto de la interpretación, que parece confiar en la pesadilla que perturbó a
Einstein tan frecuentemente: la acción a distancia, la idea de que las
interacciones operan sin que intervenga ningún mecanismo.
Pese a todos sus detractores, la interpretación es importante, y si tiene
fallas, definitivamente, como ha argumentado Timothy Ferris, apunta a
“vislumbrar una futura ciencia”.44 La suposición inicial de Bohm es que la
versión usual de la física cuántica es defectuosa porque es incompleta. Este
vacío se funda en el hecho de que, según Bohm, existe una capa subyacente
43
David Bohm, La Totalidad y el Orden Implicado, Barcelona, Kairós, 1988.
Timothy Ferris, The Whole Shebang: A State of the Universe Report, New York, Simon
& Schulster, 1997.
44
99
de realidad, un mundo subcuántico que contiene información adicional
acerca del mundo. Esta información adicional está en forma de variables
ocultas que predicen los resultados precisos de mediciones particulares. En
otras palabras, las variables ocultas de Bohm suponen y sostienen un tipo de
“conciencia” global, una fuerza que controla, que determina el resultado de
los eventos.
Aun cuando esta teoría es infinitamente más elegante y parece tener
más sentido común que la de los múltiples universos o que la interpretación
de Copenhague, los científicos la rechazaron bruscamente, primero porque el
matemático John Von Neumann probó matemáticamente que las variables
ocultas no operan en el mundo cuántico y por consiguiente la mayoría de los
científicos no se atrevieron a admitir que para determinar el resultado de
múltiples eventos, las variables ocultas daban por sentada la acción a
distancia.
Recientemente, sin embargo, la interpretación de las variables ocultas
ha tenido una especie de resurgimiento. David Z. Albert ha sido uno de sus
principales proponentes:
This is the kind of theory whereby you can tell an absolutely low-brow story about
the world, the kind of story (that is) that’s about the motions of material bodies, the
kind of story that contains nothing cryptic and nothning metaphysically novel, and
nothing ambiguous and nothing inexplicit and nothing evasive and nothing
unintelligible and nothing inexact and nothing subtle……in which the whole
universe evolves.45
David Z. Albert, “Bohm´s Alternative to Quantum Mechanics”, Scientific American,
mayo 1994.
45
100
Para otros no filósofos-científicos como Albert, la interpretación ha
sido reivindicada por el experimento llamado de “Aspect”. Este experimento
consta actualmente mas bien de una serie de experimentos, efectuados por
Alain Aspect y sus colegas, y establece que lo que Einstein etiquetó como la
“horripilante o fantasmal acción a distancia” realmente opera en el mundo
cuántico. El corazón del experimento implica la polarización de los fotones.
Los fotones pueden llegar a pensarse con flechas que apuntan hacia “arriba”
o hacia “abajo”. Si un átomo es estimulado de manera que produzca dos
fotones, éstos se dirigen en direcciones opuestas cancelándose uno al otro.
De estos fotones, uno puede ser “arriba” y el otro “abajo”. De acuerdo con la
teoría cuántica estándar, los fotones existen en una sobreposición de estados.
En otras palabras, pueden existir como “arriba” o “abajo” hasta que el
experimentador efectúe la medida; en ese momento se produce un colapso
de la función de onda y el fotón se establece en uno de los dos estados. El
experimento toma esto en cuenta, pero lo usa a su favor efectuando la
medida únicamente sobre un fotón. El experimento revela que tomando la
medida del primer fotón, la función de onda del segundo fotón, no medido,
se colapsa en el preciso momento en que la medida del primer fotón lo hace
cambiar de una superposición de estados a un estado definitivo, y este
segundo fotón, sin que se le efectúe ninguna medida, también cambia a un
estado definitivo.
La respuesta instantánea del segundo fotón a lo que ocurre al ser
medido el primero, contradice la imposibilidad de la acción a distancia. El
experimento de Aspect, prueba, en otras palabras, mas allá de cualquier
duda, que el mundo cuántico, el mundo del átomo es no local. Esta no
localidad que para los científicos significa la manera en la cual una entidad
es afectada no sólo por lo que funciona en un punto –su localidad– sino
101
también por lo que funciona en otro lugar en el mismo instante, puede ser
aún más misterioso que el resultado del experimento de la doble rendija que
Feynman sostuvo como el misterio cuántico central. No obstante, las
pruebas experimentales existen y por lo menos dan indicio de la existencia
de variables ocultas hasta el punto de que algunos científicos han tomado el
asunto donde Bohm lo dejó y, por ejemplo, John Crammer ha propuesto
teorías que son afines a la de las variables ocultas de Bohm.
Volveremos a Bohm y las variables ocultas, pero primero
dedicaremos un capítulo al intento de mostrar la convergencia entre el
quantum y la cosmología.
102
4
EL SIEMPRE INALCANZABLE SANTO GRIAL:
LA TEORÍA DEL TODO
Si un historiador en el futuro tuviera que escribir la historia de la
ciencia del siglo XX, sin duda alguna se impresionaría por los nombres de
los científicos y sus logros. Tan solo en el reino atómico, la lista sería
extensa.
En 1902, Lord Kelvin presentó el primer modelo del átomo; en 1910,
J.J. Thomson identificó el protón; en 1911 Ernest Rutheford descubrió que el
átomo estaba formado por un núcleo central que de alguna manera estaba
rodeado por una nube de electrones; en 1913, Niels Bohr completó el primer
modelo de un átomo que tomó en cuenta las implicaciones del quantum; En
1920, trabajando separadamente, Heisenberg y Shrödinger sistematizaron la
teoría cuántica y Bohr presentó su interpretación de Copenhague; George
Gamow presentó un modelo donde el núcleo atómico recordaba una gota de
líquido que se mantenía unida por una especie de tensión superficial; en
1932 James Chadwick descubrió el neutrón, una partícula sin carga eléctrica
y con la misma masa del protón y John Cockroft junto con Ernest Walton
usaron el primer acelerador de partículas para dividir el átomo. Así como en
menos de 40 años la física de partículas se revolucionó no solo a sí misma
sino también a nuestra concepción del mundo físico y a la tecnología que lo
rodea, la astrofísica progresó tanto como la anterior en cuanto al
conocimiento concierne. El año clave de la astrofísica pudiera ser 1915,
cuando Einstein presentó su teoría de la Relatividad General ante la
academia de ciencias de Prusia, describiendo que pasa cuando el espacio se
103
distorsiona por la presencia de la materia. Hacia 1916, las implicaciones de
la Relatividad General empezaron a aflorar y una miriada de consecuencias
teóricas se postularon, entre las cuales se encuentran los agujeros negros y
los de gusano (worm holes) así como la expansión del universo. En 1919,
una de las primeras confirmaciones experimentales de una de las
predicciones de la Relatividad general, se obtuvo cuando pudo ser medida
la curvatura de la luz causada por la gravedad del Sol. La historia cuenta que
cuando se efectuó el experimento, Max Planck estuvo toda la noche
aguardando los resultados. Al enterarse de esto, Einstein comentó: “El
realmente no ha entendido la ciencia…si hubiera entendido la manera en que
la teoría de la Relatividad explica la equivalencia entre la masa gravitacional
y la inercial, se hubiera ido a la cama”.46 En los años veintes, más y más
predicciones fueron confirmadas y quizá la más impresionante fue el
descubrimiento por parte de Edwin Hubble de que la Vía Láctea era solo una
entre muchas galaxias en un cosmos que se estaba expandiendo. Este
descubrimiento de la expansión del universo no solo confirmó algunas de las
predicciones que la Relatividad había sugerido, sino que confirmó su más
sorprendente predicción, que el universo había tenido un nacimiento, que fue
posteriormente conocido como la Gran Explosión o big bang. En la década
de los cuarentas, George Gamow y Ralfh Alpher intentaron describir las
condiciones cuantitativas del big bang, investigando el tipo de interacciones
nucleares que debieron haber ocurrido en el nacimiento del universo.
Si nuestro historiador del futuro observara el trabajo de Gamow y
Alfher, podría deducir que anticipaba dos cosas. Primero, que establecía las
bases de lo que vendría a ser la mayor inquietud de los físicos en la segunda
Gerard Holton, and Yehuda Elkana, (eds.) Albert Einstein, Historical and Cultural
Perspectives, Princeton, NJ., Princeton University Press, 1982.
46
104
mitad del siglo XX. Segundo, ante estas inquietudes, el trabajo experimental
que se hizo para resolverlas, aunque muy brillante, hizo parecer que la física
estaba estancada. Nuestro historiador quizá cambiaría el tono de su narrativa
de triunfal y laudatorio a irónico y pesimista. Tal vez él escribiría: “Mientras
que el trabajo de Gamow iluminó los posibles nuevos caminos que la física
podría tomar, también estableció un santo grial que los científicos han
ambicionado encontrar, pero como todos los santos griales éste demostró ser
también muy elusivo. Hubo muchos falsos principios. Hubo muchas
tecnologías inasequibles. Pero lo más importante es que lograr la meta ha
sido imposible por dos motivos: los conflictos institucionales y el
dogmatismo. Pese a sus creencias en la simetría y la simplicidad, los
científicos se apoyaron en esquemas elaborados y se rehusaron a aceptar el
sentido común, cuando era tiempo para la ciencia introducirlo en sus
métodos. Más aun, ellos se cegaron o restringieron por sus métodos y no
pudieron ver las pistas obvias que podrían haberlos llevado al logro de su
meta.”
Nuestro imaginario historiador del futuro debería, por supuesto –como
los historiadores de todas las épocas– contar con el beneficio de mirar el
pasado con lo que conocemos como una visión de 20/20, perfecta. Sin
embargo la pregunta sería ¿porqué la física nos ha ofrecido tan triste visión
en sus conclusiones en la última parte del siglo XX? Después de todo la
física de partículas y la astrofísica han tenido tremendos avances. El más
reciente a punto de resolverse es el valor de omega, el número que
determinará la cantidad de materia existente en el universo y que nos dirá si
éste se expandirá indefinidamente o eventualmente colapsará. En 1998 se
105
hizo también un descubrimiento importante: λ, una insospechada fuerza que
controla la expansión del universo.
Por otra parte, la física de partículas ha venido a ser una parte
intrínseca de nuestras vidas. Aun pensando que la mayoría de la gente la
perciba como un rompecabezas para los académicos en sus torres de marfil,
la física cuántica ha transformado nuestro ambiente y nuestro modo de vida,
desde lo más trivial hasta lo más comercial. En el reino doméstico, la TV,
los equipos de sonido y las computadoras no existirían sin el quantum.
Todos estos aparatos y hasta los autos, dependen de los semiconductores,
materiales con propiedades conductivas que se encuentran entre los
aisladores y los conductores y donde los electrones pueden saltar de un
átomo al siguiente bajo las condiciones adecuadas. Estos saltos de átomo a
átomo dependen de una serie de reglas cuánticas conocidas como
estadísticas Fermi-Dirac, sin ellas, nadie sería capaz de diseñar las rápidas
computadoras que tenemos actualmente. Claro que podemos darnos cuenta
que tanto TV como computadoras y equipos de sonido son simplemente
triviales. La civilización se ha manejado sin ellos por milenios, ¿son
realmente tan importantes?
Como quiera que sea, puesto que el quantum está empotrado en la
naturaleza, nos permitirá entender no solamente el comportamiento de lo
inanimado, sino también los fenómenos sin los cuales nuestra existencia no
sería posible. Debido a la incertidumbre cuántica, podemos entender como
en el Sol –nuestra única fuente de energía– los núcleos de hidrógeno se
fusionan generando calor. También por la física cuántica podemos entender
como la molécula de DNA se replica a sí misma. La vida en este planeta
depende en gran medida de la habilidad de ésta molécula para
“desabrocharse” y hacer dos copias de la doble hélice original construyendo
106
una contraparte de cada ramal de la molécula original con ésta como
modelo. Las ligas o enlaces que utiliza este proceso para mantener las ramas
de la molécula juntas la mayoría del tiempo, pero que también le permite
separarse cuando es necesario o apropiado, es una especie de pegamento
químico conocido como pegamento de hidrógeno. Este pegamento, un solo
protón, comparte los electrones de otros dos átomos y forma la liga entre
ellos. Para decirlo brevemente, la física cuántica explica el misterio
fundamental de la vida a través de un proceso cuántico que está en el
corazón de los sistemas de pegamento de hidrógeno.
Por lo tanto, si astrofísicos y físicos de partículas han hecho tales
avances y nos han dado un entendimiento mucho mas profundo del mundo
en que vivimos, ¿por qué las quejas de nuestro imaginario historiador? El
camino que en los años cuarenta iniciaron Gamow y Alpher, fue el que se
dirigió a lo que se conoce como la Teoría del Todo (Theory of Everything o
TOE). No se debe confundir esta teoría con las grandes teorías unificadas
que sólo intentan combinar la descripción de la fuerza electromagnética, la
fuerza nuclear débil y la fuerza nuclear fuerte en un sólo paquete matemático
similar al que James Clerk Maxwell encontró para unificar las fuerzas
eléctrica y magnética. La TOE intenta introducir la gravedad en el paquete.
En otras palabras, una teoría del todo, si llega a desarrollarse, debe explicar
el electromagnetismo, las fuerzas nucleares débil y fuerte y la gravedad bajo
una sola rúbrica matemática.
Existen muchos obstáculos a sobrepasar para que tal teoría alguna vez
emerja. Sin embargo en los siguientes capítulos, en la segunda mitad de este
libro, discutiremos que más que modelos matemáticos o tecnología, lo que
parece obstruir más el camino es una cosa: el dogmatismo o los intereses
políticos de los científicos, su inhabilidad o falta de voluntad para pensar
107
creativamente y fuera de la academia o de artículos de fe institucionales.
Este dogmatismo es de lo más obvio cuando encontramos científicos que
han sido estigmatizados por sus ideas. David Bohm, cuyas ideas tocaremos
en el último capítulo, es solo uno de estos científicos. Teilhard de Chardin,
cuyas ideas dominarán la segunda mitad de este libro, es no solamente otro
ejemplo, sino el arquetipo de los científicos rechazados. Regresaremos con
Teilhard de Chardin y con David Bohm porque en el corazón de sus
variables escondidas, así como en su exploración sobre la naturaleza de la
conciencia existe una gran coincidencia con Teilhard de Chardin. Sin
embargo primero aislaremos lo que ha surgido de los dos teorías principales
que contienden por el éxito.
Los científicos creen en la simetría y la simplicidad. Para muchos el
famoso comentario de Paul Dirac de que “es más importante que exista
belleza en las ecuaciones a que éstas encajen en los experimentos”, se ha
vuelto un precepto.47 Los números mediante los cuales ellos entienden el
mundo que tienen que representar, no son los de los elementos caóticos e
inestables en la naturaleza, sino los estables. En otras palabras, sus fórmulas
cuantifican fenómenos que permanecen estables a través de las
transformaciones.
Para entender lo que es esto y lo que la simetría significa, vamos a
imaginar que el mundo conocido que los científicos estudian es un texto.
Supongamos que Dante está en lo correcto y que su cosmología también es
la correcta. Imaginemos que los científicos intentan entender el más
profundo funcionamiento de ese texto. La primera cosa que deben hacer es
capturar cada línea del poema en su supercomputadora y tabular los
Paul Dirac, “The Evolution of the Physicist’s Picture of Nature.” Scientific American
mayo 1963, p. 47.
47
108
diferentes patrones que aparecen. Rápidamente, tan pronto como el texto
completo –Infierno, Purgatorio y Paraíso- haya sido capturado, se darán
cuenta de que los cien cantos están constituidos por permutaciones de 25
letras. El descubrimiento de estas letras puede no ser muy distinto al que nos
llevó al modelo estándar de la física cuántica. Los científicos encontrarían
una leve simetría, algo que permanece constante pese a las permutaciones.
Sin embargo, el descubrimiento apenas explica la profundidad y rango del
texto que han capturado en su computadora. Por lo tanto, su siguiente tarea
será encontrar si estas 25 letras están arregladas en alguna especie de patrón.
La computadora, por supuesto, deberá ser rápida en realizar este tipo de
trabajo que a los lingüistas les ha tomado siglos, y encontrará morfemas y
fonemas, prefijos y sufijos. Posiblemente no se entienda la manera en que
las letras han llegado a ser semánticas, pero los patrones deben surgir y
nuestros imaginarios científicos habrán descubierto las palabras. De nueva
cuenta, pese a los diferentes terrenos de la cosmología del texto de Dante –
los ríos congelados del infierno o los inclinados riscos del purgatorio- la
única constante de tal mundo es que está hecho de unidades significativas. Y
así como el contraste meteorológico de una región de ese universo con la
siguiente puede ser asimétrico, el hecho de que cada región está constituido
de palabras, apunta a una simetría. Aunque nuestros científicos celebran el
descubrimiento, saben que falta trabajo por hacer si han de entender como es
que ese mundo realmente funciona. Las palabras son un gran descubrimiento
pero ¿siguen estas palabras un patrón? Los discos de la supercomputadora
podrían tartamudear y tropezarse un poco más aquí, pero eventualmente
obtendrían un logro: ciertos tipos de palabras parecen tener alguna función y
toman cierto lugar en el poema. Los científicos habrán descubierto lo que
ciertos lingüistas han logrado en la última parte del siglo XX, una sintaxis y
109
gramática generativa. Eventualmente la computadora también descubrirá el
esquema de la métrica y la rima del poema, así como su diseño en conjunto.
Una vez que los científicos se hayan dado cuenta que todas estas cosas son
simétricas –es decir, que ocurren en iguales partes o medidas, para recurrir al
significado original de la palabra– tendrán un entendimiento más profundo
del mundo de Dante. Sin embargo, después de todas sus investigaciones,
permanecerán elementos caóticos, elementos asimétricos, elementos que no
tienen patrón o recurrencia.
Tal como nuestros imaginarios científicos analizaron a Dante, los
científicos reales buscan encontrar patrones en los diferentes fenómenos de
la naturaleza. Durante el siglo XX, la fe de los científicos en la simetría sólo
se consolidó cuando se dieron cuenta que cada ley o fuerza que habían
descubierto era aplicable en cualquier lugar del universo. Como el texto de
Dante, gobernado por las leyes del lenguaje y organizado por la métrica y la
rima, las partículas tienen las mismas características en cualquier parte y
están sujetas a las mismas leyes. Este tipo de simetría que sostiene que las
leyes de la naturaleza son las mismas en todas partes del universo, es
conocida como “invariancia transicional” y corresponde a la ley de
conservación del momento lineal.
En el esquema de las cosas según los científicos y central a su fe en la
simetría y su rompimiento, se encuentran las cuatro fuerzas de la naturaleza.
Las dos con más amplio rango y más obvios efectos en la escala macro del
mundo, son la gravedad y el electromagnetismo. Las otras dos fuerzas, las
nucleares débil y fuerte, actúan sólo en el rango del núcleo atómico. Cada
una de las fuerzas parece estar más que sutilmente sintonizadas, de manera
que si alguno de los valores fuera ligeramente mayor o menor, el universo
como lo conocemos no existiría. Pese al hecho de ser la más obvia para
110
nosotros, la gravedad es la fuerza más débil, pero fue la primera en ser
entendida de una manera sistemática. Hemos tratado esto en el capítulo en el
que hablamos de Newton y Einstein. Si sentimos la gravedad mas que
cualquiera de las otras fuerzas, es porque es aditiva, es decir, que cada átomo
que apilamos en una masa contribuye al efecto total.
El electromagnetismo es con mucho una fuerza más fuerte. Sin
embargo ni la electricidad ni el magnetismo se suman de la manera que la
gravedad lo hace. La electricidad se manifiesta a través de sus cargas,
positiva y negativa; el magnetismo a través de sus polos, también positivo y
negativo (o norte y sur), y puesto que ambos, polos y cargas, tienden a
cancelarse mutuamente, en muchas condiciones se anula o se reduce la
influencia global del electromagnetismo. En el electromagnetismo vemos
una versión a pequeña escala de los intentos para llegar a una teoría del todo.
Hasta el siglo XIX, la electricidad y el magnetismo se veían como dos
fuerzas diferentes y sus influencias se entendían a través de dos fórmulas
separadas. Brevemente, los científicos entendían la electricidad y el
magnetismo, como entienden ahora las cuatro fuerzas: sin una única rúbrica
matemática que abarcara su acción. James Clerk Maxwell descubrió un
grupo de ecuaciones que describían tanto la electricidad como el
magnetismo en un solo paquete. Este impulso sintético es exactamente el
mismo al que ahora guía a los físicos a intentar encontrar una teoría del todo.
Lo anterior fue el primer intento exitoso de unificación y todavía inspira a
los científicos para ir más allá con la unificación de las fuerzas de la
naturaleza, con la meta de encontrar un solo grupo de ecuaciones que
describan todas las fuerzas como facetas de una sola superfuerza. El
electromagnetismo, a diferencia de la gravedad, domina en las regiones de
pequeña escala, en la formación de los átomos y las moléculas, tanto, que los
111
electrones y el núcleo del átomo están unidos por el electromagnetismo, que
es también el pegamento, por así decirlo, que mantiene unidas las moléculas.
Si un alpinista tiene que luchar por subir por una cuerda en contra de la
obvia fuerza de gravedad, lo que lo previene de una caída es la fuerza
electromagnética, que es más fuerte aunque no tan obvia. Si la soga se
rompiera por el peso del escalador, se debería a que el jalón gravitacional de
la tierra entera que contiene 5.97x1024 kg. de materia habría tenido éxito en
romper el “pegamento” electromagnético de unas cuantas moléculas de la
soga.
La potencia del electromagnetismo es tal, que sin control sería capaz
de desintegrar el núcleo del átomo. Lo que previene esto, es una fuerza aun
más fuerte: la fuerza nuclear fuerte, que sobrepasa la repulsión eléctrica a la
escala del núcleo en 100 veces. Sólo recientemente la fuerza nuclear fuerte
ha sido entendida como la manifestación de una “fuerza de color o de
pegamento”, más profunda, que opera entre los quarks y entre los gluones
dentro de los protones y neutrones que forman el núcleo.
Cada una de las fuerzas se manifiesta a través de un intercambio de
mensajes entre partículas. Y si la fuerza nuclear débil no es parecida a las
otras tres fuerzas, sí lo es en este aspecto. El rango de la fuerza es limitado y
la interacción toma lugar a través de partículas mensajeras llamadas
“vectores bosones intermediarios”. Como la consolidación de la electricidad
y el magnetismo un siglo antes, en el siglo XX, Aldous Salam y Steve
Weinberg, trabajando independientemente, encontraron la manera de
consolidar la interacción débil y la interacción electromagnética bajo un solo
rubro matemático.48
El descubrimiento de Salam y Weinberg así como el de Sheldon Glashow que extendió
y generalizó la reformulación de su trabajo, está, junto a la función y rol de las cuatro
48
112
Sin embargo, el encontrar una superfórmula, por llamarla de alguna
manera, de un grupo de ecuaciones que revele como cada fuerza interactúa
de modo que los más profundos mecanismos de nuestro mundo puedan ser
entendidos, sigue siendo una meta inalcanzable. Las dos teorías que parecen
los más posibles candidatos para la consecución de la meta son, la teoría de
las supercuerdas y la supersimetría. Más adelante seremos breves al tratar
ambos temas debido a su complejidad, pero puesto que ambas teorías son
verdaderamente unos bellos modelos matemáticos, trataremos de ver como
se sostienen ante el mundo de los hechos. Después de todo, pese a la
aseveración de Dirac de que es primero la belleza de las ecuaciones a que se
adapten a los experimentos, debemos recordar que hay concepciones bellas
que son verdaderas. Mientras tanto, hacia el final del capítulo y como una
guía que nos ilumine a través de la segunda parte del libro, nos gustaría
alinearnos con Bertrand Rusell, quien sostiene que los científicos, filtrando
las partes de la naturaleza que no son accesibles al razonamiento
matemático, brindan al universo un tinte de racional belleza que corresponde
más a las matemáticas que a las características centrales del universo.49
La Teoría de la Supersimetría surgió del exito que la simetría gauge
tuvo en la manera de entender las fuerzas y las partículas.50 En los años
setentas, la mayor asimetría era la distinción entre partícula y fuerza, o
fuerzas, extensamente explicado en el libro de Flank Close The Cosmic Onion
(Heinemann, London, 1983) y en el de Coughlan and Dodd The Ideas of Particle Physics
(Cambridge University Press, Cambridge, 1991).
49
La cita de Dirac ha inspirado cantidad de debates. El libro de Judith Wechsler
Aesthetics in Science (Cambridge, MIT Press, 1978) ofrece muchas e interesantes
perspectivas.
50
La simetría gauge es un concepto usado en la teoría de los campo, que describe un
campo el cual no cambia cuando se aplica alguna operación a todas las partículas
dondequiera en el espacio. El término gauge simplemente significa “medida”, y el punto
en el que los campos con simetría gauge, pueden ser remedidos desde diferentes lineas
base, sin afectar sus propiedades.
113
fermiones y bosones respectivamente. La asimetría como era percibida
entonces, no era necesariamente cosmética, sino que era el reflejo del espín
de cada entidad. La supersimetría resolvió el problema añadiendo otras
cuatro dimensiones a las cuatro dimensiones del espacio-tiempo. Estas
dimensiones no son las mismas que aquellas que encontramos al mirar la
teoría de las supercuerdas. Sin embargo, para ser imparciales, tenemos que
admitir que los preceptos de la Supersimetría permitieron trabajar la teoría
de las supercuerdas.51
La supersimetría, a diferencia de otras muchas teorías, no emergió de
la necesidad de resolver un problema. Originalmente reconocida como una
propiedad de ciertos modelos, eventualmente los científicos se dieron cuenta
de que la teoría podía resolver un cierto número de misterios de la física de
partículas, asi como proveer nuevos acercamientos para resolver otros
rompecabezas ¿Qué misterios resuelve la Supersimetría? Básicamente el
Modelo Estandar tiene un serio problema conceptual llamado el problema de
la jerarquía.52 La escala natural de la teoría primaria es la escala de Planck
(10-35 m.) El Modelo Estándar es la descripción de los quarks y los leptones
y de sus interacciones a la escala de 10-17 m. El problema es que la teoría
cuántica, la física a una escala, debe contribuir, o ser coherente con la física
51
Tenemos otra versión sobre el surgimiento de la teoría de las supercuerdas, pues en su
libro de 1965, La connaissance de l´univers, el astrofísico Jean Charon hablaba,
refiriendose a lo elemental, de un medio continuo que puede poseer ciertos estados
vibratorios. Una cuerda vibratoria que posee una oscilación fundamental que pudíeramos
calificar de “natural”. Rastreando el origen de este supuesto llegamos a Teilhard de
Chardin a través del físico Louis de Broglie, quién fuera miembro del comité científico
que aprobó la publicación en 1955 de El fenómeno humano. Pero no poseemos la
suficiente documentación probatoria para dar esto como un hecho.
52
Este problema de la jerarquía se puede plantear mas simplemente de la siguiente
manera: El porqué las diferentes fuerzas operan a tan diferentes energías, cuando
realmente son todas manifestaciones de un mismo fenómeno subyacente, y como pueden
114
a otras escalas, asi que no es consistente tener estas escalas tan separadas. En
vez de lo anterior, la escala cuántica y la de Planck deberían estar muy cerca
una de otra. El problema realmente tiene dos partes. Primero, dado que hay
una separación de la escala del modelo estándar de la escala de Planck,
¿porqué el modelo estándar termina precisamente en esa y no en otra escala?
El asunto sondea lo más profundo del modelo estándar ¿es una escala
aleatoria, un modelo impuesto por el hombre o sólo un modelo elegante? La
última cuestión nos lleva a un segundo problema: ¿qué puede hacer que la
teoría mantenga la separación de una manera consistente? El modelo
supersimétrico resuelve la segunda parte del problema y nos da una idea de
como resolver la primera parte. Esto lo hace utilizando primordialmente la
unificación de bosones y fermiones. La verdadera naturaleza de fermiones y
bosones, implica que deben llegar a juntarse en la escala a la que se
cancelen, por lo que la mezcla de escalas puede ser cancelada de una manera
general.
La supersimetría nos da una contribución más importante para
resolver los serios misterios que la ciencia ha encontrado en su búsqueda de
una teoría del todo. Como hemos visto, por siglos los físicos activamente
han taratado de unificar nuestra descripción de las fuerzas de la naturaleza.
Digámoslo otra vez, el tener cuatro fuerzas diferentes en lugar de una sola
fuerza básica, sugiere que la física todavia no tiene bien fundado un
principio de unificación. Con la teoría cuántica, uno puede calcular como se
comportaría una fuerza si se estudiara en muy pequeñas distancias.
Notablemente, cuando esto se hace a escalas cada vez más pequeñas con las
fuerzas nucleares débil y fuerte y con el electromagnetismo, nos damos
ser unificadas matemáticamente, si esto es posible. Pero el definirlo así nos limitaría el
argumento.
115
cuenta que estas fuerzas tienden a ser similares. Más notablemente, cuando
el estudio se repite con las fórmulas del modelo de la supersimetría –como
se hizo en los años ochentas– las fuerzas llegan a ser esencialmente iguales a
distancias realmente muy pequeñas, aunque en el modelo estándar nada
sugiera que esto debería pasar.
Como anotamos anteriormente, la supersimetría no sólo precede a la
teoría de las supercuerdas, sino que presenta las condición necesaria para
que la teoría de las supercuerdas funcione. Esta última, sin embargo, es una
teoría mucho más efectiva en su intento de unificar las cuatro fuerzas. Como
muchas de las teorías que intentan ser exitosas, las supercuerdas es una
teoría elegante, pero además muy apegada al sentido común. Resuelve la
división entre las fuerzas y las discrepancias de la física atómica, postulando
que las partículas y sus interacciones, no son puntos (o “partículas”), ni
puntos matemáticos, sino cuerdas, y la materia y las fuerzas como las
conocemos, son solamente las manifestaciones de los diferentes modos de
vibración de dichas cuerdas. El postular estas cuerdas, resuelve muchas
discrepancias menores.
Si bien, su mayor contribución hasta el momento, es que a medida que
los físicos ven el modelo estándar a través de la perspectiva de las
supercuerdas, son más capaces de darse cuenta como todas las fuerzas son
iguales cerca de la escala de Planck.
En un capítulo posterior exploraremos la teoría de las supercuerdas un
poco más a fondo. Y aunque nosotros preferimos los postulados de las
supercuerdas a los de la supersimetría, la razón por la cual pensamos que
ambas parecen seguir el camino correcto, que ambas se están haciendo las
preguntas correctas, es porque las dos se enfocan en aspectos importantes.
Primero, confirman lo que muchos científicos parecieran negar: a saber, los
116
límites de nuestras actuales herramientas científicas, asi como la manera en
la que debe ser revisado el enfoque actual del asunto. Tanto la supersimetría
como las supercuerdas, resuelven discrepancias de la física hasta el punto de
unificar las cuatro fuerzas, solo hasta, o por debajo de la escala de Planck.
Su solución, dicho de otra manera, no puede ser confirmada usando los
actuales métodos y tecnología, puesto que ningun supercolisionador puede
lograr la energía necesaria para romper el átomo a la escala de Planck.53
Subrayando las deficiencias de la física experimental, las supercuerdas
también nos provee de un universo donde los límites son importantes, un
universo donde existen límites al tiempo y al espacio, un universo donde
pasado el límite, contemplaríamos, no necesariamente una diferente realidad,
donde el mundo fracturado que la física nos describe, no lo estaría más.
La pregunta que surge, si los postulados de la teoría de las
supercuerdas, socavan el decir y los métodos de la física de partículas, es:
¿Significa que no hay manera de confirmar la teoría y de probar que en lo
profundo la naturaleza está unificada por un elegante y legible grupo de
leyes? ¿Establece, en otros términos, que la física llegó a su final? Para
muchos la respuesta es sí. Para nosotros, sin embargo, es un definitivo no.
Para nosotros la teoría de las supercuerdas es sólo un prisma que concentra
la difusa luz de cuatro diferentes fuerzas, las unifica y luego las difracta, de
manera que esto puede ser explicado a través de otras ciencias, otras teorías.
En la segunda parte del libro, veremos las posibles opciones.
53
De acuerdo a la ecuación de transformación de Lorenz m= mo√1-v2/c2, para acelerar
cualquier cantidad de masa a velocidades cercanas a la de la luz, se requiere una energía
que tiende a infinito.
117
5
DE BÁRBAROS Y BASFEMOS
…que escribir docta poesía
se llama entre los bárbaros blasfemia.
LOPE DE VEGA
Concluimos el tercer capítulo tratando con la interpretación de Bohm
acerca del quantum. Esta interpretación es conocida indistintamente como
“de la onda piloto”, “del todo indivisible” o “de las variables escondidas”.
Debido a la principal premisa de trabajo de Bohm, uno tiene que considerar
la no localidad como una posibilidad, en otras palabras, uno tiene que
aceptar que las nociones de sentido común sobre causalidad no operan en el
mundo atómico. En esta segunda parte del libro volveremos a ver las ideas
de Bohm con un poco más de profundidad. Por ahora, será suficiente
refrescar nuestra memoria, puesto que si bien de una manera superficial
tocamos el trabajo de Bohm, lo que definitivamente casi no examinamos fue
su biografía.
Para la mayoría de los científicos existen dos posibilidades: o son
triunfadores y recordados, o fallan y son olvidados, y aunque pueda ofrecer
un puñado de divertidas anécdotas y una docena de ingeniosas o extrañas
citas, la vida de casi todos es poco interesantes. Como sucede con los
artistas, cuyas vidas son considerablemente menos reservadas y quizá más
aventureras, lo que uno toma en cuenta en la vida del científico es el
funcionamiento de una mente individual. Lo anterior, por supuesto, está
contenido en su trabajo. Tal como la gente regresará a Cervantes aunque
crean que hay poco que saber del hombre mismo, la gente regresará a
Einstein, no por las poses de sus últimos años, sino porque, como Cervantes,
Shakespeare o Dante, Einstein nos proporcionó no solamente un camino
118
único para contemplar el mundo, sino también un proceso único mediante el
cual descubrir cosas acerca de éste. De hecho, más que los resultados de los
experimentos mentales de Einstein, el asunto más asombroso acerca del
hombre es que fue capaz de formularlos tan en primer lugar. Finalmente nos
reveló una mente fresca, inefable e inexorable.
En algunos casos, sin embargo, las circunstancias históricas pueden
intersectar la biografía de un intelectual o de un artista y los datos que
recogemos de tal intersección, aunque no pueden iluminar suficientemente lo
que concierne al trabajo del científico o el intelectual, definitivamente brillan
como un faro sobre la cultura y las instituciones que rodean al sujeto de la
biografía. Mientras que muchos creadores pueden ser imposibles o casi
imposibles de entender sin un conocimiento de las instituciones que los
rodean (podríamos leer a Dante sin tener la más leve idea de la historia
florentina?), con los científicos realmente la única cosa que podemos esperar
obtener de su vida es entender la manera en la cual la comunidad científica y
sus instituciones funcionan, y la manera en la cual fomentan o impiden el
proceso y el destino de un proyecto particular o la fortuna de una idea.
La biografía de David Bohm, desafortunadamente, no nos muestra una
bella pintura de sus colegas ni de las instituciones. Aunque la literatura
sobre el trabajo de Bohm es, si no extensiva, por lo menos considerable, no
existe todavía una biografía hecha y derecha de él. Su perfil, sin embargo es
bastante familiar y hasta la primera mitad de su vida, poco notable. Nacido
en Wilkes-Barre, Pensilvania, en 1917, de niño llegó a interesarse en la
ciencia por las lecturas de ciencia ficción. Más tarde pasó a los libros de
astronomía y obtuvo su preparación formal, primero en el Pennsylvania
State College y después en la Universidad de California en Berkeley, donde
estudió bajo la tutela de Robert Oppenheimer, quien lo llevó a trabajar con él
119
a Los Álamos, en el proyecto Manhattan, junto a los más prominentes físicos
y estudiantes de la época.
Como casi todos los niños que vivieron la gran depresión, Bohm
comprensiblemente desarrolló inclinaciones marxistas. Cuando abandonó el
proyecto Manhattan tomó un trabajo en Princeton, donde escribió lo que aún
es uno de los más accesibles libros de texto sobre la interpretación de
Copenhague.
Sin embargo, el año en que fue publicado su libro, es el mismo año en
el que encontramos la intersección perturbadora de los hechos históricos, la
ceguera institucional y el infortunio personal. Pocos años después de Los
Álamos, una vez que la guerra terminó, los Estados Unidos se zambulleron
en su pánico rojo. Los catalizadores de este pánico fueron la desinformación
y la propaganda. Si uno quisiera dar una fecha exacta del inicio de la guerra
fría, tendría que remontarse a los días 9 y 16 de Febrero de 1946. La primera
fecha sólo marca uno de los más demagógicos discursos de Stalin, donde
echaba la culpa de la Segunda Guerra Mundial al “monopolio capitalista” y
sostenía que el capitalismo debería ser reemplazado por el comunismo si se
quería prevenir futuras guerras. Mientras que el discurso de Stalin parecía
agresivo, tenía un velo de hostilidad e implicaba amenaza, el telegrama que
envió al presidente Truman, George F. Keenan, el ministro consejero de la
embajada estadounidense en Moscú –ahora conocido como el “telegrama
largo”– definitivamente selló la guerra fría. En este telegrama, Keenan
afirmó que la Unión Soviética era un “despotismo oriental” en el cual “el
extremismo es la costumbre y donde se supone que los extranjeros son
enemigos mortales”. De acuerdo con Keenan, el Kremlin usó el marxismo
como la hoja de parra para cubrirse de respetabilidad moral e intelectual,
para justificar el crecimiento militar, la opresión en el hogar y la expansión
120
fuera del país. El tendencioso telegrama ofrecía una elección a los Estados
Unidos hasta donde llegaba su interés en la Unión Soviética: “contenerse.”
Esto también provocó el miedo a la expansión del comunismo en la
conciencia Americana. Como todos los miedos, éste en particular surgió y
fue aprovechado para ser explotado por cualquier charlatán. El primero en
aparecer en escena fue Joseph McCarthy, senador por el estado de
Wisconsin, quien mientras hablaba en una asamblea de mujeres republicanas
en Wheeling, Wisconsin, con un ademán señaló unos documentos que,
aseguraba, eran la evidencia de una extendida conspiración. Los
documentos, declaraba, contenían una lista de 205 nombres de personas que
eran conocidas como miembros del Partido Comunista y estaban dando
forma a la política norteamericana. A pesar de que, según sus detractores,
McCarthy era un mentiroso, un alcohólico y un político corrupto, sus
acusaciones llegaron en el momento preciso. El desenlace de los cargos de
McCarthy son bien conocidos. Durante cerca de tres años, McCarthy
encabezó el House Committee on Un-American Activities o HCUA (algo así
como Comité para la represión de actividades antinorteamericanas). El
HCUA fue una cacería de brujas; su modus operandi, el mismo que la
Inquisición usó para paralizar la vida intelectual de Europa. Miembros de
universidades, actores de Hollywood, directores, escritores y políticos, eran
requeridos para confesar sus lealtades políticas y denunciar a sus asociados.
En 1948 la Universidad de Washington suspendió a tres profesores porque
se rehusaron responder las preguntas de los legisladores del estado acerca de
su calidad de miembros del Partido Comunista. Los profesores nunca
encontraron otro trabajo. Más tarde en el mismo año, la Federación
Americana de Profesores, votó en contra de permitir a comunistas el acceso
a la enseñanza. La Junta Gobierno de la Universidad de California exigió la
121
facultad de tomar un juramento anticomunista y aquellos que se rehusaron
fueron despedidos después de una larga batalla. El sistema finalmente se
deshizo de 31 profesores. Al final del pánico, el corte de cabezas tan solo en
el mundo académico ascendía a 600 profesores que habían perdido su
trabajo.
Entre estos 600 no solamente había profesores de ciencias políticas,
historia o humanidades, pues la HCUA y sus subsidiarias fueron a fondo; no
dejaron piedra sin voltear. Así, la lista incluía físicos, biólogos, etc. La
confrontación más famosa en el mundo científico fue con Oppenheimer.
Pese al hecho de que había probado ser pivote en el éxito del proyecto
Manhattan, en los años cincuenta se enfrentó con la HCUA y perdió sus
prebendas. El de Oppenheimer fue un caso de gran resonancia porque el
proyecto Manhattan lo había convertido en una figura pública. Fue más leído
y más sincero que la mayoría de sus colegas científicos. El de Bohm, por
otro lado, fue un caso menos notorio. No obstante, se le presionó para que
implicara a sus colegas como miembros del Partido Comunista, a lo que se
rehusó, por lo que en 1951 la Universidad de Princeton, el mismo sitio
donde Einstein trabajó y una de las principales instituciones educativas en el
mundo, lo despidió. Se le pagó el último año de su contrato a condición de
que no volviera a entrar al campus.
Estas intersecciones de las circunstancias históricas con las
actividades intelectuales suelen ser triviales si no son muy duraderas o no
tienen amplias repercusiones. Además, las repercusiones puede manifestarse
no sólo en el orden personal (Bohm dejó los Estados Unidos, enseñó en
Brasil, después en Israel y más tarde se estableció en Inglaterra) sino que
afectan el mundo de las ideas. Pero el hacer una víctima de Bohm fue más
allá de un comité y un exilio. De hecho, la consecuencia más cruel de esto, a
122
largo plazo, ha sido el abandono de sus ideas en la comunidad científica. Por
lo que su caso, de muchas maneras trágico, es un arquetipo del modo como
opera en general la comunidad científica.
Podría uno preguntarse ¿por qué el abandono de las ideas científicas,
considerando que ninguna lealtad política de Bohm podía afectar en gran
medida las matemáticas en las cuales apoyó su teoría? Como la teoría de las
supercuerdas o la supersimetría, la teoría de las variables escondidas no ha
sido probada experimentalmente; es por tanto, como los científicos llaman a
las teorías no probadas, una teoría en proceso de investigación (TPI). Sin
embargo, a diferencia de las supercuerdas o la supersimetría, la teoría de las
variables escondidas de Bohm, ni ha tenido la misma cantidad de adeptos, ni
ha sido pródigamente beneficiada con dinero para investigación.
Muchos podrían argumentar que la razón del abandono o rechazo de
la teoría de Bohm se debe más a lo insostenible de sus propuestas que a
cuestiones ideológicas. No obstante, este argumento sería idealista y con una
visión ingenua de como la comunidad científica trabaja; quien lo propusiera
estaría abrigando el mito de ver a los científicos como pensadores solitarios
en su torre de marfil, viviendo fuera de las ideologías políticas o de las
necesidades económicas y sin ser afectados por el Zeitgeist. Como muchos
de los mitos, éste también es perjudicial a largo plazo, porque distorsiona la
realidad y por lo tanto impide todo tipo de pensamiento crítico o analítico.
El hecho es que, contrariamente a la creencia popular, la ciencia no
está menos enrarecida que cualquier otro campo y los físicos, como otros
científicos, políticos, humanistas o historiadores, voluntariamente o no, se
hacen eco o se ven influenciados por los dogmas ideológicos, políticos o
institucionales. En el capítulo 2 discutimos cómo muchos biólogos, en su
esfuerzo por promover el escepticismo científico que permita la objetividad,
123
han abrazado también una especie de nihilismo moderno y postmoderno que
rechaza toda teleología. El mundo de la física no está menos influenciado
por ideologías similares.
Aparte de estas ideologías que los enajenan de la gente común, los
físicos tienen que hacer frente a la política de aniquilación mutua en sus
instituciones. Las teorías y los experimentos, las publicaciones y las
posiciones de enseñanza no ocurren en un vacío, sino que obedecen a las
presiones del mercado académico e institucional. El físico Michael Hawkins
ha sostenido que los científicos “tendrían que tener el coraje casi suicida de
abandonar el rebaño y desafiar el centro de poder de la astrofísica”. Si se
envía un documento a una revista para su publicación y falla en someterse a
la línea ideológica, o falla en estar en la moda actual en cuanto a la
investigación e interpretación concierne, entonces los autores son “relegados
de la comunidad astronómica por sus iguales.” En la mayoría de las
instituciones, este jaloneo de categorías es una necesidad económica: el
“fundamentalismo ideológico” de la mayoría de los científicos, argumenta
Hawkins, es una manera de proyectar la estabilidad interna hacia el mundo
exterior, donde se deben encontrar las concesiones y el dinero para la
investigación.
El libro de Hawkins, Haunting Down the Universe es en parte teoría y
en parte una revelación comprometedora a la comunidad científica, y cuando
llegó a los conocedores, éstos tomaron en cuenta, no la necesidad de la
crítica a lo establecido, sino la amargura con la cual Hawkings trató sobre la
comunidad. Las reacciones fueron desafortunadas, puesto que no pusieron
atención al criticismo de Hawkins. De hecho, la mayoría de los que
soslayaron las quejas de Hawkins se volvieron a la frustrante lógica de
culpar a su pasado, su hechura psicológica, etc., para explicar las razones
124
del libro, como si Hawkins hubiera tenido la osadía de apuntar el dedo en
algún desconocido inocente. Su crítica, sin embargo, vertió luz sobre
muchos asuntos. Su argumento es que no debería existir ningún grupo de
mandarines dictando lo que las evidencias científicas significan. Como él
indicó “casi todas las evidencias están abiertas a varias interpretaciones”.
Aun más, las actuales interpretaciones de las evidencias no necesariamente
deben ser visiones etéreas sino ideas falibles imbuidas por un “contexto
histórico”. El cri-de-coeur de Hawkins, involucra entonces un saludable
escepticismo que de adoptarse puede abrir un diálogo, no solamente entre las
diversas ramas de la ciencia, sino entre las ciencias y las humanidades. En
pocas palabras, él pretende poner el trabajo científico en una especie de
contexto, no sólo en el sentido de proveer interpretaciones viables a los
experimentos, sino de obtener a largo plazo la visión de que la ciencia no es
una disciplina que tiene lugar a niveles enrarecidos, sino que es una
disciplina sujeta a ideologías, modas, etc. Poder al menos, proporcionar a la
ciencia una conciencia histórica y a los científicos un sistema revisado y
balanceado. Ya ha habido algunos intentos en este sentido pero no han
progresado, y quizá el caso más notable sea el del científico que a
continuación trataremos
Como vimos, Bohm sufrió en dos frentes. Lo que ambiciona la teoría
de la “onda piloto” es colocar al comportamiento extraño del quantum
dentro de un marco con sentido. En un clima en el que cualquier intento de
interpretar datos dentro de un contexto significativo es un anatema, los
científicos tienen que usar cualquier argumento en contra de la onda piloto:
algunos discuten que es insostenible porque no hace caso de la restricción de
Einstein sobre la acción a distancia. Otros, más imbuidos en las ideologías
de la época, lo han acusado etiquetando a la teoría como determinista. Esta
125
última acusación es sostenida frecuentemente no como resultado de un
detallado análisis de las ideas científicas de Bohm, sino sólo por recurrir a su
política. En otras palabras, en el más repulsivo de los gestos, los detractores
de Bohm han acudido a su encuentro con la HCUA y a su supuesta ideología
política para obstaculizar la difusión de su teoría e interpretación sobre la
física cuántica. La lógica está por supuesto mal dirigida, pero funciona como
sigue: puesto que Bohm, según se afirma, es un marxista y el marxismo
plantea una versión determinista y teleológica de la historia, se sigue que el
trabajo científico de Bohm está matizado con tal ideología. Brevemente, los
mismos científicos que sostienen que la empresa científica ocurre fuera de
cualquier contexto histórico, utilizan las circunstancias históricas que
rodearon el trabajo de Bohm para argumentar que su trabajo no tiene
validez, para argumentar, además, que su trabajo –por decirlo de alguna
manera– está “infectado” con ideología política.
Si una supuesta ideología marxista hizo de Bohm un científico inferior
a los ojos de su comunidad, si sufrió desaires a causa de los dogmas que
muchos científicos abrigan, entonces el caso de Pierre Teilhard de Chardin
no debe sorprendernos. Mientras que Bohm se inclinó hacia una ideología
que era en lo esencial materialista y atea, Teilhard de Chardin, aun cuando
no abrazaba ninguna ideología, estaba formado por dos impulsos que
desafortunadamente eran considerados perjudiciales al esfuerzo científico.
En una era de especialización, en la que la lógica cartesiana de la
fragmentación y el análisis ha llevado a los físicos de partículas a emplear
más y más tiempo dividiendo átomos que, por así decirlo, no pueden volver
a unir; cuando los biólogos más bien se dedican a estudiar fenómenos
minúsculos, y en la que las ciencias y las humanidades han llegado a un
abismo insuperable, Teilhard de Chardin está definitivamente fuera de lugar.
126
Su propósito era en primer lugar y principalmente sintético y la síntesis que
intentó era múltiple. Como muchos de los científicos a los que hemos visto
luchando para tratar de unificar diferentes teorías en una sola, Teilhard de
Chardin intentó unir la cosmología y la física de partículas. A diferencia de
estos mismos científicos que hemos visto perderse en los recónditos enigmas
de una jerga matemática, la simplicidad de su solución es asombrosamente
intuitiva e involucra una segunda síntesis: a saber, él sugirió que lo que liga
estas dos ramas de la física debería buscarse, no en algún oscuro sistema
matemático o en esa insistencia cartesiana de romper la naturaleza en sus
más y más pequeños componentes, sino en la evolución. Veremos esta
solución con mayor detalle más adelante en éste y en los siguientes
capítulos. Por ahora y a riesgo de parecer simplistas será suficiente decir que
Teilhard de Chardin vio la evolución como la manifestación de otra fuerza
como el electromagnetismo o la gravedad, pero más fuerte aun, y cuyo
modus operandi determina el comportamiento de las otras fuerzas.
Las ambiciones de Teilhard de Chardin no paran aquí. Él no era la
mente posmoderna explayándose en la taxonomía y sin salir de la rutina de
una sola disciplina. Como sus predecesores del Siglo de las Luces o a los
que el Renacimiento llamó acertadamente filósofos naturalistas, hombres
como Liebniz que no encontró problema negociando entre el mundo de la
teología y la filosofía y el mundo de la ciencia formal,54 Teilhard de Chardin
se opuso a lo literal del materialismo científico e intentó una síntesis más a
fondo. De nuevo, como Liebniz antes que él, Teilhard de Chardin se
enfrentó a los duros y fríos hechos de la ciencia de una manera moderna
Liebniz, entendió su irrelevancia y limitación si se ven fuera de un contexto
54
El concepto filosófico de las mónadas de Liebniz anticipa el trabajo de Teilhard de
Chardin, y Liebniz también pudo haber inventado el cálculo antes que Newton.
127
teológico y metafísico. Para los científicos, por supuesto, este último intento
es, pese a su pretendido vacío de dogma, blasfemia pura.
Así, otra vez, el destino del trabajo de Teilhard de Chardin no debe
sorprendernos. El rechazo que ha sufrido hace que el rechazo a Bohm
parezca benigno. Como quiera que sea, al añadir perjuicio al insulto, puesto
que Teilhard de Chardin se movió en dos mundos, el científico y el religioso,
su trabajo fue también denostado por las autoridades eclesiásticas.
Teilhard nació en 1881 en la región de Auvergne, que el compositor
Canteloube inmortalizó en su extensa colección de Cantos de Auvergne. Su
fecha de nacimiento lo coloca dentro de una generación que revolucionó la
ciencia y el arte y que incluye a Proust (1871) y Joyce (1882), a Rilke (1875)
y T. S. Elliot (1888), a Schoenberg (1874) y Stravinsky (1882), a Einstein
(1879) y Bohr (1883). El padre de Teilhard fue un naturalista amateur,
coleccionista de minerales, insectos y plantas. Como tal, alentó la
predilección de Teilhard por las ciencias naturales. A los 11 años se
matriculó en un colegio jesuita, y hacia 1899 entró al seminario para estudiar
el sacerdocio. La sensibilidad moderna ha hecho a un lado a los sacerdotes.
Gracias a los medios, el sacerdote ha llegado a ser el emblema de un
anticuado modo de vida: provincial en sus puntos de vista, cerrado de mente
e inconsciente del avance moderno. Mientras que la Iglesia como institución
ha hecho lo que ha podido para llevar más allá tal punto de vista, la verdad
ha sido totalmente diferente. Como todos los estereotipos, este último sólo
subraya un aspecto de la institución, que ha producido más que hombres
austeros y piadosos. En realidad, si uno lee el contorno de la biografía de
Teilhard de Chardin, puede uno recordar que su orden, fundada durante la
Contrareforma, siempre se ha enfocado en el conocimiento y la educación.
Originalmente establecida para emprender la “reconversión” de aquellas
128
almas indecisas que habían cambiado de denominación, así como para
prevenir cualquier deserción de las almas jóvenes y resueltas, concibió la
educación como la mejor herramienta para contener los problemas que la
Reforma había causado.
Para muchos de los lectores, la información anterior puede resultar
irrelevante. En estos días podemos prestar atención a diferentes instituciones
que tienen una historia similar. Oxford, Princeton o La Sorbona y otras
instituciones, tuvieron, como los jesuitas, una meta original, y han tenido,
como los jesuitas, una notabilísima lista de alumnos. Con todo, estas
famosas universidades, aunque siguen fieles a su pasado por motivos
comerciales y si bien mantienen algunas de las más notables facultades,
utilizan su historia como trampa turística más que como un modelo
didáctico. Por consiguiente, Oxford, Princeton o La Sorbona no son más que
espejos distantes de sus originales. La orden jesuita a principios del siglo XX
era totalmente otra cosa, ligada como estaba, y como había luchado a lo
largo del siglo, a su carácter original, y más importante, a sus métodos
didácticos originales.
Entonces fue allí, en el seminario, donde debemos suponer (y suponer
debemos porque desgraciadamente hace falta una biografía completa y
erudita de Teilhard de Chardin) que Teilhard pudo heredar una herramienta
cognoscitiva que, transformada, pudo haber influido de manera decisiva en
su posterior trabajo científico. Como discutimos antes, la orden jesuita,
tratando con los problemas didácticos surgidos de la Reforma, desarrolló lo
que conocemos ahora como casuística. “Casuístico” y “jesuítico” han
llegado a ser en nuestros días sinónimos de lo tortuoso. No obstante, los
casuistas originales, como Mariana y Jeremy Taylor, eran gente de alto
calibre intelectual.
129
La casuística es la teoría de los casos: nos enseña como aplicar las
reglas generales que gobiernan la conducta en un problema moral particular.
En otras palabras, inventando la casuística los jesuitas le dieron al mundo
moderno una manera mediante la cual tratar con casos particulares. El
método todavía está con nosotros en el derecho y en la medicina. Cuando un
juez decide sobre un caso, está usando la casuística. En todos los códigos de
conducta de las diferentes profesiones, desde la militar hasta la médica, la
ley usa la casuística. En tono más rimbombante, la casuística requiere dar un
paso epistemológico que no había sido codificado antes de los jesuitas y que
requiere a su vez la abstracción de la mente para generalizar a partir de la
integración de casos particulares. Así, la herencia de los jesuitas va más allá
de la conducta e influye sobre cualquier disciplina que requiere lógica.
Uno puede darse cuenta de que el trabajo de Teilhard de Chardin está
de muchas maneras influenciado por este impulso intelectual. A diferencia
de la mayoría de los científicos, que eluden las generalidades y las
abstracciones y se enfocan sólo en casos particulares para derivar principios
generales después de meticulosos experimentos, el trabajo de Teilhard toma
esos principios generales que los científicos han derivado y entiende que
debe unificarlos, sin ser necesario dar pie atrás y revisitar los detalles
minuciosos de lo todavía más particular, sino que sólo se necesita encontrar
un concepto bajo el cual el comportamiento de lo particular pueda tener
sentido. Para muchos esto puede sonar anticientífico. Pero realmente no lo
es. Los grandes ejemplos de tal método de trabajo son bien conocidos.
Einstein no necesitó dar marcha atrás y redescubrir la física newtoniana para
llegar a la relatividad. Igualmente, a pesar de que el público en general cree
que los principios de la ciencia sólo se dibujan en el laboratorio, después de
horas interminables de investigación, la verdad es que en física, por lo
130
menos en los últimos cien años, la teoría ha precedido al experimento. Aun
en la biología evolucionista, en ciertos trabajos, uno encuentra este tipo de
casuística. En efecto, contra la creencia popular, la biología evolucionista no
ha progresado este siglo gracias a trabajos polémicos de escritores como
Gould o Dawking, a quienes les encanta explayarse en las diferencias y en lo
particular, y que son completamente literales cuando llegan a la lectura de
Darwin. No, el trabajo más interesante, el trabajo que encontramos
posteriormente, ha sido emprendido por gente que recurre a las
generalidades.
En realidad, si el trabajo de Teilhard de Chardin como biólogo y
paleontólogo anticipa alguna cosa en la biología evolucionista, es lo que ha
llegado a conocerse como cladística. La cladística no solo resuelve un
problema central para los biólogos evolucionistas, sino que provee un
modelo para otros científicos. Encarada con el problema crucial nunca
resuelto de reconstruir completamente el pasado geológico o evolutivo, es
decir con el problema de que no hay suficientes datos específicos para
desarrollar una teoría coherente, la solución cladística implica cambiar la
especulación en la historia evolutiva acerca de las discusiones sobre las
verdaderas descendencias en teorías acerca de las relaciones. A diferencia de
los árboles evolutivos que Gould condena y que para todo propósito práctico
son modelados después de nuestras cartas genealógicas, los cladogramas
suponen que si la evolución sucedió, entonces los cambios evolutivos –ya
sea que afecten miembros o genes– deben transmitirse a futuras especies que
comparten un ancestro común. Estas características derivadas son la base de
la cladística. En lugar de tratar de reconstruir árboles de descendencia hasta
sus más minuciosos detalles, en lugar de volverse algo afín a lo que hacen
los físicos de partículas, quienes se dedican a sumar partículas a su catálogo,
131
los cladogramas dibujan las relaciones entre especies como una serie de
ramas que se dividen regularmente, basados en las características de los
actuales animales vivientes55. La cladística es deductiva en vez de inductiva.
El trabajo de Teilhard de Chardin parece ser de muchas maneras el pionero
de esta técnica: de hecho, veremos algo muy similar a lo que ahora se
conoce como cladística cuando nos adentremos en El fenómeno humano, y
veamos cómo el libro mismo está estructurado para destacar no las
cronologías detalladas y las descendencias directas, lo cual es imposible,
sino las relaciones entre familias.
Que Teilhard de Chardin haya anticipado la cladística no debe verse
sólo como una tendencia abstracta que hubiera heredado de su educación
jesuita. Mientras que la casuística jesuita debe haber tenido un papel central
en su desarrollo intelectual, la ciencia, la ciencia dura con observación y
campo de trabajo, fue también central en la vida de Teilhard. Después de
1911, cuando fue ordenado sacerdote, después de vivir en El Cairo y
Hastings, Teilhard le dedicó por completo 44 años a la investigación
científica. Trabajó primero en el Musée National d`Historie Naturelle; allí,
bajo la tutela de Marcellin Boule, un especialista en el hombre de
Neandertal, tomó sus primeras lecciones de paleontología humana. No fue
solamente como curador de museo, sino que realizó un verdadero trabajo de
campo y tomó parte en las excavaciones de las cuevas del noroeste de
España.
Los críticos de Teilhard de Chardin, que abundan, y que lo han
acusado de toda blasfemia posible contra la ciencia, también han visto su
trabajo como “poético” y han argumentado que su tendencia teológica es
55
Este concepto puede ampliarse a la botánica y así, a cada paso evolutivo de la fauna de
un nicho ecológico, correspondería un paso evolutivo de la flora.
132
antihistórica, tanto en el plano evolutivo como en humano. A pesar de todo,
si algo informa el pensamiento de Teilhard de Chardin, es la historia. Su
vida, como la de muchos de aquellos que pertenecieron a su generación, fue
intersectada por las dos catástrofes centrales del siglo XX: las dos guerras
mundiales. Lejos de ser un espectador de ambos acontecimientos, fue un
activo participante por lo menos en la Primera guerra mundial; en realidad,
si algo interrumpió su investigación científica, fue su labor como camillero
en esta guerra. John Keegan, uno de los principales historiadores de lo
militar, se refirió a la Primera guerra como “un conflicto trágico e
innecesario”, “una cadena de eventos que pudo ser prevenida” y la cual “dio
fin a la vida de diez millones de personas, torturó la vida emocional de
millones más y destruyó la benevolente y optimista cultura del continente
europeo y dejó, cuando las ametralladoras al fin se silenciaron, un legado de
rencor político y odio racial tan intensos, que no es posible esperar ninguna
explicación de la Segunda guerra que no tenga referencia a esas raíces.”
Teilhard de Chardin fue un testigo de primera mano de esta tragedia, la cual
catalizó su visión final, una visión que requirió “una vida cósmica” (como
tituló su primer ensayo) para expiar la brutalidad del hecho.
De esta manera, las ideas de Teilhard de Chardin son, entre otras
cosas, intentos de proyectar el medio científico en un contexto social. Más
tarde, cuando Teilhard de Chardin vio el inicio de la Segunda guerra y
visualizó toda la pesadilla otra vez, ahora con su enfoque firmemente
asentado, pudo escribir un conmovedor ensayo tratando de interpretar la
guerra. “El momento de la elección” como se tituló el ensayo, es impactante,
no a causa de su optimismo –una razón más que los críticos de Teilhard
tienen para rechazar su trabajo– sino porque su interpretación del conflicto
es casi presciente de la manera en que ahora se ve el conflicto, puesto que
133
concuerda casi a la letra con la mayoría de las interpretaciones que los
historiadores ofrecen hoy día. Teilhard vio la Segunda guerra mundial como
un conflicto entre el “internacionalismo”, entre una cultura cosmopolita y el
nacionalismo, la “fragmentación reaccionaria de los grupos étnicos en
nombre de la historia.”
En el pensamiento teilhardiano, las dos guerras mundiales llevaron a
la necesidad de una ciencia que pudiera tener algún contexto social y una
visión que eliminara de la evolución lo calamitoso y pesimista. Que diera
una visión que en lugar de considerar a la “humanidad” como “las lianas de
un tronco que aumentan con el agotamiento del mismo tronco al que matan
mientras crecen”, viera a esta humanidad como un “organismo que obedece”
las “más inequívocas leyes del universo”: “no más como una sucesión de
eliminaciones, sino como una confluencia de energías”. De cualquier modo,
Teilhard emprendió también un trabajo más científico después de la Primera
guerra mundial. En los años que siguieron, pudo estudiar en La Sorbona y
escribió en 1922 su tesis sobre “Los mamíferos del Eoceno superior en
Francia”, enseñó y trabajó en China56. Fue con el primer intento de sintetizar
la teología con la ciencia cuando empezó a sentir la presión de los jerarcas
de la Iglesia. Después de presentar un documento sobre “El pecado
original”, Teilhard perdió su cátedra y fue exiliado a China.
El documento, como casi todo el trabajo de Teilhard, permaneció
inédito hasta después de su muerte, pero es importante que el lector tenga
una clara visión de su interpretación de las Escrituras. Teilhard de Chardin
no era un literalista. A diferencia de muchos creyentes que hoy todavía son,
56
En este país, Teilhard de Chardin entre otros trabajos e investigaciones participó en el
equipo que descubrió el cráneo del Sinanthropus u hombre de Pekin en diciembre de
1929, siendo el encargado de fechar el depósito en el cual fue encontrado.
134
en nombre de los creacionistas, incapaces de reconciliar el hecho científico
con sus creencias religiosas, Teilhard entendió el hecho científico como tal,
y vio en la Escrituras una descripción popular de este hecho y de todos los
fenómenos que lo rodean. Así, para Teilhard, lo supremo de la teología
cristiana, la caída del Edén, no es un evento literal, sino una figura que
representa la necesidad de redención. En el fondo, Teilhard comprendió el
pecado original como lo simbólico de los “contratiempos” en la historia de
la humanidad. Y puesto que él visualizó la historia de la humanidad como
sujeta a las mismas “leyes”, como siguiendo la misma dinámica de la
historia del universo, entonces comprendió la caída como lo emblemático de
las muchas “crisis” que se encuentran en cualquier proceso.57 El ensayo es
fundamental para un entendimiento pleno de Teilhard de Chardin, pues no
solamente clarifica la manera en la cual interpreta la ciencia y la escritura,
sino que también establece tres temas verdaderamente importantes.
Primero, la historicidad de la vida. Para Teilhard, la vida ocurre en el
tiempo, y el tiempo tiene que tomarse en su acepción más amplia, como un
tiempo cósmico, geológico o como lo llamó en su ensayo “El misticismo de
la ciencia”, “un tiempo orgánico”. En pocas palabras, si uno quiere entender
a Teilhard de Chardin, tiene uno que pensar en un “tiempo ilimitado”,58 una
cronología que abarca el total de la historia cósmica.59
57
Con esto, Teilhard anticipa el concepto de una ciencia importantísima que habría de
desarrollarse con el advenimiento das computadoras, la ciencia del Caos o la ciencia que
estudia el comportamiento de los sistemas dinámicos no lineales.
58
Este concepto de tiempo ilimitado o infinito, se puede ver confirmado en el libro “The
End of Certainty” del notable científico y premio novel Ilya Prigogine, quien afirma que
“el tiempo ha existido y existirá por siempre”
59
La historia cósmica no empieza ni termina con el actual universo, pues si como
veremos, todos los procesos son fractales, es, ha sido y será una serie de universos que
tienden a unirse y en cada repetición empiezan con diferentes parámetros, cada vez más
complejos en una secuencia que no tiene final.
135
Segundo, el ensayo establece que el tiempo, en lugar de ser una flecha
que apunta en una dirección, es más como un proceso mental; en otras
palabras, es una proposición inicial que sucede en múltiples pasos, y que en
cada paso es informada por el índice y la bibliografía completas de la cual el
pensamiento no sólo toma el conocimiento sino que lo ramifica.60 A medida
que cada rama aparece, la idea aparenta estancarse o dispararse en diferentes
direcciones. De hecho, si uno quiere encontrar una concepción similar del
tiempo en nuestro siglo, es necesario recurrir a la literatura61, y no
precisamente a la visión de Proust, donde la memoria y el arte recapturan los
momentos perdidos, sino a la biblioteca borgesiana, donde el emblema
universal no es el hombre –cerca de la extinción– que sólo es un accesorio
de la biblioteca que sobrevivirá pese a las extinciones: “iluminada, solitaria,
infinita, perfectamente inmóvil, armada de volúmenes preciosos, inútil,
incorruptible, secreta”.
60
Aquí se puede captar un concepto que veremos más a fondo, la noosfera teilhardiana,
pero no solo privativa del hombre, sino ampliada a cuanto ser existe, desde las partículas
elementales hasta el universo mismo.
61
Y no sólo a la literatura, puesto que se puede ver un concepto similar en el reciente
libro del físico Julián Barbour, The End of Time
136
6
EL ABISMO DE LA SÍNTESIS:
EL FENÓMENO HUMANO COMO UNA HISTORIA
UNIVERSAL
Aunque parece ser antigua, la idea de una historia universal, una
historia que abarque toda la existencia humana es, por el contrario, una idea
relativamente reciente. Los más prominentes historiadores Griegos se
concentraron en sucesos fundamentales, más allá de los caracteres de la vida.
Herodoto, el llamado padre de la historia, escribió sus laberínticas y
fascinantes crónicas sobre las Guerras Persas. Tucídides, una mente
completamente diferente, cuyo propósito era escribir un libro para las
épocas, se enfocó en un suceso promordial el cual explicó el fin de lo que
conocemos como la Grecia clásica: la Guerra del Peloponeso.
De igual manera, los historiadores Romanos, aunque fueran tan vastos
como Tácito, o tan familiares como Suetonio, tendian a registrar
acontecimientos que estaban dentro de una reducida esfera de acción.
Plutarco y Suetonio son más afines a lo que llamamos ahora biógrafos en sus
narrativas. Tácito rara vez se desvió fuera del Imperio.
Si uno se desentiende de las raíces y del significado original de la
palabra historia –que viene del Griego y significó búsqueda, investigación–
y si uno deja la tradición histórica grecoromana y mira hacia otras culturas,
el impulso de una historia universal siempre es predominante, aunque este
predominio no divorcia la cronología de los historiadores grecoromanos del
mito, la superstición y la poesia. Incluso, es imposible examinar la Biblia y
los diferentes textos sagrados para otras religiones, sin encontrar en sus
137
genealogías no sólo la cuenta de la descendencia, sino también una historia
que si no es del todo exacta y está permeada por el mito, intenta cumplir el
papel de una historia universal.
Agustín de Hipona fue quizá uno de los primeros –y definitivamente
uno de los primeros que aún se sigue leyendo– que se esforzó hacia una
reconciliación de los fríos y duros hechos de la razón en la tradición
grecoromana con la ambición grandiosa de los escribas Bíblicos. Su Ciudad
de Dios, aunque no fue significativo como historia, sino como un tratado que
justificaría la cristiandad, nos dió el primer vislumbre, tanto de las
posibilidades como de los riesgos inherentes a la forma de una historia
universal. La Ciudad de Dios de San Agustín, está dividida en 22 libros y
aunque pudiera parecer algo rudo si uno no considera su contexto (fue
escrito justo después de que las tropas de Alarico saquearan Roma) y a pesar
de que no es significativo como una obra de historia estrictamente o que
apunte hacia a ella, cada libro contiene lo suficiente. De hecho, es posible
dividir la obra en dos partes, viendo los primeros diez libros como unas
historias cuasi-antropológicas en las que San Agustín explica largamente la
historia y las costumbres de las comunidades paganas. La segunda parte, los
últimos doce libros, parecen ser la antítesis de los primeros diez en cuanto a
que son la “verdadera” historia de la humanidad, desde el Génesis hasta el
Juicio Final.
El argumento de La Ciudad de Dios tendría una gran influencia
durante la Edad Media. Muchos vieron su cronología como un pronóstico de
una larga cadena de potentados, reyes y papas. Sin embargo no sería el
contenido del libro, sino su espíritu, el que daría lustre, el que brillaría con
fuerte luz en el escolasticismo, puesto que dicho espíritu es sintético, es un
intento de tomar una tésis y una antítesis, y ver el resultado final, o sea lo
138
que llamamos una síntesis. San Agustín no usó tal terminología, aun cuando,
como retórico, debió estar familiarizado con ella. En realidad, la idea de
tésis, antítesis y síntesis, no entraría en el discurso filosófico con la fuerza
que tuvo a partir del Siglo de las Luces, hasta Hegel. Tomás de Aquino, por
supuesto, emplearía a Aristóteles para reconciliar la fe y la razón. Y el más
destacado logro literario de la Edad Media, La Divina Comedia de Dante
popularizaría la tipología de la vida trascendente, con una fisonomía
histórica que volvería a los caractéres biblicos, a los griegos y a los romanos,
y que también incluyó su largo catálogo de papas, lores, etc.
Si algo pudiera hacer que esta esperanza de una historia universal
disminuyera, habría que esperar al Renacimiento. Los pensadores
renacentistas abandonaron el escolasticismo medieval y retornaron a la
Antiguedad por sus modelos, y vieron en los modelos y objetivos griegos y
romanos, una concepción racional del mundo. Ciertamente, en la historia de
la humanidad, la búsqueda de los inicios es por lo general infructuosa, pero
para los pensadores del Renacimiento, si el advenimiento del pensamiento
“racional” o, más precisamente, del logos, y la decadencia del pensamiento
mitológico, pudiera señalarse con precisión, se podría fijar a principios del
siglo VI a.C. en el Mileto Jónico, con hombres como Tales, Anaxímenes y
Anaximandro. Estos hombres, de acuerdo con sus herederos renacentistas,
marcaron un nuevo camino sobre cómo pensar acerca de la naturaleza e
hicieron de esto el objeto de una destacada investigación sistemática (una
historia) y ofrecieron una visión comprensiva de ella (una teoría). Las
explicaciones que ofrecieron sobre el origen del mundo, su composición y su
estructura, asi como de los fenómenos meteorológicos, no estuvieron
influenciadas por la dramática maquinaria de las más tempranas teogonías y
cosmogonías.
139
El Renacimiento fue, por supuesto, la idealización del pensamiento y
de los pensadores de la Antiguedad. No obstante, esta idealización estableció
los principios para cualquier historia universal, o de todo lo que viniera a ser
historia en el futuro. Los agentes sobrenaturales cuyas aventuras, luchas y
proezas formaron la red de los mitos de la creación, que trazaron la
emergencia del mundo y del establecimiento del orden, no fueron ya
permitidos, ni siquiera una referencia a los dioses que estuvieron ligados a
las fuerzas de la naturaleza por la creencia y observancia de una religión
oficial. El gran cambio paradigmático que llamamos Renacimiento, en otras
palabras, impuso un espíritu de positivismo. Nada existe que no sea
naturaleza. Los mundos natural y humano hacen un solo mundo, la manera
en la cual la naturaleza ha venido a ser comprensible para el ser humano.
El espíritu positivista del Renacimiento ha participado en toda
tentativa humana desde entonces, cuando esta tentativa es filosófica,
histórica, etc. Mucho de lo que hemos visto en este libro, la teoría de la
evolución, la física, etc., son descendientes directos del espíritu del
Renacimiento. Sin embargo, cuando uno ve las obligaciones que este
positivismo impone sobre las diferentes disciplinas, sorprende el hecho de
que tantos intelectos sigan aún persiguiendo el sueño de una vasta historia.
El Siglo de las Luces pudo producir, por supuesto, trabajos monumentales y
enciclopédicos como Decline and Fall of the Roman Empire de Gibbon,
pero si algun nombre pudiera sobresalir como autor del primer intento
disciplinado de reunir una historia universal, sería el de Giambattista Vico
(1668-1744). Dentro de la historia de las ideas, ciertamente Vico tiene un
papel especial, pues las suyas han sido adoptadas en muchos campos
ideológicos, tanto que ahora es dificil tener un claro sentido de su proyecto.
La principal ambición de Vico fue reunir la historia humana y proveer una
140
nueva filosofía para esta historia redefinida, para formar una visión unificada
del hombre y del mundo. Él realizó esta hazaña en un complejo y al parecer
mal escrito libro titulado Principi de una scienza nuova d´intorno alla
comune natura delle nazioni (1725).
Irónicamente –casi como una prueba de que el mundo poco ha
cambiado desde los días de Vico– “La ciencia nueva” tuvo grandes
dificultades para ser publicada, no a causa de lo mal escrita, sino por sus
méritos, sus cualidades. El libro de Vico vio a la humanidad –a las naciones,
a las civilizaciones, a las culturas– como pasando por estados progresivos,
de la bestialidad a una alta civilización y después hundiéndose en el
barbarismo. En otras palabras, Vico fue pionero en iniciar la tradición en la
que la historia no solamente es una cronología o una acumulación de datos,
sino una serie de estados, de ascensiones y caídas. Esta tradición en la
historia de buscar patrones y señalar estados va de la mano con su utilidad
para aprender y predecir, y Vico fue también pionero en esto. Asi,
investigando los diferentes estados de la historia humana, llegó a su más
“escandalosa” predicción cuando dijo que el segundo barbarismo se tragaría
las civilizaciones después de que éstas alcanzaran su cumbre y que sería peor
que el primero, con el que habían empezado. Vico argumentaba que los
barbaros originales poseían toscas virtudes, mientras que a los últimos no les
quedaba ninguna, y mientras su visión de dos barbarismos interrumpidos, el
principio y el final de la civilización, parecería artificial en nuestros dias, hay
una especificidad en el escrito que parece presciente en su intuición
psicológica. Para el segundo barbarismo que él predijo, Vico argumentaba
que la vida en las ciudades atestadas produciria hombres incrédulos, que
estimarian el dinero como medida de todas las cosas, que carecerían de
141
cualidades morales, particularmente de modestia, de responsabilidad familiar
y de valor civil. Emancipados de la ética vivirian en la delación y el engaño.
“La ciencia nueva” ha tenido una extraña vida. Vico murió a
mediados del siglo XVIII, no completamente en el olvido, pero si
definitivamente ignorado de una manera que no merecía. En realidad, si
algún reconocimiento se le hizo, éste llegó durante el siglo XIX, cuando
historiadores como Michelet encontraron sus métodos y su ambición, afines
a sus propios proyectos. “La ciencia nueva” debió haber influenciado la
visión de los procesos historicos tanto en Hegel como en Marx, aun si en sus
trabajos parecen contradecir algunas de las premisas de Vico. Ironicamente,
por supuesto, el siglo XX ha tenido más que equívocos.
Pocos pensadores se han suscrito a la idea de contemplar la historia
como una sucesión de estados; en cambio, la mayoria ha escojido ver la
historia como transformaciones temáticas. Por ejemplo, uno de los más
eminentes historiadores, Philipe Aries, ha escrito una historia de la niñez y
una historia de la muerte, el resultado, en su caso, ha sido siempre
satisfactorio. En otros casos, difícilmente ha sido así. La Histoire de la
Sexualité de Foucault, desafortunadamente un libro mucho más influyente,
esta lleno de inexactitudes y artimañas tan torpes, que los estudiantes de
primer año de historia serían reprendidos si las tomaran en serio.
La perspectiva temática de la historia ha sido una reacción contra el
determinismo; sin embargo, aquellos cuyo trabajo en la vida ha sido una
prolongada batalla contra este determinismo, son algunos de los más
ardientes defensores del trabajo de Vico y lo que elogian de él no es su
visión de la historia, ya que si bien es central, se las han arreglado para
ignorarla, sino sus ideas antropológicas y étnicas. El primero entre los
partidarios de Vico ha sido el filósofo de Oxford nacido en Letonia, Isaiah
142
Berlin, cuya obra, Historical Inevitability, publicada en 1955, se mantiene
junto a The Poverty of Historicism y The Open Society and its Enemies de su
colega Karl Popper, como texto principal en la crítica del determinismo. Más
tarde, libros como The Age of Enlightenment y Four Essays on Liberty,
desarrollarían un esfuerzo antideterminista, puesto que Berlin vió al
determinismo como la semilla de las sociedades totalitarias y mecanizadas.
No tenemos mucho espacio para ver cómo este argumento es digno de
elógio, porque es imposible negar que el determinismo ha tenido, como
muchas otras ideas, repercusiones históricas nocivas. La retórica de Hitler,
Franco, Mussolini y Stalin estuvo completamente impulsada por una visión
determinista de la historia. A pesar de todo, tal como los actuales marxistas
se han aficionado a recordarnos, existen algunas formas y manifestaciones
de un marxismo vulgar, que excluyen a pensadores como Adorno, Benjamin
y Gramsci, e igualmente la crítica de Isaiah Berlin al determinismo falla al
no ver que hay un determinismo vulgar y un determinismo educado.
Su valoración de Vico es el caso en cuestión. En un ensayo completo
y lleno de intuición, se las arregla para ignorar lo que constituye el esquema
central de Vico: la división de la historia en estados que se parecen unos a
otros; en cambio, alaba la visión antropológica de Vico, su habilidad para
ver cómo “la experiencia de una sociedad particular” puede ser determinada
por sus “mitos, formas de trabajo o lenguaje”. De acuerdo con Berlin, esta
sensibilidad “abre nuevas puertas”, “desacredita la idea de que en la
naturaleza humana hay algo como una parte estática espiritual, inalterable y
eterna.” La interpretación de Berlin le dá a Vico el mérito cuando es debido,
pero se maneja a modo de estropearle su principal argumento, de que “cada
estado de civilización genera su propia arte, su propia sensibilidad e
imaginación”, y como Berlin lo presenta, debe deducirse que para Vico no
143
hay “parte espiritual de una eterna e inalterable naturaleza humana”. Vico
vió en el lenguaje, en la costumbre y el mito, como dijo en sus propias
palabras “principios generales”. Más aún, vió estados, el crecimiento y la
decadencia de cada cultura, como predeterminados.
Así, el elogio de Berlin es, a la par que muy brillante, prejuicioso.
Como tantos de los muy inteligentes pensadores que hemos encontrado a lo
largo de este libro, ha desfigurado una idea en aras de adaptarla a sus
necesidades políticas e ideológicas. Y mientras que su política e ideología
fueron nobles, la perversión no fue menos deshonesta y perjudicial para una
larga influencia establecida, como la de Vico, una influencia que participó
mucho en el pensamiento del siglo XIX. Así, las ideas de Vico fueron
manipuladas y frustradas por uno de los más importantes pensadores del
siglo XX, sólo porque este pensador tenía cuentas que arreglar con el
determinismo. Entonces, imaginemos lo que le puede suceder a un recien
establecido y revolucionario pensamiento en nuestra época, o peor,
imaginemos cómo sería interpretada una historia universal de un Vico
actual, si este historiador intentara contribuir a la moderna ideología.
La imaginación suele ser sometida algunas veces a duras pruebas,
pero para imaginar qué le sucedería a una nueva, revolucionaria, reveladora
historia universal, es suficiente seguir el destino de El fenómeno humano, y
mientras que Vico tuvo que recurrir a la escrituras biblicas y a otras historias
infectadas con mitos, y considerando que sólo trato con la historia y nunca
se explayó en la prehistoria, el libro de Teilhard de Chardin es una verdadera
historia universal. Más aún, El fenómeno humano es una historia universal
que excluye los hechos historicos conocidos, en aras de explicar cómo los
hechos desconocidos de la evolución y la cosmología forman nuestro
presente y formarán nuestro futuro.
144
Pero ¡ay! como “La ciencia nueva” de Vico, El fenómeno humano ha
sido mal entendido, mal citado y demasiado calumniado. Ya hemos visto
cómo Simpson y Medwar lo ignoraron, diciendo que es una colección de
“tediosos conceptos metafísicos”. Como quiera que sea, aun algunos de los
defensores de Teilhard han malentendido y desfigurado su pensamiento.
Robert Right lo ha visto como “el profeta de la globalización”, una etiqueta
totalmente reductiva, tan torcida por la ideología política actual que no es de
sorprender que Teilhard salga con cajas destempladas en los círculos serios.
La gobalización no es más que un eslogan político de hoy, una palabra
conocidísima con la que los políticos han logrado situar mejor en el mercado
a las grandes corporaciones. Teilhard de Chardin indica que el pensamiento
debería “converger”, como veremos en breve, al tratar su argumento en
forma mucho más profunda. En verdad, uno no debe confundir la
globalización, esa nueva codicia de las corporaciones, con el pensamiento
verdadero. Que la Coca Cola haya llegado a Boroboro o a Ciskei, es un
hecho que no debe llenarnos de orgullo y definitivamente no tiene nada que
ver con el pensamiento. Teilhard de Chardin, con certeza, no es un profeta
del beneficio económico. Otros pensadores le han atribuido distintas
profecías, como los medios de comunicación instantáneos y el internet. Y
aun cuando Teilhard pueda estar de acuerdo con cualquier manera en que se
difunda la información, siempre que sirva para llevar más lejos a la
humanidad, estos partidarios se equivocan al ver que, a diferencia de la
mayoría de los profetas de la era de las comunicaciones, a diferencia de los
Marshall McLuhan del mundo, que gustan de los medios de comunicación y
se mueren de risa por su contenido, el principal interés de Teilhard no son
los medios, sino el fin. Brevemente, él está más interesado en el contenido
de la información que en los medios por los cuales se distribuye.
145
De la misma manera, otros pensadores han reducido las ideas que
subyacen en El fenómeno humano y lo han visto como una simple emulación
y aun como un plagio del pensamiento Oriental con el cual Teilhard llegó a
familiarizarse durante sus años en China. Y mientras que algunos escritores
están en lo correcto al señalar similitudes y parecidos, El fenómeno humano,
en su proyecto y en su ambición, así como en sus antecedentes históricos, es
un libro completamente Occidental, que se maneja para cumplir la meta
incumplida de una historia universal, y hace esto por medio de la ciencia.
Como hemos visto anteriormente, la ciencia en El fenómeno humano
ha sido a menudo cuetionada, y como anunciamos, los siguientes capítulos
estarán dedicados a revisar las predicciones y las afirmaciones de Teilhard,
comparadas con las más recientes interpretaciones de las diferentes ramas de
la ciencia. Por ahora, nos gustaría colocar a El fenómeno humano en una
correcta perspectiva, para lograr esto, requerimos ver el libro, no como el
intento desesperado de un creyente de reconciliar la ciencia con la fe, ni
como una chapucera lección o interpretación de la evolución, y
definitivamente tampoco como un plagio de otras filosofias o ideas
religiosas. Si algo es El fenómeno humano es un libro occidental post-Siglo
de las Luces. De hecho, sus dos premisas centrales lo colocan exactamente
en medio de la tradición tardía occidental.
La primera de estas premisas, prácticamente, parece afín a las ideas
que discutimos previamente en este capítulo. Teilhard de Chardin, como los
pensadores del Renacimiento que trataron de concebir la naturaleza y al
hombre siguiendo el pensamiento griego, asume que la humanidad es, como
el título del libro sugiere, un fenómeno.62 Tanto para la ciencia social como
62
Fenómeno, como la apariencia sensible o la manifestacion de la realidad; o al hecho al
que puede ser considerado idéntico. También la definición kantiana de que fenómeno es
146
para la ciencia natural, esta premisa es básica. Para que ambas tengan
principios sobre los cuales trabajar, tienen que suponer que existen algunos
patrones en el cuerpo humano, células humanas y comportamiento humano
que pueden ser estudiados. Lo que alinea aún más a Teilhard con la tradición
Occidental es su intento de amalgamar o sintetizar las dos tradiciones. Así,
mientras el libro estudia a los humanos no como un misterio, no como algo
irresoluble, sino como un fenómeno, como algo que puede ser estudiado y
puesto que este estudio puede ser consumado mediante el uso de métodos
históricos, mediante el uso de eras y cronologias, esta historia debe
analizarse bajo el microscopio de la ciencia.
En otras palabras, El fenómeno humano es una historia, una verdadera
historia universal, que traza el surgimiento de la materia y de las fuerzas que
controlan su comportamiento; esboza los cambios geológicos que no sólo
definen la superficie del planeta, sino las condiciones geológicas que
permitieron la emergencia de la vida, finalmente, subraya la emergencia y la
evolución de la vida. Esta historia llega a su fin cuando surge el pensamiento
autoconsciente, pero si hay algo importante y revolucionario acerca de la
historia no son sus pormenores: Teilhard no es como Gibbon o como
Michelet. Más cercano a Vico, se interesa en una visión panorámica, en una
visión global de etapas y patrones. A diferencia de historiadores previos, aun
de historiadores naturalistas, no basa su cronología en hipótesis, sino
introduciéndose en cada etapa por medio de su segunda importante premisa.
El fenómeno humano concibe la historia como una manifestación de la
evolución. A diferencia de la mayoria de los científicos que, en este punto,
sólo aplican la teoría evolucionista a la vida en la Tierra, Teilhard vió la
lo que no pertenece al objeto en sí mismo, sino que se encuentra siempre en su relación
con el sujeto y es inseparable de las representaciones de éste.
147
evolución trabajando no únicamente en la polimerización de una cadena de
proteínas que dieron paso a la vida en el universo, sino también en la
existencia de la materia inorgánica, en la formación de las galaxias y el
sistema solar y, por supuesto, en la formación de la litosfera, la hidrosfera, la
atmósfera, etc. De hecho, una buena tercera parte del libro explica
largamente lo inorgánico.
El enfoque de Teilhard de Chardin en la materia inorgánica no es
solamente un intento de sostener sus puntos de vista. Es en la materia donde
él encuentra algunos de los principios básicos que guiarán sus
interpretaciones de la evolución. Como muchos de sus ensayos atestiguan,
aunque no era un especialista, Teilhard era más que un enterado en la
relatividad y la mecánica cuántica, por lo que los principios que sigue en su
historia de la materia, son principios sobre los cuales todos los científicos
deben estar de acuerdo. Teilhard vió la materia con tres cualidades
inherentes. De la relatividad especial, él sabía que la materia es energía
“congelada”. Toda la materia es energía; no obstante, o más bien, porque es
energía congelada, la materia se manifiesta en diferentes formas. De la física
de partículas, Teilhard sabía que la materia es, por decirlo a su manera plural
y atomística. Lo segundo se refiere al mundo fragmentado del quantum, el
mundo del cual Teilhard conocía su falta de sentido –cuando inició el libro,
la ciencia cuántica se encontraba en un estado aparentemente caótico. No
obstante, sostiene que, pese a la fragmentación, la materia está unificada en
lo más profundo, y para atestiguar esta unidad recurre al hecho de que pese a
su “fragmentación y pulverización”, la materia obedece siempre las mismas
leyes y manifiesta el mismo comportamiento.
La cualidad tripartita que Teilhard vió en la materia, lo condujo a
pensar que está naturalmente alineada a lo largo de dos ejes. La materia
148
puede acumularse, aglomerarse, o puede fragmentarse. Para Teilhard, estas
dos solas cualidades de la materia son suficiente señal para que vea una
especie de evolución. La materia obedeciendo ciertas leyes, tiende a formas
cada vez más complejas:
Observada en su parte central, que es la más clara, la evolución de la
materia se concreta, conforme a las teorías actuales, en la edificación [en la
construcción] gradual, por creciente complejificación,63 de los diversos
elementos reconocidos por la fisica y la química. En la parte más inferior, para
empezar, una simplicidad todavía sin resolver, indefinible en forma de figura
[en términos de figura], de naturaleza luminosa. Después, bruscamente [de
repente], un hormigueo [una multitud] de corpúsculos elementales positivos y
negativos (protones, neutrones, electrones, fotones…),
cuya
lista va
aumentando sin cesar. Después, la serie armónica de los cuerpos simples,
situados, desde el hidrógeno hasta el uranio, sobre las notas de la escala
atómica. E inmediaramente la inmensa variedad de los cuerpos compuestos, en
que las masas [pesos] moleculares van ascendiendo hasta un cierto valor
crítico, por encima del cual, según veremos, se pasa a la vida. Ni uno solo de
los términos de esta larga serie puede dejar de ser considerado, de acuerdo con
excelentes pruebas experimentales, como un compuesto de núcleos y
electrones. Este descubrimiento fundamental, de que todos los cuerpos derivan
[deben su origen] por ordenación [a los arreglos] de un solo tipo inicial
corpuscular viene a ser el rayo [de luz] que ilumina ante nuestros ojos la
historia del universo. A su manera la materia obedece, desde el origen [desde
su principio], a la gran ley biológica (sobre la cual debemos insistir
63
Los parrafos de Teilhard de Chardin que reproduciremos, serán tomados de la
traducción al español que fue publicada por Taurus Ediciones (1963) Madrid, y con la
siguiente técnica: la palabra subrayada ha sido cambiada para darle congruencia al texto
(aquí por ejemplo, en la traducción original la palabra empleada es, complicación) y lo
contenido entre corchetes [ ] está tomado de la traducción personal de la versión en inglés
publicada por Harper & Row (1965) Londres, con el único propósito de aclarar un poco
la traducción original que algunas veces confunde los de por sí densos y difíciles párrafos
de Teilhard de Chardin.
149
constantemente) [a la cual recurriremos una y otra vez], de [la ley de la]
“complejificación”.64
Para muchos, el “acrecentamiento” –que para Teilhard de Chardin
parece significar “aumentar mejorando”– de la materia, no es suficiente
evidencia de evolución y Teilhard debió estar consciente de ello. Sin
embargo, debemos recordar que el espíritu de El fenómeno humano es
histórico y, como buen historiador, Teilhard no podía ver el pasado como
una mera colección de fenómenos aislados, sino sólo considerarlo a la luz de
sus resultados. Así, puesto que esta aglomeración, este “acrecentamiento” o
acumulación de materia finalmente permitió la polimerización65, Teilhard la
considera como parte central de la evolución. Su argumento no debe ser
malentendido como post hoc, ergo propter hoc, es decir como una vulgar
falacia; Teilhard está consciente de que en esta acumulación de elementos,
en este “acrecentamiento” de partículas, hay muchos caminos falsos y malos
finales. De hecho, El fenómeno humano dedica unos pasajes bastante largos
64
Aparece por primera vez esta palabra, que en la época en la que fueron publicadas las
traducciones, era, por lo menos en inglés, la forma sustantiva del poco común verbo
compexify, hacer complejo, lo que significa también en español, pero en el vocabulario
teilhardiano la complejidad se refiere a la interrelación de los elementos que conforman
un sistema, y para comprender en su profundidad este párrafo es necesario considerar la
complejidad como lohace una rama descendiente de la ciencia del caos, que describe las
configuraciones cruciales como complejidad. Este concepto propone como principio que
el crecimiento autónomo de la simplicidad a la complejidad solo ocurre en el vértice
entre el orden y el desorden. Por ser todo estos conceptos de fundamental importancia en
el pensamiento Teilhardiano, y porque en su época no existian estas ciencias, requieren
de una monografía especial que no cabe en el contexto de este trabajo.
65
Aquí el sentido de polimerización significa que la unión de moleculas llevó a la
formación de polímeros, que son sustancias químicas de naturaleza orgánica compuestas
por largas e intrincadas cadenas de átomos. Los polímeros presentan una elevada inercia
de reacción y son inatacables por los ácidos y los agentes atmosféricos. Son también
flexibles, resistentes a esfuerzos y golpes, de bajas densidades, fáciles de moldear por no
tener un punto determinado de fusión, sino una franja de temperaturas en la cual se
convierten en materiales viscosos y blandos.
150
a los cristales y la manera en la cual, en ellos, el “acrecentamiento” de
partículas parece seguir una vía que está “cerrada” prematuramente para su
evolución. Como las ideas de cualquier pensador importante, las de Teilhard
tardaron bastante en plasmarse, pues involucraron diferentes comienzos y
muchos fallidos intentos en abundantes escritos preliminares para llegar a El
fenómeno humano. Y puesto que el libro es, por necesidad, bastante elíptico
en ciertos puntos, algunos de los ensayos que lo precedieron parecen arrojar
bastante luz sobre lo que Teilhard argumenta. Si algunos lectores están aún
convencidos de que su razonamiento es post hoc, ergo propter hoc, debería
ser suficiente añadir que él estaba convencido que en la manera como la
ciencia ha entendido e interpretado el mundo, la vida no sería posible. Por lo
tanto su particular interpretación de la evolución implica el impulso de una
fuerza más, diferente a las otras cuatro fuerzas de la naturaleza que ya hemos
visto. Antes de adentrarnos en los detalles, en la precisión y la necesidad del
argumento de Teilhard, debemos seguir su pensamiento lógico en otro
ensayo. Por ahora nos limitaremos a señalar que para Teilhard, la evolución
es solamente la manifestación de esta otra fuerza.
En L´atomisme de l´espirit Teilhard de Chardin nos pide imaginar
cuán increíble, cuán lejos del sentido común parece estar la “estructura
molecular” de nuestros cuerpos. A primera vista, somos una totalidad,
nuestra sola fragmentación presagia la muerte. No obstante, la ciencia nos ha
dicho que “la condición fundamental de nuestras vidas” es molecular: sólo
somos una colección de moléculas. De la misma manera, Teilhard de
Chardin nos pide, insistimos, ponderar cuan increible parece la flexibilidad y
la expansión del universo. Brevemente, para Teilhard de Chardin un sólo
cambio de perspectiva, una sola mirada cercana al micromundo o una
contemplación del cosmos cambia la manera en que nos definimos; ambos
151
mundos, de acuerdo con Teilhard de Chardin y de acuerdo también con
muchos otros científicos, parecen prohibir la vida. O, como Teilhard de
Chardin elocuentemente declara, el universo de los físicos está construido “a
lo largo de unos ejes espaciales, y es precisamente a lo largo de estos ejes
que la vida no puede aparecer”. No hay vida en las partículas y no hay vida
en el cosmos, al menos no si lo vemos desde las puras relaciones espaciales
o matemáticas. Asi, lo que Teilhard de Chardin nos pide, es imaginar lo
siguiente: si tenemos la buena disposición de aceptar las pasmosas
conclusiones a las que la ciencia ha llegado en el último siglo, la
irracionalidad tanto del quantum como de la relatividad, lo extraño del
comportamiento de una partícula o de la relatividad del espacio-tiempo
¿porqué, ante la testificación que hace la Vida de si misma nos
sorprendemos tanto? ¿por qué somos hasta ahora tan mordaces contra la idea
de que existe otra dimensión?66
Una vez que el avance ha sido afectado sobre nosotros mismos, pasando por lo
muy grande y lo muy pequeño y permitiendo así a los ejes de lo complejo un
libre paso, un nuevo medio cósmico se crea por la añadidura de esta dimensión
adicional; y en este medio, la vitalización de la materia deja inmediatamente
de parecernos algo enigmático o inexplicable. Por el contrario, nos parece tan
`natural` como la variación de la masa con las altas velocidades o la aparición
de las muy grandes distancias por efecto de la relatividad.
El ensayo de Teilhard a primera vista puede parecer un el fragmento
de un razonamiento sofista, pidiéndonos considerar con especial cuidado
cómo parecen irracionales los descubrimientos de la ciencia y proponiendo
66
De hecho, la teoría de las supercuerdas, la mejor candidata para sustituir el modelo
estándar de la física cuántica, habla de partículas que existen en un "universo" de 10
152
entonces otra idea menos “irracional”. Sin embargo, la conclusión de
Teilhard de Chardin no sólo no es una chapucería lógica, no: él nos ofrece
una solución real, defendible, de lo que para muchos parecia irresoluble. Y
parafraseando los comentarios de David Z. Albert sobre la onda pilóto de
David Bohm, su solución es simple, elegante. De acuerdo con Teilhard de
Chardin, para entender el fenómeno de la vida y para entender el fenómeno
humano debemos verlo y vernos como el amalgamiento, la combinación, la
síntesis de la aglomeración encontrada en las densidades de las estrellas y el
espacio, así como de la complejificación del nivel microscópico.
Esta síntesis, de acuerdo con Teilhard de Chardin, ocurre porque otra
dimensión funciona gracias a la organización y se manifiesta a sí misma
como complejidad. Teilhard de Chardin añade otra posibilidad a los
múltiples senderos evolutivos. Las leyes de la naturaleza como las
conocemos, sin contar con la dimensión extra que Teilhard de Chardin
postuló, permiten a la materia inorgánica llegar a dos resultados: a formar
objetos realmente grandes o extremadamente pequeños. La otra dimensión
permite seguir una pista evolutiva diferente: los objetos pueden llegar a ser
realmente simples como el hidrógeno o extraordinariamente complejos
como el cerebro.
Para Teilhard de Chardin la complejidad todavía no había sido
sondeada por los humanos pese a nuestras invenciones, nuestra tecnología,
etc. Él no era, como mucha gente da por sentado, del tipo de científico que
hace descripciones exageradas de los esquemas para colocar al hombre en la
cima.
De hecho, si vamos a entender la complejidad como Teilhard la
entendió, solo podremos hacerlo si la vemos como la manifestación de la
dimensiones
153
otra dimensión que mencionó en L´atomisme de l´spirit o mejor aun, como
la energía que realmente forma el corazón de su pensamiento; a saber, la que
llamó energía radial.
Los científicos usan el término energía radial para identificar una
energía completamente diferente, por lo que para entender lo que Teilhard de
Chardin intentó definir, debemos echar una ojeada al ensayo en el cual
empezó a entrever esta energía. Como el ensayo al que nos referimos antes,
este, titulado Note sur la divine action dans l´universe precede a El
fenómeno humano y debe verse como una de las muchas semillas del gran
trabajo. Como tal, el núcleo produjo todo un fruto, y es además
suficientemente notable por sí mismo. En el ensayo, Teilhard inicia con una
analogía:
Una comparación puede ayudar para darnos cuenta en forma más concreta de
la reflexión que sigue. Imagine una esfera y dentro de ella un gran número de
resortes empaquetados juntos. Por otra parte, permitamos a los resortes
expandirse o contraerse espontaneamente. Tal sistema puede representar el
universo y la multitud de actividades [dentro de él].
La comparación de Teilhard entrevé al universo como muchos
científicos han escojido imaginarlo. Un conglomerado caótico de materia
como si fueran resortes, especialmente susceptible a las fuerzas; un
mecanismo aleatorio donde, suceda lo que suceda, siempre será por
accidente. Sin embargo, nada más lejano que la imagen final de Teilhard de
Chardin, porque su esfera contiene un “resorte extra” que es “mucho más
central y mucho más poderoso que los otros” y el cual organiza el
movimiento de los otros.
154
La terminología de Teilhard de Chardin es siempre cambiante y
siempre problemática. La energía radial puede ser en algun ensayo el “factor
Dios”, en otros “energía psíquica”, por lo que, para evitar confusiones, nos
ajustaremos al término “energía radial”, porque pudiera ser el mejor término
que él acuñó, puesto que la palabra radial connota luz emanada desde un
centro común, un arreglo como los radios dentro de un círculo, como los
rayos de una rueda de bicicleta y junto con la centralidad también connota
inmaterialidad. Éstas son las verdaderas cualidades de la energía radial.
No obstante, Teilhard de Chardin evitó el dualismo, un vacio entre las
dos energias, por lo que él razonó que toda energia era, en el fondo, radial:
Para escapar de un dualismo de fondo [a la vez] imposible y anticientífico y
para salvaguardar, no obstante la natural complicación [la complejidad
natural] de la trama del universo, yo propondría la siguiente representación
[lo siguiente] que va a servir de fondo [como una base] a todo el resto de
nuestros desarrollos [a lo que emergerá más tarde].
Admitimos [debemos asumir] que esencialmente, cualquier energía es
de naturaleza psíquica. Sin embargo, añadiremos que, en cada elemento
particular, esta energía fundamental se divide en dos componentes distintos:
una energía tangencial…y una energía radial.
Una de las razones por las que mucha gente ha reaccionado contra
Teilhard de Chardin es porque a pesar de los hechos innegables de su visión
y sus descubrimientos, su historia parece despoblada. A diferencia de los
Tácitos del mundo, cuya prosa está llena hasta el cansancio de Césares y
senadores, la historia de Teilhard de Chardin no tiene nombres. Esta extraña
característica, en verdad que puede ser perturbadora. Con todo, el vacío de
personajes no es sin intención, pues el intento del libro no es el estudio de un
155
solo fenómeno, ni la exploración de la personalidad, sino el estudio de la
humanidad como fenómeno.
Si todas las historias tienen resultados, el resultado de la de Teilhard
de Chardin es la humanidad. No obstante, a diferencia de la mayoría de las
historias en las que los resultados cierran el capítulo final, para Teilhard de
Chardin el resultado es provisional, porque el ve en la inteligencia humana la
síntesis, tanto del pluralismo como de la fragmentación de la naturaleza, y se
da cuenta de que esta síntesis se hace posible por la existencia de la energía
radial, cuya manifestación es la complejidad; por lo tanto, la inteligencia
humana es para Teilhard de Chardin no el final, sino el más alto estado que
la complejidad ha alcanzado. Su esquema se sostiene hasta el final de El
fenómeno humano. Como cualquier otra cosa sujeta a la evolución, la
inteligencia humana puede, como los cristales, estancarse.
La meta final de Teilhard de Chardin, es algo que algunos de sus
partidarios han llamado globalización, pero realmente debería entenderse
como el conocimiento de la interconexión de todas las cosas. A diferencia de
Vico, que predice la decadencia, Teilhard de Chardin predice, con las
reservas inherentes a su esquema, un lugar donde la conciencia, la
inteligencia humana, no solamente influencíe su ambiente, sino que
efectivamente sea capaz de determinar caminos evolutivos correctos.
156
7
EL PUNTO DE PARTIDA DETERMINA EL DESTINO
En la interpretación en Teilhard de Chardin, el eje, tanto de la historia
universal como de la historia del universo, es la evolución.67 Mientras que
para Darwin la evolución es solamente una explicación del “origen de las
especies” y en su forma más ambiciosa, del “ancestro” del hombre, para
Teilhard, la evolución es un paradigma, una manera de entender el camino
mediante el cual la energía primordial se transformó en partículas, las
partículas se unificaron por la acción de las fuerzas en átomos, que a su vez
se reunieron en moléculas que en un momento dado se polimerizaron y
llegaron a formar estructuras complejas que se autorreplican. Y algo muy
importante: sólo el hombre tiene la capacidad de conducir la evolución, pero
67
Es necesario aclarar este concepto no sólo con la definición del diccionario, sino con la
interpretación que hemos hecho de El fenómeno humano, aunque quizá modificada a la
luz de los últimos descubrimientos científicos. La evolución como la conceptualizó
Darwin tiene un gran defecto que Teilhard de Chardin corrigió: no señala la evidencia de
su tendencia hacia una meta. Actualmente los neurocientíficos que estudian el cerebro, y
los paleontólogos, que estudian los cráneos fósiles, están llegando a la conclusión de que
la relación del peso corporal al volumen craneal es un índice del estado evolutivo de una
especie con respecto al comportamiento y adaptación a su entorno o nicho ecológico.
Complementariamente, la evolución debe conceptualizarse no como un continuo
cambio de las especies, sino como un cambio sólo de un mínimo pocentaje de ellas, en
especial las que mayor conocimiento adquieren. Ésta es la línea que lleva al hombre. Las
demás especies cumplen un cometido que puede ser más o menos durarero en función de
su utilidad para la evolución del eje principal. Asi, algunas especies, según algunos
biólogos, parecen haberse estancado, mientras que la mayoria se ha extinguido. Esto nos
lleva a preguntarnos ¿qué ley natural nos adjudica el derecho a eliminar especies que son
útiles para la sobrevivencia del planeta, es decir, de nosotros mismos?
Finalmente el uso del término “descender de” es erróneo y debería ser sustituido
por el de “ascender a partir de”. Se puede contradecir lo anterior diciendo que los peces y
las aves han evolucionado. Sí, hasta su estado actual podriamos decir que han mutado
tendiendo a adaptarse a las condiciones cambiantes de la Tierra, pero finalmente los
peces seguiran siendo peces, las aves, aves, y los reptiles, reptiles.
157
su destino está profundamente ligado al de animales, plantas y mundo
inorganico, de manera indisoluble.
Para muchos biólogos evolucionistas, esta aplicación de la evolución
a las entidades no orgánicas, de inmediato hizo resaltar una aparente falla en
las ideas de Teilhard de Chardin, y la razón para rechazarlas fue simple. La
evolución –sostienen muchos biólogos– no tiene dirección, ni propósito, ni
razón. Trataremos con más amplitud esto en un capítulo posterior. Por ahora
debemos enfocarnos en la suposición primordial que el sistema teilhardiano
hace, a manera de poder discutir la evolución como el modus operandi en la
historia universal: esta suposición implica no la existencia de dos tipos de
energía, como muchos pensadores han afirmado, sino dos manifestaciones
diferentes de la misma energía. La distinción es crucial, y la subrayamos
porque tanto críticos como seguidores de Teilhard de Chardin, fallando en
considerar esto, fallan también en entender los argumentos y las
implicaciones que Teilhard de Chardin plantea.
El pedir al lector que imagine dos manifestaciones diferentes de la
misma energía no es exigirle que extienda sus poderes imaginativos. Lo que
conocemos como energía electromagnética, por ejemplo, puede ser visible
en la gama total de colores, o invisible como las señales de radio que
sintonizamos cuando queremos oir música o las noticias. Y tal como los
científicos han distinguido entre las ondas de radio y de luz, midíendolas y
etiquetándolas, Teilhard de Chardin hizo la distinción crucial entre las dos
manifestaciones de la misma energía, llamando a una tangencial y a la otra
radial. Para él, la energía tangencial es toda variedad de energía68 que sea
susceptible de ser medida o contada en alguna forma, ya sea utilizando un
68
En este concepto se incluye la materia, que según la relatividad, es sólo una forma de
energía.
158
contador geiger, un detector de microondas o un voltímetro, etc. En otras
palabras, para Teilhard de Chardin la energía tangencial incluye las fuerzas
fundamentales, que como hemos visto constituyen el marco de la física.
Antes de definir y tratar de explicar qué es la energia radial, debemos
interpolar un poco. Como hemos tratado previamente, Teilhard de Chardin
formuló muchas de sus ideas después de haber ocurrido las modernas
revoluciones científicas.69 Einstein había postulado su teoría de la
relatividad, la mecánica cuántica había sido formulada y, por supuesto,
Darwin y Wallace habían escrito su versión de la evolución. Debemos
entender el hecho de que el trabajo de Teilhard de Chardin parezca
aparentemente tardío, pues aunque las bases de la ciencia moderna habían
sido establecidas, seguían esperándose mayores clarificaciones, mientras que
algunas ramificaciones prácticas ya estaban siendo exploradas. Así, si
Teilhard suena tentativo en algunos puntos, uno debe recordar que estaba
tratando con material tentativo. Además, a diferencia de los físicos, que
estaban reunidos alrededor del proyecto Manhattan y rodeados por
intelectuales semejantes, Teilhard no formuló la mayoría de sus ideas en un
centro intelectual, sino en un remoto lugar del oriente. En China, por
supuesto, no estaba completamente aislado; sin embargo, a diferencia de
otros lugares, el desierto de Ordos o aun Pekín, definitivamente no eran
centros culturales o científicos del mundo como Viena y Berlin a principios
69
El filósofo Jean Guitton señala que 1927 fue uno de los años más importantes en la
historia del pensamiento contemporáneo; marca el punto de partida de la filosofía
metarrealista, es el año en que Heisenberg expone su principio de incertidumbre, en el
que el canónigo Lemaitre expresa su teoría sobre la expansión del universo, en el que
Einstein propone su teoría del campo unitario, en el que Teilhard de Chardin publica los
primeros elementos de su obra, y es el año del congreso de Copenhague, que marca la
fundación oficial de la teoría cuántica. Y se pregunta ¿acaso no resulta significativo que
esas conmociones epistemológicas hayan sido provocadas por hombres de ciencia?
159
del siglo XX, o como la Academia de Estados Unidos llegó a ser durante los
años de la guerra y la postguerra.
Con tales luces biográficas, la visión de Teilhard de Chardin parece
más atrevida y más brillantemente presciente e intuitiva o, si lo preferimos,
increíblemente profunda y sintética. La suposición central en su argumento
consiste en que –y esto hay que tenerlo muy presente– la energía se
manifiesta de dos maneras, la primera corresponde a las fuerzas
fundamentales y la materia y la segunda a la energía radial que incluye la
información y el conocimiento. Teilhard de Chardin adopta, en otras
palabras, lo que introdujimos previamente como teorías del todo. Por
supuesto que si la suposición que Teilhard de Chardin hizo puede parecer
solamente algo ridículo o algo atrevido e inteligente, es irrelevante para
nosotros, puesto que el método mediante el cual los científicos llegan a sus
teorías no es realmente tan importante como la via que se adopta para
comprobarla.
Por lo tanto, una de nuestras inquietudes, antes de movernos y tratar
con la precisión de la historia la interpretación teilhardiana de la evolución,
es la de revisar si la suposición de que todas las fuerzas son simplemente la
manifestación de un solo tipo de energía, es correcta o no.70 En capítulos
previos hemos visto algunos de los intentos que los físicos han hecho para
integrar todas las fuerzas bajo una sólo planteamiento matemático. Tanto la
teoría de las supercuerdas como la de la supersimetría han acometido la
empresa y son las dos teorías que están más cerca de resolver el problema.
No obstante, ambas permanecen sólo como teorías: no existen muchas
70
Para clarificar un poco debemos pensar que el modelo clásico, la teoría estándar,
desarrollada desde la aparicion de la física cuántica, no ha sido capaz de incluir o más
bien unificar la gravedad con las otras tres fuerzas.
160
pruebas para confirmar una u otra. Por otra parte, las dos teorías, al estar
muy cercanamente alineadas con la mecánica cuántica y la física de
partículas, funcionan en la región donde estas últimas convergen con la
cosmología. En otras palabras, son teorías que necesitan apoyarse en la
historia de la materia.71 Su exclusiva prueba, cuando llegue, vendrá más
probablemente de la observación celeste que de los supercolisionadores,
pues éstos difícilmente podrán seguir rompiendo el átomo indefinidamente.
Por lo tanto, la pregunta que surge es: ¿más allá de lo que podemos
decir por nuestros actuales modelos cosmológicos, hay alguna evidencia de
que las diferentes fuerzas fueron una sola en algún punto?
Por supuesto que en la ciencia nada es final y uno de nuestros
argumentos a lo largo del libro es que ésta incertidumbre es producida por la
resistencia de algunos científicos. Ha sido el dogmatismo académico y la
estrechez de mente lo que ha cerrado las puertas a muchas opciones y a
posibles cursos de acción. Tal como la relatividad de Einstein sustituyó a la
física newtoniana clásica –en la comprensión de cómo trabaja el universo–
revisando algunos de sus supuestos, muchas de las teorías actuales, muchas
de las explicaciones de hoy, serán revisadas, ampliadas o sustituidas. Como
hemos visto, pocos han sido los científicos que han seguido una ruta no
ortodoxa aun cuando consideremos las implicaciones de sus ideas. La parte
sorprendente es que si las actuales teorías prueban ser correctas, Teilhard de
Chardin y la interpretación teilhardiana de la ciencia probaran no solo su
validez, sino quizá la de la ciencia misma, o por lo menos el de su papel
social, pues si la interpretación teilhardiana es reconocida –si lo es por algo–
71
Se podría decir que son teorías metafísicas desde el momento en que buscan la esencia
del Ser, que los físicos llaman simetría y, aunque lo nieguen, tratan de desentrañar el
proceso de la Creación.
161
es por su capacidad de dar relevancia urgente a los eventos que socialmente
parecen ser irrelevantes.
Uno de los principios centrales en la moderna cosmología, es el
modelo del big bang. Este modelo no explica el origen del universo, pero,
como cualquier principio, determina el destino del universo. La teoría llegó
como una consecuencia de la relatividad. Para que el continuum espaciotiempo funcione y explique la estructura del universo, Einstein tuvo que
considerar un universo dinámico; como muchos científicos de su época, el
creía en lo que se llamaba la teoría del estado estacionario, que sostenia que
el universo era y seguiria siendo exactamente el mismo. Ya relatamos las
consecuencias de esto: el que Einstein tuviera que declarar que lambda había
sido el más grande error de su carrera.
En los últimos años, una de las mayores noticias en física ha sido el
retorno de lambda como un concepto a considerar. El nuevo argumento para
que lambda sea importante será central para nosotros dentro de poco. Por
ahora dejémoslo a un lado y miremos más de cerca la teoría del big bang. Su
origen es en sí mismo interesante, pues los científicos al principio se
resistían a la idea de un universo dinámico, hasta que Hubble descubrió que
el universo se estaba expandiendo. Este descubrimiento lo hizo gracias al
espectroscopio. La espectroscopía es toda una rama de la física que estudia
la radiación electromagnética por medio de líneas espectrales. Pese a su
poco práctica apariencia, ha sido vital para el desarrollo tanto de la física de
partículas como de la cosmología, porque permite a los científicos romper la
luz en las diferentes frecuencias que la constituyen. Estas frecuencias
transportan información acerca de los objetos luminosos a partir de sus
átomos. Como sabemos, la luz consiste en partículas subatómicas llamadas
fotones. Un átomo libera un fotón cuando uno de sus electrones cae de una
162
órbita mayor a otra menor, o en otras palabras cuando este electrón pasa de
un estado energético a otro estado de menor energía; el átomo se vuelve
menos energético y la energía que pierde se transforma en el fotón.
Estudiando las líneas espectrales, los científicos son capaces de decir
una pasmosa cantidad de cosas acerca de los objetos que estudian,
especialmente de los cuerpos celestes. Ellos pueden deducir los elementos
que componen las estrellas, la temperatura de los astros, así como su
rotación y justo de estas capacidades, el físico alemán Gustav Kirchhoff se
valió para detectar los elementos del Sol y William Huggins identificó la
presencia de sodio, calcio, hierro y magnesio en las grandes estrellas. El
descubrimiento más importante en este campo, por mucho, fue el de Hubble.
Estudiando el desplazamiento de las líneas espectrales de las galaxias, logró
mostrar que la mayoría de las galaxias se alejaban, tanto de la Vía Láctea
como entre ellas.
El descubrimiento de Hubble no postula la teoría del big bang, sino
que solamente prueba que el universo es dinámico, que se está expandiendo.
Las implicaciones de un universo que se expande son inmensas. Si un objeto
se expande, se deduce que la expansión debe tener una trayectoria, y más
importante aún, un origen. Como muchas otras teorías que han resistido las
pruebas, el big bang nos parece ahora un asunto casi de sentido común. Si el
universo se ha estado y se está expandiendo, entonces, en el pasado debió
haber sido mucho menos grande que ahora, asi que los científicos empezaron
a pensar en un universo en términos diferentes, ya no como una entidad
estacionaria, sino como una entidad con una historia, una entidad no
diferente a otras, con un principio, un lapso intermedio y un final. Colocada
en tal perspectiva “histórica”, la pregunta sobre lo constitutivo del universo
debe cambiarse hacia los físicos de partículas.
163
El radio del universo es de quince mil millones de años luz; si era más
pequeño en el pasado, digamos que tenía un radio de un año luz, ¿cómo
parecería? Si el universo y todo su contenido estaban mucho más
comprimidos en la infancia del universo, entonces la materia estaría mucho
más caliente, de modo que el modelo que tendríamos sería el de un universo
mas denso que cualquier material conocido y más caliente que el centro de
cualquier estrella.
La prueba experimental de tal afirmación era difícil de conseguir.
Hacia el final de los años cuarenta, George Gamow había ya expuesto la
teoría del big bang,72 pero no fue hasta el principio de los sesenta que,
cuando en forma bastante accidental, la primera prueba experimental se
consiguió. Hasta entonces sólo había dos tipos de evidencia del big bang. La
primera, que fue el aliento para poner a la teoría en la vanguardia fue, por
supuesto, la expansión del universo. La deducción era lógica: si el universo
estaba creciendo, necesariamente había un punto de inició. La segunda
evidencia fue un poco más difícil de alcanzar. Hemos visto que a causa de la
naturaleza de la materia, si el universo estuvo en algun momento
comprimido, entonces su contenido era extremadamente denso y caliente;
luego, para probar que el universo había emergido de una “bola de fuego”,
los científicos argumentaron que uno debía poder ver u observar los residuos
de tal bola de fuego.
La capacidad de observar el pasado profundo es inherente a la
observación de lo cuerpos celestes. Una vez que las distancias cambian de
medirse en kilometros a medirse en años luz, la señal que nos alcanza desde
72
Existe una versión poco conocida en el sentido de que el primero en explicar que el
universo nació de una gran explosión fue un físico llamado Ralph Alpher, quien en 1948
escribió una tésis doctoral en la que demostraba matemáticamente que el universo había
surgido hace 14 000 millones de años en una explosión a altísimas temperaturas.
164
el espacio exterior es una señal que se origino hace años. Así, cuando los
astrónomos son testigos de la muerte o el nacimiento de una estrella, lo que
testifican es un evento que sucedió quizá miles, si es que no millones de
años antes de que el observador hubiera nacido. A causa de que la
astronomía es, por naturaleza, ese curioso vistazo hacia el remoto pasado, los
científicos imaginaron que si podemos ver lo que ocurrió hace millones de
años, entonces debería ser posible que detectáramos, si no el inicio del
universo, por lo menos los remanentes del evento con el que se inició, la
“explosión” que empezó la “bola de fuego”, aunque estas señales serían
apenas perceptibles, con longitudes de onda demasiado grandes para ser
detectadas como luz o como sonido.
En los años sesenta, los astrónomos Robert Wilson y Arnold Penzias,
quienes conducian experimentos en el laboratorio de Bell Telephone,
escucharon un extraño ruido constante en su radiotelescopio. Sospechando
que las palomas que se encontraban anidando eran las causantes del ruido,
limpiaron su antena y revisaron la radiotransmisión, pero el ruido seguía
escuchándose. Después de eliminar toda posible causa, como la interferencia
continuara y bastante ajenos a las implicaciones de su descubrimiento,
publicaron un escrito donde presentaron su descubrimiento: existía un ruido
de microondas constante. Actualmente se le conoce como radiación de
microondas cósmica de fondo. El nombre por sí mismo implica el origen; se
refiere a “fondo”, porque a diferencia de las señales de los cuerpos estelares
como estrellas o pulsares, su radiación no tiene una fuente particular, sino
que parece proceder de todas partes. Y radiación de microondas es el
nombre dado a las ondas de radio que son más cortas de un metro. Esta
señal, en otras palabras, tiene corrimiento hacia el rojo –está debilitada– y es
siempre la misma. Si uno espera ver el rastro de la bola de fuego primitiva,
165
que emitió luz hace 14,000 millones de años, uno no puede esperar ver la
luz, pues ésta, después de viajar a través de tan vastos espacios, se desvanece
Lo que la confirmación del big bang dió a los científicos fue más que
la sola historia del universo. Tal como la semilla predice al árbol y a sus
frutos, o tal como cualquier inicio puede determinar el fin, la teoría del big
bang, determina y predice muchas cosas acerca del destino de nuestro
universo. Pero, más importante para nosotros en este capítulo, es darnos
cuenta de que el big bang nos dice bastante acerca de la materia y las fuerzas
que la gobiernan. Primero y más importante, el escenario del big bang y sus
ecos, que podemos observar a través de nuestros telescopios73, nos informa
de los origenes de la materia. Para entender estos orígenes debemos echar un
vistazo, aunque sea muy superficial, a la cronología del universo, desde su
creación hasta por lo menos hace 4,500 millones de años. Esta última
“fecha”, marca la formación del Sol y los planetas. En consideración a la
continuidad, debemos presentar primero los hechos y después discutir su
importancia.
El evento de la creación ha sido discutido una y otra vez. Algunos
científicos argumentan que la mejor manera de entender el fenómeno es
usando, por el momento, el cero como notación. O sea, que antes de la
creación del universo no existía el tiempo ni el espacio. Algunos científicos
han mostrado su falta de entendimiento, no de las matemáticas, sino de sus
connotaciones, y han transpuesto su significado al de la nada. Esta
pretensión es por supuesto, absurda. El cero es uno de esos conceptos
perfectos cuyo valor semántico es demasiado ámplio para interpretarlo de un
73
De hecho, otra evidencia importante del inicio del universo es la captada por el satélite
COBE que contempló “la superficie última de dispersión”, el momento en el que el
universo se volvió transparente, 300,000 años después de su inicio.
166
solo modo, especialmente cuando su papel es sólo momentáneo. Mucho de
lo que sucedió entre el cero (momento de la creación) y 10-43 segundos o
tiempo de Planck, sigue siendo desconocido para nosotros y probablemente
será muy difícil de comprobar experimentalmente, pese a que tengamos cada
vez mayores y mejores aceleradores de partículas.74 Este inimaginablemente
pequeño lapso se conoce como época de Planck, al final de la cual, sabemos,
la radiación gravitacional se salió del equilibrio térmico del resto del
universo. A los 10-36 segundos el universo en un estado de falso vacío75
inició su época de inflación, un momento crucial que discutiremos más
tarde. Mientras tanto diremos que la palabra inflación significa exactamente
eso, que se infla. En esa época, el universo creció a tasas exponenciales, y
debe su vastedad a este crecimiento. La inflación fue, en terminos humanos,
literalmente imperceptible y termino a los 10-32 segundos
El fin de la inflación produjo un rompimiento de la fase de simetría76.
De todos los momentos que hemos señalado que le dan validez a las ideas de
Teilhard de Chardin acerca de la energía, éste parece ser el que más las
valida. De hecho, los tres estados que hemos discutido pueden ser la
verdadera confirmación de lo que permite a la teoría teilhardiana de la
evolución funcionar como tal, puesto que él puede moverse sobre el eje de
una sola energía, con diferentes y múltiples manifestaciones. Por lo tanto,
debemos entender la fluctuación cuántica que dió nacimiento al universo, a
la inflación y al rompimiento de la simetría.
74
Sin embargo, las nuevas teorías en proceso como la de la supercuerdas nos llevan a
razonar estos eventos e intuitivamente podemos determinar su grado de certeza.
75
El estado de falso vacío, para los físicos, es un estado de equilibrio inestable de la
energía en su más alta densidad. Así se inició el universo, con una burbuja de falso
vacío.
167
El universo como lo conocemos debe haber nacido en el tiempo de
Planck,77 que es la medida de tiempo más pequeña que puede existir. La
semilla de tal universo sólo puede haber surgido de una fluctuación cuántica.
Como sucede con muchos aspectos de la teoría del quantum, las
fluctuaciones cuánticas desafían el sentido común, pero como hemos visto,
pese a la aparente falta de sentido, el mundo cuántico es mucho más preciso
en sus predicciones que la relatividad o el mundo clásico. Lo que sucede en
las fluctuaciones cuánticas es que de repente pueden aparecer partículas
energéticas, no de la nada, sino del vacío cuántico, que es el estado de la
energía en su mínima densidad. Estas partículas pueden ser bosones o
fermiones y desaparecen al transformarse en radiación en fracciones de
segundo. El modelo arquetípico del bosón, es el fotón; éstos no se conservan,
millones de ellos pueden crearse y de hecho son creados –a causa del cambio
de órbita energética de los electrones de un átomo– por ejemplo cuando
encendemos una bombilla y desaparecen al ser absorbidos por otros átomos.
Mientras que los bosones estan asociados a la transmisión de las fuerzas,78
los fermiones son las partículas que forman la materia.79 Cualquiera que sea
el tipo de partícula que aparezca, lo hace del vacío. Una cosa que es cierta es
que la cantidad de masa-energía con la que se creó el universo es tan grande,
que debe tender al infinito. Brevemente, lo que la mayoria de los físicos
76
Puede decirse, coloquialmente, que el rompimiento de la fase de simetria es como una
separación de la energía primordial que era una unidad, en varias energias incluyendo el
cambio de estado de alguna, espcíficamente para formar la materia.
77
El lapso temporal entre cero y el tiempo de planck, es en realidad infinito y esto lo
podemos ver más claramente si hacemos un análisis racional de la paradoja de Aquiles y
la tortuga, aunque esto sería entrar a un tema que no nos corresponde.
78
Otras caracteristicas de los bosones es que obedecen la estadística Bose-Einstein y
tienen un spin integro (1,2 …)
79
Los fermiones obedecen la estadística Fermi–Dirac y tienen spin medio e integro y
medio (1/2, 3/2,…)
168
argumentan es que antes de que la fluctuación cuántica diera origen al
universo, no había fuerzas diferenciadas como manifestaciónes de energía,
sino solamente masa-energía, o sea que lo que tenemos es algo inimaginable
fuera del mundo de las matemáticas. En un mundo extremadamente denso
donde los niveles de energía son tan altos, la materia no existia como la
conocemos ahora, sino que existia sólo como energía.
Entonces, las grandes teorías unificadas nos dicen, que bajo las
condiciones extremas que existían en el inicio del universo, todas las fuerzas
de la naturaleza estaban fundidas en una sola. En otras palabras, existía sólo
una fuerza universal. La fluctuación cuántica, sin embargo, perturbó el
balance de esta fuerza universal y la gravedad se desprendió de las demás
fuerzas, justo en el tiempo de Planck. Considerando la densidad de la
energía de una entidad como el universo de Planck, uno puede imaginar que
se deshace bajo su propio campo gravitacional. La teoría de los campos
cuánticos resuelve la paradoja. La inflación supone los campos escalares
como campos antigravitatorios, e implica que las fuerzas se separaran,
produciendo la expansión del universo. Para tener idea de la tasa
exponencial de su crecimiento en ese periodo (inflacionario) imagine el
lector, si es posible, algo tan pequeño como la punta de un alfiler, crecer en
un lapso inimaginablemente corto, al tamaño de la Tierra. Una vez que que
la inflación trabajó, que los campos escalares hicieron su trabajo,
desaparecieron. Lo que dejaron fue una bola de fuego del tamaño de una
toronja, a trillones de grados de temperatura, que contenía todo lo que llegó
a constituir nuestro universo material.
Para que la fluctuación cuántica y la inflación funcionen como
modelos de la génesis del universo, los físicos están de acuerdo en que uno
no puede pensar un universo naciente gobernado por las diferentes fuerzas,
169
ni aplicar la dicotomia energía-materia. Lo que nos piden pensar es que las
fuerzas, como las conocemos, deben verse como una especie de
manifestaciones de esa energía, actuando en un universo mucho menos
denso, energéticamente hablando. Si la cosmología cuántica confirma (sin
proponérselo, es claro) lo que Teilhard expuso, la pregunta, por supuesto, es:
¿hasta dónde podemos validar el argumento de que la energía no solamente
se separó en la gravedad y las fuerzas electromagnética y nucleares débil y
fuerte, sino también en otra forma? La ciencia nos es mucho menos útil aquí.
Sin embargo, el entendimiento del rompimiento de la simetría en el estado
primitivo del universo puede darnos una idea de cómo sucedió esto, y aun
puede darnos, si no suficiente evidencia, sí suficiente idea de cómo empezar
a buscar la evidencia de esta otra faceta de la energía.
La simetría es un concepto crucial en física. Las raices etimológicas
son griegas, apartir de sim, que significa llegar a unirse y es la misma raíz de
la cual derivamos la palabra sinfonia, y metrón, que significa medida. Por lo
que la palabra describe algo de igual medida o que se puede medir
igualmente. Simetría, sin embargo involucra más que la repetición de una
cantidad mensurable, o al menos así era para los griegos, quienes pensaban
que la repetición tenia que ser armoniosa y agradable. Los científicos,
aunque algo les preocupa el aspecto estético de la simetría, se han enfocado
principalmente en la primera definición de la palabra y piensan en la simetría
como una invariancia, una cantidad que no cambia en ninguna
transformación.
La mayoría de nosotros estamos familiarizados con la simetría a
través de sus manifestaciones visuales; sin embargo, en la historia del arte o
en la geometría elemental, reconocemos simetrías cuando dividimos
cualquier cosa en dos mitades y revisamos si una mitad se parece a la otra.
170
Las simetrías con las cuales los científicos tratan no son las geométricas
estables, sino las transicionales. Para entender las simetrías transicionales,
será suficiente ver las progresiones de las escalas que los músicos emplean.
Por ejemplo la sonata para piano No 53 de Haydn80 abre con cuatro notas,
mi, sol, si, mi, que se repiten en los primeros cuatro compases. De esta
manera, Haydn nos brinda una simetría fundamental. Cuando la sonata llega
al quinto compás, la figura se mueve una quinta arriba, es decir cinco notas
arriba, de mi a do (do, mi, sol, do)
mi fa sol la si do re mi
do re mi fa sol la si do
El tiempo es idéntico, los intervalos también lo son; así, al oír los
sonidos del piano, lo que experimentamos es una simetria transicional.
Este tipo de simetría se encuentra por todas partes en el arte y en la
naturaleza. Los patrones de la espiral del nautilus, en las piñas o en los
arreglos de las semillas de girasol, están representados por las series de
Fibonacci, que se obtienen por la operación aritmética en la cual cada unidad
subsecuente es igual a la suma de las dos unidades precedentes
(1,1,2,3,5,8,13…). La serie de Fibonacci es sola una de muchas simetrias
transicionales que describen o abstraen los fenomenos que encontramos en la
naturaleza. De hecho, cuando a principios de siglo los matemáticos
empezaron a estudiar el concepto de simetría más profundamente, se dieron
cuenta de que todas las leyes físicas, todas las leyes que gobiernan la
naturaleza implican una inherente simetría, porque son afirmaciones de una
80
Los lectores tienen que comprender nuestras referencias a música de concierto. No es
pedantería, es solo que es en esa música donde se encuentran las analogías que tratamos
de explicar. Si nos remitimos a la música actual, por ejemplo a una “cumbia norteña”, nos
encontraremos con una monotonía y un monorritmo que no se presta para nuestro
proposito.
171
invariancia de una medida o unidad fija. Sin embargo, como hemos visto,
cada ley requiere una explicación diferente, no hay una sola simetría, sino
muchas simetrías. La teoría de la supersimetría, junto con la de las
supercuerdas, son las que actualmente intentan encontrar una simetría
subyacente en las fuerzas de la naturaleza.
Estas teorías no necesariamente están en conflicto como mucha gente
cree. Aun cuando sus postulados difieren en muchos casos, ambas teorías,
dejando fuera el que contienden por el otorgamiento y aumento de fondos,
actualmente se dan cumplidos una a la otra. El problema, otra vez, es
institucional. Para continuar sus investigaciones, los científicos necesitan
fondos, tanto gubernamentale como académicos. Los comités que adjudican
esos fondos lo hacen de acuerdo con las etiquetas que están adheridas a esas
investigaciones; por consiguiente, las teorías no pueden adelantarse más allá
de donde se puedan comprobar. En otras palabras, los investigadores no
pueden deducir o tratar metafísicamente sus teorías a menos que tengan
mucho prestigio y publicidad. Entonces, aun cuando no se ajusten a las
reglas de la filosofía o saquen conclusiones erróneas de sus teorías, sí
pueden acceder a los fondos y difundir extensamente sus teorías.
En realidad la supersimetría no tiene la envergadura de las teoría de
las supercuerdas. La supersimetria sostiene que toda fuerza puede ser
integrada en la descripción geométrica de todo objeto a través de una gran
simetría. Como la teoría de las supercuerdas, la supersimetría supone que
esta simetría completa, esta gran simetría, está integrada a cada fuerza en los
estados de muy altas energías. En otras palabras, ambas teorías coinciden en
afirmar que, en los primeros instantes del universo, había una fuerza que
organizó todo, y las fuerzas de la naturaleza que ahora conocemos son
172
solamente consecuencias de la inflación, del enfriamiento y de la baja de
energía.
Si ambas teorías, que pretenden explicar el universo en su estado más
primitivo, sostienen que hubo un rompimiento de la simetría, entonces, ¿qué
supone el rompimiento de ésta? El fenómeno es fácil de visualizar y ocurre
todos los dias, cada vez que las cosas van mal o se vuelven confusas. Ocurre
en algo tan simple como el juego de los “palillos chinos”. Imagine unos
palillos delgados, agrupados por colores en un paquete cilíndrico antes de
iniciar el juego, los rojos al centro, a su alrededor los verdes, seguidos a su
vez por los anaranjados, azules, etc. Por otra parte todos los palillos son del
mismo tamaño y contribuyen a dar el grueso del cilindro. Si usted decide no
jugar, la simetría se puede conservar indefinidamente. Pero ese no es el
objeto: el asunto del juego es dejar caer el paquete de palillos desde una
cierta altura a una superficie plana, como una mesa. Hay un instante
infinitesimal en el que los palillos permanecen juntos, pero hay un instante
en que se vuelven un montón de palillos revueltos, cuando al golpear la
mesa pierden el patrón original.
Por siglos los físicos han intentado reunir los patrones que deben
haber quedado del paquete inicial. En otras palabras, las fuerzas y las leyes
que conocemos, son afines a dos o tres palillos rojos que están colocados
juntos o cerca de un anaranjado o azul. Es decir, los científicos han intentado
identificar la simetría profunda que está bajo la simetría rota. Como
cualquier intento de pegar un objeto roto sin haber conocido su figura o su
decoración, es una tarea intimidante.
La supersimetría ha pretendido realizar tal trabajo, aunque sin éxito
todavia. La teoría de las supercuerdas, teniendo las mismas ambiciones,
sigue el asunto más allá de donde la supersimetria lo deja, y puede, de
173
hecho, ser mucho más útil para encontrar otra fuerza, más fundamental que
las conocidas, en el funcionamiento de la materia y sus implicaciones en el
universo. Como hemos visto, el postulado básico de la teoría de las
supercuerdas es que nuestra concepción de las partículas elementales ha sido
mal entendido. La suposición básica, más claramente, es que las partículas
no son “puntos”, como primeramente los físicos las entendieron y como el
modelo estándar también lo supone, sino que son unas cuerdas con figura de
lazo (como una gasa o circuito cerrado). El principio aparentemente parece
simple; sin embargo, como en cualquier principio que involucra un completo
cambio de paradigma, las supercuerdas tienen que recurrir a la verdadera
esencia del lenguaje. El cambio de paradigma que se nos pide es similar al
que el universo copernicano demandó de las mentes medievales y el cual
todavia no está limpio en su lenguaje, lo que testifican frases como “la salida
del sol” y “la puesta del sol”. De manera similar, la teoría de las
supercuerdas nos pide llegar al fondo de la palabra “partícula”, que supone
un cuerpo, un punto, etc. y desprendernos de ella.
Como la supersimetría, las supercuerdas sostienen que el evento de la
creación destruyó la gran simetría que empaquetaba todas las fuerzas y les
daba igual medida. Lo que es convincente de la teoría es lo que hace con la
simetría rota. En lugar de tratar con una ensalada arbitraria de partículas con
spin, color y sabor, nos dice que tales partículas son sólo manifestaciones de
un patrón particular de vibración de cada cuerda fundamental. Lo que la
teoría supone, dicho en otra forma, es que el universo visible está compuesto
no solamente de cuerdas tensas, sino que están tensadas y se comportan en
forma similar a las cuerdas de un violín, un piano o una guitarra. Como en el
instrumento musical, las cuerdas, que antes pensabamos como partículas,
están en constante vibración, como la vibración que produce una nota
174
distintiva en el piano y que está determinada por la tensión, la longitud de la
cuerda y el patrón de vibración. Tal como el do medio en el piano resuena
justo así por la específica tension que el afinador le da a la cuerda, el do alto
depende también de la tensión y de cómo la tensión determina la vibración.
Entonces, en la teoría de las supercuerdas, la vibración y la tensión
finalmente determinaran la manera en la que nuestros instrumentos de
medición –como los acleradores o supercolisionadores de partículas–
interpreten las cuerdas como unas partículas. En otras palabras, lo que
llamamos partículas son solamente manifestaciones de una vibración; como
las notas, son las consecuencias de la energía, que ha cambiado de estado
durante su tavesía en el espacio-tiempo.
La teoría de las supercuerdas soluciona varios callejones sin salida de
la física. El más importante es ligar el –al parecer insalvable– hueco entre la
mecánica cuántica y la relatividad.81 Como sostiene el físico Brian Greene,
uno de sus más elocuentes partidarios:
The unified framework that string theory presents is compelling. But its real
attraction is the ability to ameliorate the hostilities between the gravitational
force and quantum mechanics. Recall that the general problem in merging
general relativity and quantum mechanics turns up when the central tenet of
the former – that space and time constitute a smoothly curving geometrical
structure – confronts the essential feature of the latter – that everything in the
universe, including the fabric of space and time undergoes quantum
fluctuations that become increasingly turbulent when probed on smaller and
smaller distant scales. On sub-Plank scale distances, the quantum undulations
are so violent that they destroy the notion of a smoothly curving geometrical
space; this means that general relativity breaks down.
81
La relatividad de escala postulada en la década de los 90, pretende también haber
resuelto el problema.
175
String theory softens the violent quantum undulations by “smearing” out the
short-distance properties of space.
La teoría de las supercuerdas no sólo intenta resolver el callejón sin
salida entre la relatividad y la mecánica cuántica. Argumentando que la
materia no está constituida de “partículas”, sino que lo que conocemos por
partículas son sólo la manifestación de una vibración de las cuerdas, apunta
en la dirección hacia la cual las indagaciones científicas deberán moverse si
la teoría prueba ser correcta. Creemos que ésta dirección es la más
teilhardiana visión de la materia y del universo.
Permítasenos explicar. Si la materia no está constituida por partículas
“materiales”, sino por partículas que son las manifestaciones de la vibración
de cuerdas infinitesimales, entonces se sigue que, como cualquier cuerda en
el macromundo, cada una de esas cuerdas puede ejecutar un número que
tiende al infinito, de patrones vibracionales. Si cada patrón vibracional
determina una “partícula” elemental que se puede manifestar, entonces ¿por
qué el modelo estándar no contiene una secuencia sin fin de partículas
elementales?
En otras palabras, si la teoría de las supercuerdas es correcta, cada
vibración corresponde a una partícula elemental, y si cada cuerda puede
vibrar en una variedad de modos que tiende al infinito, entonces deberíamos
tener un número de partículas elementales que tendiera al infinito. ¿Por qué
no sucede ésto? ¿Por qué tenemos solamente las partículas elementales que
el modelo estándar señala?
Como antes dijimos, en uno de sus ensayos Teilhard de Chardin
visualiza la fuerza radial como unos resortes que se extienden desde el
centro de una esfera y vibran, no aleatoriamente, sino determinados por su
176
relación con la esfera que los mantiene unidos a la vibración de los demás
resortes. Para Teilhard de Chardin la fuerza radial trabaja como un monitor
que ajusta las otras fuerzas. La teoría de las supercuerdas, como la ciencia,
timida como siempre, no va tan lejos. Sin embargo, ironicamente, la
supercuerdas nos dice por qué, pese a la posibilidad, no existe un número
casi infinito de vibraciónes produciendo un igual número de partículas
elementales: las cuerdas deben tensarse tanto, que sólo unos pocos de estos
patrones vibracionales pueden corresponder a las partículas extremadamente
pesadas que podemos detectar. Dicho de otro modo, las cuerdas, como las
cuerdas de un piano, no vibran aleatoriamente y aunque, como las cuerdas
del piano, pueden producir una gran cantidad de rángos de tonos, la tensión a
la que se afinan evita que produzcan sonidos fuera de tono.
La física, por supuesto, no habla de un tono universal. No hay ningun
teórico de las supercuerdas corriendo a desempolvar las ideas de Teilhard
para ver si sus descubrimientos coinciden con ellas. A pesar de todo, la
teoría de las supercuerdas, hasta donde ha sido probada, determina que algo
regula la tensión de las cuerdas, algo, que después del rompimiento de la
simetria y al empezar a funcionar las fuerzas, permite sólo a un número
limitado de partículas elementales comportarse de cierta, simetrica, manera,
bajo la influencia de dichas fuerzas. Más aun, como para dar más validez a la
visión teilhardiana de la esfera, los científicos tienen que visualizar algo
como un invisible “estabilizador” que controle la tensión de cada cuerda.
Teilhard de Chardin imaginó tal cosa, sin embargo, para dar crédito a
quien el crédito merece, la física actual lo ha formulado con gran precisión.
De hecho, para Teilhard de Chardin lo anterior fue una visión y una
deducción para la cual no tenía pruebas. Claro que él nunca las necesitó, o al
menos eso pensó, puesto que para él, la prueba de la existencia de la fuerza
177
radial, de una energía que sintonizando el comportamiento de las partículas
y las fuerzas determine sus resultados, está en el cosmos mismo, en su
historia. Si el vió un “estabilizador” de la sintonía en el universo, fue en el
macromundo segun se desarrolla, por lo que en el siguiente capítulo veremos
el cosmos y su historia, intentando obtener las instrucciones para un cosmos
que evoluciona.
Pero antes de esto tenemos que tratar de explicar otra consecuencia de
la teoría de las supercuerdas que es el hecho de que a cada partícula
elemental, corresponde en el plano de diez (o más) dimensiones, una
metapartícula, que es su conocimiento o sea la capacidad para recibir y
transmitir una información que portan las fuerzas fundamentales y que son
contituyentes de la energía radial
Cuando las partículas elementales se unen lo hacen a costa de un gasto
energético, de modo que la metapartícula aumenta su conocimiento. Es
decir, surge una nueva ley para regular el funcionamiento de la nueva
partícula.
178
8
LA EVOLUCIÓN CÓSMICA: UN MODELO
It is interesting to contemplate an entangled bank, clothed with many
plants of many kinds, with birds singing on the bushes, with various insects
fitting about and with worms crawling through the damp earth, and to
reflect that these elaborately constructed forms, so different from each other,
and dependent on each other in so complex a manner, have all been
produced by laws acting around us. These laws, taken in the largest sense,
being Growth with Reproduction; Inheritance, which is almost implied with
Reproduction; Variability from the indirect and direct action of external
conditions of life, and from use and disuse; a Ratio of Increase so high as to
lead to a Struggle for Life, and as a consequence to Natural Selection,
entailing Divergence of Character and the Extinction of less-improved
forms. Thus, from the war of nature, from famine and death , the most
exalted object which we are capable of conceiving, namely, the production
of higher animals directly follows. There is grandeur in this view of life, with
its several powers, having been originally breathed into a few forms or into
one; and that, whilst this planet has gone cycling on according to the fixed
law of gravity, from so simple a beginning endless forms most beautiful and
most wonderful have been, and are being, evolved.
“Es interesante contemplar un enmarañado ribazo cubierto por
muchas plantas de varias clases, con aves que cantan en los arbustos,
con diferentes insectos que revolotean y con gusanos que se arrastran
entre
la
tierra
húmeda,
y
reflexionar
que
estas
formas,
primorosamente construidas, tan diferentes entre sí, y que dependen
179
mutuamente de modos tan complejos, han sido producidas por leyes
que obran a nuestro alrededor. Estas leyes, tomadas en un sentido más
amplio, son: la de crecimiento con reproducción; la de herencia, que
casi está implícita en la de reproducción; la de variación por la acción
directa e indirecta de las condiciones de vida y por el uso y desuso;
una razón del aumento, tan elevada, tan grande, que conduce a una
lucha por la vida, y como consecuencia a la selección natural, que
determina la divergencia de caracteres y la extinción de las formas
menos perfeccionadas. Así, la cosa más elevada que somos capaces de
concebir, o sea, la producción de los animales superiores, resulta
directamente de la guerra, del hambre y de la muerte. Hay
grandiosidad en esta concepción de que la vida, con sus diferentes
fuerzas, ha sido alentada en un corto número de formas o en una sola,
y que, mientras este planeta ha ido girando segun la constante ley de
la gravitación, se han desarrollado y se estan desarrollando, a partir de
un principio tan sencillo, infinidad de formas las más bellas y
maravillosas.”
Hemos transcrito en su totalidad el último párrafo de El orígen de las
especies de Darwin,82 porque no sólo contiene, para decirlo brevemente, la
estructura desnuda de la teoría de la evolución, señalando los principios de la
herencia y la variación, así como el eje de la teoría de la selección natural,
sino porque, viniendo del hombre que planteó la teoría de la evolución, es
una de las pocas instancias, donde usa la palabra desarrollandose (evolved,
82
En realidad se ha transcrito en inglés y en español porque de esta manera podemos
apreciar cómo una traducción, por muy cuidadosa que sea, difícilmente refleja con
precisión el pensamiento original del autor.Los comentarios, pues, estan referidos a la
versión original en inglés que se titula On the Origin of Species by means of Natural
Selección, John Murray, Londres, 1859.
180
en inglés) en un contexto extraño. La palabra llega en el mero final del libro.
De hecho, es la última palabra en la versión original del libro, y Darwin no
la usó como nombre, sino como participio pasado (evolved) en una
construcción verbal, no sólo para hacer valer, con destreza y de manera
menos polémica, que este proceso había sucedido, sino también para
implicar que seguia sucediendo. Es muy sorprendente que a la vez que
Darwin utiliza el término, su tono es el más reverencial. Menciona los
“objetos exaltados” y “la grandiosidad” (grandeur). Pero más que
reverencial, el párrafo ha sido siempre perturbador. Allí hay más que
ambiguedad, hay también mucho más que simple reverencia de parte de
Darwin. Pero para empezar con lo último, analicemos que es lo que con esa
frase explicativa que empieza con “mientras” y termina con “gravitación”,
trata de lograr. Como dando la vuelta, Darwin se las arregla para colocar su
teoría y colocarse a sí mismo, codo a codo con la teoría de la gravitación, y
es que está consciente de la importancia de su trabajo. De manera bastante
discreta se las ingenia para recordarnos lo que constituía la revolución
científica más influyente anterior a la evolución.
Sin embargo, la frase no sólo introduce o eleva la teoría de la
evolución al mismo nivel que el descubrimiento de Newton. Darwin está
incierto de la cantidad de tiempo que la evolución requiere para actuar, pero
sabe que necesita mucho. Así que para recordarnos el cosmos newtoniano,
ese verdadero símbolo de la exactitud, él evoca una especie de línea del
tiempo, un tipo de cronología que encaja en el proceso de la evolución. Sin
embargo, hay algo más perturbador. Durante todo el libro, Darwin ha estado
tratando con la herencia, con la variación, con la lucha por la vida y con la
selección natural, ha estado dando ejemplos tomados de criadores y de
trabajadores del campo. Para decirlo de otra manera, él ha estado con los
181
ojos fijos en lo pequeño, pájaros, gusanos y toda la diminuta red de formas
del planeta. ¿Entonces por qué una vez que ha explicado la teoría, una vez
que está configurada, olvidarse del mundo terrestre que tan bien exploró y
enfocarse en las estrellas? Nunca tendremos una respuesta precisa a esto.
Pero podemos conjeturar. Teniendo el bosquejo de una historia que es
inconcebiblemente larga, teniendo trazado el proceso que tomó miles de
millones de años para desarrollarse y que, supuestamente, tomará otros
tantos para concluir, debió estar consciente, pensamos, de que nuestra
historia, la historia de la evolución, tenía que ser sólo un fragmento de un
proceso más largo. Él debió haber creido que la evolución no era un proceso
relegado sólo a la Tierra, pero lo puso en un contexto terrestre, un planeta
que gira en el vasto espacio y, haciendo esto, puso al espacio en el mismo
continuum evolutivo. Entretejió, en otras palabras, la evolución como pudo
ser trazada en este planeta, con las viejas leyendas de la evolución cósmica.
El Darwin en su modo más elevado, más perturbador y especulativo,
no es el Darwin que a los científicos realmente les gusta, ellos prefieren al
Darwin compilador como científico naturalista, apuntando observación tras
observación en sus trabajos de campo. Ambos Darwin son reconciliables, y
mediante su trabajo de campo, bien pudo no haber llegado a la teoría de la
evolución si no hubiera sido un escritor perturbador y especulativo. La
pregunta que surgiría hoy dia, por supuesto, es: ¿estaba Darwin en lo
correcto?
Por lo pronto, debemos retomar, desde donde lo dejamos, el proceso
del rompimiento de la simetría que tuvo lugar durante el big bang y ver
cómo los científicos la han interpretado y cómo podrían interpretarla si sólo
cambiaran los paradigmas que usan. Podemos, por supuesto, razonar que sí,
que Darwin estaba en lo correcto y que no fue mera arrogancia colocar su
182
teoría al lado de la teoría que había sido la más eficiente y congruente para
explicar el cosmos.
El rompimiento de la simetría que discutimos en el capítulo previo ha
sido interpretada por algunos filósofos y los divulgadores de la ciencia, así
como por muchos científicos, como la prueba de que el universo es el
trabajo de la casualidad y de lo hecho al azar, prueba, brevemente, de que no
sólo el universo, sino nuestra misma vida es el resultado de un “cara o cruz”
que irrumpió alegremente de una fluctuación cuántica. La razón de esta
creencia se desprende en muchas maneras, del hecho de observar
unicamente en el contexto de la física de partículas, de ver solamente a
través de la lupa de la teoría de las supercuerdas, de creer que el proceso del
rompimiento de la simetría es solamente un fenómeno con una cadena de
causalidad anterior, pero sin ninguna consecuencia. Las palabras operativas
aquí, son por supuesto, causalidad y consecuencia. Cualquier actividad en
este universo inicia una cadena de causalidad. Somos parte de los resultados
de la cadena de causalidad. Los embotellamientos del tráfico que padecen
los habitantes de las grandes ciudades casi diariamente son un buen ejemplo
de lo que una cadena de causalidad es. Para explicarla, tenemos que
remitirnos a los planificadores de la ciudad y al porqué de sus decisiones, así
como a las decisiones que los malos conductores toman. El hecho de que
uno termine medio estacionado por varias horas, en muchas ocasiones está
causado, entre otras, por las decisiones de los urbanistas y de los malos
conductores. Para la mayoría, estos embotellamientos son sólo rutina, parte
de la vida diaria y difícilmente una consecuencia de ella. Enfurecidos
mientras estamos atrapados en ellos, rabiando porque llegamos tarde a casa
desde el trabajo, el asunto es olvidado rápidamente al reasumir nuestras
diarias actividades. Sin embargo, la naturaleza “molesta pero inocua” de los
183
embotellamientos, siempre ha tenido el potencial de llegar a ser no
solamente molesta, sino nociva. Imaginemos por ejemplo, que un mal
conductor choca provocando que se cierren dos carriles de la calzada y
llevando el tráfico a una paralización el dia que vamos a cerrar un
importante negocio o a una entrevista de trabajo. No solamente podríamos
llegar tarde, podríamos no llegar. Los embotellamientos del tráfico, desde
este escenario, provocan una consecuencia. En otras palabras, algo de
importancia ocurre o deja de ocurrir por ello.
La mayoría de la gente está consciente de este señalamiento. Después
de todo, los embotellamientos son parte de nuestra diaria experiencia, y para
prevenir que la causalidad se vuelva consecuencia, a menudo consideramos
el tráfico cuando planeamos. Sin embargo, cuando esto se traduce a datos
científicos, es más difícil valorar si una pieza de información como el
fenómeno del rompimiento de la simetría, que ocurrió durante el big bang,
sólo desencadenó una cadena de causalidad o si tuvo consecuencias. Parte
del problema tiene que ver con la tendencia casi innata de los científicos a
evadir la generalización y el pensamiento determinista. Si uno le explicara el
proceso de rompimiento de la simetría a mucha gente, y después les
mostrara cómo sin él, ni el planeta ni nosotros estuvieramos aquí, la mayoría
de esa gente estaría de acuerdo en que el proceso de rompimiento de la
simetría tuvo tremendas consecuencias. Para los científicos, el enmarcarnos
en el argumento cae en el antropocentrismo, y ellos creen que fue el
antropocentrismo lo que en el pasado impidió el progreso científico. En
parte tienen razón y en parte están equivocados. Están muy equivocados
cuando sostienen que el proceso de rompimiento de la simetria fue un
accidente que desató una cadena de causalidad. El azar y el accidente
siempre tienen un rol en las cosas, su presencia es innegable y bastante
184
evidente en nuestro diario existir. Así que nadie puede negar el hecho de que
muchas cosas en este mundo no sólo están sujetas al azar, sino que le deben
su existencia. A pesar de todo, el pasar de concederle un papel importante al
azar en el universo, a sostener que porque ciertos aspectos de la creación
puedan deberse al azar, el universo entero es aleatorio, es un paso en falso,
lógico y epistemológico. Como el antropocentrismo al que tanto temen, lo
científicos privilegian un elemento sobre el otro y se ciegan a una visión más
amplia.
Así que ¿cómo vamos a imaginarnos o a valorar las consecuencias de
una acción o evento como el proceso del rompimiento de la simetría? De la
misma manera que vemos consecuencias en los embotellamientos del tráfico
cuando los filtramos a través de la perspectiva de una entrevista o un
negocio perdidos. Los filtramos, los ponemos en perspectiva, ¿y qué
perspectiva nos revelará las consecuencias de tal accidente? Todas las ramas
de la ciencia consideran la indeterminación y el accidente, puesto que su
papel es predecir. Sólo la evolución los ha sistematizado, los ha entendido e
integrado. Para los cosmólogos y los físicos de partículas, los eventos
anormales, el accidente y los saltos cuánticos son solamente interesantes en
tanto revelan un sistema y un orden interno, una recurrencia. Para que la
evolución funcione como una sostenible teoría científica, los biólogos
evolucionistas necesitan de lo anormal, del accidente, o para usar los propios
términos de Darwin, de lo monstruoso.
Así, el sostener que el universo está sujeto a las leyes de la evolución,
es anatema para muchos científicos. De hecho, el pretender dar a la
evolución un campo de aplicación más amplio que el biológico, es visto
inmediatamente como pretender volver a un positivismo científico del siglo
XIX. Los cosmólogos encuentan la evolución un poco más confortable,
185
menos inquietante a su modo de pensar, en miles de millones de años de
historia cósmica, como un deslizarse hacia el fondo de un basurero
entrópico, en lugar de imaginarse a los planetas, las estrellas, los átomos las
galaxias y los seres vivientes, como el producto de una evolución. Las
razones que están detrás de esta resistencia a tal interpretación o aplicación
de la evolución al tema de la cosmología y en general al de la materia
inorgánica, son varias. Algunas están matizadas por esa tendencia nihilista
postmodernista que hemos discutido en capítulos previos, postura que está
acorde con su pesimismo. Otras razones tienen un criticismo válido que
debemos señalar.
La principal de ellas funciona como sigue: la evolución ciertamente ha
moldeado la vida en la Tierra –argumentan estos pensadores–; sin embargo,
cuando uno aplica la idea de la evolución al cosmos, no está siendo literal, y
la ciencia no puede trabajar con metáforas. Lo que ellos temen, o más bien,
lo que ellos se preguntan, es si la evolución y la cosmología
deben
actualmente encontrarse y, si es así, deben hacerlo con una base sistemática.
Estas dudas críticas son reales e importantes, puesto que su consignación se
debe a una mala interpretación de la evolución. Ellos están en lo correcto, y
lo que pretenden es que la declaración sea demostrada y que la evolución no
debe ser entendida como un mero cambio. ¿Como podemos probar que la
evolución realmente sucedió y está sucediendo en el universo? Antes de
empezar a buscar una evidencia de la evolución cósmica, refresquemos
brevemente nuestra memoria regresando al primer capítulo, donde hablamos
de los tres principios de la evolución, y después intentemos ver cómo esos
principios parecen encajar bien y explicar varios estados de la historia
cósmica.
186
De esta manera, como vimos, lo que los biólogos llaman evolución es
la aplicación de estos tres principios a los cambios de los organismos
vivientes. El primer principio es el de conservación. Por conservación, los
biólogos etiquetan el fenómeno de la herencia en su significado más
profundo. Hasta donde tienen que ver las especies, lo que las define como
tales es el principio de conservación, el hecho de que haya un conjunto de
características que pasan y permanecen de los progenitores a su prole. En el
mundo orgánico, el principio de conservación es tan fuerte que los
embriólogos nos han mostrado cómo los embriones humanos desarrollan en
una etapa, agallas, recuerdo de los antecesores “peces”, que luego se
transforman en pulmones. De igual manera, también construyen y destruyen
buena parte del tejido cerebral en un proceso llamado “escultura neural”.
El segundo principio de la evolución es la antítesis de la conservación:
la innovación. Muchos han interpretado mal la teoría y la han visto sólo
como un progreso o un mero cambio que se ha enfocado en la innovación
misma, aunque para los biólogos esta innovación es semánticamente
diferente a la que nos referimos cuando hablamos de tecnología. Mientras
que la innovación en la tecnología implica un intento de aerodinamizar
herramientas que tienden a ser más eficientes y poderosas, en biología
significa el hecho de que la molécula de ADN resulta alterada mediante
cambios internos producidos por sucesivas mutaciones que heredarán los
descendientes.
Estas
mutaciones
constituyen
la
amenaza
o
la
“monstruosidad” de la que la evolución depende. Como el rompimiento de
la simetría, las mutaciones surgen al azar. Sin embargo, la evolución asimila
estos accidentes en un esquema más amplio, en un modelo mayor.
Y en el centro de este modelo mayor, actuando como el eje entre los
dos principios anteriores opuestos, está el principio de la selección. La
187
conservación, por sí sola, apunta al estancamiento; sumada a la innovación,
nos conduce a cambios ciegos, a la casualidad. El meollo de la evolución
está en la adición de la selección. Darwin llegó al principio de la selección
después de leer a Thomas Malthus, pues se dió cuenta de que las especies se
reproducen a una tasa mayor que la que su ambiente puede soportar. En otras
palabras, los seres vivos tienden a reproducirse tan aprisa y en la mayor
cantidad que puedan y el único mecanismo para controlar esta reproducción
es el agotamiento de los recursos. Los individuos compiten por estos
recursos y algunos compiten lo suficiente como para llegar a reproducirse,
mientras que otros, menos aptos, mueren antes de alcanzar la edad necesaria
para ello. Puesto que los individuos que sobreviven son producto de la
innovación y la conservación, a su vez engendran su descendencia, la cual
preservará su información genética. Como la innovación surge de su éxito en
la interacción con el medio ambiente, éste determina si la innovación es
aprobada o no.
Cuando los críticos de arte, por ejemplo, usan el término evolución
para indicar ciertos cambios en los trabajos artísticos, lo están tomando
prestado de la ciencia. Pero este préstamo lo usan en forma metafórica. El
arte realmente no evoluciona. Claro que hay y ha habido principios
conservativos en el mundo del arte, pero pensamos en estos principios bajo
la sola rúbrica de la tradición. También existen innovaciones, sin embargo,
que no son debidas al azar, sino que estan determinadas por la individualidad
de un artista, el medio, las circunstancias históricas, o por lo menos reflejan
el respaldo o antecedentes culturales que influenciaron al artista. Más aún,
estos cambios no se acumulan para crear una especie totalmente diferente. El
arte tiene la misma función y propósito que tenía en el Renacimiento. Y más
188
allá de invocar fuerzas de mercado, no podemos hablar de principios de
selección en el mundo del arte.
Ésta es la clase de aplicación de la teoría de la evolución que los
científicos han rechazado, por lo que que si pretendemos hablar de una
evolución cósmica, debemos tener la certeza de que los tres principios
evolutivos funcionan en la historia del cosmos. ¿Podemos, en otras palabras,
decir que el universo nos ha dado la prueba de que no está solamente
gobernado por las fuerzas que hemos discutido, sino que estas fuerzas están
a su vez sujetas a los principios conservativos, innovativos y selectivos de la
evolución?
La respuesta de Teilhard de Chardin es un categórico sí, lo que para
muchos supone la mayor falla de sus ideas. Nosotros creemos que, a pesar
de todo, Teilhard está en lo correcto, y que no sólo hay más que suficiente
evidencia de que los tres principios de la evolución actúan en el cosmos,
sino que si accedemos a cambiar nuestro paradigma un poco, no solamente
entenderemos la perspectiva de Teilhard de Chardin, sino que también
podríamos empezar a redirigir el propósito de las investigaciones científicas,
de la misma manera que toda revolución científica lo ha hecho.
El cambio de paradigma es bastante simple. Si tomamos los registros
y la explicación de fenómenos específicos como el propósito de la ciencia,
terminaríamos con una ciencia que considera la causalidad y evita tratar con
consecuencias. Lo que actualmente tenemos en la mayor parte del trabajo
científico es un calcular o llevar las cuentas, sin un intento de darle un
significado. Como cualquier amante de la música o cualquier entusiasta de
las artes –que son las más significativas de las tentativas humanas– sabe, el
significado en cualquiera de ellas no es tanto un asunto de contenido como
de forma. Sin tratar de prolongar demasiado la analogía, podemos sostener
189
que la investigación científica está basada en contenidos y sólo las nuevas
ramas de las matemáticas se relacionarán con el aspecto formal. Aclaremos
un poco. La física de partículas, que reune colores, sabores, espines y trazas
de partículas para descubrir otras partículas, la cosmología que relaciona
fenómenos y cuerpos celestes, la biología que hace el escrutinio del genoma,
son todas ciencias que están tratando con lo que nos hemos referido como
contenido. Si el proyecto del genoma humano es, como se vea, indicativo de
esta tendencia, lo que tenemos son ciencias que, en lugar de ser predictivas,
han llegado a ser nuevas taxonomías, ciencias que son una vez más
solamente descriptivas. La biología, sin embargo, parece estar un paso
adelante en el juego. La razón es principalmente histórica. Lo que el
proyecto del genoma está haciendo es llevar la cuenta o describir el
contenido de la molécula de ADN. A diferencia de los físicos de partículas y
de los cosmólogos, los biólogos iniciaron la relación después de que
descubrieron la forma, la estructura de la molécula de AND, y por
consiguiente el significado o función de la molécula. Lo que necesitamos es
una ciencia formalista, ¿pero qué supone esto? A diferencia del contenido
que tiene propósitos semánticos significativos, pero que también puede tener
ruido semántico, lo que elegimos para referirnos como forma son realmente
las estrategias83 que la naturaleza impone a través del tiempo.
Esta última definición no es simple. No obstante, es importante y
antes de continuar con la evolución cósmica, debemos ver lo que significa.
Como ya se dijo, las grandes revoluciones científicas por lo común hacen
más que elaborar un nuevo concepto, cambian los paradigmas con los cuales
vivimos. Después de la revolución copernicana, ninguna otra perturbó más
83
Estrategia: en un proceso regulable, el conjunto de las reglas que aseguran una decisión
óptima en cada momento.
190
nuestra manera de pensar que la de Darwin, y mientras que la mayoría de la
gente cree que Darwin cambió nuestros paradigmas colocándonos en la
misma linea de descendencia que los primates, el concepto verdadero y más
difícil de asimilar es el que la teoría implica acerca del tiempo y del mundo
en que vivimos. La mayor parte de la ciencia y de la filosofía
predarwinianas, consideraban el tiempo como una especie de maquillaje,
puesto que el universo y todo en él era estático. Por supuesto que los
pensadores y los legos percibian cambios; sin embargo, no pensaban que los
grandes o pequeños cambios equivalieran a algo. La teoría de la evolución
de Darwin no sólo sostenía, sino que necesitaba que la Tierra fuera mucho
más antigua que lo que cualquiera hubiera pensado. Unas pocas formas de
vida originales, para diversificarse en los millones de especies que se
encuentran actualmente en la Tierra, requirieron cientos de millones de años.
Aun cuando Darwin no tuvo en su tiempo los registros geológicos que
soportaran su teoría, ésta seguía siendo radical al identificar un mecanismo,
una estrategia por medio de la cual la naturaleza tanto preservaba como
cambiaba las características innatas de la especie. En otras palabras, la
evolución, barajando sus tres principios –conservación, innovación y
selección– es una estrategia impuesta sobre el tiempo.
Quién o qué impone la estructura, será la cuestión con la que
trataremos el siguiente capítulo. Por ahora debemos continuar para definir
cómo una ciencia formalista es o debe ser radicalmente diferente a una
ciencia basada en el contenido. Como hemos visto a lo largo del libro, los
cosmólogos tratan con enormes cantidades de tiempo, mucho más vastas que
aquéllas con las cuales los biólogos evolucionistas tratan. Por otro lado, sus
contrapartes, los físicos de partículas, tratan con lo más diminuto, con
cantidades que para nosotros son inimaginablemente pequeñas, si bien tanto
191
los cosmólogos como los físicos de partículas se enfocan en un su mayor
parte en un solo asunto, el explicar fenómenos individuales. Sus ciencias, en
otras palabras, sólo tratan con momentos aislados en el tiempo. Aun los
astrofísicos, cuyos métodos parecen tan históricos como la evolución
(después de todo las galaxias y quásares que los astrónomos observan son de
muchas maneras los registros fósiles del universo), se
enfocan
principalmente en momentos aislados, si bien en momentos cósmicos. Sí, a
menudo obtenemos una crónica del universo, pero como hemos
argumentado, más que una historia, es una cadena de causalidad.
El problema central para los físicos, si fueran a hacer la tentativa de
cambiar la naturaleza de sus trabajos basada en el contenido y reenfocarse en
el problema formal, es que el modelo “matemático” que la evolución ha
empleado las más de las veces para calcular los cambios a través del tiempo,
no es precisamente el suficiente para el tipo de cálculo exacto que se tiene
que hacer cuando uno trata con millonésimas de segundo. Las matemáticas,
por supuesto, han estado de muchas maneras en la vanguardia de la
invetigación científica. Con esto no queremos decir que los matemáticos se
ponen la bata de laboratorio con frecuencia para trabajar con la ciencia
experimental, aunque algunos sí lo hagan. No, las matemáticas han estado a
la vanguardia porque muchos de sus modelos, que han sido cruciales para el
progreso científico, ya estaban bien establecidos para cuando algún
científico llegó y trató de aplicarlos a la realidad. En otras palabras, las
matemáticas existen antes de ser explicadas. Un buen ejemplo es el de
Einstein, que llegó a escena cuando las reglas de la geometría de cuatro
dimensiones había ya sido trabajada por Bernhard Riemann y János Bolyai.
Este tema de la geometría de cuatro dimensiones permanece considerado
como de los más difíciles y misteriosos.
192
Einstein realmente luchó para entender las matemáticas. Sin embargo,
al adoptar el modelo pudo comprobar la simiente de la teoría de la
relatividad general. Existe por supuesto un sentimiento de retraso en la
cultura y los científicos no están inmunes a él. En las conferencias
académicas hay a menudo lamentaciones por el hecho de que el ambiente
intelectual que favoreció a los Einsteins y Bohrs ha desaparecido. Se fue la
rígida academia de las universidades alemanas que prepararon a la que quizá
haya sido una de las más notables generaciones. Se fueron también las ideas
acumuladas que flotaban en el aire y que resultaron las más fértiles, cuando
luminaria tras luminaria parecian tomar la esencia de ésta o aquella idea y
transformar la manera en que entendiamos el mundo. Asi que hagamos la
pregunta: ¿existe un modelo matemático que los físicos puedan adoptar, para
que pudieran cambiar hacia una manera más formalista de hacer la ciencia?
A partir de la mitad de la década de los años setenta y principio de los
ochenta, los mundos de las finanzas, de la meteorología y de la ecología han
sido radicalmente transformados a medida que las matemáticas del caos y
los fractales han empezado a filtrarse en sus estudios. El caos, la ciencia más
elaborada de ambas, trata con lo que los científicos llaman comportamiento
caótico. El comportamiento caótico es propio de los sistemas –como el
clima, el mercado de valores o un ecosistema– cuyo comportamiento no es
lineal y un pequeño cambio en las condiciones iniciales del experimento
tiene una gran influencia en los resultados. El caos es de muchas maneras el
verdadero estudio de las consecuencias.
Tratemos de explicar con una analogía más elaborada. Lo elaborado
se debe principalmente a que los conceptos no son fáciles. Pero de cualquier
manera, imagínese que tenemos una cámara fotográfica en la que el visor de
imagen y la lente no son uno o el mismo, por lo que existe una discrepancia,
193
aun cuando pequeña, entre lo que vemos y lo que la lente captura. La cámara
y el objeto a fotografiar forman en este caso un sistema lineal porque existen
“errores” predictivos, que pueden tomarse en cuenta desde un principio. Asi
que si estamos tratando de hacer un acercamiento, digamos, de un florero,
todo lo que tenemos que hacer es tomar en consideración la discrepancia, es
decir, ajustar de inicio. Nuestro sistema, que incluye el visor de imagen, los
lentes de la camara y el florero, son bastante predecibles. Pero si salimos del
estudio y en vez de fotografiar un florero decidimos tomar fotos de gente
caminando en la calle, aunque estemos conscientes de los “errores
predictivos”, tan pronto la gente se empiece a mover dentro y fuera de foco y
las nubes permitan una mayor o menor luminosidad, estaremos tratando con
un sistema caótico. Muchas de las condiciones iniciales habrán cambiado y
no seran predictivas, así que las fotos que logremos pudieran no ser las que
esperábamos, aún tomando en cuenta los errores predictivos.
La característica fundamental de los sistemas caóticos es que si a dos
sistemas idénticos se les dan “giros” ligeramente diferentes, se tornan
exponencialmente divergentes. Finalmente, lo que el caos, como modelo
matemático, permite a los científicos es poder considerar un sistema, no
como un fenómeno aislado, sino como un proceso que se desenvuelve en el
tiempo. De ahí el éxito del caos para trabajar con el mercado de valores, el
clima o los ecosistemas. ¿Cómo funciona el caos? En lugar de intentar
predecir las condiciones finales de un sistema, el caos modela el
desenvolvimiento del sistema varias veces cambiando muy poco sus
condiciones, para predecir un resultado. El meteorólogo, por ejemplo,
“corre” en la computadora una simulación que empieza con las condiciones
del dia de hoy. Puesto que está tratando de predecir el clima de pasado
mañana, debe dejar que la simulación se desarrolle durante esos dos dias. A
194
menudo los resultados serán bastante divergentes. El clima, después de todo,
es uno de los sistemas más caóticos, es decir, uno de los más sensibles a los
cambios por más insignificante que éstos sean. Su predicción, por
consiguiente, está basada no en el tipo de divergencias que se encuentran,
sino en los lugares donde las diferentes simulaciones concurren. Los
corredores de bolsa siguen un proceso similar con el mercado, para obtener
gráficas que revelen los cambios a la alta o a la baja. Los ecólogos también
usan diferentes modelos de ejemplos de ecosistemas e intentan predecir el
crecimiento de las poblaciones y la merma de los recursos.
Muchos argumentan que la evolución cósmica es una quimera, pues
apunta a que si queremos usar modelos de caos para probarla debemos tener
varios modelos de universo, o varios universos para ver cómo los diferentes
escenarios se desarrollan, y solamente entonces discurrir patrones. Algunos
cosmólogos consternados por esta imposibilidad han llegado a postular la
fascinante idea de los multiuniversos. Brevemente, lo que argumentan es la
existencia, no de uno, sino de muchos universos, los cuales han tenido
historias radicalmente diferentes. Algunos habrán nacido sin posibilidad de
llegar a producir estructuras biológicas, otros habrían podido terminar con
más de cuatro dimensiones y fuerzas después del rompimiento de la
simetría. Desafortunadamente, mientras que el modelo de multiuniversos
suena intrigante, como postulado poco nos ayuda en nuestra búsqueda de
probar que la evolución cósmica es un hecho. Actualmente sabemos mucho
más de nuestro universo que hace un siglo. Podemos reconocer una
estructura, tenemos clasificado mucho de su contenido. Sin embargo, tal
trabajo ha tomado milenios y la concurrencia de varias civilizaciones para
lograrlo. Así que actualmente, imaginar que pudieramos trazar la historia de
195
varios universos de ese multiuniverso para simular los diferentes modelos de
universo y encontrar patrones, es más que ingenuo.
La propuesta tampoco parece tomar en cuenta, que mientras que en
los pronósticos financieros y meteorológicos, el caos ha sido utilizado como
una herramienta predictiva, si aplicamos el mismo modelo matemático a la
historia del universo, lo haremos no tanto para predecir un resultado, como
para encontrar patrones en el caos, para encontrar una recurrencia de
aquellas estrategias que la naturaleza ha impuesto a través del tiempo. Lo
que buscamos en la historia del universo usando el caos como un lente de
aumento, no es la historia de los eventos per se, sino la historia de aquellas
formas que han emergido en ciertos estados de la historia del universo y que
fueron capaces de llegar a ser estables y perdurar pese a la entropía. Por
supuesto aquí no hay genética de cuando emergieron las formas de la que
hablar. La genética llegó a ser un asunto de importancia cuando las
moléculas se polimerizaron, pero esto será tema del siguiente capítulo.
Brevemente, nosotros no podemos argumentar que una estructura estelar
inicial trasmitió sus rasgos a su descendencia. Lo que sí podemos
argumentar mientras vemos las diferentes estructuras que emergen en el
universo son dos cosas.
Primero, a causa de las fuerzas de la naturaleza y de la manera que
ellas disponen de la materia y determinan su comportamiento, el universo
permite la sobrevivencia de sólo ciertas estructuras. Sólo hay unas pocas
estructuras viables en nuestro universo, y mientras que esto no parece ser
equivalente a una ayuda genética, de muchas maneras sí lo es. Puesto que la
genética es la réplica de la información, de manera que ésta pueda pasar de
los padres a su descendencia, es una obligación, y determina, a nivel de las
196
fuerzas, que las partículas formen la materia, las estrellas de las galaxias y
los sistemas solares.
Segundo, es posible observar que algunas estructuras básicas no sólo
parecen permanecer, sino que realmente parecen refinarse, perfeccionarse y
llegar a ser más viables con el transcurso del tiempo. Lo verdaderamente
sorprendente de los patrones que emergen, es el patrón de complejificación,
hasta el punto que a las estructuras concierne, y a la cantidad de información
que tales estructuras contienen. Esta tendencia viene a ser más obvia una vez
que la evolución orgánica surge. Y en sí mismo el concepto tiene muchos
términos difíciles –como complejidad e información– que sólo llegan a
aclararse cuando buscamos en el proceso mismo.
La cuestión que queda para nosotros es ¿en qué punto podemos
empezar a hablar propiamente de estructuras? El universo primitivo, con su
inconcebible energía y calor, ciertamente no parece que fuera un amable
huésped de las estructuras. De cualquier manera, pese al hecho de que nada
parecido a lo que actualmente conocemos como materia residia allí, ya para
la época en que el universo tenía un diezmilésimo de segundo, los quarks y
antiquarks habían terminado su aniquilación mutua y los sobrevivientes se
habían reunido en tríos como protones y neutrones. Entonces, en mucho
menos tiempo de lo que llamamos un instante, el universo había elaborado
las semillas, los componentes del futuro núcleo atómico. El núcleo atómico
es el primero entre muchos venideros ejemplos de lo que hemos llamado
estructuras. Es el primero que parece seguir nuestros dos principios.
Inicialmente, el núcleo atómico fue configurado y determinado por las
fuerzas de la naturaleza. En seguida, vino a ser la semilla de estructuras más
complejas. A tal grado, que cuando el universo tenía una edad de 3 minutos
y 42 segundos, protones y neutrones se habían ligado y formado el núcleo
197
del helio; así el naciente universo llegó a estar formado por un 20% de helio
y un 80% de hidrógeno, los dos elementos atómicos más ligeros.
Para aquellos que se ocupan de los patrones y gustan de las formas,
estos primeros minutos del universo pueden verse como algo casi poético en
el sentido en que, como un Leitmotiv, manejó la urdimbre de lo que
podríamos llamar el tema central de la historia del universo, si éste fuera una
pieza de música. Para aquellos a quienes no les importan los patrones,
tendrían suficiente con una lista inicial de ingredientes y un curso elemental
de física, para un conocimiento básico de que los dos elementos que
dominaron el universo primitivo no son sólo los más simples,84 sino los dos
únicos en la receta de las estrellas. A las estrellas les faltaba mucho para
llegar, pero cuando el universo tenía una hora de edad, se había enfriado lo
suficiente para que la mayoría de los procesos nucleares (y prenucleares) se
hubieran detenido y el germen de todo lo que vendría a ser se hubiera
estabilizado. El enfriamiento en tales estados primitivos altamente
energéticos, por supuesto que es relativo, puesto que cuando el universo
tenia un año de edad su temperatura ambiente era más o menos la misma que
la del centro de una estrella en la actualidad.
El origen de estas estructuras simples no es un argumento muy fuerte
para demostrar que el universo está evolucionando. Mientras tanto, la
existencia del núcleo será al menos el sostén de la existencia de una fuerza
conservativa de este firme “lecho de roca” en el largo proceso de la historia
universal, pero no tendrá importancia para los otros dos principios de la
evolución, la innovación y la selección. En la búsqueda de estos principios
84
Hay que aclarar que en sí estos elementos son simples en el contexto de los elementos
que propiamente forman ya la materia, pero que son sumamente complejos ya que en el
neutron se aloja la información como gluones, varios tipos de quarks que a su vez
posiblemente esten formados por cuerdas y éstas, quizá sean la energía misma.
198
tenemos que remontarnos a otro momento culminante de nuestra más que
resumida historia. Y el estado del universo cuando empezamos a encontrar
algo parecido a la innovación y a la selección es cuando éste tenía alrededor
de 10 a 11000 millones de años, esto es, para dar una mejor idea, hace
alrededor de 3.8 a 4000 millones de años. Estos son inimaginables lapsos,
cuando estamos buscando al menos dos datos, puesto que estamos hablando
acerca de un proceso que tuvo lugar durante 11000 millones de años o más.
Sin embargo, dentro de este proceso podemos señalar cuatro umbrales
cruciales, que si no nos confirman, al menos insinúan la innovación y la
selección. El primer umbral nos remite a la radiación cósmica de fondo que
incluye la liberación de los fotones, dejando a los electrones libres para
combinarse con los nucleos y formar los átomos estables. O dicho de otra
forma, lo que los átomos estables permiten es la formación de la materia
como la conocemos. De hecho, lo que emergió hace 11000 millones de años
fueron las nubes de materia que llamamos protogalaxias. Este momento –si
es permitido llamar momento a tal lapso– marca dos cosas, la emergencia de
estructuras más complejas que utilizan una “célula” básica, por llamar de
alguna manera a esta estructura básica. Lo que también vemos emerger en
primera instancia son nubes de materia en gran escala. Mientras que no todas
de estas nubes de materia llegaron a formar galaxias, fueron alimentadas y
gobernadas por esas fuentes de luz puntuales, creemos, llamadas quásares,
cuyo corrimiento al rojo indica que se encuentran a distancias de miles de
millones de años luz y posiblemente sean los núcleos de jóvenes galaxias.
Brevemente, lo que vemos en este umbral es el principio de otra estructura.
Para decirlo coloquialmente, la receta inicial para una estrella, fue utilizada
por el universo, y en este umbral, vemos surgir las estrellas, como el eje de
nuevas estructuras. Como cualquiera con un conocimiento superficial de
199
astronomía sabe, no todas las estrellas son viables. De hecho, la longevidad
y la sobrevivencia de las estrellas está determinada por su masa.
Para muchos, la formación de las protogalaxias y aun la liberación de
los fotones que permitieron a lo electrones combinarse con el núcleo y
formar átomos estables, no es tanto prueba de una evolución como de un
fenómeno causal, fenómeno que tuvo lugar porque las condiciones fueron
las correctas. De muchas maneras, el modo de ver una serie entera de
eventos como una cadena de causalidad, es solo falta de una visión más
ámplia: estos eventos y los que siguieron, incluyendo la aparición de la vida
hace alrededor de 4000 millones de años, requirieron de un universo
increiblemente bien sintonizado. Aun tomando en cuenta el azar, como lo
hace la teoría de la evolución, aun tomando en cuenta accidentes, la sola
formación de la materia, dejando fuera la emergencia de la vida, requirió un
perfecto diseño de lo que el astrónomo Martin Rees ha llamado Just six
numbers. Entre estos se incluyen:
N, El número que mide la relación entre la fuerza electromagnética y
la gravedad y es un número muy grande, pues la atracción gravitacional
entre los protones es 1036 veces más tenue que las fuerzas electricas. Pero
aun así, si tuviera menos ceros, en el universo no habrían surgido las grandes
estructuras que dieron paso a las galaxias y por supuesto que nunca habría
surgido la vida. En palabras de Rees, “No tenemos una teoría que nos
indique el porqué del valor de N. Todo lo que sabemos es que nada tan
complejo como la humanidad hubiera podido emerger si N no fuera tan
grande como 1,000,000,000,000,000,000,000,000,000,000,000,000.”
ε
es otro número que mide lo que sucede en el átomo y es el
porcentaje de masa de hidrógeno que en su interior, las estrellas transforman
200
en energía al fusionarse en helio. Determina cuan larga será la vida de una
estrella, por lo que si fuera diferente (menor) de 0.007, no daría tiempo a que
la vida se desarrollara en los planetas. También describe que tan firmemente
el núcleo atómico está unido para que la fuerza nuclear fuerte domine el
combate con la repulsión eléctrica.
Q Es el número que determina la “textura” de la estructura del
universo. Su pequeñez –alrededor de 10-5– permite suponer al universo
como aproximadamente homogéneo. Si su valor se inclinara hacia cualquier
lado, el universo sería inerte y vacío de estructuras, o hubiera sido
demasiado violento para que las estrellas y las galaxias pudieran sobrevivir.
Estos números fueron determinados en el inicio de la historia del
universo. Y los tres que hemos descrito determinaron mucho de lo que pasó
en los umbrales con los que hemos estado tratando. El hecho de que
parezcan tan finamente sintonizados han proveído gran cantidad de material
a filósofos y teólogos para especular sobre la naturaleza del universo y poder
cuestionar el dogma de que una aleatoria fluctuación cuántica, un accidente,
fue el culpable de la exquisita sintonía del universo. Los detractores de este
argumento lo han despreciado y se han escudado acusando a aquellos
pensadores de estar argumentando que existe un diseño, pues para ellos
realmente no es un argumento de diseño. Lo que es, solamente, es el
reconocimiento del hecho de que el universo está finamente sintonizado, y
haciendo ésto, sólo remarcan algunas de las deficiencias de la ciencia
contemporánea en su incapacidad para explicar, y más que nada, de poner
objeciones a otras posibles vías que la investigación pudiera tomar, si la
ciencia quisiera o tuviera la voluntad de explicar estos sorprendentes
fenómenos.
201
Los científicos que han aceptado esta fina sintonía del universo y que
han intentado entenderla no sólo como una serie de gigantescas
coincidencias, han argumentado que la evolución es una vía para entender la
manera en la que el universo se ha desarrollado. Las pruebas abundan, y no
solamente nos cuentan una limpia y pulcra historia acerca de la emergencia
de la materia y la manera en que las nubes de gases se convirtieron en
estrellas, sino que algunos científicos importantes han trabajado y estudiado
estas pruebas para darnos más amplias pistas de lo que la evolución
realmente es. Destacado entre estos científicos es David Layzer, quien en su
libro de 1990, Cosmogénesis, se las arregló para discutir no sólo sobre un
universo que se desarrolla, sino para aclarar los muchos malentendidos que
tienen los detractores de un universo en evolución.
El libro de Layzer, como muchos libros que han intentado de allí en
adelante establecer teorías similares, no es fácilmente comprensible. Ningún
libro sobre este tema puede serlo. Pero hay algo asombroso, y es que el libro
parece ser solamente un refundir y repetir muchas de las cosas que Teilhard
de Chardin dijo por lo menos medio siglo antes y que la comunidad
científica desatendió y malentendió. Como Teilhard de Chardin, Layzer
razonó que si vamos a pensar en un universo que evoluciona, primero y
principalmente debemos considerar la evolución no sólo como un proceso o
una vía para darle sentido al fenómeno; por el contrario, lo que nos hace
pensar en un universo que evoluciona es imaginar esta evolución como
creativa. En este sentido Layzer es bergsoniano (L’évolution creatice).
Teilhard de Chardin va todavía más allá al pensar no en una evolución
creadora, sino en una creación evolutiva. Como hemos visto, muchos
críticos han argumentado que la teoría científica debe ser predictiva. Nos
debe decir algo sobre el futuro. Al decir que el universo evoluciona, ellos
202
apuntan no tanto a contarnos lo que sucederá, sino sólo a decirnos lo que ha
sucedido. El demandar un poder predictivo preciso a un teoría es una
tendencia que hemos visto y etiquetado como reduccionismo. De muchas
maneras, esta demanda viene de la física cuántica y de partículas, en la que
los científicos son tremendamente precisos. Los átomos, como quiera que
sea, no son sistemas caóticos. Como hemos visto en la discusión del caos,
cuanto más complejo se vuelve un sistema, más caótico se hace. Para David
Layzer, esta naturaleza caótica de un sistema complejo como el universo
supone un entendimiento de la evolución no como una mera progresión de
un estado a otro, sino como “inteligente”, como un proceso conciente y
sensible, cuyos productos verdaderamente innovativos tienen como
propósito crear orden a partir del caos. Al decir de Layzer, vivimos en un
mundo “conveniente y favorecedor, que es un mundo en el que el orden
emergió de un caos primordial y engendró nuevas formas de orden. El
proceso que ha creado y continúa creando orden, obedeciendo leyes físicas
universales e inalterables. A pesar de todo, porque generan información, sus
resultados no están implícitos en sus condiciones iniciales”.
El punto de vista de Layzer, como la visión de Teilhard de Chardin,
parece casi poética dentro de su sentido común. Su panorámica del universo,
donde unas simples leyes manipulan la materia hasta que el material “en
crudo” llega a ser parte de algo mayor que sí mismo. Esto no es una
jerarquía, como algunos han supuesto. Es un proceso en el que el propósito o
la intención es usar la materia para transformar y hacer más complejo algo
que es inmaterial: la información. Esta información es copiable (o
transcribible), acumulativa, legible y digna de leerse. En nuestra experiencia,
la molécula de ADN puede ser uno de los más refinados ejemplos de
compuestos químicos manipulados por leyes físicas pemanentes que
203
contienen información que se puede copiar y es legible. Nuestro cerebro
puede ser usado también como otro ejemplo. En el próximo capítulo
trataremos ambos, pero para concluir permítasenos presentar algunas de las
objeciones que se han levantado en contra del argumento de Layzer y
veamos que tipo de prueba necesitamos encontrar para aceptar la de Layzer
como una teoría viable.
El argumento de Layzer ha sido visto en muchos círculos como
agresivo y se reconoce que parece “pisar muchos dedos científicos”, por
decirlo de algún modo. No solamente le quita a la ciencia su poder
predictivo, sino que llamandola evolución creadora, supone que algo como
una voluntad, una fuerza y una meta, han sido inherentes al universo y sus
productos. El aceptar que el universo no solamente evoluciona, sino que su
historia entera ha sido “impulsada” por una fuerza creativa, pudiera
significar que todas las leyes físicas están subordinadas a una macroley que
determina la emergencia y el sentido de todas las otras leyes.
El encontrar esta gran ley suena más que ambicioso. Algunos le
llamarían quijotesco. Esto haría redirigir la investigación científica de una
manera drástica. Pero hablando más propiamente, lo que habría que
modificar profundamente serían las interpretaciones de los científicos a sus
teorías, pues la investigación científica, quiérase o no, tendrá siempre que ir
en el sentido de desentrañar las grandes incógnitas del universo que aun
subsisten y un ejemplo claro y actual es la teoría de las supercuerdas, que
tiene grandes implicaciones metafísicas y tomándola desde este punto de
vista es absolutamente revolucionaria.
La existencia de esta macroley también obligaría a tocar todo precepto
desde la relatividad hasta el quantum, y razonar que estas teorías son como
piezas sueltas de un vibrante rompecabezas. Y la pregunta obvia que surge
204
para los científicos es si esta redirección, que sería inevitable, traería una
nueva perspectiva, una intención didáctica o pedagógica. Es decir: ¿hay o ha
habido una indicación directa de la existencia de una macroley para las
formas que surgen en el universo y codifican la información que a su vez
crea sistemas más complejos?
Una de las promisorias pistas o indicaciones de la existencia de una
macro-ley, procede de una de las principales leyes científicas de 1998, y
forma parte de los seis números cuyo valor Martin Rees sostiene que son
indispensables para la existencia del universo como lo conocemos. Su origen
se remonta a la relatividad general de Einstein. Viendo que una de las
predicciones de la teoría, era que el universo se estaba expandiendo, Einstein
introdujo una constante cosmológica que llamó λ y cuya función era
balancear el efecto de la gravedad y obtener un universo estable. Tiempo
después, al demostrarle Hubble que efectivamente, el universo se estaba
expandiendo, Einstein llamo a λ el más grande error de su carrera. Y
ciertamente, las razones por las cuales Einstein introdujo λ en su teoría son
ahora obsoletas. Sin embargo, en el presente, los científicos han tenido a su
alcance el descubrimiento de que λ apunta a una insospechada nueva fuerza,
una fuerza que actúa “inteligentemente” para controlar la expansión del
universo y cuyos efectos son discernibles a la escala en que la evolución lo
es: a través de épocas, de eónes. Además, λ, como fuerza, parece ser
portadora de una macroley, puesto que en todo tiempo y en el largo plazo ha
llegado a dominar sobre la gravedad. λ es la más tenue, la más débil fuerza
de la naturaleza, y por mucho, la más misteriosa. A pesar de esto, controla
las otras fuerzas, puesto que controla la expansión del universo y su destino
último. De hecho, no sólo determina su futuro, sino que en realidad
205
determinó su pasado. Si hubiera sido una fuerza más fuerte, se hubiera
impuesto a la gravedad en etapas tempranas de la vida del universo,
impidiendo la emergencia de las galaxias. Brevemente podemos decir que λ
puede ser una entre muchas evidencias de una “voluntad”, de una
“sensibilidad” que no es necesariamente determinista, porque como Layzer
lo ha señalado, su mecánica es creativa. Otra evidencia se encuentra, por
supuesto, en el siguiente umbral de la evolución, hace 3.8 o 4000 millones
de años, cuando la Tierra se había enfriado lo suficiente para que se formara
una costra sólida. Por ese entonces, las galaxias por supuesto ya se habían
formado y el sistema solar había llegado a ser una estructura en el continuo
proceso de un universo favorecedor. Tomaría 600 millones de años para que
las células microscópicas colonizaran la Tierra y 2000 millones de años para
que las plantas emergieran. Podemos visualizar entonces la esencia de la
evolución: La emergencia de formas que economizan energía para guardar
información: economía en las formas para contener información.
206
9
COMPLEJIDAD Y EVOLUCIÓN
You have to pick up the Bass, as Mingus called his, with audible capitals,
and think of the slow years the wood spent as a tree, which might well have been
enough for wood, and think of the skill of the bassmaker carried without great thought of it
from home to the shop and back for decades, and know what bassists before you have played,
and know how much of this is stored in The Bass like energy in a spring and know how
much you must coax out. How easy it would be instead to pull a sword
from a stone. But what’s inside the bass wants out, the day one day you will. Religious stories
are rich in symmetry. You must release as much of this hoard as you can, little by little, in
perfect time, as the work of the body becomes the body of work.
WILLIAM MATTHEWS.
El poema de William Mathews Mingus in Diaspora, se basa en el
famoso contrabajista de jazz Charles Mingus para meditar en lo que para
muchos parece ser el último proceso artístico y estético. Parafraseando
palabras del músico, Mathews trazó el viaje que éste debe hacer en su labor
física, a medida que el trabajo del cuerpo se transforma en una obra artística.
El poema sostiene que a medida que escuchamos al músico, no sólo estamos
presenciando una actuación, sino una conciencia que se extiende desde los
procesos básicos de hacer la música y se sostiene todo el camino hacia el
mundo natural. El músico tiene que pensar no sólo en la tradición a la que
pertenece –y que otros músicos antes que él han forjado– sino en los
elementos, en la historia natural que se encuentra detrás de su instrumento.
Este intrincado proceso musical es un gran paradigma para la creación
artística.
207
Sin embargo, en otro contexto, en un contexto científico, el proceso
puede darnos más luz y revelarnos lo que son la información, la complejidad
y la evolución y como trabajan unidos.
Hace algunos meses el New York Times publicó un artículo sobre algo
llamado “The Memoriad”, una competencia al estilo olímpico, en la que los
participantes eran sometidos a una serie de pruebas, no en su destreza en
algun deporte en particular, sino en la manera en que su memoria trabaja.
Algunas de los pruebas incluyeron algo parecido a un exagerado y
prolongado juego de memoria. Los contendientes tenían que descubrir cartas
y recordar su posición, de manera que cuando una carta similar apareciera en
otra posición, ellos pudieran eliminar ambas del conjunto. Como muchas de
estas competencias, ésta también parecía no sólo inocua, sino trivial. Quiza
por esta trivialidad y el tono adulatorio que el periodista usaba al relatar las
hazañas de los concursantes, fue publicada una carta al editor varios días
después despreciando el talento de los competidores y del campeón. La carta
intentaba recordar, tanto a los lectores como a los periodistas, que uno puede
ser testigo de hazañas más sorprendentes de la memoria casi todos los días si
–por ejemplo– tenemos la voluntad de comprar un boleto para un concierto y
meditar por un minuto los logros de la memoria de un pianista de concierto.
Cuando asistimos al recital de una pianista o cualquier otro músico, no
importa cuán torpe o hábil sea, estamos no solamente ante una sorprendente
hazaña de la memoria, sino, quizá, ante una de las más claros expresiones de
lo que en este capítulo llamaremos complejidad. Pensemos un poco en esto:
la pianista en un momento dado tiene en mente una página completa de la
música que está interpretando. Ella probablemente la habrá leido. En otras
palabras, el sentido de la vista le transmite no el sonido que está
produciendo, sino el símbolo de esos sonidos. Y mientras ella los pudo haber
208
oido mentalmente antes de tocarlos, lo que finalmente sucede es que su
cerebro cambia la información visual en una sensibilidad motora que
desencadena órdenes para que sus dedos presionen determinadas teclas, en
un proceso en que la mente está adquiriendo conocimiento y los centros de
memoria del cuerpo recordando y esto se nota mucho más en disciplinas
como la música, en las que la precisión y una especie de visualización, van
de la mano. En breve veremos que éste no es necesariamente el caso. Por lo
pronto vamos a continuar con nuestra pianista; la pieza de música que esta
interpretando puede ser, por ejemplo, un preludio de Bach. Ella puede haber
terminado de leer la música varias veces en el mismo tiempo que nos
tomaría describir cómo
toca la primera nota. En otras palabras, este
diminuto proceso, la lectura y ejecución de una nota, no es solo un acto
instantáneo, sino que es apenas uno de dos mil que se suceden en la
ejecución de una pieza de dificultad intermedia. Vista, cerebro y cuerpo
pueden, en otras palabras, repetir el mismo proceso unas dos mil veces en un
lapso de tres minutos.
209
Por sorprendente que parezca esta hazaña, puede ser sobrepasada
fácilmente por las máquinas que actualmente poseemos. Una computadora
promedio, de hecho, con un software adecuado, es capaz de interpretar las
notas y llevar a cabo su sonido. Las computadoras son hasta cierto punto
máquinas complejas; sin embargo, el trabajo de la computadora no debe
confundirse con la hazaña del pianista. Muchos científicos, incluyendo
algunos muy prominentes, se han vuelto locos con la revolución de las
computadoras y la posibilidad de la inteligencia artificial, al grado de
expresar pretensiones extraordinarias y declaraciones vergonzosas. Un par
de ejemplos deben ser suficientes.
En su libro Physics of Immortality, donde podría haber dado una
explicación sensata del punto Omega, Frank Tippler cambia el argumento en
una fantasía de ciencia ficción. El problema de Tippler es que da una
explicación que sobrepasa la lógica. Su argumento es el siguiente:
Si vamos a seguir desarrollandonos de manera que nuestra civilización
o nuestros descendientes sean capaces de llegar a la vida eterna que el punto
Omega promete, debemos colonizar el espacio, porque ni el Sol ni la Tierra
durarán tanto tiempo. Inmerso en el sueño de ciencia ficción de Tippler uno
puede encontrar la noción de que tal como la Tierra y el Sol tienen sus
límites, el cuerpo y la mente también, por lo que sólo las máquinas,
supercomputadoras de generaciones mucho más avanzadas que las que
conocemos, podran llevar a cabo nuestro esfuerzo evolutivo. La ingenuidad
de este concepto depende de la falla en distinguir entre un concepto preciso
y uno “emboscado”.
Cuando los científicos postulan el punto Omega, piensan en la
confluencia de todas las energías en un solo punto. A la energía organizada
(o que produce la organización) le llaman información. Por lo tanto, lo que
210
ellos visualizan es la información llegando a este punto final del universo. El
problema aquí es el término. La información como concepto ha sido tomada
en préstamo de la comunidad de la inteligencia artificial y las computadoras.
En el mundo de la computación, información es cualquier cosa que pueda
ser codificada en términos binarios. No se describe de qué tipo de
información se trata; en otras palabras, no es necesario, solamente es un
término relativo, un término que indica un proceso, no un contenido; para la
computadora, Don Quijote de la Mancha de Cervantes, Mein Kempp de
Hitler, el menú de un restaurante o una forma de impuestos, son lo mismo,
información. Tippler no es el único que tropieza cuando argumenta que la
complejidad es inherente tanto a los humanos como a las máquinas. De
hecho, uno de los más rigurosos y absurdos argumentos que apoyan la
complejidad de las computadoras está en el primer capítulo del libro de R.
Dawkings, The Blind Watchmaker.
Así que la pregunta que surge es: ¿en qué se diferencía la pianista de
la computadora? ¿por qué es más complejo el mecanismo que opera en el
caso de la pianista que en el de la computadora? Si la pianista a la que
estamos haciendo referencia es una profesional, en el momento en que está
leyendo una pieza de música, a condición de que nunca la haya escuchado,
aun en grabación, lo primero que hará será empezar por descubrir patrones.
El patrón más básico para los humanos es el ritmo, por lo que deberá
encontrar primero, por ejemplo, la manera en la cual las semicorcheas que
son ejecutadas por la mano izquierda, requiere un efecto de staccato que
hace destacar la melodía ejecutada con la mano derecha. Deberá también
notar que los temas se van repitiendo en variaciones, así como su dinámica y
sus articulaciones. Su trabajo, en otras palabras, está lleno de cambios
repentinos. Si ella quizá empieza como una autómata, haciendo un trabajo
211
que cualquier computadora puede llevar a cabo, a medida que su
interpretación avanza, empieza a depender de una memoria más profunda,
no sólo de la habilidad para descifrar la información, como hacen las
computadoras, sino a poner en juego la habilidad para utilizar la información
del pasado, la habilidad de usar una “visión retrospectiva” para determinar
un resultado. Esto último hace una distinción crucial, y si no es todavía una
descripción profunda de lo que es la complejidad, por lo menos está cerca.
Usamos el término visión retrospectiva adrede: después de todo las
computadoras realizan trabajos por medio de la memoria que les
proporcionan los programas de aplicación. Las computadoras no tienen lo
que hemos llamado visión retrospectiva.
Estamos siendo quizá hasta ridículos por la manera en que
simplificamos el proceso, puesto que aun antes de que la pianista dé un
segundo repaso a la pieza, empieza a ponerla en contexto. Ésto requiere de la
visión retrospectiva y de una memoria que se pueda expander como no lo
puede hacer ninguna computadora. La memoria documentada que ha pasado
como conocimiento de generación en generación, y como tal es la más dificil
de tratar porque es amórfa y cambiante. Veamos qué es lo que sucede: antes
de que la pianista haya abierto la partitura por primera vez, con el solo hecho
de saber quién la escribió, sabe el tipo de sonido que la música va a producir.
Su memoria, en otras palabras, tiene guardado el tipo de idioma musical que
se usaba cuando el compositor la escribió, por ejemplo al final del siglo
XVIII o principios del XIX. Y en cuanto a que la música sea famosa, como
el tardío Haydn o el Beethoven en su época temprana, o menos conocida,
como una sonata de Dussek, ella tendrá cierta idea de cómo usar el pedal,
articular las frases y escoger sus tiempos. Así, en el segundo repaso de la
interpretación, lo que hace se volverá más difícil, pues tendrá que descubrir
212
la individualidad y el mensaje de la pieza de música. La visión retrospectiva
tendrá que ser de mucho más alcance. No solamente tendrá que tomar
decisiones, sino que empezará a comparar en el ámplio banco de datos que
guarda en su mente. Entonces podrá descubrir, quizá, cómo cierto pasaje
evoca el estilo o la frase de otro compositor y puede entonces darse cuenta
de que el staccato tiene una calidad nerviosa o vibrante que a otra pieza le
falta, etcétera.
En el capítulo previo discutimos los sistemas caóticos. Lo que aquí
hemos presentado es un sistema caótico en su más alta expresión. El
resultado no puede ser previsto porque existen demasiadas variables. Lo que
tenemos también, es el regalo más grande de la complejidad, un cuerpo y
una mente –no solamente el trabajo de la mente de la pianista, sino el trabajo
de su cuerpo entero– que puede determinar el resultado de un sistema
caótico. Si saltamos hacia adelante, por motivos de brevedad, hasta el
momento en que la pianista haya finalmente memorizado y entendido la obra
completa, podremos ser testigos de la conciencia, la visión retrospectiva y la
memoria, que combina de cierta forma el movimiento de
brazos,
muñecas,dedos, piernas y pies, para que produzcan un resultado predecible.
El llamar a este trabajo información, el imaginar que de alguna
manera pueda ser cuantificado y guardado en un código binario, no sólo es
reductivo sino torpe. Y claro, nosotros podemos adquirir la interpretación de
la pianista en un disco, podemos ponerlo en el reproductor que leerá “unos”
y “ceros” y los transformará en sonidos, pero es un terrible error pensar que
porque podemos reproducir el trabajo de la pianista, éste puede ser reducido
a unos y ceros. Lo que obtenemos es una grabación de un momento, una
grabación de una conciencia trabajando, pero no podemos capturar la
conciencia misma. Ésta es la distinción crucial que algunos científicos no
213
han tomado en cuenta cuando usan el concepto de información como un
término general.
La complejidad como la hemos definido, involucra tres aspectos: el
uso de la memoria y la visión retrospectiva para predecir un resultado, y la
habilidad para obtener de sistemas caóticos resultados consistentemente
previsibles. Y por último, algo que no hemos mencionado porque es muy
obvio para ser mencionado, pero al mismo tiempo es bastante importante
para omitirlo: la complejidad, para decirlo de alguna manera, es como un
filtro que toma la energía, la destila y la transforma y la libera. Siendo
simplistas podemos decir que cuando pagamos nuestro boleto de entrada al
recital, estamos dando testimonio de cómo la nutrición de la pianista, que
sustenta su cuerpo, produce otras clases de energía, en este caso, por
supuesto el sonido, pero un sonido con tonos semánticos y emotivos.
Ha sido nuestro argumento durante todo el tiempo, que la complejidad
que nuestra pianista parece expresar, no es exclusiva de los artistas, ni de los
humanos, sino que –por supuesto a diferentes niveles– está profundamente
arraigada no sólo en la vida sino en las estructuras inorgánicas –
proporcionando así un sentido a la trayectoria de la evolución– sino también
en la materia misma.
Ambos argumentos nuestros son polémicos. Ya hemos visto cómo
prominentes científicos como Stephen Jay Gould han dedicado el trabajo de
toda una vida a un intento de desmentir la existencia de cualquier sentido, de
cualquier flecha en la evolución.
Igualmente, físicos prominentes han sostenido que la energía es
energía y la información es información y, así, no existe diferencia entre la
nutrición de la pianista y su actuación, puesto que ambas son cuantificables.
214
Más allá, ellos dicuten que no hay pruebas para pretender que la tendencia a
la complejidad es inherente a la materia.
Todos sus argumentos parecen a primera vista convincentes. Después
de todo, quien quiera puede ir y reproducir, o “bajar” de internet el primer
movimiento de la Heroica de Beethoven, leer todo Aristóteles o jugar un
juego de computadora. Para la computadora y para el servidor, no hay
distinción entre Aristóteles y Mario Brothers. El procesador leerá todo el
material como unos y ceros y la computadora usará la misma cantidad de
electricidad cada minuto, mientras que el usuario podrá escuchar a
Beethoven o bajar basura de su correo electrónico. Así que lo que hay que
preguntarles a aquellos que se niegan a aceptar el reduccionismo al cual las
computadoras y la terminología de la física parecen condenarnos es: ¿hay
algo en la ciencia que pudiera desmentir el hecho de que toda la energía es
igual y toda la información es igual? ¿existe algo, en otras palabras, que por
lo menos parezca insinuar el hecho de que de que aun cuando todos los
sistemas consuman la misma energía, a medida que su nivel de complejidad
se incrementa, la energía que utilizan no sólo se usa más eficientemente sino
que realmente se transforma en energía útil? Como ha sido el caso a lo largo
de todo el libro, la evolución, pese a su falta de precisión predictiva, parece
tener la clave. Una de las cosas más impresionantes que se observan en El
origen de las especies, quizá más que ver la mente de Darwin trabajando, es
el subyacente dolor, la verdadera conciencia de sufrimiento que Darwin le
dió a su teoría. No fue un frío científico de laboratorio, sino uno muy curioso
(inquisitivo), que habiendo descubierto que ni la conservación ni la
innovación eran la clave de la teoría, se dió cuenta constantemente de que
por cada miembro de una especie que logra heredar su material genético, hay
215
muchos que perecen en el proceso. De hecho, una de las sentencias centrales
de Darwin puede ser la que sigue:
En el estudio de la naturaleza es de lo más necesario tener siempre en mente las
anteriores consideraciones –nunca olvidar que puede decirse que cada organismo
individual que se encuentra alrededor de nosotros, está esforzándose hasta lo
máximo para incrementar el número de individuos de su especie; que cada uno ha
vivido luchando en algún periodo de su existencia; que las grandes destrucciones
inevitablemente caen entre los jóvenes como en los viejos, durante cada generación
o a intervalos recurrentes.
El estar consciente de la destrucción y de la muerte es central a la
evolución, y entendiendo su papel podemos empezar a reconsiderar si
queremos seguir pensando tanto en la energía como en la información de la
manera indiscriminada en que lo hemos hecho.
Imaginemos un grupo de ballenas y que regresamos a la indiscriminada
cacería de ellas como se hizo en el siglo XIX. Si estas ballenas se
extinguieran, no solo perderíamos a un actor central de cierto ecosistema,
sino que, como las ballenas son un tipo de inteligencia, una manera
específica de entender el mundo, la pérdida sería una pérdida de
conocimiento, que no va a trasmitirse más, que no evolucionará más.
Imaginemos de la misma manera lo que sucedio en el siglo XVII cuando los
colonizadores acabaron con etnias enteras y sus lenguajes desaparecieron
completamente, asi como la manera de preparar sus alimentos, su musica,
etc.
La selección es una espada de doble filo. La razón de la selección, el
porqué dentro de las especies muchos miembros están condenados a
desaparecer antes de que transpasan su material genético, es la escasez de los
216
recursos. En otras palabras, la selección es la manera mediante la cual la
naturaleza puede distribuir los recursos y ha sido capaz de conservar la
energía. Porque tantos miembros de una especie dada perecen, las especies
pueden sobrevivir. Al mismo tiempo, no debemos olvidar que en la muerte
de cada miembro de una especie se tiene una pérdida de una pieza única de
información. Es esta dicotomía pérdida-ganancia, la que requiere un balance.
El intercambio de información por energía, el intercambio de recursos por
una estampa genética menos, tiene que ser, en palabras de Darwin,
constantemente puesto en “revisión”, de otra manera la población se merma
o probablemente aumente vertiginosamente hasta que agote sus recursos y se
prive de comida, hasta que consuma toda su energía.
¿Cómo puede la visión de Darwin sobre la selección redefinir el actual
concepto, tanto de conservación, como de energía? La respuesta descansa en
su énfasis en el balance, en la insistencia en que tal o cual sistema, pese a su
crueldad y al sufrimiento que impone, está finamente sintonizado.
Insistiendo en esto, lo que Darwin subraya es la manera en la cual un
organismo complejo, un organismo cuya existencia depende de una
molécula codificada con información compleja, depende también de una red
de relaciones más ámplia. En otras palabras, para Darwin ni la información
ni la energía puden ser transferidas al vacío, son parte de un sistema mayor.
La visión de Darwin es por supuesto la verdadera semilla de la cual creció la
ecología. Pero antes de discutir la ecología, veamos cómo, pensando en la
información y la energía en un contexto más ámplio, podemos empezar a
redifinir ambos conceptos.
Para lograr esto debemos ubicarnos en un escenario a la vez simplista e
improvisado. Es, por supuesto, difícil de discutir que actualmente los
humanos somos parte de un ecosistema, aunque es innegable que
217
dependemos de los recursos del planeta, nuestra presencia en él ha sido, más
que cualquier otra, la que ha conducido a transtornar los balances y
“revisiones” que Darwin menciona. Sin embargo, porque nuestro escenario,
pese a su naturaleza simplista, no está muy lejos de la realidad, puede servir
para ilustrar. Nosotros extraemos nuestro sustento, nuestra energía, del
alimento que consumimos. Nuestros cuerpos son fábricas que procesan
lípidos, proteínas e hidratos de carbono y los convertimos en combustibles
que no sólo mantienen el cuerpo, sino que lo reparan. Diferentes
combustibles, ya sea que provengan de fuentes diferentes –lípidos,
carbohidratos o proteínas– producen resultados diferentes. Los azúcares, por
ejemplo, son buenos combustibles, pero se queman rápido, no permanecen.
Por siglos, la dieta de la población en general parecía bastante balanceada
cuando el alimento estaba disponible (uno no debe olvidar que la falta de
alimento suficiente debida a los malos cultivos y a la miseria urbana ha
estado presente en toda la historia de la civilización). Aun hoy, la dieta rural
consiste principalmente de vegetales y se deja la carne para ocasiones
especiales. Esta dieta balanceada aun está en las noticias cuando nos hacen
notar que la dieta mediterránea parece ser más saludable que otras dietas del
norte, más abundantes en grasas, Y esto es también evidente en América,
donde hasta hace poco tiempo la dieta de los países de América Latina era
mucho más saludable que las de Estados Unidos.
La primera revolución culinaria llegó, como todas, pegada a los talones
de otra revolución. Las dietas excesivas, ricas en grasas y azúcares,
sóloestuvieron al alcance de la realeza y los pudientes. Careme, el primer
chef que empezó a sistematizar lo que ahora llamamos cocina clásica, pasó
la mayor parte de su vida sirviendo en las cocinas de la aristocracia. Sus
platillos eran elaborados y empalagosos aun visualmente. Sin embargo, una
218
vez que la Revolución francesa depuso a la vieja aristocracia, muchos de los
chefs que servían a los ricos y a los nobles, se encontraron sin trabajo. Fue
entonces cuando el restaurant llegó a ser el lugar donde donde se iba a
obtener un reconstituyente –en francés restaurative, de allí el nombre – un
lugar donde se podía ir a probar los sabrosos y elaborados platillos que antes
estaban reservados a los ricos, y que los pobres y la clase media sólo comían
en las ocasiones muy especiales. Esta revolución resultó semántica, pues
transformó el significado de la comida. El cordero, reservado para la
primavera y la pascua, por ejemplo, estaba ahora disponible diariamente. Las
cocinas se empezaron a desarrollar, no sólo en la línea de los productos
locales, sino en la de las sabrosas grasas que eran utilizadas como
saborizantes. Aún hoy podemos distinguir entre la cocina francesa y la
taliana por la grasa que usan: la primera usa mantequilla y la segunda aceite
de oliva.
Mientras que esta revolución semántica en los hábitos alimentarios fue
todavía tímida en cuanto a la dieta diaria se refiere, definitivamente impulsó
o por lo menos se quedó corta con respecto a la subsecuente revolución
culinaria. Como la anterior, la segunda revolución culinaria llegó en los
talones de otra revolución, esta vez económica. Cuando la segunda guerra
mundial llegó a su término, los Estados Unidos experimentaron una
abundancia que ninguna otra nación había experimentado. El “sueño
americano” (automóvil, casa, seguridad económica, etc.), llegó a estar cada
vez más cerca de la satisfacción, por lo menos para muchos. Donde hay
seguridad económica en alguna medida, siempre hay comerciantes
dispuestos a tomar parte de la riqueza. Algunos de los comerciantes que se
beneficiaron de una manera fenomenal de esta abundancia, fueron aquellos
que estandarizaron e industrializaron los alimentos. En una cultura en la que
219
la comida había perdido su significado, en la que un asado era tan común
como un pan, en la que la comida y la ocasión estaban ya divorciados, no fue
difícil hacer de la carne, que estaba establecida como un alimento ocasional,
el plato principal. Hoy, en su libro Fast Food Nation, Eric Schlosser nos lo
recuerda: McDonald es el principal consumidor de carne de vaca en el
planeta. Como tal, determina cuánta carne de vaca debe alimentarse, crecer,
matarse y prepararse. Ellos están en la primera parte de nuestro escenario
porque parecen ser los principales provedores de energía a gran escala para
la población de todo el planeta.
La pregunta es: ¿qué clase de energía proveen y a qué costo? Eric
Schloesser argumenta que el costo de la “fast food” es abrumador puesto que
somete a un esfuerzo excesivo tanto al jornalero no calificado como al
ambiente. En su libro nos muestra que el cambio de la granja familiar a los
“complejos industriales”, que ha permitido “dominar los mercados de
productos de consumo uno tras otro”, se debe a tan “ecológico” costo.
La industria del empaquetamiento de la carne ha pasado de ser “un
trabajo altamente especializado y bien pagado, al más peligroso trabajo en
Estados Unidos” realizado por jornaleros no calificados, “transitorios e
inmigrantes”. A su vez, por todos los recursos naturales y humanos, el
consumidor obtiene una nutrición pobre: “a medida que la gente come más a
menudo fuera de su hogar, consume más calorías, menos fibra y más grasa”.
La baja calidad de la comida se hace evidente al comprobar cómo, en las
últimas décadas, a medida que las cadenas de fast food se han establecido en
todo el planeta, la tasa de obesidad se ha incrementado.
Uno de los argumentos centrales de Schloesser es que aunque lo parece
la revolución de la fast food no es inevitable. De hecho, muchos de los que
se niegan a aceptar la cultura de la fast food siguen aún ofreciendo opciones.
220
Una de estas opciones ante la absurda propuesta de la fast food de consumir
grandes cantidades de energía para obtener poca energía adecuada que dar al
consumidor, es una muy antigua. La comida hecha en casa es la respuesta a
la baja eficiencia energética de la comida industrializada. Abramos cualquier
libro de cocina étnica o regional y encontraremos no la fórmula de una
industria, sino el conocimiento de los productos de la Tierra y su temporada,
así como el conocimiento de cómo preparar los alimentos y cuándo deben
comerse. Ésta es una clase especial de conocimiento y es bastante antigua.
No sólo toma en cuenta los recursos, sino cómo se pueden aprovechar al
máximo. En las dietas regionales encontramos gente interactuando con su
medio ambiente, no sólo explotándolo.
Lo que tenemos en nuestros dos ejemplos, el de McDonald y el de la
comida hecha en casa, es la manera como la energía puede usarse. El primer
ejemplo nos señala una transformación de energía de baja eficiencia; el
segundo, una transformación un poco más eficiente, y además tenemos a
nuestras neuronas procesando sabores, olores y texturas. El primero nos da
un conocimiento bajo, de sabores artificiales, de texturas suaves. En otras
palabras, con McDonald obtenemos información “procesada”. Cuando el
proceso lo hacemos en forma no industrializada, nuestro cerebro se estimula
y obtenemos información nueva.
En lo que terminamos finalmente al ver nuestros dos platillos está el
significado de la complejidad y su contraparte. Lo que hemos visto varias
veces a lo largo de este capítulo es que la complejidad es la manera como la
energía se conserva. Esta conservación ocurre porque en cualquier instante,
el sistema, tomando energía de su entorno, produce más de la que tenía al
principio. Lo opuesto a la complejidad, no es, como muchos podrían pensar,
la simplicidad o el desorden, sino la basura, el desperdicio. El desecho
221
sucede cuando esas revisiones darwinianas no se producen y los sistemas se
salen de balance. Imaginemos un ecosistema como puede ser un bosque en
las cercanías o en medio de un área urbana; sus habitantes introducen
muchas plagas, como pueden ser ratas, palomas, insectos nocivos, etc. Si el
bosque es suficientemente grande, puede ser capaz de albergar mamíferos y
aves depredadores, como zorras, aguilas y búhos. Los bosques de la serranía
del Ajusco, el Desierto de los Leones o el bosque de Tlalpan, en alguna
época grandes ecosistemas, nos pueden servir de ejemplo. Todos los
animales que no son depredadores requieren, por supuesto, espacios para
recorrer y alimentarse. Pero más importante aún, requieren una revisión, un
control en la diseminación de su población. En estos bosques a los que nos
referimos el problema actual es la sobrepoblación de plagas de todo tipo y
son el mejor ejemplo de un sistema que ha perdido el balance. Los coyotes
y tlacuaches, las serpientes de cascabel y los grandes búhos, fueron llevados
a la extinción debido a una obsesiva y patológica caza desde comienzos del
siglo XX. Sin control, cualquier población crecerá vertiginosamente, y esto
ha sucedido en los bosques en cuestión. La falta de balance acabó con varias
especies en ellos. De las restantes algunas han prosperado bién y otras han
desaparecido. El gusano descortezador, las ratas, los perros, los gorriones
carroñeros etc. sustituyeron a los cenzontles, los canarios, el conejo
teporingo, etc. Los nuevos habitantes de éstos ahora mal llamado bosques,
incluyendo a los humanos, que en mayor medida han propiciado la situación,
están a punto de terminar con los recursos. La vegetación, por otro lado, no
ha sido más afortunada; el bosque que cubría la mayor parte de esta zona se
está muriendo, y se morirá si no se toman medidas para reducir las plagas.
Las actuales especies están acabando con sus propios recursos. Y esta
situación es la ejemplificación del desperdicio, de la basura. Éste es un
222
sistema que utiliza la energía en su propio perjuicio. Y al final, la suma de
toda esta energía llegará al mínimo. La entropía al máximo. El material
genético, tanto de las plantas como de los animales, no podra transmitirse
más. Se llega al desgaste cuando la energía que se consume tiende a la
“suma-cero” total.85
El reverso de la suma-cero, la contraparte, es por supuesto la
complejidad. Mucha gente que ha malentendido a Teilhard de Chardin, ha
discutido que en sus escritos uno puede ver el mismo tipo de misticismo
predestinado que abunda en escritores como Bergson. Ellos argumentan que
Teilhard de Chardin ha impuesto una flecha a la evolución, un sentido que es
falso. Ciertamente aquí hay una lectura equivocada. En realidad los escritos
de Teilhard de Chardin son sobresalientes en todos sus temas pero, en
especial, son los mejores escritos sobre la evolución en todo el siglo XX,
porque fue lo suficientemente presciente para eliminar la idea de pirámides
en su discusión de la evolución y reemplazarlas por dos conceptos que son
fundamentales para entender el universo evolutivo, la energía radial y la
complejidad. Ambos conceptos son complementarios y, de hecho, la energía
radial, por así decirlo, nos brinda la manifestación visual de la complejidad.
Complejidad del funcionamiento de las estructuras que refleja la
complejidad de su conocimiento.
Hemos discutido en un capítulo previo la definición de energía radial.
Pero para Teilhard, la imagen de la rueda con sus rayos disparandose hacia
todas partes es más predominante que sólo describir una energía que trabaja
por debajo de niveles detectables. Uno puede decir que una vez que él
identificó la función de la energía radial, fue lo sufientemente astuto, como
85
Cuando hablamos de “suma-cero” (zero sum) nos referimos a este concepto según la
teoría del juego, que discute que los sistemas complejos rechazan la suma-cero.
223
los geómetras griegos, para entender que lo que está informado a pequeña
escala, tiende a realizarse a escalas más grandes. Si el dominio de la energía
radial puede invertir la entropía y balancear las fuerzas, entonces esto se
debe a que su estructura es eficiente: debe poder lograr aprovechar lo que
consume, de manera que parezca que da más de lo que recibe. Pero hay más,
al encontrar una estructura eficiente, uno encuentra una estructura que se
replica a sí misma con ligeras variaciones. Esta idea de la réplica con
variaciones es lo que las matemáticas fractales han aclarado más que
ninguna otra disciplina.
Como el caos, los fractales son una rama moderna de las matemáticas
y, pese a su relativa novedad, sus consecuencias han sido penetrantes en
otras ciencias. Lo que las matemáticas fractales sostienen son dos cosas. La
primera es que existen estructuras iniciales que se replican a escalas más
grandes. Uno de los principales ejemplos que usan son los mapas de las
costas. Si se aumenta la escala gradualmente y se observa cómo varía la
estructura de la costa, uno se encuentra que la misma geometría se repite con
ligeras variaciones, a mejor y mayor escala cada vez. La segunda cosa que
implican las matemáticas fractales es que al detectar estructuras que se
replican con éxito en orden de ir en contra de la entropía y del desorden,
éstas señalan ciertas guías para la posible “evolución” de una entidad o
sistema. Para entender esto será útil regresar a nuestro mapa de la costa. La
costa es una estructura que ha sido moldeada por la erosión y las fuerzas
geológicas. Como estructura, se defiende de la presión y la gravedad, y si
bien se erosiona lentamente, cede a lo largo de grandes periodos de tiempo.
El proceso como que sus estratos, sus rocas, sus bancos de arena y aun sus
arrecifes van conformandose, es lo que permite a la costa minimizar los
efectos de fuerzas que la pueden destruir. Lo que la réplica de lo pequeño a
224
mayor escala logra es permitir la estabilidad de las estructuras mayores.
Teilhard de Chardin entendió esto intuitivamente y encontró en la energía
radial la semilla de toda organización de estructuras mayores; la semilla, en
breve, de la complejidad. Quedan algunos pocos puntos que tratar acerca de
esta energía y el porqué sirve de semilla a estructuras complejas. La
estructura radial no es, sin emargo, jerárquica. A diferencia de la pirámide,
que da prioridad y privilegia bases o crestas, y a diferencia de las flechas,
que señalan un sentido, la energía radial solo permite interrelación e
interdependencia. En otras palabras, la estructura radial crea redes para
entender la evolución. La evolución, bajo esta luz, no es una especie de
juego de mutaciones sin fin, que ocurre mediante ensayos y errores, ni algún
fenómeno orquestado; por el contrario, es el probar la viabilidad de una
estructura y, en ese probar, uno encuentra el aumento de posibilidades y de
lo extenso de la red inicial.
Muchos han encontrado la visión de Teilhard de Chardin meramente
poética. Sin embargo, la energía radial es literal. Encontramos sus
variaciones cada vez que volvemos la mirada y observamos la manera en la
cual la naturaleza ha invertido la entropía, el caos y el desorden. La
encontramos en el átomo; hasta donde sabemos, el modelo orbital ha sido
reemplazado por uno más amorfo, y pese a esto, a lo amorfo del nuevo
modelo, lo que encontramos ahí al final es un modelo de interdependencia
entre los “rayos” y el centro. Encontramos otra variación impresionante en
una de las más majestuosas estructuras que han emergido en el intento de la
naturaleza para defenderse de la entropía: la molécula de ADN. Aquí, a
diferencia de lo que sucede en el átomo, tenemos el principio de una
estructura que se desenvuelve a partir de su modelo inicial que era estático.
A pesar de todo los rayos centrados están ahí. Esta vez la interdependencia,
225
la red, es más profunda, y si lo es, esto se debe finalmente a que la estructura
radial es capaz de guardar información. La red, que era solamente una
cadena proteica, fue finalmente capaz, como sistema, de producir más que sí
misma por un método diferente que la simple yuxtaposición, que es el
método mediante el cual los átomos se ligan para formar materia estable.
Ahora puede procesar la energía, el calor, la luz y polimerizarse,
replicándose una y otra vez. Desde entonces, la historia es bien conocida y
ha sido contada varias veces por algunas de las más eminentes mentes.
226
EPÍLOGO
LA VISIÓN DE TEILHARD DE CHARDIN
We expect a single man to give us all the answers and produce the “synthesis.”
And then when the writer, hailed for giving us much,
is discovered to have given us less than everything, we turn from him in reaction
and disappointment: he has given us nothing.
LIONEL TRILLING
Lionel Trilling fue uno de los más prominentes críticos literarios del siglo
XX. De gran inteligencia, fue una mente urbana que no cayó en muchas de
las trampas en las cuales parecen haber caido otras mentes y muchos críticos
literarios del siglo. Para él, el texto, trátese de un poema o una novela, de
filosofía o de un ensayo, no es solamente una colección de palabras. La idea
de autorreferencia, la idea de que los textos son algo cerrado en sí mismos y
que no pueden relacionarse con el mundo en que vivimos, fue
completamente extraña a él. De hecho, para Trilling la literatura fue un
camino para comunicarse con el mundo. La literatura y el conocimiento
como un todo, funcionan como una calle de dos sentidos. La vida de los
pensadores, sus pesares y alegrias, sus rutinas, así como sus eventos
extraordinarios, moldean su visión moral, estética y teológica, y articulando
su visión, estos pensadores, a su vez, transforman la visión moral estética y
teológica de los lectores. Brevemente, Trilling creyó que la literatura no solo
tenía un contexto en la cultura, sino que tenía también relevancia en la
historia de la cultura; que influenciaba nuestras vidas.
Y sin embargo, en el pasaje que hemos escogido, da la apariencia de
estar en completa oposición a lo que hemos venido argumentando a lo largo
del libro. En principio, parecería estar diciendo que los autores son incapaces
de lograr una síntesis, incapaces de dar respuestas. La cita está tomada del
ensayo de Trilling sobre un trabajo de John Dos Passos, El que en realidad
227
es una alabanza a la trilogía de Dos Passos y laboriosamente cuenta sus
logros literarios. Pero también registra una reacción crítica a la novela y de
esta manera nos muestra cómo la cultura de la celebridad, la cultura de la
fama, tiende a distorsionar las expectativas que nos creamos de los libros y
de los autores. En otras palabras, lo que Trilling se pregunta finalmente es si
estamos pidiendo lo correcto a los libros, cuando volvemos celebridades a
los autores. En el mundo de los espectáculos, donde las estrellas se
manufacturan para ser veneradas, es lógico que esperemos la perfección, lo
impecable. Puesto que con los iconos de la pantalla nos emocionamos
mediante la emoción de otro y satisfacemos muchas de nuestras necesidades,
cuando llegamos a los libros esperamos lo mismo de ellos. Sin embargo, el
modus operandi de su lenguaje y su conocimiento no es el mismo que el de
los medios.
Pensador y autor, de hecho, trabajan de manera completamente
diferente, y aun cuando ambos pretenden darnos síntesis y respuestas, éstas
sólo revelan su humanidad imperfecta, aunque también nos dan sus síntesis
y respuestas hasta donde el lenguaje puede hacerlo, por medio de una
retórica abreviada, con la urgente ayuda de metáforas y la necesidad de
figuras en el habla. Pese a la naturaleza de tal conocimiento, seguimos
idolatrando a los pensadores más alla de lo debido. Testimonio de esto, por
ejemplo, es el status de celebridad de figuras como Stephen Hawking.
Después de la publicación de su libro Historia del Tiempo, llegó a ser un
sorprendente best seller, se convirtió en un gurú, no sólo entre la comunidad
científica, donde es legítimamente reconocido como una de las mentes más
agudas, sino también en los medios. Igualmente Stephen Jay Gould es otro
científico que ha ganado un status de celebridad y lo ha usado para tener la
última palabra en un par de casos. En los documentales o en los noticieros
228
encontramos este tipo de figura una y otra vez hasta que la cultura, que se
concibe como conocimiento y pensamiento, se convierte en una mera
penetración de sonidos repetitivos.
La posibilidad de que los intelectuales adquieran un status en la
cultura, no se debe sólo a la degeneración del pensamiento en sonidos
repetidos, sino en lo que Trilling señala. En la actualidad, la gente no espera
de los libros y el conocimiento lo que esperaba años atrás. Antes de que los
medios masivos invadieran la manera de pensar y tener 15 minutos de fama,
la gente entendía que uno adquiría conocimiento de los libros de manera
acumulativa. Ningun libro tenía todas las respuestas, pero los libros
correctos, en el orden correcto, formaban una educación. Ahora, aquellos
que comercializan a los autores y a los intelectuales como celebridades, nos
prometen darnos mesías que resolverán todos nuestros problemas
espirituales o intelectuales. ¿Qué pasa cuando estos intelectos no logran
resolver esos problemas? Entonces el juicio de los auditorios y de la crítica
tiende a ser drástico, tiende a tener ese tipo de angustia que tienen sólo
aquéllos quienes se dan cuenta de que se les ha mentido.
Para muchos, este problema puede ser poco importante en la cultura
actual. Sin embargo, es más pernicioso de lo que parece, puesto que la
sobrevaloración del intelecto y sus consecuencias han establecido una nueva
manera de valorar los antiguos trabajos. Hace algunas décadas, por ejemplo,
uno podía darse cuenta de que aquellos estudiosos que querían valorar o
escribir acerca de alguien como, digamos, Marx, iban y leían a Marx como
podrían leer a cualquier otro autor. En otras palabras, a menos que se fuera
de izquierdas, El capital tendría el mismo status que cualquier otro trabajo
filosófico. Estos eruditos podían explicar algunas ideas, revisar algunas
otras, etc. La más reciente biografía de Marx nos muestra cuán lejos nos
229
encontramos de aquéllos días. Ya no consideramos a Marx un importante
intelectual del siglo XIX, sino como un profeta, y puesto que sus profecias
han fallado, lo tomamos como un profeta defectuoso. De hecho, esta
biografía de Marx, no habla para nada de EL capital; en vez de esto, se
explaya en cada detalle de su vida personal que pudiera derribarlo de su
pedestal de profeta.
Marx, por supuesto, no ha sido la única víctima de esta tendencia.
Freud y Nietzsche, Shostakovich y Schoenberg, están entre los muchos
importantes e influyentes pensadores que han sufrido este tipo de
tratamiento de la crítica. Y aun una reputación que pareció tan firme como la
de Darwin, ha sufrido sus reveses. Entre las grandes mentes de este siglo,
ninguno ha sufrido más desaires y malentendidos, y ninguno ha sido víctima
tan grande de su tendencia intelectual como Teilhard de Chardin. La parte
extraña es que ha habido un determinado o resuelto abandono y mal
entendimiento hacia él. A diferencia de las de cualquiera de los intelectuales
que hemos mencionado arriba, las ideas de Teilhard de Chardin no son de
manera alguna amenazadoras para nadie fuera de la jerarquía de la Iglesia
católica. Al contrario, su teoría es de total sentido común, y su posición no
es la de ser el padre de algo86. Si la crítica se vuelve contra Freud, lo hace
con el conocimiento de que él está amenazando la figura de los padres. Pero
Teilhard de Chardin no ha tenido el mismo tipo de influencia. Así entonces,
¿por qué los malentendidos, por qué el rechazo?.
El trabajo más importante de Teilhard de Chardin, El fenómeno
humano, es sintético y da respuestas. El modo en que ofrece estas respuestas
y la manera como sintetiza las diferentes disciplinas para llegar a sus
86
A Teilhard de Chardin se le ha achacado ser el padre de la New Age, de la tecnognosis,
del internet y hasta de la globalización.
230
conclusiones, fueron por necesidad elípticos, y a causa de la envergadura y
lo ambicioso del trabajo, pasó por alto los minuciosos detalles académicos.
En pocas palabras, mientras muchos científicos evolucionistas gastaban
página tras página en triviales definiciones, Teilhard de Chardin, en su mejor
trabajo, aceptó esas definiciones a priori. Este proceder de Teilhard de
Chardin es directamente responsable de su visión, puesto que no registró con
minuciosidad las evidencias que a él le parecieron tan obvias y las asumió
como verdades tratando de encontrar un mayor y más importante contexto.
Fue su intento de escribir un libro que sintetizara y ofreciera respuestas
importantes y vitales, combinado con su indiferencia por las convenciones
académicas, lo que hizo que crítico tras crítico ignorara, rechazara e incluso
rebajara su trabajo.
Ha sido nuestro propósito, reparar el daño causado al trabajo científico
de Teilhard de Chardin. De hecho, la mayor parte de este libro puede ser
vista como un intento de llenar las lagunas que Teilhard de Chardin dejó
cuando formuló su visión. Pero puesto que los científicos le dieron muy poca
atención al tipo de trabajo que Teilhard de Chardin realizó, y han enderezado
sus investigaciones en otra dirección, el trabajo ha resultado más que arduo.
A menudo hemos tenido que reinterpretar complicadas teorías y señalar lo
que muchos de sus exponentes se han negado a ver. A menudo nos hemos
sentido como detectives mientras buscabamos la última pista cientifica para
encontrar la pieza que se necesitaba en el rompecabezas. Y también,
mientras escribíamos el último capítulo, nos sentimos más que estimulados
al ver nuestro argumento completo de alguna manera rescatado, cuando al
abrir un periodico leímos, junto a la fotografia de un trabajador que quitaba
una mancha de una ventana de vidrio en la iglesia de St. Michael de Nueva
231
York, un encabezado que decía “La más diminuta de las partículas provocó
un gran agujero en la teoría física”.87
A lo largo de este libro hemos señalado, por supuesto, la insuficiencia
del modelo estándar. Hemos, de hecho, argumentado que para entender la
materia y las fuerzas que la gobiernan, uno tiene que pensar en una fuerza
más poderosa, que quizá pueda tener su propia manifestación material, pero
cuya función primordial es revisar la manera en que todas las fuerzas y las
partículas se comportan, portar el conocimiento y hacer surgir las leyes que
rigen las estructuras emergentes. Hemos argumentado que el papel de estas
“partículas” en la fluctuación cuántica que impulsó el big bang, fue seminal.
Desafortunadamente, todavía tenemos que trabajar de buena fe en muchas
partes, si no imaginando su existencia, deduciéndola de teorías como la de
las supercuerdas, de donde se deduce también que seran difíciles de detectar
pues se mueven en un “universo” virtual, paralelo al nuestro, pero de diez o
más dimensiones que los físicos llaman Calabi Yau. Y, si tal cosa existe,
podría hacer pedazos el más apreciado de los modelos científicos. La nueva
partícula no ha revelado tanto como esperábamos; por lo menos, no hasta
ahora. Pero junto al resurgimiento de la constante cosmológica de Einstein
como un posible componente del universo, el descubrimiento de esta
partícula, apunta en la dirección correcta. Trataremos ambos conceptos aquí.
La partícula fue descubierta en un experimento llamado E821, donde
muones creados por un acelerador de partículas llamado AGS (Alternating
Gradient Synchrotron), fueron introducidos en un poderoso campo
magnético, y la frecuencia de su oscilación se midió con una increíble
precisión. Los físicos siempre han sabido que ésta frecuencia es afectada por
87
The New York Times, viernes 9 de Febrero de 2001, vol. CL… No. 51 659. Véase
también Scientific American, abril de 2001, “Physics - Unexplained Moments.” p.17.
232
las propiedades del espacio mismo. De acuerdo con las leyes de la mecánica
cuántica, que hemos señalado como las leyes que rigen el reino subatómico,
el aparentemente vacío espacio es realmente un “mar” de lo que los
científicos llaman “partículas virtuales”, partículas que aparecen brevemente
y desaparecen, e interactuan con los muones. El modelo estándar, como
también hemos discutido, muestra a los científicos cómo calcular los efectos
que todas las partículas conocidas de ese “mar”, deben tener sobre la
frecuencia de oscilación. Mientras que los cambios predichos siempre han
sido medidos y ratificados, las nuevas mediciones difieren de tales
predicciones, sugiriendo la existencia de una particula desconocida hasta
ahora y que es indefinible en ese “mar” subatómico.
Tanto la emergencia de esta perturbadora partícula, como la sospecha
de que la constante cosmológica puede ser un factor que hay que tomar en
cuenta, son para nosotros los más recientes indicios de que la visión de
Teilhard puede ser rescatada algún día. Ambos elementos parecen desmentir
la idea de que el universo es aleatorio y tiende al desorden, porque al nivel
subatómico el nuevo descubrimiento prueba que el modelo estándar es
insuficiente y, a nivel cósmico, la constante cosmológica sugiere que la fina
sintonía del universo permite que la evolución pueda ser posible.
Los escépticos, por supuesto, siempre estarán ahí. Mientras a uno le
gustaría llenar cada hueco que Teilhard dejó, siempre algún antagonista de
estas ideas discutirá contra ellas. Las voces de los escépticos son una
presencia saludable en esta disciplina, pero el escepticismo, siendo saludable
y natural, debe tener sus límites, y si uno fuera escéptico ante todas las
cosas, ninguna teoría saldría a flote. Tomemos por ejemplo la teoría del big
bang, enseñada en las aulas y actualmente aceptada como La Teoría sobre el
principio del universo; el nombre big bang fue puesto de moda por el
233
celebrado físico teórico de Cambridge Fred Hoyle, como una descripción
irónica de una teoría que él consideraba insostenible. Como muchos físicos,
Hoyle favorecía la teoría del “estado estacionario”, una teoría que sostenia
que nuevos átomos y nuevas galaxias se formaban continuamente en los
vacíos mientras el universo se expandía, de modo que las propiedades
promedio nunca variaban. En la época en que Hoyle se burló de lo que
permanecería como la teoría del big bang, realmente no existía evidencia a
favor de alguna de las dos teorías, porque las observaciones no habían
avanzado lo suficiente sobre la expansión. Pero gradualmente, a medida que
los investigadores se vieron forzados a afinar sus experimentos para
confirmar alguna de las teorías, la evidencia del big bang surgió, y ésta fue
la teoría que llegó a ser aceptada. Sin embargo, aún hoy tiene vacíos y los
escépticos siguen cuestionando su validez. Tales ejercicios parecen ser más
una pérdida de energía que intentos válidos de rectificar cualquier problema
que se tenga con la teoría. Para la mayoría de los científicos, en otras
palabras, el que la radiación de fondo tenga el espectro esperado, que la
cantidad de neutrinos haya sido más alta, que la abundancia de deuterio no
esté fuera de los parámentros esperados para que sobreviviera al big bang,
son realmente las evidencias sobre las cuales una teoría importante descansa
incontestable.
Así que si una teoría es aceptada como tal, cuando parecen tenerse
escasas pruebas, la pregunta es, ¿por qué la resistencia en el cambio de
paradigmas que la visión de Teilhard de Chardin parece requerir? Aun
cuando la tendencia de las ciencias parecen darle la razón, no existen las
suficientes evidencias para regresar a la visión de Teilhard de Chardin.
Nosotros esperamos que el armazón del libro sea suficiente para probar que
Teilhard de Chardin está en el camino correcto. Su visión es simple: él tomó
234
la teoría de Darwin sobre la evolución y la aplicó al cosmos. En otras
palabras, la evolución no empezó con una cadena proteica que se manejó
para polimerizarse aquí en la Tierra. Los polímeros y su eventual
descendencia fueron, para Teilhard de Chardin, sólo parte de un continuum,
parte de un proceso que empezó con el big bang. Hemos visto como a nivel
cósmico, la teoría de Teilhard de Chardin es fácil de probar. El big bang
mismo, y la subsecuente expansión del universo, nos permite ver el cosmos
en una dimensión temporal que es equivalente a una evolución. Más allá, la
emergencia de elementos cada vez más pesados a partir de unos más ligeros
por el uso de una estructura más bién simple, puede ser la mejor manera de
ver cómo la complejidad se desarrolla a partir de leyes simples. La estructura
del universo mismo, en otras palabras, la manera como el cosmos arregló los
materiales que emergieron a lo largo de su evolución, suiguió un patrón
fractal complejo, un patrón que se encuentra tanto en la evolución como en
los ecosistemas, confirmándonos la visión de Teilhard de Chardin del
universo como un todo. Muchos fenómenos de la naturaleza son fractales.
Como previamente hemos visto, un fractal es un patrón con la característica
matemática especial de que un fragmento, cuando se magnifica (se ve en una
escala mayor) se parece al todo. Nuestro universo es fractal, pero no tan
simple como una montaña, una costa o un árbol. Si fuera así, por supuesto
no habría permitido la variedad que es necesaria para la evolución; es más,
posiblemente estaría desprovisto de vida. Las estructuras cósmicas abarcan
un ámplio rango de dimensiones: estrellas, galaxias, grupos y supergrupos
de galaxias. Sin embargo, cuando el observador alcanza grandes escalas,
éstas empiezan a repetirse; así un fragmento de 200 millones de años luz
tiene parecido al universo entero.
235
Esta homogeneidad, la prolongada duración tanto de la expansión
como de la emergencia de las estructuras, todo confirma lo que para Teilhard
de Chardin fue crucial: la fina sintonía del universo. Pese a que es difícil
para los científicos negarlo, esta fina sintonía es un hecho que tienen
bastante reconocido. Pueden conceder que la intrincada complejidad se ha
desplegado de leyes simples. Pueden también estar de acuerdo en que el
hecho anterior no siempre está garantizado. Saben sin duda que el número
tuvo que ser el preciso para que la complejidad emergiera de estas leyes
sencillas. La más ligera variación pudo haber producido un aburrido, si es
que no, estéril universo. Los científicos saben también que una vez que
tocan esta fina sintonía del universo, una vez que empiezan a discutir este
preciso diseño que ha permitido la emergencia de estructuras más y más
refinadas que han alojado la complejidad, están llegando a esa región a la
que se han rehusado a entrar en los últimos cincuenta años, están llegando al
reino donde la ciencia tiene relevancia, donde la ciencia tiene respuestas
públicas acerca de nuestro mundo y acerca de la realidad de que estamos
aquí.
Existen varias maneras de reaccionar a esta fina sintonia del universo.
La primera respuesta es decir que podríamos no existir si esos números no
fueran los que son. Muchos científicos toman una postura antifilosófica y
pragmática al decir, “estamos aquí, así que no hay nada de qué
sorprenderse”. El filósofo John Leslie ha ilustrado cuán errónea es esta
manera de abordar la cuestión, con la siguiente parábola: Supongamos que
usted se está encarando a un pelotón de fusilamiento. 50 excelentes tiradores
apuntan, pero todos fallan. Si ellos no hubieran fallado, usted no habría
sobrevivido para considerar con especial cuidado el asunto. ¿O lo dejaría tal
236
cual? Lo más probable es que se sintiera desconcertado y buscara la razón de
su buena fortuna.
Estamos aquí y desde tiempo inmemorial hemos ponderado la razón
del por qué. Muchos de los más pragmáticos científicos nos dicen que
busquemos en otra parte la respuesta. Y esto lo hacen a riesgo de las metas
de la propia ciencia, puesto que, desde su inicio, la ciencia ha sido una de las
principales herramientas para entender por qué estamos aquí. En realidad, es
posible argumentar que el impulso original que está detrás del pensamiento
científico es el de proveer respuestas.
Las respuestas no siempre son simples; de hecho, pronto veremos
cómo las respuestas que se encuentran en la visión de Teilhard de Chardin,
no solamente no son simples, sino que nos imponen cambios difíciles en la
manera en que pensamos, actuamos y vivimos.
Teilhard de Chardin fue un creyente. Su creencia, en manera alguna
era reductiva o simplista. Para él, realmente, la actitud de muchos que ven en
la fina sintonía del cosmos la evidencia de un benéfico creador, podría
parecer reductiva y fuera de lugar. Nos referimos por supuesto al argumento
de un diseño férreamente determinista. John Poilkinghorne, el científico
teólogo, quizá sea el más claro portavoz de este argumento. Para él, el
universo no solo es “un viejo mundo cualquiera, sino que es uno especial,
finamente sintonizado porque es la obra de un Creador cuya voluntad fue
que así fuera”. El argumento de Poilkinghorne es bueno si lo que uno quiere
es confirmar la creencia en un ser supremo, pero como muchos argumentos
teológicos, no nos indica cómo debemos comportarnos en todos los
aspectos, desde la manera de planear los experimentos, hasta la manera de
alimentarnos. En realidad lo encontramos hasta peligroso, de la misma
forma en que lo han sido muchos dogmas religiosos a través de la historia,
237
pues nos despoja de cualquier responsabilidad que no sea la que el
correspondiente dogma teológico nos otorga. Para decirlo brevemente,
contempla al universo –como la primera respuesta de los científicos
escépticos– más allá de nuestro alcance y más allá de nuestra empresa,
cuando falla en responder la pregunta que si fuera contestada podría
determinar nuestro futuro comportamiento, porque como asegura Teilhard
de Chardin, el hombre tiene ahora el destino de la evolución en sus manos.
Si la visión de Teilhard de Chardin ha sido molesta para muchos, no
es a causa de sus apuntalamientos teológicos, ni por su interpretación de la
evolución. Si la teoría es amenazadora para muchos es porque da respuesta a
las preguntas de una manera muy específica, y de esta manera nos descubre
el modo de proceder como especie, como cultura, como civilización. La
esencia de la visión de Teilhard de Chardin es lo que podríamos llamar
ecológica, pero no una ecología ramplona y mediocre. Su ecología no se
limita a ecosistemas o incluso al planeta, es una ecología cósmica. Pocos
científicos han seguido las indicaciones de Teilhard de Chardin y menos aún
las han aplicado en toda su amplitud. Pero es importante para nosotros ver
como ha sido usada la teoría de Teilhard de Chardin, de manera que
podamos ver los peligros de aplicarla y la manera en la que tales peligros
pueden ser evitados.
El más famoso portavoz de la visión teilhardiana puede ser J. E.
Lovelock. En Gaia: A New Look at Life on Earth, Lovelock razona que “la
Tierra es un organismo viviente; el aire, los océanos y la tierra, forman un
sistema complejo, que puede ser visto como un solo organismo”. Lo que
Lovelock en otras palabras llama Gaia es “un inmenso ser, que en su
totalidad tiene el poder de mantener el habitat apto y confortable para la
vida”. Para razonar su punto de vista, Lovelock señala una gran cantidad de
238
imposibilidades que Gaia ha tenido que superar. La atmósfera es una de
éstas. Basado en la composición química total de la Tierra, ciertos gases
atmosféricos que son escasos deberían ser más comunes y ciertos gases
comúnes deberían ser escasos. La ley de la entropía pareciera estar en
suspenso. De acuerdo con Lovelock, la única explicación de este fenómeno
es que la “vida ha tomado una mano conductora. El más familiar ejemplo
podría ser el bióxido de carbono. Además de ser un subproducto de la
respiración de muchos seres vivos y de la oxidación de combustibles fósiles,
este gas se produce naturalmente como resultado de varios procesos no
biológicos, y por lo tanto debería ser un gas muy común. Dejando entrar y
luego aprisionando la radiación solar, la Tierra pudo mantenerse caliente. La
concentración de oxígeno puede ser otra prueba para la teoría de Gaia. El
oxígeno es un gas escaso que se volvió común “artificialmente”. Hace
alrededor de 3500 millones de años, en el amanecer de la evolución
orgánica, la vida se sostuvo en la forma de unos simples seres anaeróbicos
especificamente adaptados a un ambiente pobre en oxígeno. Durante mas de
1000 millones de años, dichos seres transformaron los gases comúnes en
oxígeno, y entonces, hace aproximadamente 2000 millones de años, pudo
tener lugar una de las más drásticas transformaciones de la evolución, el
cambio a un metabolismo económico que quema oxígeno, lo cual hace
posible el suministro de grandes cantidades de energía química y mecánica
que posibilita un amplio rango biológico. El cambio fue posible porque el
ecosistema que Lovelock llama Gaia balanceó la escasez de oxígeno
reduciendo el dióxido de carbono a la mitad durante la fotosíntesis y
separando el carbono para enterrarlo como turba, carbón o petróleo; en otras
palabras, a través de la vida y muerte de las plantas.
239
La visión de Lovelock de una tierra como una forma viviente que se
autobalancea, encaja bien con el argumento de Teilhard de Chardin. Sin
embargo, la visión de Teilhard de Chardin es más vasta, más lograda. Aun,
pese al optimismo de Teilhard de Chardin, evita muchas de las trampas
inherentes a la teoría de Gaia. Para Lovelock, el dogma central es que la
Tierra posée una potente, cibernética y muy subestimada capacidad para
mantenerse saludable. Lovelock cree que la Tierra se puede curar a sí misma
cuando su ambiente ha sido dañado. Es este optimismo el que ha confirmado
el más fatal equívoco en la interpretación de Lovelock a la teoría de Teilhard
de Chardin. Lovelock insiste en que lo que concierne al efecto de
invernadero es trivial. La preocupación por la reducción de la capa de ozono
es igualmente ridícula. La contaminación que las chimeneas despiden y que
las tuberias vomitan en los rios son, de acuerdo con Lovelock, achaques
menores que Gaia puede reparar. Lovelock comete aquí una imperdonable
omisión para alguien que se dice científico. Olvida que las catástrofes
pueden ser constructivas o destructivas según ocurran en largos o cortos
lapsos. Si a un cuerpo humano le producimos muchas heridas a lo largo de
toda su vida, es probable que se recupere, pero si esas mismas heridas se le
provocan en una semana el individuo morirá porque el cuerpo no tendrá
capacidad de regenerarse. Sin embargo, la teoría de Lovelock que al
principio parece ecológicamente razonable, se empaña bajo su propio
argumento y llega a ser una estéril y fría visión de la evolución y de la
Tierra. Por esto falla y no puede responder a una pregunta fundamental: Si el
planeta es un ser viviente, cuando el comportamiento equivocado de la
humanidad hacia la Tierra progrese hasta el punto en que las heridas en Gaia
sean lo suficientemente profundas para que siga con vida, pero esta vida ya
no pueda sustentarnos, ¿deberá la ausencia del Homo sapiens, o la ausencia
240
de cualquier cosa viviente ser la prueba de una herida irreparable? ¿Deberá
esto ser la prueba de que Gaia no pudo reparar todo el daño?
La visión de Gaia es finalmente irresponsable en su optimismo y nos
muestra el peligro inherente de tomar a la ligera una profunda visión como la
de Teilhard de chardin. La visión de Lovelock ve la extinción y contesta “¿Y
qué? ¿Qué si un puñado de especies se extingue? la extinción es un proceso
natural, Darwin mismo lo dijo”. Biólogos y paleontólogos hablan de niveles
de extinciones de fondo a lo largo de la historia de la vida. Estos niveles de
fondo son las tasas rutinarias promedio a la cual las especies desaparecen.
Esto está generalmente balanceado por la velocidad a la que las especies se
desarrollan. Junto con la extinción, esto constituye otra forma de rotación.
Las tasas de extinción en el remoto pasado no pueden ser calculadas con
precisión por los huecos que existen en el registro fósil. Pero el paleontólogo
David Jablonski ha elaborado un informe aproximado y ha colocado las
anteriores extinciones en “quizá unas pocas especies por millón de años”.
Unos pocos mamíferos, unos pocos peces, etc., cada millon de años. Tales
pérdidas a tales proporciones pueden ser contrarrestadas por la velocidad de
desarrollo de las especies. La extinción a estos niveles es un proceso
sustentable. Y si éste fuera el único tipo de extinción, el argumento de Gaia
sería sostenible.
Pero hay otras extinciones. Junto a las extinciones de fondo, un cierto
número de grandes eventos ha emergido Estos cataclismos son como
periodos en la historia de la vida. Y como ya apuntamos, cuando suceden en
tiempos adecuados son eventos o catástrofes constructivos.
Estas extinciones masivas que son famosas, generalmente sirven como
ejemplo en los libros de texto: la extinción del Cretáceo es una; la del
Pérmico. Lo que caracteriza a estas extinciones masivas es que suceden en
241
breves periodos de tiempo.88 Consecuentemente, la tasa de extinción excede
a la tasa de crecimiento y desarrollo de las especies. Cuando esto sucede,
hay dos resultados calamitosos; la riqueza de la biosfera se desploma y los
ecosistemas pierden su equilibrio. Con los ecosistemas destrozados, les toma
a las especies millones de años llenar los huecos.
El debate sobre las causas de las extinciones masivas en el pasado no
será resuelto en breve, por lo que dejaremos de lado las teorías
sensacionalista que sólo son ciencia-ficción, como la de la existencia de una
“estrella muerta”, que orbita con nuestro Sol, ejerciendo una gravitación
cósmica que arrastra una masiva cantidad de asteroides y los impulsa cerca
de la Tierra cada 26 millones de años.
Lo que realmente importa es entender lo que es una extinción masiva.
De acuerdo con Jablonsky, se supone que una extinción es masiva cuando la
tasa a la cual desaparecen las especies es el doble de la tasa de la extinción
de fondo para muchos diferentes grupos de animales y plantas. Pero más
terrorifico que esos remotos eventos es el hecho de que si analizamos la
definición de Jablonsky y observamos el impacto ecológico que los humanos
hemos producido en el planeta, estamos pasando justo ahora por una
extinción masiva que se está produciendo en un brevisimo lapso, lo que la
convierte en la más peligrosa de cuantas extinciones se hayan producido.
En realidad, esta extinción masiva comenzo en el neolítico, cuando los
grupos de cazadores nómadas de la Europa central despeñaban las manadas
de Mamuts para obtener unos cuantos filetes, y ahí quedó la evidencia. Los
88
Tenemos que ser cuidadosos al hablar de brevedad en la escena cósmica. Según la
teoría del equilibrio interrumpido, los largos periodos estables, donde sólo ocurren las
extinciones de fondo, son de cientos de millones de años, y los breves lapsos a los que se
refieren las extinciones masivas son de solo uno 2 a 5 millones de años. Una catástrofe
242
humanos de esta misma cultura neolítica establecidos en los bordes de los
continentes empezaron a aventurarse a través del mar abierto en sus canoas
de troncos ahuecados y colonizaron remotas islas, como Madagascar, Nueva
Zelanda, Nueva Caledonia y el archipielago de Hawai. Esta colonización
rápidamente acabó con algunas de las especies endémicas de aves. Desde la
época de los viajes del neolítico, pasando por la colonización europea de
Asia, Africa y el Nuevo Mundo, hasta nuestros dias, más de 20% de las
especies de aves se han extinguido. Durante los últimos siglos, al hacerse
concomitante la Revolución Industrial, la explotación de los recursos
naturales llegó a su clímax, la tasa de extinción creció exponencialmente y el
peligro se extendió desde las más frágiles y fácilmente extinguibles especies,
hasta las plantas y animales más resistentes. Sin duda, si la presente
tendencia continua –aunque lo más probable es que se incremente – dentro
de pocas décadas habremos perdido la mayor parte de las especies de flora y
fauna.
Si la visión de Lovelock está tomada de la de Teilhard de Chardin, no
la sigue correctamente. En nuestra opinión, la teoría de Gaia parece al
principio bastante lógica y atractiva. El resultado del razonamiento de
Lovelock, su creencia de que Gaia puede reparar sus heridas, defrauda la
visión de Teilhard de Chardin. Como hemos discutido en capítulos previos,
la piedra angular sobre la que descansan las ideas de Teilhard de Chardin, es
su creencia en que el incremento de la complejidad es la flecha que guía la
evolución. Y si la visión de Teilhard es relevante hoy día, es porque en una
visión para la cual la máxima complejidad es el destino, nuestras actuales
tendencias como cultura, nuestro comportamiento como especie, son
destructiva sucedería en mucho menos tiempo, como podría ser una guerra atómica que
acabara con todo signo vida.
243
completamente contrarias a esta visión. Por lo que debemos recordar que si
extinguimos la mayor parte de la diversidad del planeta, perderemos la
complejidad que se ha adquirido a lo largo de la evolución de la Tierra. Este
reclamo es por supuesto una vieja cantaleta para muchos, y muchos están
cansados y hastiados de oirla. Pero el número de expertos preocupados es
sorprendente. Paul Ehrlich estima que actualmente la tasa de extinción es de
cien veces más que el nivel de extinción de fondo (background level).
Edward O. Wilson, investigador de invertebrados en las selvas lluviosas,
estima que la actual pérdida de especies en estas selvas supera en mil veces
el nivel normal. Lo que no dicen es que estos números nos llevan a la misma
ominosa conclusión: nuestro impacto devastador sobre la biosfera es suicida.
A la velocidad que vamos desvastando no sobreviviremos mucho como
especie, por lo menos no como especie que pueda progresar, desarrollarse,
evolucionar. Lovelock puede estar en lo cierto. Sí, la riqueza del ecosistema
terrestre pudiera recuperarse, pero el contratiempo será profundo y
devastador y le tomará a Gaia por lo menos 20 millones de años para
reponerse. Las palomas y gorriones, las cucarachas, las ratas y los dientes de
león, como nosotros, son mala hierba ecológica que probablemente
sobrevivirá para heredar nuestro material genético que podría dar paso a una
nueva diversidad. Quizá en el futuro pueda emerger algo llamado sabiduría y
sensibilidad, y a eones de distancia de ahora, futuros paleontólogos
encontrarán la evidencia y se maravillaran de lo que sucedió en el planeta, lo
que causó vastas pérdidas en por lo menos seis épocas: Al final del
Ordoviciano, en el Devónico superior, al final del Pérmico, del Triásico y
del Cretácico y, 65 millones de años después, al final del Cuaternario, justo
alrededor de la época cuando los regístros fósiles se mezclaron con los
registros arqueológicos y se excavan huesos junto a canoas ahuecadas,
244
hachas de piedra, arados, veleros de tres mástiles, automoviles, envolturas de
fast food, equipos de televisión, computadoras personales, trascavos y sierras
de todo tipo.
Para quien esta visión le parezca exagerada, y piensen que el ser
humano es una blanca paloma, lleno de virtudes y dignidad, hay más malas
noticias: según los últimos descubrimientos paleontológicos, resulta que en
nuestros albores no estuvimos solos. Compartimos el planeta con por lo
menos 15 especies de Homo a las cuales no permitimos evolucionar. El
Homo sapiens nació con un desaforado instinto destructor. Parece que
estuvo en lo correcto Albert Szent-Györyi cuando dijo que “el cerebro no es
un órgano del pensamiento, sino de la sobrevivencia, como las zarpas y los
colmillos. Está hecho de tal forma que nos hace aceptar como verdad cosas
que solo son ventajas” (aparentemente).
Como paleontólogo, Teilhard de Chardin estaba consciente de las
extinciones. De hecho, su trabajo más teórico parece impulsado por ese
conocimiento de las profundas pérdidas debidas a la extinción. El
optimismo, sin embargo, proviene de lo ámplio y bien logrado de su visión,
y si la vemos de más cerca, nos puede ayudar a entender las diferencias con
sus seguidores. Porque, mientras escritores como Wright tienden a ser
reductivos en sus intentos de reconciliar la visión de Teilhard de Chardin
con el mundo moderno, y a menudo equiparan la noosfera con el internet y
el comercio global, pensadores como Lovelock a menudo fallan en seguir a
Teilhard de Chardin toda la ruta. Teilhard de Chardin, pensamos, estaría de
acuerdo con varias de las premisas de Lovelock, Sin embargo, nosotros
hemos encontrado otra gran diferencia. El reloj evolutivo de Lovelock
comienza su marcha cuando Gaia empieza a hospedar moléculas que se
245
polimerizan. El reloj evolutivo de Teilhard de Chardin, por otro lado,
empieza a marcar antes de lo que actualmente nos puede indicar el big bang.
Como hemos visto a lo largo de todo el libro, la idea de que el
universo es una evolución, sigue siendo altamente controversial. Los físicos
encuentran la palabra evolución, cuando la aplican a la historia cósmica,
demasiado metafórica, no lo suficientemente específica. Como también
vimos, David Layzer es uno de los pocos científicos que han razonado, con
argumentos sólidos, que el universo ha sido moldeado por la evolución.
La visión de Teilhard de Chardin hace de la evolución la fuerza que
configura la historia universal, no sólo la historia de la Tierra. Su aparente
optimismo puede provenir del hecho de que concede tan fundamental
influencia a la evolución. La palabra que entra aquí en vigor es “aparente”.
Considerando nuestras circunstancias, las ideas de Teilhard de Chardin
parecen opimistas. A pesar de todo, nuestras circunstancias ecológicas son
sólo un pequeño grano de arena en cuanto a la visión de Teilhard de Chardin
concierne. En realidad, nos gustaría argumentar que Teilhard de Chardin
parece optimista si uno se niega a leerlo en sus propios términos, y sus
propios términos implican un cambio paradigmático hasta lo más profundo
en nuestra manera de razonar. Teilhard de Chardin demanda un cambio
epistemológico.
Este cambió epistemológico es análogo a lo que Kant definio como lo
sublime. Para Kant, lo sublime era “un objeto [de la naturaleza] cuya
representación determina a la mente a pensar en la inasequibilidad de la
naturaleza como una representación de las ideas de la razón.” Lo que Kant
propone como principio es mucho más simple que su densa prosa.
Realmente, su definición parece sintetizar muchas de las ideas que
pensadores antes que él propusieron como principio acerca del concepto de
246
lo sublime. Desde Longino, el primer escritor que efectivamente aclaró
algunas de sus definiciones básicas, la pretensión de lo sublime es que los
humanos pueden, en sentimientos y en palabras, trascender lo humano. Que,
si algo, se encuentra más allá de lo humano –Dios o dioses, el demonio o la
naturaleza–, es un asunto que se deja a cada escritor individual que aborda el
concepto de lo sublime. En el centro de lo sublime, sin embargo, hay algo
más allá de la dimensión humana. Brevemente, lo que el concepto de
sublime ha permitido a través de las centurias, ha sido una vía creíble para
tratar lo que puede ser llamado “superhumano”. El hecho de que la
trascendencia más allá de lo humano este en el centro de lo sublime está tan
interiorizado, que Kant encontró innecesario mencionarlo. En lugar de ésto,
él vió la manera en la cual lo sublime es un momento que experimentamos
mientras contemplamos una escena natural u otra cosa más allá de nuestra
explicación, permitiendo un cambio epistemológico. Kant dividió lo sublime
en tres estados. En el primer estado de lo sublime, la mente está en en una
determinada relación con el objeto que contempla. Esta relación es habitual
y más o menos inconsciente, éste es el estado de percepción normal, donde
no hay disonancia ni discrepancia entre lo que se contempla y la manera en
que se le entiende. Hay allí una tersa correspondencia entre lo interno y lo
externo. En el segundo estado, la relación habitual entre mente y objeto se
rompe repentinamente. Sorpresa o asombro es el resultado de este
rompimiento que produce una desconcertante desproporción entre lo interno
y lo externo. Esto ocurre porque el objeto que se contempló es excesivo para
las capacidades semánticas de la mente. En la ciencia, este momento anuncia
revoluciones. Los registros geológicos y los lapsos que parecen contener,
pueden ser un buen ejemplo. Igualmente, la vastedad del espacio y los
grandes lapsos que ha requerido la historia universal que nos precedió,
247
pueden ser ejemplos de objetos para los cuales la mente parece no estar lista
o equipada para entender. En el tercer y final estado kantiano de lo sublime,
encontramos que tenemos etiquetado algo que nos permite realizar un
cambio epistemológico, puesto que la mente encuentra nuevas vías de
entendimiento En realidad, el tercer estado se caracteriza por el hecho de que
la mente recupera el balance de lo externo e interno y reconstruye una nueva
relación entre ella misma y el objeto, de manera que la indeterminación que
caracteriza el segundo estado se usa aquí como un trampolín para que la
mente entienda y clarifique un orden trascendente. En otras palabras, en el
planteamiento de Kant, el objeto que causa el sentimiento de lo sublime está
interiorizado, y como tal, es capaz de permitir a la mente el decubrir nuevas
vías de entendimiento.
Teilhard de Chardin, por supuesto, nunca hubiera aplicado la idea de
lo sublime a su visión. Su esfuerzo, hasta donde a él concierne, fue
puramente científico y lo ciñó a la filosofía tanto como cualquier otro trabajo
de ciencia lo hace, solamente por necesidad. Pero como el trabajo de gente
como Einstein, que si no fue tan profundamente espiritual, sí fue
espiritualmente inspirado, cuestionando el universo, no como una fórmula
sino como un objeto maravilloso, como una creación de un ser más grande,
el trabajo de Teilhard de Chardin está profundamente ligado a la
trascendencia. Más aún, su trabajo no solamente proyecta respeto a la
creación, sino que en realidad internaliza este respeto y lo canaliza para crear
un nuevo entendimiento. Podemos decir que el momento sublime en
Teilhard de Chardin, el momento de respeto, surge de su comprensión de
que la evolución no es un accidente que ocurre en algun aislado planeta
llamado Tierra. El momento en el que Teilhard de Chardin propone como
principio que la evolución en la Tierra es solamente un fragmento en un
248
continuum que empezó en el big bang y el cual continuará con o sin nosotros
en el futuro, hasta que el universo cumpla con su función.
Teilhard de Chardin demandó de sí mismo, así como de los demás
científicos, que cambiaran no solamente el modo de hacer ciencia, sino la
manera en la cual conocemos y entendemos; de aquí nuestra pretención: su
trabajo demanda un cambio epistemológico.
Como hemos visto previamente, cuando la teoría del big bang lo
propuso, muchos científicos lo rechazaron. Sin embargo, a medida que ganó
aceptación en los circulos teóricos, forzó a los círculos de investigación a
reenfocar y refinar sus métodos, así que gradualmente forzó a ambos a
confirmar o refutar la teoría. Las ideas de Teilhard de Chardin demandan
algo similar a mucha mayor escala. Los científicos que han criticado a
Teilhard de Chardin, rechazan su trabajo por teleológico y antropocéntrico.
Esta última acusación se debe, por supuesto, a un completo malentendido del
trabajo de Teilhard de Chardin. Para él los humanos son la más grande
manifestación de la evolución porque personifican la mayor complejidad. Al
mismo tiempo, Teilhard de Chardin está consciente de que los humanos,
como la evolución en la Tierra, son solamente un paso en un viaje más largo.
La primera acusación, la que ve su trabajo como teleológico es, en efecto,
correcta. El truco que los críticos de Teilhard de Chardin han usado, es
semántico. Antropocéntrico y teleológico son palabras sucias en el lenguaje
actual. Combinadas a menudo implican que el Homo sapiens es el fin de la
teleología. Nada más lejos de la verdad en el método de Teilhard de Chardin.
Su teleología es mucho más compleja que eso. El Homo sapiens,
como tal, no es el propósito del universo. Es sólo un peldaño en un proceso
más largo. El propósito del universo es nada menos que el Punto Omega.
Éste es uno de los conceptos que Teilhard de Chardin acuñó y que ha sido
249
adoptado ampliamente por la comunidad científica. La adopción no siempre
ha sido correcta ni fiel al espíritu teilhardiano. Para él, el Punto Omega es la
síntesis última, por la que reconcilia su teleología con el verdadero concepto
científico del “big crunch”, que para muchos científicos es otra prueba de
que el universo no apunta a nada y que esta regido por el azar. Testimonio de
esto, por ejemplo es la manera en que Stephen Hawking usa una y otra vez
los agujeros negros como una pequeña versión de lo que sucederá en el “big
crunch”, y demasiadas veces ha argumentado que la información engullida
por un agujero negro llegaria a ser silenciada. La visión de Teilhard de
Chardin es diametralmente opuesta a la de Hawking. Para él, el Punto
Omega es el punto donde los “centros reflexivos del mundo…
efectivamente” convergen.
250
BIBLIOGRAFÍA
Albert, David Z., Quantum Mechanics and Experience, Cambridge: Harvard University
Press, 1992.
—— “Bohm’s Alternative to Quantum Mechanics,” Scientific American, mayo 1994
Aristóteles, Obras filosóficas, México, Conaculta /Océano, 2000.
Barbour, Julian, The End of Time (The Next Revolution in Physics), Oxford University
Press 2000, Oxford, 1999.
Barnett, Lincoln, El universo y el doctor Einstein, México, Fondo de Cultura Económica,
1973.
Berger, A. (ed.), The Big Bang and Georges Lemaitre, Dordrecht, Reidel, 1985.
Bergson, Henri, La evolución creadora, Barcelona, Planeta-Agostini, 1994.
Berlin, Isaiah, The Proper Study of Mankind: An Anthology of Essays, Nueva York,
Farrar, Strauss Giroux, 2000
Birx, H. James, Interpreting Evolution (Darwin & Teilhard de Chardin), Buffalo,
Prometheus Books, 1991.
Bohm, David, Wholeness and Implicate Order, Boston, Routledge & Kegan Paul, 1988.
—— , La totalidad y el orden implicado, Barcelona,Kairos, 1992.
Bonan, Kathy y Yves Cohen, Comer con inteligencia, México, Hermes, 1990.
Bondi, Hermann, Relativity and Common Sense. A New Approach to Einstein, Nueva
Cork, Dover Publications, 1980.
Bourges, Hector, Nutricion y alimentos, México, CECSA, 1987, (Colección Consejo
Nacional para la enseñanza de la Biología).
Braun, Eliezer, Caos, fractales y cosas raras, México, SEP-FCE-Conacyt, 1996,
Colección La ciencia desde México, No. 150.
Clark, Stuart, Towards the Edge of the Universe (A Review of Modern Cosmology),
Londres, John Wiley & Sons/PRAXIS, 1997.
Cohen, A. Bernard, The Newtonian Revolution, Londres, Cambridge University Press,
1983
Conway-Morros, Simon, The Crucible of Creation: The Burgess Shale and the Rise of
Life, Los Angeles, Getty Center for Education in the Arts, 1999.
Corbella, Joseph, E. Carbonel, S. Moya y R. Sala. Sapiens, El largo camino de los
homínidos hacia la inteligencia, Barcelona, Península, 2000.
Coveney, Peter y Roger Highfield, Frontiers of Complexity (The Search for Order in a
Chaotic Word), Nueva York, Fawcett Columbune.
Cuénot, Claude, Teilhard de Chardin: A Biographical Study, Londres, Burns & Oates,
1959.
Cushing, James T., Philosophical Concepts in Physics (The historical relation between
philosophy and scientific theories). Cambridge. Cambridge University Press. 1998
Charon, Jean E., El conocimiento del universo. Barcelona. Martínez Roca. 1968,
Darwin, Charles. The Origin of the Species, (facsimile de la primera edición), Cambridge,
MA, Harvard University Press, 1964
——, El origen de las especies. Barcelona. Bruguera. 1967.
Davies, Paul. Other Worlds (Space, Superspace and the Quantum Universe), Londres,
Penguin Books. 1988.
251
——, Sobre el Tiempo (La revolución inacabada de Einstein). Barcelona, Grijalbo
Mondadori, 1996.
Dawkins, Richard. The Blind Watchmaker: Why the Evidence of Evolution Reveals a
Universe Without Design. Nueva York, W.W. Norton & Company. 1987
Deutsch, David. The Fabric of Reality: The Science of Parallel Universes and Its
Implications. Londres. Penguin Books, 1997.
Dobzhansky, Theodosius. Mankind Evolving. The Evolution of the Human Species.
Boston, Yale University Press. 1962.
Einstein, Albert. La teoría de la relatividad. Barcelona. Altaya. 1993. Colección Grandes
obras del pensamiento. No. 4.
—— , The Principle of Relativity. Nueva York, Dover. 1952.
Evelyn Grim, John and Mary. Teilhard de Chardin. A Short Biography. Nueva York,
Anima Books. 1984, Colección Teilhard Studies. No. 11.
Ferris, Timothy. The Whole Shebang: A State of the Universe Report. Nueva York,
Simon & Schulster. 1997
Feynman, Richard. Lectures in Physics, vol. III. Boston: Addison-Wesley. 1965.
——, The Character of Physical Law. Londres, Penguin Books, 1992.
——, y S. Weinberg. Las partículas elementales y las leyes de la física. Barcelona,
Gedisa, 1991.
Fortey, Richard. Life: A Natural History of the First Four Million Years on Earth. Nueva
York. Knopf. 1997
Gargía-Colín, Leopoldo, Marcos Mazari, Marcos Moshinski, et al.. Niels Bohr: científico,
filósofo, humanista. México. SEP-FCE-Conacyt, 1991.
George, Pierre. El medio ambiente. Barcelona, Orbis, 1985.
Gleick, James. Chaos (Making a New Science). Nueva York. Penguin Books. 1988.
Gómez Marín, Edgar. Esto es el caos. México. Consejo Nac. para la Cultura y las Artes.
1995.
Gould, Stephen Jay. Wonderful Life: The Burgess Shale and the Nature of History. W.W.
Nueva York, Norton & Company, 1989.
—— , Full House: The Spread of Excellence from Plato to Darwin. Three Nueva York,
Rivers Press. 1996
Green, Brian. The Elegant Universe (Superstrings, hidden dimensions and the quest for
the ultimate theory). Nueva Cork, W.W. Norton & Co., 1999.
Gribbin, John. El punto Omega (La búsqueda de la masa perdida y el destino final del
universo). México. CONACULTA/Alianza. 1990.
——, In Search of the Double Helix: Quantum Physis and Life. Nueva York. Bantam
Books. 1985.
——, Q is For Quantum: An Encyclopedia of Particle Physics. Nueva York. Touchstone
Books. 2000
Guitton, Jean, Igor y Grichka Bogdanov. Dios y la Ciencia. Argentina, Emece Editores, .
1992.
Guth, Alan H., The Inflationary Universe: The Quest for a New Theory of Cosmic
Origins. MA, Helix Books. 1997.
Hacyan, Shahen. Del Mundo Cuántico al Universo en Expansión. SEP-FCE-Conacyt,
México. 1994, Colección La Ciencia desde México. No. 129.
252
——, El descubrimiento del universo. SEP-FCE-Conacyt, 1996, Colección La Ciencia
desde México. No. 6.
Hawking, Stephen W., Historia del tiempo (Del big bang a los agujeros negros). México.
Crítica. 1988.
Hawkins, Michael. Hunting Down the Universe: The Missing Mass. Primordial Black
Holes and Other Dark Matters. MA, Helix. 1998.
Heisenberg, Werner. La imagen de la naturaleza en la física actual. Barcelona. PlanetaAgostini. 1993.
Heisenberg, Werner. Physics and Beyond. Nueva York, Harper and Row. 1971.
Herbert, Nick. Quantum Reality: Beyond the New Physics. Nueva York, Doubleday.
1985.
Hoffman, Banesh. The Strange Story of Quantum. Nueva York. Dover. 1959.
Jablonski, David. “Causes and Consequences of Mass Extinctions: A Comparative
Approach” In Elliott’s Dynamics of Extinction. Nueva York, John Wiley, 1986
——, “Mass Extinctions: New Answers, New Questions.” In Kaufman and Mallory’s
The Last Extinction. Cambridge, MIT Press, 1986
——, “Extinctions: A Paleontological Perspective”. Science, vol. 253 16 agosto, 1991.
Jammer, Max. The Conceptual Development of Quantum Physics. Nueva York,
McGraw-Hill, 1966.
Kane, Gordon. Supersymmetry: Unveiling the Ultimate Laws of Nature. Cambridge,
MA, Helix Books, 2000.
Kauffman, Stuart A., Investigations. Nueva York, Oxford University Press. 2000.
——, The Origins of Order (Self-organization and selection in evolution). Nueva York.
Oxford University Press. 1993.
Keegan, John. The First World War. Nueva York, Knopf.. 1999.
Kragh, Helge. Quantum Generations. A History of Physics in the Twentieth Century. NJ,
Princeton University Press, 1999.
Layzer, David. Cosmogenesis: The Growth of Order in the Universe. Oxford. Oxford
University Press. 1991
Lederman, Leon. The God Particle: If the Universe is the Answer, What is the Question?
Nueva York. Delta. 1993.
Lenay, Charles. La evolución (De la bacteria al hombre). Barcelona. RBA Editores.
1993.
Lindley, David. Where Does the Weirdness Go: Why Quantum Mechanics is Strange but
not as Strange as You Think. Nueva York, Basic Books. 1996.
Lovelock, James. Gaia: A New Look At Life on Earth. Oxford. Oxford University Press.
2000.
Lucas Hernández, Juan de Sahagún. Teilhard de Chardin (1881-1955). Madrid.Ediciones
del Orto. 996.
MacCarthur, Robert. Geographical Ecology: Patterns in the Distributions of the Species.
NJ. Princeton U P. Princeton, 1984.
Mach, Ernst. The Science of Mechanics. La Salle, IL, Open Court. 1960.
Mandelbrot, Benoît. Los objetos fractales. Barcelona. Tusquets. 2000.
McNeil, J.R. Something New Under the Sun: An Environmental History of the Twentieth
Century World, Nueva York, W.W. Norton & Company, 2000
Medwar, Peter. “Critical Review of The Phenomenon of Man”. Mind 70. p. 99-106
253
Morris, Richard. Times Arrows: Scientific Attitudes Toward Time. Nueva York. A
Touchstone Book. 1985
Newton, Isaac. Mathematical Principles of Natural Philosophy and His Systems of the
World. Trans. Florian Cajori and Andrew Motte. Berkley, University of California
Press. 1934.
Pais, Abraham. Subtle is the Lord…The Science and the Life of Albert Einstein. Londres.
Oxford University Press. 1982.
Parker, Barry. Chaos in the Cosmos (The Stunning Complexity of the Universe). Nueva
York. Plenum Trade. 1996.
Patterson, James T. Grand Expectations: The United States, 1945-1974. Oxford.Oxford
University Press. 1996.
Penrose, Roger. La Mente Nueva del Emperador (En torno a la cibernética, la mente y
las leyes de la física). México. CONACYT-FCE, 1996.
Pérez Ransanz, Ana Rosa. Kuhn y el cambio científico. México. FCE, 1999.
Popper, Karl R., Teoría cuántica y el cisma en física. Madrid. Tecnos. 1996.
Prigogine, Ilya. The End of Certainty (Time, Chaos, and the New Laws of Nature). The
Nueva York. Free Press. 1997.
Provencal, Yvon. The mind of Society (From a Fruitful Analogy of Minsky to a
Prodigious Idea of Teilhard de Chardin). Amsterdam. Gordon and Breach Pub.
1998.
Provenzano, Joseph P., The Philosophy of Consciousus Energy (Answer to the ultimate
questions). Nueva York, Winston-Derek, 1993.
Rees, Martin. Before the Beginning: Our Universe and Others. MA, Addison Wesley
Reading. Massachusetts. 1997.
——, Just Six Numbers: The Deep Forces that Shape the Universe. Nueva York. Basic
Books. 2000
Ridley, Matt. Genoma. La autobiografía de una especie en 23 capítulos. Madrid. Taurus.
2000.
Rowan-Robinson, Michael. Cosmology. Oxford. Clarendon Press. 1996.
Russell, Bertrand. La perspectiva científica. México. Planeta/Ariel. 1992.
Schifter, Isaac. La Ciencia del Caos. SEP-FCE-Conacyt, México. 1996, Colección La
Ciencia desde México. No. 142.
Schilpp, Paul Arthur. Albert Einstein: Philosopher Scientist. La Salle, IL: Open Court.
1969.
Schlosser, Eric. Fast Food Nation. Nueva York. Houghton Mifflin 2001.
Silk, Joseph. The Big Bang (The creation and evolution of the Universe). San Francisco,
W. H. Freeman and Company, 1980.
Simonnet, Dominique. En busca de la naturaleza perdida. El ecologísmo. México.
Gedisa. 1987.
Smolin, Lee. The Life of the Cosmos. Oxford. Oxford University Press, 1997.
Stravinsky, Igor. Chronicle of My Life. London, Victor Golancz. 1936.
Strikker, Allerd. The Transformation Factor: Toward an Ecological Consciousness. MA,
Element. Rockford, 1992.
Teilhard de Chardin, Pierre. Activation of Energy. Nueva York. HBJ. 1960.
——, El fenómeno humano. Madrid. Taurus. 1963.
——, La visión del pasado. Madrid. Taurus. 1966.
254
——, Christianity and Evolution. Nueva York. A Harvest/HBJ Book. 1969.
——, Human Energy. Nueva York. Harper Harvest Book. 1969.
——, Toward the Future. Nueva York, A Harvest/HBJ Book. 1975.
Tippler, Frank J., The Physics of Immortality: Modern Cosmology, God and the
Resurrection of the Dead. Nueva York. Anchor Books. 1994
Torres, José Leonel. En el nombre de Darwin. México. FCE-Conacyt, 1995.
Trefil, James S., 101 Things you don´t know about science and no one else does either.
Nueva York. Mariner Books. 1996.
Tresmontant, Claude. Introducción al pensamiento de Chardin de Teilhard. España.
Taurus Ediciones. 1966.
Vico, Gianbattista. Principios de una ciencia nueva sobre la naturaleza común de las
naciones. Argentina.Aguilar. 1981.
Waldrop, Michell. Complexity (The emerging science at the edge of order and chaos).
Nueva York. Touchstone Book. 1993.
Weinberg, Steven. The First Three Minutes (A modern View of the origin of the
Universe). Nueva York. Basic Book. 1993.
Wendt, Herbert. Antes del Diluvio. Barcelona. Noguer. 1968.
Wendt, Herbert. Empezó en Babel (El descubrimiento de los pueblos). Barcelona,
Noguer. 1961.
Wendt, Herbert. Tras las Huellas de Adán. Barcelona. Noguer. 1967.
Westfall, Herbert. Never at Rest: A biography of Isaac Newton. Londres. Cambridge
University Press. 1980
Wheeler, John Archibald. Geons, Black Holes and Quantum Foam: A Life in Physics.
Nueva York. W.W. Norton & Company. 1998.
Whitrow, G. J., La Estructura del Universo (Introducción a la Cosmología). México.
FCE, 1966. Breviarios. No. 61.
Wilson, Edward O., “The Species Equilibrium” in Diversity and Stability in Ecological
Systems. Brookhaven Symposia in Biology No. 22
——, The Diversity of Life. Cambridge MA. Belknap Press. 1992
——, Consilience (The unity of Knowledge). Nueva York. Alfred A. Knopf. 1998.
——, and Daniel S. Simberloff. “Experimental Zoogeography of Islands: Defaunation
and Monitoring Techniques”. Ecology. vol 50. No.2
Wright, Robert. Non Zero: The Logic of Human Destiny. Nueva York. Pantheon Books..
2000.
Zohar, Dana. The Quantum Self: Human Nature and Consciousness Defined by the New
Physics. Nueva York. Quill. 1991.
——, y Ian Marshall. The Quantum Society (Mind, Physics, and a new Social Vision).
Nueva York. Quill/William Morrow. 1994
Descargar