LÓGICA, MATEMÁTICA, FÍSICA Y BIOLOGÍA EN EL SIGLO XX

Anuncio
LÓGICA, MATEMÁTICA, FÍSICA Y BIOLOGÍA EN EL SIGLO XX
Historia del Pensamiento Científico y Filosófico
Giovanni Reale y Dario Antisieri
1. LOS AVANCES DE LA LÓGICA Y DE LA MATEMÁTICA EN EL
cualesquiera poseen un sucesor inmediato diferente; 5) toda propiedad
SIGLO XX
que posea el cero y el sucesor inmediato de todo número que posea
dicha propiedad, pertenece a todos los números. (Este último axioma
1.1. La «investigación sobre los fundamentos» y el descubrimiento de la
«antinomia de las clases»
expresa lo que se denomina principio de inducción matemática».) Sin
embargo, como ya se dijo en el capítulo dedicado a las ciencias del
siglo XIX, precisamente durante la época en que Peano trabajaba en su
Como se comprobó en el capítulo dedicado al desarrollo de las ciencias
proyecto, había estudiosos como Frege y como Cantor que, no estando
en el siglo XIX, un grupo de matemáticos geniales -que comprende
convencidos de la naturalidad de la base constituida por la aritmética,
Cauchy hasta Weierstrass- se había comprometido en un programa de
buscaban reconducir la aritmética a una base todavía más profunda,
otorgar mayor rigor conceptual a las nociones fundamentales del cálculo
reduciendo el concepto de número natural al concepto lógico de
infinitesimal (límite, infinitésimo, continuidad, infinito matemático, etc.).
«clase», porque la lógica de las clases aparecía como la teoría más
Con Weierstrass y su escuela, este programa llegó a lo que se ha
adecuada para la investigación sobre los fundamentos de la
llamado la «aritmetización del análisis», es decir, a la reducción de los
matemática. Esa noción -el hecho de que la definición de número puede
conceptos fundamentales del análisis (la matemática que tiene como
darse en término de clase (Frege y Russell) o, en palabras de Cantor,
eje central la teoría de los «números reales») a los conceptos
en términos de conjuntos, sin que se sea capaz de contar los elementos
aritméticos (la matemática que tiene como eje central la teoría de los
de estas clases o conjuntos- se puede ilustrar muy sumariamente de la
números enteros positivos, es decir, de los números naturales y, por
siguiente forma. Si tenemos dos clases A y B, de modo que a cada
extensión, de los números racionales). Ahora bien, puesto que se sabía
elemento de A se le pueda hacer corresponder un elemento de B, y
que la geometría podía reconducirse al análisis (por medio de las
viceversa, entonces se dirá que dichas clases tienen la misma potencia
operaciones que constituyen la geometría analítica), la aritmética (a la
o el mismo número cardinal. De esta manera, a través de la ejecución
cual se reducía el análisis) se configuraba como base natural de todo el
de la operación puramente mecánica de la puesta en correspondencia
edificio matemático. Dicho proceso de reducción de toda la matemática
biunívoca de los elementos de las dos clases, podemos saber, sin
a la aritmética halla su punto culminante en la obra de Peano, que en
necesidad de contar, si las dos clases tienen o no la misma
1899 propuso su ya clásica axiomática de la aritmética elemental. El
cardinalidad,
sistema axiomático de Peano consta de cinco axiomas, formulados con
consiguiente, parece legítimo definir el número cardinal de una clase A
la ayuda de tres términos primitivos: «número», «cero» y «sucesor
como la característica poseída en común por todas las clases -y
inmediato de». Podemos enunciar así los axiomas de Peano: 1) el cero
únicamente
es un número; 2) el sucesor inmediato de un número es un número; 3)
correspondencia biunívoca con los elementos de A.
el cero no es el sucesor inmediato de ningún número; 4) dos números
es
por
decir,
ellas-
el
mismo
cuyos
número
elementos
de
elementos.
pueden
ponerse
Por
en
3
Más en general, nos es posible afirmar, como escribe Russell en
mostraba cómo una proposición -legítima según los fundamentos de la
Principios de la matemática (1903), que «matemáticamente, un número
aritmética de Frege- era sin embargo autocontradictoria. Esta es, a
no es más que una clase de clases equipotentes». Esta definición de
grandes rasgos, la antinomia de Russell. Consideremos un conjunto
número permitió a Cantor, entre otras cosas, trabajar sobre las
que no se contenga en sí mismo como elemento (el conjunto de los
relaciones existentes entre conjuntos infinitos y establecer toda una
libros sobre la mesa; el conjunto de estos libros no es un libro), y
jerarquía de cardinalidad, descubriendo cosas interesantes y opuestas
llamemos «normal» a ese conjunto. Si bien los conjuntos más comunes
a la intuición, como por ejemplo que el conjunto de los números
son normales, no puede excluirse que exista también algún conjunto
naturales tiene la misma potencia que el de los números relativos y de
anormal. Así, por ejemplo, el conjunto de todos los conjuntos es él
los racionales (se trata de algo opuesto a la intuición porque entre 0 y 1
mismo un conjunto y, por lo tanto, no es normal. Ahora bien, formemos
ya se contienen infinitos números racionales, esto es, infinitas
el conjunto C de todos los conjuntos normales y preguntémonos si es
fracciones propias p/q, en las que p es menor que q). Prescindiendo sin
normal. Supongamos que C se contenga a sí mismo como elemento: en
embargo de estos y de otros interesantísimos resultados técnicos
ese caso, es normal (porque los elementos de C son conjuntos
obtenidos por Cantor hay que decir que Bertrand Russell publicó en
normales), y en cuanto conjunto normal, no puede contenerse a sí
1903 los Principios de la matemática con la convicción de que «la
mismo como elemento. Supongamos, en cambio, que C no se contenga
matemática y la lógica son idénticas» y de que «toda la matemática
a sí mismo como elemento. En ese caso, por definición, es normal, pero
pura trata exclusivamente de conceptos definibles en términos de un
como todos los conjuntos normales, tiene que ser elemento de C, y por
número pequeñísimo de conceptos lógicos fundamentales». Russell,
lo tanto, tiene que contenerse a sí mismo. Tanto en la primera como en
mediante el contacto con la obra de Frege y el conocimiento de la
la segunda hipótesis, se incurre en una contradicción. Russell
técnica
libro
parafraseó su paradoja, con cierta dosis de humor, mediante este
comprometiéndose en el grandioso programa de construcción efectiva
ejemplo: definimos a un barbero de pueblo como aquel que afeita a
de toda la matemática a partir de la lógica, programa que Russell llevó a
todos aquellos que no se afeitan solos. Las paradojas lógicas hallan un
cabo junto con Alfred N. Withehead en los tres grandes volúmenes -
antiguo prototipo en la paradoja del mentiroso: «Epiménedes el
aparecidos entre 1910 y 1913- titulados Principia Mathematica. De este
cretense dice que todos los cretenses son mentirosos.» Russell
modo Russell trató de llevar a cabo el propósito de Frege de construir
comunicó por carta a Frege el descubrimiento de dicha antinomia.
toda la matemática sobre bases lógicas. Mientras tanto, sin embargo,
Frege trató de poner remedio a la dificultad que implicaba para el
entre 1901 y 1902 Russell había puesto en crisis la lógica de clases,
núcleo mismo de su sistema, pero en el fondo no quedó convencido de
con lo cual había herido de muerte la fundamentación de la aritmética
sus propios intentos de salvamento y pasó los últimos años de su vida
efectuada por Frege, que se basaba precisamente en la lógica de
habiendo perdido la confianza en todo el trabajo realizado. Después del
clases. La causa de ello fue el descubrimiento de una antinomia que
descubrimiento de la antinomia de Russell, fueron formuladas otras, lo
lógica
de
Peana,
elaboró
las
tesis
de
este
4
cual obligó a no aceptar de manera ingenua el concepto de conjunto y a
surgiesen nuevas antinomias (como las «semánticas», la primera de las
plantear de manera axiomáticamente rigurosa la teoría de los conjuntos.
cuales fue formulada por Richard en 1905), no podía impedir que
Tal
construyesen proposiciones no paradójicas y que a pesar de todo no
fue
el
caso
de
Zermelo
quien,
habiendo
descubierto
independientemente de Russell la antinomia de las clases, desarrolló en
respetasen en absoluto la teoría de los tipos.
1908 una primera teoría axiomática de los conjuntos. A ésta le siguieron
otras axiomatizaciones de los conjuntos: las de Skolem, Fraenkel, van
Frege, Peano y Russell (si bien este último suavizó más tarde en
Neumann, Bernays. Russell, por su parte, convencido de que la
cierta medida su propia posición) son, básicamente, platónicos: creen
aparición de antinomias se debía a un mal uso del lenguaje (era un
en un mundo objetivo, existente por sí mismo, de entes y relaciones
platónico, que creía en la existencia objetiva de los entes matemáticos
matemáticas que el investigador debe descubrir pero no inventar.
cuyas propiedades y relaciones tenía que descubrir el matemático; en
su opinión, las contradicciones no podían darse en el mundo objetivo de
En cambio, la escuela formalista -encabezada por David Hilbert-
los entes matemáticos), propuso resolver el problema de las antinomias
sostiene que un ente matemático existe cuando ha sido definido de un
mediante la «teoría de los tipos» expuesta en el apéndice de los
modo no contradictorio. Por consiguiente, la demostración de la no
Principios de la matemática. Dicha teoría se reduce a prescripciones de
contradictoriedad de las teorías matemáticas se convierte en el
carácter lingüístico. Distingamos, dice Russell, entre diversos tipos de
problema central de la investigación matemática. Un modo de probar la
predicados: los predicados de tipo «cero» son nombres de individuos;
no contradictoriedad de una teoría matemática había consistido en
los de tipo «uno» son propiedades de individuos, se refieren a clases de
hallar un modelo de los axiomas de la teoría dentro de otra teoría ya
individuos; los predicados de tipo «dos» se refieren a clases de clases
existente y que por consenso unánime haya sido aceptada como
de individuos, y así sucesivamente. Efectuada esta distinción y con el
coherente. Este camino, practicado por el propio Hilbert en sus
propósito de evitar las antinomias, Russell propone la regla siguiente: se
Fundamentos de la geometría (1899; en esta obra Hilbert axiomatiza de
puede atribuir un predicado de tipo «n» únicamente a un sujeto de tipo
modo riguroso la geometría euclidiana), ya había sido recorrido por el
«n - 1». En otros términos: un concepto nunca puede ser necesario
italiano Beltrami cuando éste había construido modelos euclidianos de
como predicado en una proposición cuyo sujeto sea de un tipo igual o
las geometrías no euclidianas. En cualquier caso, por ingenioso o útil
mayor al del concepto mismo. Hasta aquí, muy sumariamente, lo que
que pudiese parecer este procedimiento, no llegaba hasta la raíz de la
expone Russell. Sin embargo, tanto las diversas axiomatizaciones de la
cuestión: no resolvía el problema, se limitaba a desplazado, ya que -
teoría de los conjuntos como la teoría de los tipos de Russell dejaban
refiriéndonos siempre a nuestro ejemplo- nadie puede garantizar que la
planteados graves problemas. Las primeras, sin duda, evitaban las
geometría euclidiana (no interpretada en relación con un universo de
antinomias conocidas, pero no eran una garantía contra otras
objetos físicos) sea no contradictoria. Teniendo en cuenta todo esto –el
antinomias posibles. La segunda, que tampoco garantizaba que no
descubrimiento de las antinomias, la crisis ya admitida de la fuerza
5
fundamentante de la evidencia intuitiva, las dificultades de la corriente
admitido, así como también las reglas de formación de las formas
logicista (Frege y Russell), la diferente concepción de la naturaleza de
expresivas admisibles y las reglas del manejo de estas fórmulas
los entes matemáticos y el hecho de que buscar la prueba de la no
admisibles. De este modo, la teoría asume la forma de un puro cálculo
contradictoriedad de un sistema formal en otra teoría de cuya no
que prescinde de los significados asociables a sus símbolos y a sus
contradictoriedad no tenemos ninguna garantía, es una vía practicable
expresiones. En tales circunstancias, la no contradictoriedad de una
pero no resolutiva- y mediante los escritos de 1922 y 1923, Hilbert
teoría se identifica con la imposibilidad de obtener, aplicando las reglas
propone el llamado «programa hilbertiano», encaminado a ofrecer una
de manejo que se hayan admitido, una cadena demostrativa en la que
prueba no ya relativa (a otro sistema) sino directa o absoluta de un
aparezca una proposición y su negación, es decir, una contradicción.
sistema axiomático. Y así como la matemática «clásica» después de
Por lo tanto, la axiomatización completa de una teoría comporta también
todo el trabajo precedente, se reducía a tres grandes sistemas
la formalización de la lógica que sirve para construida. Sin embargo, al
axiomáticos: el de la aritmética, el del análisis y el de los conjuntos, y
hacer esto, ¿con qué medios podía la «metamatemática» de Hilbert
puesto que, además, las investigaciones realizadas en el siglo XIX
someter la lógica a un análisis crítico, si no era con la lógica misma?
hacían que se considerase como fundamental «la teoría aritmética»,
¿No existiría acaso el riesgo de caer en un círculo vicioso? ¿O para
resultaba natural que Hilbert partiese de la demostración de coherencia
demostrar la no contradictoriedad de una teoría, será necesario apelar a
de la aritmética, para extender más adelante dicha coherencia al ámbito
la evidencia, a aquella intuición que tantas sospechas había
del análisis y al de los conjuntos. Como es obvio, si se axiomatiza la
provocado? Hilbert considera que con nada no se hace nada, por lo
aritmética, hay que reconocer (cosa que después de Frege se volvía
cual resulta casi inevitable una cierta circularidad. Sin embargo,
inevitable) la necesidad de explicitar escrupulosamente todos los
pensaba emplear procedimientos -los llamados «métodos finitistas»
ingredientes y los mecanismos lingüísticos y lógicos a través de los
que, aun formando parte de aquella aritmética que se desea
cuales se organiza y se desarrolla la teoría (esto, como mínimo, servía
fundamentar, resulten tan seguros que no comprometan el fruto de las
para impedir la aparición de aquellas contradicciones que pueden surgir
demostraciones. Dichos métodos finistas se reducen a procedimientos
del mismo aparato lógico con el que se deducen los teoremas de la
elementales e intuitivos, de tipo combinatorio, que se utilizan por
teoría).
ejemplo para manejar siempre una cantidad finita de objetos y de
funciones perfectamente determinables. La intuición integra, pues, el
Esto lleva a una completa formalización de la teoría cuya coherencia
intento que lleva a cabo Hilbert de fundamentar la matemática, pero no
se desea probar. Hay que tener en cuenta que la formalización de una
establece -por intuición, justamente-las propiedades de determinados
teoría no debe confundirse con aquel aspecto -por lo demás, no
entes matemáticos; sólo concierne a la realización de operaciones muy
esencial- de los sistemas formales que consiste en la simbolización.
sencillas, y tan seguras y elementales que sean aceptadas como base
Formalizar una teoría significa explicitar los trozos del lenguaje
de cualquier investigación teórica. Las ideas de Hilbert fueron acogidas
6
por matemáticos geniales -entre los cuales cabe mencionar a Paul
Bernays
(1888-1977),
Jacques
Herbrandt
(1908-1931),
Wilhelm
1.3. La semántica de Tarski y el intuicionismo de Brouwer
Ackermann (1898-1962) y Johann von Neumann (1903-1957). En la
década de 1920, después de algunos éxitos iniciales, se pensó que el
Es preciso mencionar aquí el ensayo de AIfred Tarski (nacido en
programa de Hilbert podía de veras hacerse realidad. En 1928, Hilbert
1902) El concepto de verdad en los lenguajes formalizados (1934)
había planteado el problema de la completud de la teoría de los
sobre la semántica de los sistemas formales (que se desarrollará a
números, preguntándose si los axiomas de Peano pertenecientes a la
continuación en aquella importante rama de la lógica matemática
teoría elemental de los números eran capaces o no de demostrar o de
constituida por la «teoría de los modelos»). Tarski define con precisión
refutar todas las proposiciones de aquella teoría. En 1931, Kurt Gödel
el concepto de «verdad» (como un acuerdo con los hechos: «la
(1906-1978) demostró (en su escrito Proposiciones formalmente
afirmación "la nieve es blanca" es verdadera si y sólo si la nieve es
indecidibles de los «Principia Mathematica» y de sistemas afines) que
blanca»; entre otras cosas, Tarski afirma que, si tenemos una definición
no es posible construir una teoría axiomática de los números que posea
de verdad consistente en el acuerdo entre aserciones y hechos, no
la completud propuesta por Hilbert. Pero las cosas llegaron mucho más
tenemos un criterio de verdad: siempre podemos equivocamos al decir
allá, ya que de este primer resultado Gödel extrajo el corolario según el
que una teoría es verdadera) y el de «consecuencia lógica» (que es una
cual un cálculo lógico, con potencia suficiente para formalizar la
noción semántica y no sintáctica, como la de «derivabilidad»). De este
aritmética elemental, si es coherente, es de un tipo que hace que en él
modo, Tarski investiga las relaciones que se pueden establecer entre
sea indemostrable la fórmula que expresa su coherencia. La coherencia
los lenguajes formalizados y los conjuntos de objetos sobre los cuales
de la aritmética, por lo tanto, no se puede obtener utilizando los
dichos lenguajes pueden ser interpretados, de forma que den origen a
instrumentos pertenecientes al sistema formal mediante el cual se
proposiciones verdaderas sobre esos objetos. La semántica lógica,
expresa la aritmética. Dicho resultado señalaba con toda claridad el
después de los resultados de Gödel, adquirió una importancia cada vez
fracaso del programa hilbertiano (dado que los métodos finitistas
más central, puesto que es posible demostrar que si un cálculo admite
utilizados por Hilbert para demostrar la no contradictoriedad de la
un modelo, ese cálculo es coherente. De este modo se obtiene una
aritmética también son formalizables en el interior del sistema
prueba de coherencia de tipo semántica.
axiomático de la aritmética). Gödel puso de manifiesto que resultaba
imposible una prueba puramente sintáctica de la no contradictoriedad
No podemos acabar estas notas sobre la matemática en nuestro
de un sistema formal, por lo menos cuando es tan complejo de expresar
siglo sin mencionar el intuicionismo. Si los platónicos como Frege
como la aritmética elemental. A partir de aquel momento la garantía de
consideran que los entes matemáticos son entes existentes por sí
la coherencia de los sistemas formales o de los cálculos se buscará en
mismos y que hay que descubrir; si los formalistas como Hilbert piensan
las interpretaciones que sean modelos de dichos cálculos.
que un ente sólo puede considerarse como matemáticamente existente
7
si se lo define sin contradicciones, el holandés Jan Luitzen Egbertus
Ya hemos comprobado que el desarrollo de la física en el siglo XIX
Brouwer (1881-1966) y sus seguidores -entre los que se cuenta Arend
puede esquematizarse de manera bastante sencilla, en términos de
Heyting (nacido en 1898)- sostienen que sólo puede considerarse que
éxito
un ente existe matemáticamente si se logra construirlo, es decir,
mecanicista. En cambio, por lo que respecta a la física del siglo XX, es
únicamente a condición de que podamos dar un ejemplo de él o indicar
evidente que no pueden formularse valoraciones de conjunto tan claras
el procedimiento que nos permite llegar a un ejemplo similar, a través
como la anterior. Sin embargo, por lo que puede apreciarse, no parece
de una cantidad finita de pasos. Esta concepción -el «intuicionismo»-
que la actual investigación física esté recorriendo un camino que pueda
prohíbe apelar al «infinito actual». Si se habla de infinito, no se habla de
describirse de modo tan lineal. Cabe decir que, hasta ahora, la
él como teoría de los conjuntos, sino únicamente en el sentido de que,
investigación se ha caracterizado por un dualismo básico de programas.
por ejemplo, cada punto al que se haya podido llegar, puede verse
El primero de éstos se desarrolló en las primeras décadas del siglo,
superado. El infinito es algo potencial, nunca actual. El infinito actual es
tomando como punto de partida la crisis de la mecánica en su impacto
imposible de construir. Por otro lado, si la existencia de un ente
con el electromagnetismo y en torno al paradigma relativista
matemático significa su efectiva construcción, su constitución práctica,
einsteiniano. Mientras tanto, a finales del siglo XIX el estudio de los
entonces puede aceptarse aquel tipo de demostración conocida como
fenómenos de interacción entre la materia y las radiaciones permitía el
«ley del tercero excluido» «para toda proposición p, o p o no p». Como
desarrollo de otro paradigma: el cuántico. Ambos programas, aunque a
es obvio, si se aceptan las reglas de los intuicionistas, es decir,
veces convergen (existe de hecho una teoría cuántica relativista), en
construyendo uno por uno los entes matemáticos, se evitarán los
esencia se refieren a dos planos de observación muy distintos. Las dos
peligros de las antinomias. En los comienzos del intuicionismo, en la
teorías admiten que la física clásica es una excelente aproximación en
década de 1920, no se entendió dicha teoría, y debido a su carga
lo que respecta a los valores de las magnitudes físicas que entran
polémica, dio la sensación de que se quería echar por la borda gran
dentro de los límites de nuestra experiencia cotidiana. La teoría
parte de la matemática «clásica». En la actualidad las cosas han
cuántica,
cambiado; el intuicionismo ha mostrado toda su fecundidad y es una de
microscópicos (por ejemplo los fenómenos atómicos, nucleares o
las corrientes más interesantes de la matemática contemporánea.
subnucleares), mientras que la relatividad se aplica a velocidades y
y
subsiguiente
empero,
es
hundimiento
necesaria
del
para
programa
enfocar
de
los
inversión
fenómenos
longitudes muy grandes, por ejemplo, a escala astronómica. Por
consiguiente, los dos programas se estudian desde puntos de vista
2. EL DESARROLLO DE LA FÍSICA EN EL SIGLO XX
distintos, y no parece próxima la unificación de ambos. Sin embargo,
hasta ahora no se ha observado ningún motivo de incompatibilidad ni se
2.1. Cuestiones generales
ha formulado ninguna hipótesis al respecto. Junto con la teoría de los
cuantos, además, se ha desarrollado la investigación sobre el núcleo y
8
sobre sus partes; resulta extremadamente espinoso describirla en
ecuaciones de la mecánica. Elevaremos esta conjetura [...] a postulado
términos elementales, pero no puede dejar de hacerse alguna mención
e introduciremos además otro postulado que sólo aparentemente no es
al respecto. Como conclusión, describiremos de forma sumaria las
conciliable con el primero: la luz siempre se propaga en el espacio vacío
nuevas relaciones que se han instituido entre la física y las demás
a una velocidad determinada, que es independiente del estado de
ciencias de la naturaleza en los últimos años, y de este modo
movimiento del cuerpo emisor.» El primer postulado elimina la exigencia
hablaremos del origen y de la constitución de algunas disciplinas
del éter. Además, sería incompatible con el segundo si se mantuviesen
fronterizas.
vigentes las transformaciones de Galileo. Einstein, empero, las
substituye por las de Lorentz, deduciéndolas de manera independiente
a partir de los dos postulados.
2.2. Einstein y las teorías de la relatividad
La teoría comporta una reformulación de los conceptos tradicionales
A caballo entre los siglos XIX y XX se habían hecho numerosos
de espacio y tiempo. En efecto, sobre esta base se pueden demostrar
intentos de conciliar la oposición entre las teorías de Maxwell y las de
teoremas que entran en oposición con la experiencia común; por
Newton. El último intento d esta clase había sido llevado a cabo por H.
ejemplo:
Poincaré. Este, como ya Vimos, acepta la teoría de Lorentz y el
- la duración de un fenómeno sobre un cuerpo en movimiento es
principio de la relatividad clásica, según el cual los fenómenos físicos
mayor que su duración sobre un cuerpo en reposo; - dos fenómenos
deben respetar las mismas leyes, si se observan desde sistemas de
simultáneos con respecto a un observador pueden no serlo con
referencia que se mueven uno en relación a otro con un movimiento
respecto a otro, y viceversa;
rectilíneo y uniforme; sin embargo, conserva la noción de éter como
realidad física. Las obras de Poincaré y de Lorentz aparecen entre
- la longitud de una regla se reduce en la dirección de su
movimiento;
finales del siglo XIX y principios del XX. En 1905, empero, A. Einstein
- la masa de un cuerpo aumenta junto con su velocidad; y sobre
(1879-1955) publica los fundamentos de la nueva teoría resolutoria,
todo, aquella famosa ley que se encuentra en la base de muchos
conocida como «teoría de la relatividad restringida», en el histórico
fenómenos nucleares, según la cual la masa equivale a una cantidad de
artículo Sobre la electrodinámica de los cuerpos en movimiento. Este es
energía determinada por la fórmula E = mc² (E es la energía; m es la
el núcleo central de la teoría: «Tanto los fenómenos de la
masa; c es la velocidad de la luz). Todo esto ha permitido efectuar
electrodinámica como los de la mecánica no poseen propiedades
numerosos controles, muy exactos, que han confirmado sólidamente la
correspondientes a la noción de reposo absoluto. Indican más bien que
teoría. Kuhn consideró que el paso desde la mecánica clásica a la
[...] las mismas leyes de la electrodinámica y de la óptica resultan
relatividad restringida fue uno de los mejores ejemplos de «revolución
válidas para todos los sistemas de referencia en los que se aplican las
científica», entendida como transición de un paradigma a otro, que no
9
posee un carácter acumulativo sino que implica un replanteamiento
experimentales cada vez más perfeccionados y hasta el momento
teórico global.
siempre con resultados positivos. Entre los numerosos experimentos
que se hallan actualmente en estudio, son muy interesantes los
La relatividad restringida se afirmó muy rápidamente, superando
obstáculos y oposiciones. Y sólo 11 años después, Einstein propone
referentes a la posibilidad de captar las ondas gravitacionales de origen
cósmico, del mismo modo que se captan las ondas electromagnéticas.
una nueva teoría que supera a la anterior, generalizándola. En efecto,
eliminando la limitación a movimientos rectilíneos uniformes, sostiene
que las leyes de la física son las mismas cualquiera que sea el sistema
2.3. La teoría de los cuantos
de referencia desde el cual se observen, aunque éste se halle
acelerado, siempre que se tengan en cuenta también los efectos del
El estudio de los fenómenos de interacción entre la materia y las
eventual campo gravitacional: tal es el núcleo de la «teoría de la
radiaciones, como ya se ha dicho, dio origen a otra vía distinta de
relatividad general». Para llegar a este resultado, Einstein parte de la
investigación. «Cuanto» es el término acuñado por M. Planck (1858-
constatación de que la masa de un cuerpo es la misma cuando la
1947) para solucionar un problema de emisión electromagnética: el
medimos con la ley de la gravitación universal o con la segunda ley de
problema del «cuerpo negro» (concepto abstracto, matemático, que
la dinámica (la masa inercial es igual a la masa gravitacional): como
indica un objeto que absorbe toda la energía radiante que incide sobre
consecuencia, existe la posibilidad de referir cualquier efecto acelerador
él transformándola en calor). La función que expresa la energía emitida
a los correspondientes campos gravitacionales, que modifican la
por un cuerpo negro al variar la temperatura (J. Stefan, 1879) había
estructura geométrica del espacio. En definitiva, todo problema físico
resultado incompatible con la termodinámica, y por lo tanto con la
hay que resolverlo mediante el estudio de las propiedades geométricas
mecánica clásica. La solución de Planck (1900) consiste en suponer
del espacio. Esta teoría contiene como caso límite la teoría
que la energía no se emite ni se absorbe en forma .de radiación de la
«restringida»: conserva todas las consecuencias propias de la anterior y
materia con continuidad, es decir, según cualquier magnitud de valores,
añade otras que la someten a ulteriores controles experimentales. Entre
sino únicamente de acuerdo con múltiplos enteros de determinada
éstos, además de las trayectorias exactas de los diversos planetas,
cantidad, iguales al producto entre la frecuencia y de la radiación y una
recordemos la deflexión de un rayo de luz debido a un campo
cierta constante h, la constante de Planck; la cantidad h y se denomina
gravitacional (AS. Eddington, 1919) y el desplazamiento de las líneas
«cuanto de energía», y la constante h, «cuanto de acción». Desde el
espectrales de la luz emitida por estrellas de gran masa (W.S. Adams,
punto de vista conceptual, lo que interesa es que Planck llega a su
1924). Se abre aquí un desarrollo de «ciencia normal», consistente por
descubrimiento negándose a adaptar las teorías existentes a las
un lado en la elaboración de la cada vez más ardua parte matemática, y
evidencias experimentales contrarias: en este sentido, es comparable a
por
Einstein. Y justamente de Einstein procede la primera verificación de la
el
otro,
en
someter
la
construcción
teórica
a
controles
10
teoría de Planck. Aquél supone que toda radiación se ajusta a la
confirmaciones -pero también algunas falsaciones parciales- proceden
hipótesis de los cuantos, y llama «fotón» a la partícula correspondiente
de experimentos
a una radiación de frecuencia y una cantidad de movimiento; esto le
experimento (1921-1922) de O. Stern (1888-1969) y W. Gerlach (n.
permite integrar el efecto fotoeléctrico en el seno de la teoría, lo cual
1889) brinda a la teoría de Bohr, ya toda la teoría cuántica, una de sus
sirve para confirmarla. En 1923 llevará a cabo con éxito una operación
confirmaciones más sólidas. Es evidente que estas nociones, referidas
análoga con respecto a la difusión de rayos X o gamma por parte de los
a los ámbitos microscópicos, contrastan con las de Maxwell, referentes
electrones (efecto Compton). Muy pronto se unificó con la teoría de los
a los ámbitos macroscópicos. Sin embargo, el mismo Bohr supera la
cuantos el estudio de la estructura del átomo, iniciado por J.J. Thomson
potencial contradicción, proponiendo (1916) interpretar la teoría de
(1856-1940) en 1897 al descubrir el electrón, cuya carga fue
Maxwell corno una descripción estadística de lo que sucede en el caso
determinada por R.A. Millikan (1868-1953) entre 1908 y 1911. No pasó
de una gran cantidad de componentes elementales. Se enuncia así por
mucho tiempo sin que se propusieran diversos modelos sobre el átomo:
primera vez el «principio de correspondencia», que constituye una de
según J.B. Perrin (1870-1942) estaba formado por un núcleo central en
las claves para comprender y aplicar la teoría de los cuantos. Se trata
torno al cual giran los electrones (1901); según lord Kelvin (1824-1907)
de una noción semejante a la que, en el siglo XIX, había permitido
hay en él una distribución uniforme de carga positiva en cuyo interior se
superar la oposición potencial que se había evidenciado entre la
hallan los electrones en situación de equilibrio (1902). Se trata de dos
termodinámica y la mecánica clásica, aplicada microscópicamente. En
programas diferentes de investigación científica que entran en
1924 la teoría se enriquece aún más, gracias a L. V. De Broglie (n.
competencia: uno «nuclear» y otro «no nuclear»; E. Rutherford (1871-
1892). Este formula la hipótesis según la cual, así como a toda onda
1937), gracias al histórico experimento del haz de partículas (núcleos de
electromagnética le corresponde un corpúsculo, sucede a la inversa
helio) sobre una finísima placa de oro, será quien haga prevalecer el
que a toda partícula, con una masa en reposo y una velocidad, le
primer programa (1911).
corresponde una onda de longitud, colocando así las bases para un
de espectroscopía.
No obstante, el histórico
nuevo derrotero de estudio teórico, la llamada «mecánica ondulatoria».
Nacía entonces el problema referente a cuál era la situación de los
La constatación -establecida gracias a una base experimental cada vez
electrones en torno al nycleo. La primera respuesta (1913) provino de
más amplia- de que no es posible renunciar al estudio de los
N.H. Bohr (1885-1962). Este supuso que los electrones giraban en
fenómenos mecánicos y electromagnéticos ni al modelo corpuscular o
órbitas circulares muy definidas, calculables mediante las leyes de los
al ondulatorio, permite que Bohr deduzca la teoría según la cual todo
cuantos de energía, y que los átomos absorbían y emitían energía a
fenómeno presenta en realidad dos aspectos, que son en ambos casos
través de saltos de los electrones de una órbita a otra, más alta o más
verdaderos y se complementan y excluyen recíprocamente. Tal es, en
baja,
fue
substancia, el «principio de complementariedad», base de la ley
primeras
cuantitativa de la indeterminación que formula W. Heisenberg (1901-
respectivamente.
perfeccionado
por
AJ.
Muy
pronto
Sommerfeld
este
modelo
(1868-1951).
(1916)
Las
11
1976),
y
que
establece
unos
límites
precisos
a
la
posible
investigación científica básica; asume también una postura análoga con
«determinación simultánea» de magnitudes que se refieren a los dos
respecto a la insuperabilidad de la velocidad de la luz afirmada por
aspectos complementarios. Por ejemplo, resulta imposible determinar,
Einstein. Popper observa que sólo puede hacer que progrese el
en un instante dado, la posición y el momento (es decir, el producto
conocimiento si tratamos de superar los actuales límites, y no
entre velocidad y masa) de una partícula con precisiones pequeñas
obligándonos a permanecer más acá de ellos.
fijadas de forma arbitraria: cuanto más determinada se halla una
magnitud,
será
posible
determinar
la
otra
con
una
precisión
La teoría de los cuantos halla en 1927 una primera axiomatización
correlativamente menor, y a la inversa. La mecánica ondulatoria es
gracias a Dirac y a P. Jordan (n. 1902), y una segunda, más general,
sistematizada teóricamente por E. Schródinger (1887-1961), quien
elaborada por J. von Neumann (1903-1957) en 1930. A partir de aquel
determina la ecuación a la cual debe ajustarse la onda de De Broglie
momento el estudio de la teoría cuántica consistirá básicamente en
(1926); Max Boro (1882-1960) interpreta dicha ecuación de onda como
extender sus aplicaciones y replantear su formulación de un modo más
un dato con un significado probabilista.
perfeccionado,
sin
efectuar
ninguna
crítica
de
sus
principios
fundamentales. Como en el caso de la relatividad, pues, se abre un
Llegamos así a la base de la interpretación de toda la teoría de los
período de «ciencia normal», por lo menos dentro de los límites en que
cuantos en un sentido no determinista. Se trata por lo tanto de un
dicho término resulta aplicable a una ciencia durante un período en que
enfoque muy distinto al que había prevalecido en el caso de la
ésta se halla dominada por dos paradigmas y no por uno solo. Entre
mecánica clásica a lo largo del siglo XIX. A pesar de ello, no faltaron
1925 y 1940 se desarrollan y se estudian las primeras ecuaciones que
interpretaciones contrarias, por ejemplo la llamada «de las variables
aplican al mismo tiempo las dos teorías fundamentales. Entre sus
ocultas», que tendía a reconducir la indeterminación observada a la
autores más conocidos, hay que citar a Schrödinger, Pauli, Dirac, O.
existencia de algunas variables no conocidas. En cualquier caso, la
Klein, W. Gordon y E. Majorana (1906-1938).
interpretación triunfante fue la «interpretación de Copenhague», que se
extendió gracias a la figura de Bohr en el centro de investigación de
Las investigaciones en este sector aún se hallan en curso. Sin
Copenhague (dirigido y fundado por el propio Bohr, y en el que
embargo, los numerosos y continuados intentos de construir Una teoría
participaron Heisenberg, Boro, P. A. M. Dirac –n. 1902-, W. Pauli -1900-
unificada de la naturaleza hasta ahora no han producido ningún
1958- y muchos otros de los más prestigiosos sabios de la época) así
resultado significativo, a pesar de que a ello se hayan dedicado sabios
corno en los congresos organizados a partir de 1911 por E. Solvay
de la categoría de Einstein o Heisenberg. En cambio, podemos hallar
(1838-1922) y que continuaron después de su muerte. En su Lógica del
innovaciones posteriores, de carácter fundamental, en el sector en el
descubrimiento científico, Popper estigmatiza este tipo de concepción
cual el único límite que ha encontrado el investigador ha sido el de la
porque pone límites de principio al conocimiento posible, y por tanto a la
12
instrumentación técnica, en rápida evolución por lo demás. Se trata del
determinados fenómenos radioactivos, y la teoría había sido formulada
sector correspondiente a la estructura interna del núcleo.
de un modo que no permitía su comprobación en ningún caso, con los
instrumentos disponibles en aquella época. Se trataba por lo tanto de
una teoría que tenía todo el aspecto de una hipótesis ad hoc para salvar
2.4. Física atómica, nuclear y subnuclear
la teoría de los cuantos, con respecto a evidencias al parecer
contradictorias. Hubo que dejar pasar unos treinta años para lograr una
Después del descubrimiento del electrón y de la estructura nuclear
del átomo, la atención de los físicos se concentró en este último. En
prueba experimental de la existencia del neutrino, y en consecuencia,
para el ingreso efectivo de esta teoría en el ámbito de la ciencia.
1925 Pauli formula el «principio de exclusión», que permite colocar los
electrones alrededor del núcleo, de un modo coherente con los
El descubrimiento del neutrón implicó la introducción de un tercer
descubrimientos de la química. A partir de ese momento, el estudio de
tipo de fuerza, además de la gravitacional y de la electromagnética: la
las estructuras electrónicas se convertirá en ámbito propio de la
«interacción fuerte». El estudio del neutrino puso de manifiesto una
química. Bohr bautiza con el nombre de «protones» las partículas
cuarta clase de fuerza, la «interacción débil». A lo largo de décadas se
cargadas positivamente que se hallan presentes en el núcleo. Los
han ido sucediendo los intentos de unificar las teorías de las cuatro
experimentos de F.W. Aston (1887-1945) en los años 1919 y 1920
fuerzas fundamentales de la naturaleza, pero hasta ahora sólo se han
sobre los isótopos (descubiertos en 1912 por F. Soddy, 1877-1956)
obtenido resultados parciales.
exigen un tercer tipo de partículas, pesadas y eléctricamente neutras:
los neutrones, cuya existencia fue demostrada experimentalmente por l.
En cambio, se encuentra más avanzado el proceso de simplificación
Chadwick (1891-1974) en 1932. Se proponen entonces los primeros
de los componentes elementales de la naturaleza: las más de cien
modelos del núcleo (H.A. Bethe, n. 1906; G.c. Wick, n. 1909, y sobre
partículas que se han propuesto teóricamente y se han experimentado
todo Bohr junto con l. A. Wheeler, n. 1911). Sin embargo, el cuadro se
a partir de la década de 1930 hasta hoy parecen reductibles a
complicó con mucha rapidez porque se descubrió gran cantidad de
combinaciones de unas cuantas partículas subelementales (3, 4, 5, 6...)
nuevas partículas elementales, comenzado por la familia de los
llamadas «quarks», y cuya hipótesis fue formulada por M. Gell-Mann (n.
«mesones»,
cuyo
formulado
1924) por primera vez. La primera teoría en este sentido se ha emitido
teóricamente
por
comprobado
en época reciente, y son aún más recientes los primeros datos
primer
componente
Heisenberg
y
había
Majorana,
sido
y
experimentalmente por H. Yukawa (n. 1907) en 1935.
experimentales significativos a este respecto. Sin embargo, el conjunto
de la cuestión todavía resulta poco claro, y se espera que en un futuro
Resulta notable la historia de otra partícula elemental: el «neutrino».
Este había sido propuesto por Pauli en 1930, para explicar
no demasiado lejano surja una respuesta más precisa.
13
En cambio, ha sido muy rápido el avance técnico en los estudios
nucleares: el camino abierto por Rutherford -experimentar el bombardeo
pacíficas; la segunda, en cambio, está en el origen de letales ingenios
bélicos.
de núcleos con partículas más pequeñas- se ha mostrado muy fecundo,
sobre todo a partir de la década de 1930, gracias a la aparición de
Sin embargo, la bomba de fisión no es el ingenio destructor más
aparatos que podían otorgar elevadas velocidades a los proyectiles (R.
poderoso realizado hasta ahora. En los años cincuenta se experimentó
l. van der Graaf, 1901-1967; E.O. Lawrence, 1901-1958).
(fabricando numerosos ejemplares) con una bomba basada en la
agregación de varios núcleos de hidrógeno, para obtener helio y gran
Entre los experimentadores de dicho período destacan los esposos
cantidad de energía (fusión nuclear). Afortunadamente, ésta nunca ha
Irene (1897-1956) y Frédéric (1900-1958) loliot-Curie, así como el grupo
sido experimentada sobre el hombre; sin embargo, aún no se ha
de Roma dirigido por E. Fermi (1901-1954) y formado por E. Amaldi, n.
logrado controlar esta reacción nuclear, haciendo que se desarrolle
1908; E. Segré, n. 1905; B. Pontecorvo, n. 1913; F. Rasetti, n. 1901;
lentamente: si tal cosa fuese posible, el problema energético quedaría
Majorana y Wick. Gracias a estas investigaciones pronto se descubrió
resuelto durante siglos. Siguen activas las investigaciones en este
que un átomo de uranio bombardeado por protones puede romperse en
terreno.
dos partes y liberar algunos neutrones, junto con una enorme cantidad
de energía (la fisión nuclear, 1938: O. Hahn, 1879-1968, y F.
Strassmann, n. 1902), y que los neutrones liberados en determinadas
2.5. La interdisciplinariedad y las disciplinas «de frontera»
condiciones pueden dividir otros núcleos de uranio en una sucesión
continuada (reacción en cadena, teoría aparecida en 1939, debida
A partir de principios del siglo XIX, se ha ido produciendo un
sobre todo a H. von Halban y l. B. Perrin). Estos dos descubrimientos
proceso de gradual especialización de los científicos y hoy podemos
llevarán a Fermi a la pila atómica (1942), y a otros, a la bomba atómica
comprobar los efectos de dicho proceso hasta un límite muy notable. No
(1945). En las dos aplicaciones distintas, la teoría es la misma: en el
obstante, sería erróneo ver en esto un rasgo característico de la ciencia
primer caso, la reacción en cadena se hace más lenta debido a que
avanzada: la división de los conocimientos en diversas disciplinas a
entre los diversos bloques de uranio se interponen determinadas
menudo no es más que una mera convención, y la especialización es
sustancias que vuelven más lenta la difusión de los neutrones, mientras
un alto precio que se ha pagado a la vertiginosa rapidez del progreso.
que en el segundo caso la reacción se produce a enorme velocidad,
Como ha demostrado Popper, la ciencia tiene su origen en los
desarrollando la energía en un tiempo brevísimo. La primera está en la
problemas, y por lo general, éstos no se hallan enmarcados dentro de
base del funcionamiento de las centrales eléctricas con energía nuclear,
esquematismos académicos. En consecuencia, hay que entenderlos
de los motores a propulsión nuclear y de muchas otras aplicaciones
como oportunos mecanismos correctores de la anómala situación en
que se
halla la actual
investigación científica dos
realidades
14
metodológicas que han surgido en este siglo y que caracterizan la
En esencia, Darwin había afirmado dos cosas: 1) las especies
investigación actual. La primera es la institución de los equipos
evolucionan, no son inmutables, se desarrollan gradualmente, dando
formados por estudiosos con culturas y formaciones diversas. En los
origen así a las diferentes especies; 2) el mecanismo esencial de la
progresos más recientes de la investigación biomédica, y en particular
evolución de la especie es la selección natural: el medio ambiente toma
en aquellos que han llevado a la biología molecular, pueden
en consideración las variaciones de los individuos, descartando a los
comprobarse magníficos ejemplos de la validez y la fecundidad de este
que presentan variaciones desfavorables y preservando a los que
modo de investigar. Entre los físicos que han participado en este sector
poseen los instrumentos más idóneos para adaptarse al ambiente a lo
-junto a médicos, químicos y biólogos- recordemos a M. Delbrück (n.
largo de la lucha por la existencia. Ahora bien, es evidente que la
1906), F.H.C. Crick (n. 1916) y los ya citados Bohr, Schrödinger y
selección puede actuar sólo cuando las diferencias individuales sean
Jordan. Otra figura simbólica, debido a la multiplicidad de sus campos
transmisibles a los descendientes, porque si los individuos de una
de interés, es la del químico, físico y biólogo, L. Pauling (n. 1901). La
especie son todos iguales o si los caracteres por los cuales difieren no
segunda realidad está constituida por el nacimiento y desarrollo de las
son transmisibles por herencia, la teoría de Darwin no podría existir.
disciplinas «de frontera», a caballo entre los sectores tradicionales del
Que los individuos de una especie son distintos entre sí es un dato de
saber: entre ellas, recordemos la química física, la astrofísica, la
hecho. Aquí, empero, se plantean dos graves cuestiones posteriores: a)
bioquímica, la biofísica, la geofísica y muchas otras. Estas nuevas
¿cuáles son las causas de las diferencias individuales?; b) si estas
disciplinas en sentido estricto, en lugar de contribuir a una posterior
diferencias son hereditarias, ¿de qué manera se transmiten a los
sectorización, constituyen (en unión a los equipos interdisciplinarios)
descendientes?
canales a través de los cuales las disciplinas y los investigadores
vuelven a entablar comunicación, después de alrededor de un siglo y
Como se advierte en las últimas ediciones del Origen de las
medio de separación. Hallamos así una orientación hacia el carácter
especies, Darwin se había pronunciado a favor de la heredabilidad de
unitario de la investigación científica, que se había ido perdiendo a lo
los caracteres adquiridos por los organismos bajo la acción del medio
largo del siglo XIX.
ambiente. En este terreno se aproximaba a Lamarck, aunque de la
doctrina de este autor negaba la concepción referente a una tendencia
interna, situada dentro de los organismos y que habría impulsado a
3. LA BIOLOGíA DESPUÉS DE DARWlN
éstos a perfeccionarse. (En cierto modo esta idea fue defendida por el
suizo Karl Wilhelm von Nageli, 1817-1891, a través de su teoría de la
3.1. El neodarwinismo: A. Weismann y H. De Vries
«ortogénesis», donde se habla de una fuerza psicoquímica análoga a la
fuerza de inercia en la mecánica.) El zoólogo alemán August Weismann
(1834-1914),
uno de
los representantes más
batalladores
del
15
neodarwinismo, se opuso tajantemente a la propuesta neolamarckiana,
Mientras tanto, el botánico holandés Hugo De Vries (1848-1935),
rechazando de manera total el influjo del ambiente y negando la noción
observando una planta ornamental la Oenothera lamarckiana, que
de herencia de los caracteres adquiridos. Para confirmar su postura,
había readquirido carácter silvestre en las campiñas de los Países
cortó la cola a varias generaciones sucesivas de ratones recién nacidos
Bajos- cayó en la cuenta de que, además del tipo normal de la especie,
y comprobó que todos los ratones nacían con su cola normal, sin que se
en la población de la planta había algunos individuos notablemente
hubiese transmitido este carácter adquirido. Estos experimentos de
diferentes del tipo normal, por ejemplo en su altura (había individuos
Weismann, junto con otros más perfeccionados, confirmaron la teoría
enanos e individuos gigantes), la forma de las hojas, etc. De Vries hizo
según la cual las variaciones (color, altura, etc.) sobre las cuales actúa
que estos individuos «extraños» se reprodujeran y constató que sus
más tarde la selección, no provienen del ambiente (que instruiría al
caracteres aberrantes se retransmitían a las generaciones sucesivas.
organismo) sino del interior del organismo. En el Ensayo sobre la
De Vries, por lo tanto, captaba la evolución en acto: además de los
herencia y sobre cuestiones biológicas afines (1892) Weismann
individuos normales, una especie reproduce individuos manifiestamente
distinguió entre el «germoplasma», responsable de la transmisión de los
anormales (en un porcentaje del 1 ó 2%). De Vries bautiza con el
caracteres hereditarios, y el «soma» o plasma del cuerpo. Weismann
nombre de «mutaciones» estas variaciones manifiestas, que se
afirma que el germoplasma es la parte más importante de un
transmiten hereditariamente. Darwin había observado algunas de estas
organismo: él es el que determina las formas y los rasgos asumidos por
variaciones de gran alcance y también le habían hablado de ellas los
el plasma del cuerpo. El cuerpo sólo sirve para nutrir al germoplasma,
criadores de animales, que las llamaban «bromas». Sin embargo, no les
de modo que haga posible la reproducción de éste. Aquí encontramos
había concedido demasiada importancia y pensaba que la selección
la razón -señala Weismann- que explica por qué no son hereditarias las
actúa sobre variaciones pequeñas, de mínima entidad. De Vries rectificó
modificaciones del soma (por ejemplo, la cola amputada de los ratones).
tal postura, proponiendo, con base en sus propias observaciones, la
Aunque trabajando sobre temas difíciles y novedosos, Weismann trató
noción de «evolución a saltos»: toda especie produce, en determinada
de explicar el origen de la variabilidad, atribuyendo su causa a la
época de su existencia, mutaciones, es decir, individuos que se alejan
reproducción sexual, que une dos patrimonios hereditarios en una
mucho de la norma. La selección actúa sobre este material
mezcla (que Weismann bautizó con el nombre «anfimixis») que serían
notablemente variado (mutado), con la consecuencia de que desde una
el origen de la variabilidad. (Más adelante, la genética confirmará la
misma especie originaria pueden evolucionar distintas especies, y si
teoría de Weismann pero limitando su alcance, en el sentido de que
hallan las condiciones requeridas, pueden hacerlo incluso en medios
cada fecundación provoca una nueva combinación de los genes
diferentes. En cualquier caso, aunque defendía que las mutaciones son
existentes en una población.)
substancialmente independientes del medio ambiente, De Vries
ignoraba las causas de tales mutaciones. Por lo tanto, éstas son las dos
aportaciones más relevantes del neodarwinismo: la variabilidad es
16
independiente del medio ambiente; la selección obra sobre variaciones
sólo daba plantas altas, mientras que el 50 % restante daba origen al
manifiestas, sobre mutaciones, caracteres de nueva aparición. De todas
reproducirse a un 75 % de plantas altas y a un 25 % de plantas bajas.
maneras, continuaba habiendo problemas y de envergadura. En efecto,
Esta es la primera ley de Mendel: la ley de la segregación. Si se cruzan
la teoría de la evolución tiene uno de sus puntos decisivos en las
plantas o animales que difieren en más de un par de caracteres, éstos
desemejanzas o variaciones que en el interior de una misma especie
se volverán a combinar de todas las maneras posibles. Ésta es la
caracterizan a los diferentes individuos. Por consiguiente, no podía
segunda ley de Mendel: la ley de la independencia. Así, por ejemplo, si
evitar los interrogantes antes mencionados y tenía que volver sobre
cruzamos guisante de semilla amarilla y lisa con guisantes de semilla
ellos, a pesar de las aportaciones efectuadas por investigadores como
verde y rugosa, en la primera generación se obtendrán plantas con
Wiesmann y De Vries: ¿por qué razones surgen las variaciones?, ¿de
semillas que presentan los dos caracteres dominantes, por ejemplo,
qué modo se transmiten en la reproducción? Estos son los problemas
amarillo y liso. En la segunda generación, obtenemos cuatro tipos de
que a principio del siglo XX darán origen a la nueva disciplina bautizada
individuos que manifiestan las cuatro combinaciones posibles, dos ya
en 1906 con el nombre de «genética».
producidas en el cruzamiento y otras dos nuevas: amarillo liso, amarillo
rugoso, verde liso y verde rugoso. Descubiertas quizás con demasiada
anticipación para su época, las leyes de Mendel fueron redescubiertas a
3.2. El descubrimiento de los cromosomas y el redescubrimiento de las
leyes de Mendel
principios del siglo XX, en un momento en que ya se podía comprender
su relevancia y advertir su fecundidad. En efecto, entre 1870 y 1880 el
alemán Walther Flemming (1843-1905), utilizando una substancia
La genética se enmarca en el seno de la teoría evolutiva, en la
colorante (la cromatina), descubrió que en el interior del núcleo de la
medida en que esta teoría tenía que explicar los mecanismos de la
célula había objetos filiformes, los cromosomas, y vio que en el
herencia biológica. Como hemos visto en el capítulo sobre el desarrollo
momento crucial de la división de la célula (mitosis) cada cromosoma
del pensamiento científico en el siglo XIX, ya en 1866 Mendel había
producía una copia de sí mismo. Flemming publicó estos resultados en
descubierto las leyes que sirven de fundamento a la genética. Había
1882. Continuando las investigaciones del citólogo alemán, el belga
enviado el resultado de sus investigaciones a Nageli, pero éste no
Edward van Beneden (1846-1919) demostró que hay una cantidad fija y
advirtió su importancia. Mendel cruzó y fecundó artificialmente una
constante de cromosomas en cada especie animal o vegetal: las células
variedad alta y otra baja de guisantes, y obtuvo semillas que producían
del hombre contienen 46, repartidos en 23 pares; el maíz tiene 20, en
sólo plantas altas. Éstas, autofecundadas, producían plantas altas y
10 pares; la mosca, 12, en 6 pares; la Drosophila (mosca del vinagre,
bajas con una proporción de 3 a 1. De 1/4 de las plantas bajas así
que se convertirá más tarde en el héroe de la genética), 8, en 4 pares.
obtenidas sólo nacían plantas bajas, mientras que de los 3/4 de las
(Cada uno de los dos cromosomas que constituyen un par de
plantas altas, una parte (el 25 % del total de la segunda generación)
cromosomas proceden respectivamente del padre y de la madre.)
17
Además, van Beneden descubrió que en la formación de las células
Morgan (1866 1945) mostró que en los cromosomas (que están, como
sexuales (el óvulo y el espermatozoide) la división de los cromosomas,
se ha dicho, en el intenor del núcleo de cada célula) se encuentran los
para formar la nueva célula, no estaba precedida del desdoblamiento.
genes, dispuestos de acuerdo con un orden. Los genes, que pueden
Si no se llevase a cabo este proceso, la meiosis, ocurriría que a cada
concebirse como partículas materiales y que tienen el tamaño de una
nueva generación el individuo originado gracias a la unión de dos
gran molécula de proteína, constituyen el patrimonio hereditario del
células tendría una doble dotación de cromosomas.
individuo. «Son capaces de reproducirse conservando su propia
individualidad, su propia independencia con respecto a los otros genes,
En este momento, vuelven a descubrirse las leyes de Mendel.
y por tanto la capacidad de recombinarse en todos los modos posibles,
Sucede entonces que todos estos estudios sobre los cromosomas se
así como la capacidad de dar origen a los caracteres que representan»
iluminan repentinamente y toda una serie de descubrimientos anteriores
(G. Montalenti). Morgan trabajó sobre la Drosophila melanogaster,
se integran en un marco racional y coherente. Fue así como el citólogo
insecto que posee sólo cuatro pares de cromosomas y que se
estadounidense Walter S. Sutton (1876-1916) señaló en 1902 que los
desarrolla desde el óvulo hasta el estado adulto en sólo doce días. Las
cromosomas se comportan como los factores hereditarios de Mendel:
investigaciones sobre la Drosophila revelaron que los rasgos que solían
cada célula posee una cantidad fija de pares de cromosomas y cada
heredarse juntos a veces se separaban. Morgan interpretó este hecho
uno de éstos transmite la capacidad de determinar caracteres físicos de
en el sentido de que el cromosoma que contenía los genes se había
una a otra célula. En cada par de cromosomas del nuevo organismo,
dividido entre las posiciones determinantes de aquellos rasgos, y más
uno de ellos proviene de la madre a través del óvulo, y el otro procede
tarde se había unido a un fragmento similar procedente de otro
del padre a través del espermatozoide. Esta nueva combinación de
cromosoma dividido. Mientras tanto, en 1927, Hermann Joseph Muller -
cromosomas que tiene lugar en cada generación tiende a poner de
alumno
manifiesto los caracteres recesivos que se habían visto antes dejados a
bombardeando con rayos X los gametos (los espermatozoides y los
un lado por un carácter dominante. Las combinaciones siempre nuevas
óvulos de los animales, los granos de polen y los óvulos de las plantas)
producen aquellas variaciones de caracteres que más tarde serán
se
aprovechadas por la selección natural.
descubrimiento fue de una gran importancia, porque abrió el camino a
de
obtiene
Morgan-
un
publica
porcentaje
un
descubrimiento
elevadísimo
de
sensacional:
mutaciones.
Este
investigaciones referentes al proceso de mutación y a la naturaleza y la
estructura del gen. Antes de la segunda guerra mundial, la genética
3.3. En el interior del cromosoma: los genes
había llegado a establecer que: 1) los genes representan los caracteres
hereditarios; 2) están localizados en los cromosomas y asumen un
Las cosas no se quedaron aquí, puesto que en el lapso que
orden lineal; 3) los cromosomas son constantes, en cantidad y calidad,
transcurre entre 1910 y 1920 el zoólogo estadounidense Thomas Hunt
para cada especie; 4) dichas estructuras son constantes, pero sin
18
embargo resultan susceptibles de variaciones; 5) «dichas variaciones,
durante varios días una mezcla de agua, hidrógeno, metano y
las mutaciones, se dividen en tres categorías: génicas, constituidas por
amoníaco a una chispa eléctrica proveniente de una corriente de alta
el paso de un único gen a un estado de alelo; cromosómicas,
frecuencia, y obtuvo moléculas complejas, por ejemplo, aminoácidos,
variaciones estructurales de un único cromosoma, con la consiguiente
urea, etc. Como es obvio, este experimento no es suficiente para decidir
variación del orden lineal de los genes; y mutaciones genómicas,
la cuestión acerca del origen de la vida. El problema continúa abierto.
variaciones en la cantidad de cromosomas, que en ciertas condiciones y
Basta con dejar constancia de ello.
con unas limitaciones determinadas, también son posibles» (G.
Montalenti). Al mismo tiempo, la biología molecular se había ido
desarrollando, y el siguiente gran paso adelante estará constituido por
3.4. El código genérico
el descubrimiento del código genético, que lleva el análisis del interior
mismo del gen. Todo esto sirve como prueba del gran esfuerzo humano
Durante mucho tiempo los genetistas estudiaron los caracteres
para capturar entre las redes de la razón la vida y su desarrollo. A este
hereditarios dedicándose a poner en claro el mecanismo de su
respecto hay que decir que si la teoría de la evolución es un intento de
transmisión de un individuo a otro, pero olvidando indagar la naturaleza
comprender la historia de la vida, otro problema inevitable -y que
de las moléculas que actúan como vectores de dicha transmisión. Se
también posee serias implicaciones filosóficas- era y sigue siendo el del
conocía la existencia de macromoléculas como las proteínas y los
origen de la vida. En definitiva, continúa la antigua controversia sobre la
ácidos nucleicos, y se suponía que éstos ejercían un papel fundamental
generación espontánea: ¿la vida proviene de la materia, o bien omne
en el fenómeno, pero hasta la década de 1940 no se inició un
vivum e vivo? Hoy se sabe que ningún organismo, a partir de las
tratamiento experimental del problema de las bases moleculares de la
bacterias, nace por generación espontánea. Es cierto que el
herencia. Hacia 1944, O.T. Avery (1877-1955), del Instituto Rockefeller
descubrimiento de los virus filtrables (ultravirus) pareció constituir un
de Nueva York, había conseguido pruebas elocuentes de que los
paso importante hacia la abiogénesis. Sin embargo, dado que estos
rasgos hereditarios se transmitían desde una célula bacteriana a otra a
virus son parásitos, no es posible considerados como origen de la vida,
través del ácido desoxirribonucleico (ADN). Por otra parte, se sabía
ya que presuponen la existencia de organismos más complejos, las
desde tiempo atrás que el núcleo de las células animales, que contiene
células de las cuales son parásitos. Más interesante resulta la
los cromosomas y, por lo tanto, los genes, era el órgano subnuclear
propuesta realizada recientemente por H. C. Urey, en 1952-1953, y
más rico en ácidos nucleicos
experimentada por S. Miller entre 1953 y 1957, referente a la formación
macromoléculas de ADN son polímeros constituidos por residuos de
de compuestos orgánicos complejos, por ejemplo los aminoácidos, que
ácido fosfórico, de un azúcar -desoxirribosa- y de bases azoicas,
son las moléculas fundamentales de las proteínas, las cuales a su vez
guanina, citosina y timina.
constituyen los elementos básicos del protoplasma. Miller sometió
y, sobre todo, en ADN. Las
19
A principios de la década de 1950, siguiendo las huellas de los
en 1958, en Caltec. Además del ADN, existe otro tipo de ácido nucleico,
trabajos de L. Pauling que habían ilustrado la estructura de las
el ribonucleico o ARN, presente principalmente en el citoplasma celular
proteínas -macromoléculas helicoidales constituidas por diversas
y que se distingue del ADN en el tipo de azúcar. En el ARN, se trata de
combinaciones de una veintena de aminoácidos- se afrontó el problema
ribosa, mientras que las bases azoicas son la adenina, la guanina, la
de la macromolécula de ADN, que se suponía poseedora de una
citosina
estructura helicoidal constituida por diferentes combinaciones de cuatro
primordialmente un carácter de filamento único, y su actividad resulta
nucleótidos distintos. Cada nucleótido está compuesto por un resto de
decisiva -junto con la del ADN- como base molecular del mecanismo de
ácido fosfórico, una molécula de desoxirribosa y una de las cuatro
transmisión genética. El material genético de la vida y todo lo que en el
bases azoicas. Las investigaciones se efectuaron empleando métodos
pasado se identificaba mediante el nombre de gen está constituido por
químicos y cristalográficos, y para la solución del problema fueron de
el ADN, mientras que la rama biológica que trata de extraer -estudiando
importancia los datos recogidos por E. Chargaff (nacido en 1905) que
el comportamiento de moléculas como el DNA y el RNA- las leyes que
había demostrado en diversas muestras de ADN la igualdad de restos
regulan la transmisión de la herencia, recibe el nombre de «biología
de timina y adenina, y la de restos de citosina y guanina. La idea de
molecular».
y
el
uracilo.
La
estructura
del
ARN
parece
asumir
colocar los componentes moleculares de ADN en forma de doble hélice
estabilizada por las interacciones entre bases azoicas complementarias
A partir de 1941 se sabía que cada gen controla la formación de una
-respectivamente, adenina-timina y citosina-guanina- fue elaborada en
enzima, como fue demostrado por G.W. Beadle (n. 1903) y E.L. Tatum
Cambridge por F. Crick y J. Watson (n. 1928), mientras que los datos de
(n. 1909). Puesto que las enzimas son proteínas -es decir, filamentos
difracción de los rayos X necesarios para verificar dicho modelo fueron
constituidos por bases azoicas- pronto se puso de manifiesto que la
proporcionados por M. Wilkins (n. 1916).
secuencia de bases del ADN podía determinar en cierto modo la
secuencia de aminoácidos de las proteínas. El problema residía en
El modelo de doble hélice consta de dos cadenas polinucleotídicas
entender cómo un alfabeto compuesto por cuatro letras podía
que giran en sentido necesariamente helicoidal debido a los requisitos
representar a un grupo de unas veinte letras. Puesto que combinando
estructurales de las bases azoicas y de los puentes de hidrógeno que
las cuatro bases, dos a dos, sólo se obtienen 16 combinaciones, quedó
forman de modo complementario. La naturaleza complementaria de las
en evidencia que era necesario combinar las bases tres a tres para
series de bases justifica el proceso de duplicación, es decir, la
obtener 64 combinaciones, que eran más que suficientes para
formación de dobles hélices partiendo de una hélice doble en la que se
representar los veintiún aminoácidos presentes en las proteínas. Así,
separan los dos filamentos. El ADN da lugar a un tipo de duplicación
cada «triplete» de bases azoicas representa un aminoácido.
llamado semiconservador, y el hecho de que cada filamento de ADN dé
origen a una nueva doble hélice fue descubierto por Meselson y Stahl
20
En 1955 S. Ochoa logró sintetizar ARN in vitro y en 1956 A.
Kornberg obtuvo -también in vitro- ADN. En 1961 F. Jacob y J. Monod
representarse así -de modo abreviado-la secuencia de todo el proceso
de biosíntesis proteica.
demostraron la existencia de un ARN mensajero, es decir, una
macromolécula de ARN que se sintetiza según el modelo de ADN
La copia del ADN Y la transcripción del ARN mensajero se llevan a
(proceso de transcripción) y se engancha a los ribosomas, partículas
cabo gracias a las posibilidades de acoplamiento estereoespecífico de
subcelulares del citoplasma donde tiene lugar la síntesis proteica. El
bases azoicas complementarias: la adenina reconoce la timina, y la
ARN mensajero es una especie de cinta que contiene la secuencia
citosina reconoce la guanina. El proceso de traducción se realiza a
proteica, escrita en código de triplete.
través de vectores intermedios, que son moléculas de ARN t, capaces
de ligar tanto aminoácidos como bases azoicas. Existen, pues, una
Dicha cinta es leída por el ribosoma, que puede así construir la
veintena de ARN t que son capaces cada uno de ellos de fijar un
proteína correspondiente a la secuencia especificada en la molécula del
aminoácido, y están provistos de un lugar que reconoce una tripleta de
ARN mensajero. En los años 60 M.W. Nirenberg y J.N. Matthei -
ARN mensajero. El ARN t se dispone sobre el ribosoma y allí lee la
incubando con extractos de Escherichia coli moléculas de ARN sintético
cinta del mensajero que transporta el aminoácido especificado en el
constituidas por una sola base, uracilo- lograron formar un polipéptido
mensaje. De este modo se construye la secuencia de aminoácidos del
constituido por una secuencia de un solo aminoácido, polifenilalanina.
ribosoma que posee la maquinaria enzimática necesaria para comenzar
El
aminoácido
y terminar la lectura de la secuencia escrita en el ARN mensajero. El
fenilalanina, y este descubrimiento permitió descifrar la clave del código
descubrimiento del código genético ha permitido interpretar de modo
genético, igual que la piedra Rosetta permitó descifrar los jeroglíficos
mecanicista fenómenos como la reproducción, la herencia, las
egipcios. Todo el código fue puesto en claro por Nirenberg, Crick,
variaciones y las mutaciones. Dicho código es universal y por lo tanto
Khorana y otros, que identificaron el significado de los 64 tripletes que
representa un lenguaje común a todos los organismos, desde los virus
constituían el código mismo. Los tipos de ARN identificados en la célula
hasta las bacterias, las plantas y los animales. Se trata de una
son el ARN ribosómico, con un elevado peso molecular; el ARN
importante etapa en la realización del programa que aspiraba llevar el
mensajero, y un ARN soluble llamado ARN transferente o ARN t. El
fenómeno de la vida al interior de la razón.
triplete
uracilo-uracilo-uracilo
designaba
así
al
proceso mediante el cual la información genética se transmite del ADN
al ARN se llama «transcripción», y es una enzima -el ARNpolimerasa- la
que cataliza la síntesis del RNA mensajero sobre el modelo constituido
por el ADN. La síntesis de la cadena polipeptídica que concreta en la
secuencia proteica la información procedente del ADN tiene lugar en el
proceso
llamado
de
«traducción».
En
consecuencia,
puede
Descargar