LÓGICA, MATEMÁTICA, FÍSICA Y BIOLOGÍA EN EL SIGLO XX Historia del Pensamiento Científico y Filosófico Giovanni Reale y Dario Antisieri 1. LOS AVANCES DE LA LÓGICA Y DE LA MATEMÁTICA EN EL cualesquiera poseen un sucesor inmediato diferente; 5) toda propiedad SIGLO XX que posea el cero y el sucesor inmediato de todo número que posea dicha propiedad, pertenece a todos los números. (Este último axioma 1.1. La «investigación sobre los fundamentos» y el descubrimiento de la «antinomia de las clases» expresa lo que se denomina principio de inducción matemática».) Sin embargo, como ya se dijo en el capítulo dedicado a las ciencias del siglo XIX, precisamente durante la época en que Peano trabajaba en su Como se comprobó en el capítulo dedicado al desarrollo de las ciencias proyecto, había estudiosos como Frege y como Cantor que, no estando en el siglo XIX, un grupo de matemáticos geniales -que comprende convencidos de la naturalidad de la base constituida por la aritmética, Cauchy hasta Weierstrass- se había comprometido en un programa de buscaban reconducir la aritmética a una base todavía más profunda, otorgar mayor rigor conceptual a las nociones fundamentales del cálculo reduciendo el concepto de número natural al concepto lógico de infinitesimal (límite, infinitésimo, continuidad, infinito matemático, etc.). «clase», porque la lógica de las clases aparecía como la teoría más Con Weierstrass y su escuela, este programa llegó a lo que se ha adecuada para la investigación sobre los fundamentos de la llamado la «aritmetización del análisis», es decir, a la reducción de los matemática. Esa noción -el hecho de que la definición de número puede conceptos fundamentales del análisis (la matemática que tiene como darse en término de clase (Frege y Russell) o, en palabras de Cantor, eje central la teoría de los «números reales») a los conceptos en términos de conjuntos, sin que se sea capaz de contar los elementos aritméticos (la matemática que tiene como eje central la teoría de los de estas clases o conjuntos- se puede ilustrar muy sumariamente de la números enteros positivos, es decir, de los números naturales y, por siguiente forma. Si tenemos dos clases A y B, de modo que a cada extensión, de los números racionales). Ahora bien, puesto que se sabía elemento de A se le pueda hacer corresponder un elemento de B, y que la geometría podía reconducirse al análisis (por medio de las viceversa, entonces se dirá que dichas clases tienen la misma potencia operaciones que constituyen la geometría analítica), la aritmética (a la o el mismo número cardinal. De esta manera, a través de la ejecución cual se reducía el análisis) se configuraba como base natural de todo el de la operación puramente mecánica de la puesta en correspondencia edificio matemático. Dicho proceso de reducción de toda la matemática biunívoca de los elementos de las dos clases, podemos saber, sin a la aritmética halla su punto culminante en la obra de Peano, que en necesidad de contar, si las dos clases tienen o no la misma 1899 propuso su ya clásica axiomática de la aritmética elemental. El cardinalidad, sistema axiomático de Peano consta de cinco axiomas, formulados con consiguiente, parece legítimo definir el número cardinal de una clase A la ayuda de tres términos primitivos: «número», «cero» y «sucesor como la característica poseída en común por todas las clases -y inmediato de». Podemos enunciar así los axiomas de Peano: 1) el cero únicamente es un número; 2) el sucesor inmediato de un número es un número; 3) correspondencia biunívoca con los elementos de A. el cero no es el sucesor inmediato de ningún número; 4) dos números es por decir, ellas- el mismo cuyos número elementos de elementos. pueden ponerse Por en 3 Más en general, nos es posible afirmar, como escribe Russell en mostraba cómo una proposición -legítima según los fundamentos de la Principios de la matemática (1903), que «matemáticamente, un número aritmética de Frege- era sin embargo autocontradictoria. Esta es, a no es más que una clase de clases equipotentes». Esta definición de grandes rasgos, la antinomia de Russell. Consideremos un conjunto número permitió a Cantor, entre otras cosas, trabajar sobre las que no se contenga en sí mismo como elemento (el conjunto de los relaciones existentes entre conjuntos infinitos y establecer toda una libros sobre la mesa; el conjunto de estos libros no es un libro), y jerarquía de cardinalidad, descubriendo cosas interesantes y opuestas llamemos «normal» a ese conjunto. Si bien los conjuntos más comunes a la intuición, como por ejemplo que el conjunto de los números son normales, no puede excluirse que exista también algún conjunto naturales tiene la misma potencia que el de los números relativos y de anormal. Así, por ejemplo, el conjunto de todos los conjuntos es él los racionales (se trata de algo opuesto a la intuición porque entre 0 y 1 mismo un conjunto y, por lo tanto, no es normal. Ahora bien, formemos ya se contienen infinitos números racionales, esto es, infinitas el conjunto C de todos los conjuntos normales y preguntémonos si es fracciones propias p/q, en las que p es menor que q). Prescindiendo sin normal. Supongamos que C se contenga a sí mismo como elemento: en embargo de estos y de otros interesantísimos resultados técnicos ese caso, es normal (porque los elementos de C son conjuntos obtenidos por Cantor hay que decir que Bertrand Russell publicó en normales), y en cuanto conjunto normal, no puede contenerse a sí 1903 los Principios de la matemática con la convicción de que «la mismo como elemento. Supongamos, en cambio, que C no se contenga matemática y la lógica son idénticas» y de que «toda la matemática a sí mismo como elemento. En ese caso, por definición, es normal, pero pura trata exclusivamente de conceptos definibles en términos de un como todos los conjuntos normales, tiene que ser elemento de C, y por número pequeñísimo de conceptos lógicos fundamentales». Russell, lo tanto, tiene que contenerse a sí mismo. Tanto en la primera como en mediante el contacto con la obra de Frege y el conocimiento de la la segunda hipótesis, se incurre en una contradicción. Russell técnica libro parafraseó su paradoja, con cierta dosis de humor, mediante este comprometiéndose en el grandioso programa de construcción efectiva ejemplo: definimos a un barbero de pueblo como aquel que afeita a de toda la matemática a partir de la lógica, programa que Russell llevó a todos aquellos que no se afeitan solos. Las paradojas lógicas hallan un cabo junto con Alfred N. Withehead en los tres grandes volúmenes - antiguo prototipo en la paradoja del mentiroso: «Epiménedes el aparecidos entre 1910 y 1913- titulados Principia Mathematica. De este cretense dice que todos los cretenses son mentirosos.» Russell modo Russell trató de llevar a cabo el propósito de Frege de construir comunicó por carta a Frege el descubrimiento de dicha antinomia. toda la matemática sobre bases lógicas. Mientras tanto, sin embargo, Frege trató de poner remedio a la dificultad que implicaba para el entre 1901 y 1902 Russell había puesto en crisis la lógica de clases, núcleo mismo de su sistema, pero en el fondo no quedó convencido de con lo cual había herido de muerte la fundamentación de la aritmética sus propios intentos de salvamento y pasó los últimos años de su vida efectuada por Frege, que se basaba precisamente en la lógica de habiendo perdido la confianza en todo el trabajo realizado. Después del clases. La causa de ello fue el descubrimiento de una antinomia que descubrimiento de la antinomia de Russell, fueron formuladas otras, lo lógica de Peana, elaboró las tesis de este 4 cual obligó a no aceptar de manera ingenua el concepto de conjunto y a surgiesen nuevas antinomias (como las «semánticas», la primera de las plantear de manera axiomáticamente rigurosa la teoría de los conjuntos. cuales fue formulada por Richard en 1905), no podía impedir que Tal construyesen proposiciones no paradójicas y que a pesar de todo no fue el caso de Zermelo quien, habiendo descubierto independientemente de Russell la antinomia de las clases, desarrolló en respetasen en absoluto la teoría de los tipos. 1908 una primera teoría axiomática de los conjuntos. A ésta le siguieron otras axiomatizaciones de los conjuntos: las de Skolem, Fraenkel, van Frege, Peano y Russell (si bien este último suavizó más tarde en Neumann, Bernays. Russell, por su parte, convencido de que la cierta medida su propia posición) son, básicamente, platónicos: creen aparición de antinomias se debía a un mal uso del lenguaje (era un en un mundo objetivo, existente por sí mismo, de entes y relaciones platónico, que creía en la existencia objetiva de los entes matemáticos matemáticas que el investigador debe descubrir pero no inventar. cuyas propiedades y relaciones tenía que descubrir el matemático; en su opinión, las contradicciones no podían darse en el mundo objetivo de En cambio, la escuela formalista -encabezada por David Hilbert- los entes matemáticos), propuso resolver el problema de las antinomias sostiene que un ente matemático existe cuando ha sido definido de un mediante la «teoría de los tipos» expuesta en el apéndice de los modo no contradictorio. Por consiguiente, la demostración de la no Principios de la matemática. Dicha teoría se reduce a prescripciones de contradictoriedad de las teorías matemáticas se convierte en el carácter lingüístico. Distingamos, dice Russell, entre diversos tipos de problema central de la investigación matemática. Un modo de probar la predicados: los predicados de tipo «cero» son nombres de individuos; no contradictoriedad de una teoría matemática había consistido en los de tipo «uno» son propiedades de individuos, se refieren a clases de hallar un modelo de los axiomas de la teoría dentro de otra teoría ya individuos; los predicados de tipo «dos» se refieren a clases de clases existente y que por consenso unánime haya sido aceptada como de individuos, y así sucesivamente. Efectuada esta distinción y con el coherente. Este camino, practicado por el propio Hilbert en sus propósito de evitar las antinomias, Russell propone la regla siguiente: se Fundamentos de la geometría (1899; en esta obra Hilbert axiomatiza de puede atribuir un predicado de tipo «n» únicamente a un sujeto de tipo modo riguroso la geometría euclidiana), ya había sido recorrido por el «n - 1». En otros términos: un concepto nunca puede ser necesario italiano Beltrami cuando éste había construido modelos euclidianos de como predicado en una proposición cuyo sujeto sea de un tipo igual o las geometrías no euclidianas. En cualquier caso, por ingenioso o útil mayor al del concepto mismo. Hasta aquí, muy sumariamente, lo que que pudiese parecer este procedimiento, no llegaba hasta la raíz de la expone Russell. Sin embargo, tanto las diversas axiomatizaciones de la cuestión: no resolvía el problema, se limitaba a desplazado, ya que - teoría de los conjuntos como la teoría de los tipos de Russell dejaban refiriéndonos siempre a nuestro ejemplo- nadie puede garantizar que la planteados graves problemas. Las primeras, sin duda, evitaban las geometría euclidiana (no interpretada en relación con un universo de antinomias conocidas, pero no eran una garantía contra otras objetos físicos) sea no contradictoria. Teniendo en cuenta todo esto –el antinomias posibles. La segunda, que tampoco garantizaba que no descubrimiento de las antinomias, la crisis ya admitida de la fuerza 5 fundamentante de la evidencia intuitiva, las dificultades de la corriente admitido, así como también las reglas de formación de las formas logicista (Frege y Russell), la diferente concepción de la naturaleza de expresivas admisibles y las reglas del manejo de estas fórmulas los entes matemáticos y el hecho de que buscar la prueba de la no admisibles. De este modo, la teoría asume la forma de un puro cálculo contradictoriedad de un sistema formal en otra teoría de cuya no que prescinde de los significados asociables a sus símbolos y a sus contradictoriedad no tenemos ninguna garantía, es una vía practicable expresiones. En tales circunstancias, la no contradictoriedad de una pero no resolutiva- y mediante los escritos de 1922 y 1923, Hilbert teoría se identifica con la imposibilidad de obtener, aplicando las reglas propone el llamado «programa hilbertiano», encaminado a ofrecer una de manejo que se hayan admitido, una cadena demostrativa en la que prueba no ya relativa (a otro sistema) sino directa o absoluta de un aparezca una proposición y su negación, es decir, una contradicción. sistema axiomático. Y así como la matemática «clásica» después de Por lo tanto, la axiomatización completa de una teoría comporta también todo el trabajo precedente, se reducía a tres grandes sistemas la formalización de la lógica que sirve para construida. Sin embargo, al axiomáticos: el de la aritmética, el del análisis y el de los conjuntos, y hacer esto, ¿con qué medios podía la «metamatemática» de Hilbert puesto que, además, las investigaciones realizadas en el siglo XIX someter la lógica a un análisis crítico, si no era con la lógica misma? hacían que se considerase como fundamental «la teoría aritmética», ¿No existiría acaso el riesgo de caer en un círculo vicioso? ¿O para resultaba natural que Hilbert partiese de la demostración de coherencia demostrar la no contradictoriedad de una teoría, será necesario apelar a de la aritmética, para extender más adelante dicha coherencia al ámbito la evidencia, a aquella intuición que tantas sospechas había del análisis y al de los conjuntos. Como es obvio, si se axiomatiza la provocado? Hilbert considera que con nada no se hace nada, por lo aritmética, hay que reconocer (cosa que después de Frege se volvía cual resulta casi inevitable una cierta circularidad. Sin embargo, inevitable) la necesidad de explicitar escrupulosamente todos los pensaba emplear procedimientos -los llamados «métodos finitistas» ingredientes y los mecanismos lingüísticos y lógicos a través de los que, aun formando parte de aquella aritmética que se desea cuales se organiza y se desarrolla la teoría (esto, como mínimo, servía fundamentar, resulten tan seguros que no comprometan el fruto de las para impedir la aparición de aquellas contradicciones que pueden surgir demostraciones. Dichos métodos finistas se reducen a procedimientos del mismo aparato lógico con el que se deducen los teoremas de la elementales e intuitivos, de tipo combinatorio, que se utilizan por teoría). ejemplo para manejar siempre una cantidad finita de objetos y de funciones perfectamente determinables. La intuición integra, pues, el Esto lleva a una completa formalización de la teoría cuya coherencia intento que lleva a cabo Hilbert de fundamentar la matemática, pero no se desea probar. Hay que tener en cuenta que la formalización de una establece -por intuición, justamente-las propiedades de determinados teoría no debe confundirse con aquel aspecto -por lo demás, no entes matemáticos; sólo concierne a la realización de operaciones muy esencial- de los sistemas formales que consiste en la simbolización. sencillas, y tan seguras y elementales que sean aceptadas como base Formalizar una teoría significa explicitar los trozos del lenguaje de cualquier investigación teórica. Las ideas de Hilbert fueron acogidas 6 por matemáticos geniales -entre los cuales cabe mencionar a Paul Bernays (1888-1977), Jacques Herbrandt (1908-1931), Wilhelm 1.3. La semántica de Tarski y el intuicionismo de Brouwer Ackermann (1898-1962) y Johann von Neumann (1903-1957). En la década de 1920, después de algunos éxitos iniciales, se pensó que el Es preciso mencionar aquí el ensayo de AIfred Tarski (nacido en programa de Hilbert podía de veras hacerse realidad. En 1928, Hilbert 1902) El concepto de verdad en los lenguajes formalizados (1934) había planteado el problema de la completud de la teoría de los sobre la semántica de los sistemas formales (que se desarrollará a números, preguntándose si los axiomas de Peano pertenecientes a la continuación en aquella importante rama de la lógica matemática teoría elemental de los números eran capaces o no de demostrar o de constituida por la «teoría de los modelos»). Tarski define con precisión refutar todas las proposiciones de aquella teoría. En 1931, Kurt Gödel el concepto de «verdad» (como un acuerdo con los hechos: «la (1906-1978) demostró (en su escrito Proposiciones formalmente afirmación "la nieve es blanca" es verdadera si y sólo si la nieve es indecidibles de los «Principia Mathematica» y de sistemas afines) que blanca»; entre otras cosas, Tarski afirma que, si tenemos una definición no es posible construir una teoría axiomática de los números que posea de verdad consistente en el acuerdo entre aserciones y hechos, no la completud propuesta por Hilbert. Pero las cosas llegaron mucho más tenemos un criterio de verdad: siempre podemos equivocamos al decir allá, ya que de este primer resultado Gödel extrajo el corolario según el que una teoría es verdadera) y el de «consecuencia lógica» (que es una cual un cálculo lógico, con potencia suficiente para formalizar la noción semántica y no sintáctica, como la de «derivabilidad»). De este aritmética elemental, si es coherente, es de un tipo que hace que en él modo, Tarski investiga las relaciones que se pueden establecer entre sea indemostrable la fórmula que expresa su coherencia. La coherencia los lenguajes formalizados y los conjuntos de objetos sobre los cuales de la aritmética, por lo tanto, no se puede obtener utilizando los dichos lenguajes pueden ser interpretados, de forma que den origen a instrumentos pertenecientes al sistema formal mediante el cual se proposiciones verdaderas sobre esos objetos. La semántica lógica, expresa la aritmética. Dicho resultado señalaba con toda claridad el después de los resultados de Gödel, adquirió una importancia cada vez fracaso del programa hilbertiano (dado que los métodos finitistas más central, puesto que es posible demostrar que si un cálculo admite utilizados por Hilbert para demostrar la no contradictoriedad de la un modelo, ese cálculo es coherente. De este modo se obtiene una aritmética también son formalizables en el interior del sistema prueba de coherencia de tipo semántica. axiomático de la aritmética). Gödel puso de manifiesto que resultaba imposible una prueba puramente sintáctica de la no contradictoriedad No podemos acabar estas notas sobre la matemática en nuestro de un sistema formal, por lo menos cuando es tan complejo de expresar siglo sin mencionar el intuicionismo. Si los platónicos como Frege como la aritmética elemental. A partir de aquel momento la garantía de consideran que los entes matemáticos son entes existentes por sí la coherencia de los sistemas formales o de los cálculos se buscará en mismos y que hay que descubrir; si los formalistas como Hilbert piensan las interpretaciones que sean modelos de dichos cálculos. que un ente sólo puede considerarse como matemáticamente existente 7 si se lo define sin contradicciones, el holandés Jan Luitzen Egbertus Ya hemos comprobado que el desarrollo de la física en el siglo XIX Brouwer (1881-1966) y sus seguidores -entre los que se cuenta Arend puede esquematizarse de manera bastante sencilla, en términos de Heyting (nacido en 1898)- sostienen que sólo puede considerarse que éxito un ente existe matemáticamente si se logra construirlo, es decir, mecanicista. En cambio, por lo que respecta a la física del siglo XX, es únicamente a condición de que podamos dar un ejemplo de él o indicar evidente que no pueden formularse valoraciones de conjunto tan claras el procedimiento que nos permite llegar a un ejemplo similar, a través como la anterior. Sin embargo, por lo que puede apreciarse, no parece de una cantidad finita de pasos. Esta concepción -el «intuicionismo»- que la actual investigación física esté recorriendo un camino que pueda prohíbe apelar al «infinito actual». Si se habla de infinito, no se habla de describirse de modo tan lineal. Cabe decir que, hasta ahora, la él como teoría de los conjuntos, sino únicamente en el sentido de que, investigación se ha caracterizado por un dualismo básico de programas. por ejemplo, cada punto al que se haya podido llegar, puede verse El primero de éstos se desarrolló en las primeras décadas del siglo, superado. El infinito es algo potencial, nunca actual. El infinito actual es tomando como punto de partida la crisis de la mecánica en su impacto imposible de construir. Por otro lado, si la existencia de un ente con el electromagnetismo y en torno al paradigma relativista matemático significa su efectiva construcción, su constitución práctica, einsteiniano. Mientras tanto, a finales del siglo XIX el estudio de los entonces puede aceptarse aquel tipo de demostración conocida como fenómenos de interacción entre la materia y las radiaciones permitía el «ley del tercero excluido» «para toda proposición p, o p o no p». Como desarrollo de otro paradigma: el cuántico. Ambos programas, aunque a es obvio, si se aceptan las reglas de los intuicionistas, es decir, veces convergen (existe de hecho una teoría cuántica relativista), en construyendo uno por uno los entes matemáticos, se evitarán los esencia se refieren a dos planos de observación muy distintos. Las dos peligros de las antinomias. En los comienzos del intuicionismo, en la teorías admiten que la física clásica es una excelente aproximación en década de 1920, no se entendió dicha teoría, y debido a su carga lo que respecta a los valores de las magnitudes físicas que entran polémica, dio la sensación de que se quería echar por la borda gran dentro de los límites de nuestra experiencia cotidiana. La teoría parte de la matemática «clásica». En la actualidad las cosas han cuántica, cambiado; el intuicionismo ha mostrado toda su fecundidad y es una de microscópicos (por ejemplo los fenómenos atómicos, nucleares o las corrientes más interesantes de la matemática contemporánea. subnucleares), mientras que la relatividad se aplica a velocidades y y subsiguiente empero, es hundimiento necesaria del para programa enfocar de los inversión fenómenos longitudes muy grandes, por ejemplo, a escala astronómica. Por consiguiente, los dos programas se estudian desde puntos de vista 2. EL DESARROLLO DE LA FÍSICA EN EL SIGLO XX distintos, y no parece próxima la unificación de ambos. Sin embargo, hasta ahora no se ha observado ningún motivo de incompatibilidad ni se 2.1. Cuestiones generales ha formulado ninguna hipótesis al respecto. Junto con la teoría de los cuantos, además, se ha desarrollado la investigación sobre el núcleo y 8 sobre sus partes; resulta extremadamente espinoso describirla en ecuaciones de la mecánica. Elevaremos esta conjetura [...] a postulado términos elementales, pero no puede dejar de hacerse alguna mención e introduciremos además otro postulado que sólo aparentemente no es al respecto. Como conclusión, describiremos de forma sumaria las conciliable con el primero: la luz siempre se propaga en el espacio vacío nuevas relaciones que se han instituido entre la física y las demás a una velocidad determinada, que es independiente del estado de ciencias de la naturaleza en los últimos años, y de este modo movimiento del cuerpo emisor.» El primer postulado elimina la exigencia hablaremos del origen y de la constitución de algunas disciplinas del éter. Además, sería incompatible con el segundo si se mantuviesen fronterizas. vigentes las transformaciones de Galileo. Einstein, empero, las substituye por las de Lorentz, deduciéndolas de manera independiente a partir de los dos postulados. 2.2. Einstein y las teorías de la relatividad La teoría comporta una reformulación de los conceptos tradicionales A caballo entre los siglos XIX y XX se habían hecho numerosos de espacio y tiempo. En efecto, sobre esta base se pueden demostrar intentos de conciliar la oposición entre las teorías de Maxwell y las de teoremas que entran en oposición con la experiencia común; por Newton. El último intento d esta clase había sido llevado a cabo por H. ejemplo: Poincaré. Este, como ya Vimos, acepta la teoría de Lorentz y el - la duración de un fenómeno sobre un cuerpo en movimiento es principio de la relatividad clásica, según el cual los fenómenos físicos mayor que su duración sobre un cuerpo en reposo; - dos fenómenos deben respetar las mismas leyes, si se observan desde sistemas de simultáneos con respecto a un observador pueden no serlo con referencia que se mueven uno en relación a otro con un movimiento respecto a otro, y viceversa; rectilíneo y uniforme; sin embargo, conserva la noción de éter como realidad física. Las obras de Poincaré y de Lorentz aparecen entre - la longitud de una regla se reduce en la dirección de su movimiento; finales del siglo XIX y principios del XX. En 1905, empero, A. Einstein - la masa de un cuerpo aumenta junto con su velocidad; y sobre (1879-1955) publica los fundamentos de la nueva teoría resolutoria, todo, aquella famosa ley que se encuentra en la base de muchos conocida como «teoría de la relatividad restringida», en el histórico fenómenos nucleares, según la cual la masa equivale a una cantidad de artículo Sobre la electrodinámica de los cuerpos en movimiento. Este es energía determinada por la fórmula E = mc² (E es la energía; m es la el núcleo central de la teoría: «Tanto los fenómenos de la masa; c es la velocidad de la luz). Todo esto ha permitido efectuar electrodinámica como los de la mecánica no poseen propiedades numerosos controles, muy exactos, que han confirmado sólidamente la correspondientes a la noción de reposo absoluto. Indican más bien que teoría. Kuhn consideró que el paso desde la mecánica clásica a la [...] las mismas leyes de la electrodinámica y de la óptica resultan relatividad restringida fue uno de los mejores ejemplos de «revolución válidas para todos los sistemas de referencia en los que se aplican las científica», entendida como transición de un paradigma a otro, que no 9 posee un carácter acumulativo sino que implica un replanteamiento experimentales cada vez más perfeccionados y hasta el momento teórico global. siempre con resultados positivos. Entre los numerosos experimentos que se hallan actualmente en estudio, son muy interesantes los La relatividad restringida se afirmó muy rápidamente, superando obstáculos y oposiciones. Y sólo 11 años después, Einstein propone referentes a la posibilidad de captar las ondas gravitacionales de origen cósmico, del mismo modo que se captan las ondas electromagnéticas. una nueva teoría que supera a la anterior, generalizándola. En efecto, eliminando la limitación a movimientos rectilíneos uniformes, sostiene que las leyes de la física son las mismas cualquiera que sea el sistema 2.3. La teoría de los cuantos de referencia desde el cual se observen, aunque éste se halle acelerado, siempre que se tengan en cuenta también los efectos del El estudio de los fenómenos de interacción entre la materia y las eventual campo gravitacional: tal es el núcleo de la «teoría de la radiaciones, como ya se ha dicho, dio origen a otra vía distinta de relatividad general». Para llegar a este resultado, Einstein parte de la investigación. «Cuanto» es el término acuñado por M. Planck (1858- constatación de que la masa de un cuerpo es la misma cuando la 1947) para solucionar un problema de emisión electromagnética: el medimos con la ley de la gravitación universal o con la segunda ley de problema del «cuerpo negro» (concepto abstracto, matemático, que la dinámica (la masa inercial es igual a la masa gravitacional): como indica un objeto que absorbe toda la energía radiante que incide sobre consecuencia, existe la posibilidad de referir cualquier efecto acelerador él transformándola en calor). La función que expresa la energía emitida a los correspondientes campos gravitacionales, que modifican la por un cuerpo negro al variar la temperatura (J. Stefan, 1879) había estructura geométrica del espacio. En definitiva, todo problema físico resultado incompatible con la termodinámica, y por lo tanto con la hay que resolverlo mediante el estudio de las propiedades geométricas mecánica clásica. La solución de Planck (1900) consiste en suponer del espacio. Esta teoría contiene como caso límite la teoría que la energía no se emite ni se absorbe en forma .de radiación de la «restringida»: conserva todas las consecuencias propias de la anterior y materia con continuidad, es decir, según cualquier magnitud de valores, añade otras que la someten a ulteriores controles experimentales. Entre sino únicamente de acuerdo con múltiplos enteros de determinada éstos, además de las trayectorias exactas de los diversos planetas, cantidad, iguales al producto entre la frecuencia y de la radiación y una recordemos la deflexión de un rayo de luz debido a un campo cierta constante h, la constante de Planck; la cantidad h y se denomina gravitacional (AS. Eddington, 1919) y el desplazamiento de las líneas «cuanto de energía», y la constante h, «cuanto de acción». Desde el espectrales de la luz emitida por estrellas de gran masa (W.S. Adams, punto de vista conceptual, lo que interesa es que Planck llega a su 1924). Se abre aquí un desarrollo de «ciencia normal», consistente por descubrimiento negándose a adaptar las teorías existentes a las un lado en la elaboración de la cada vez más ardua parte matemática, y evidencias experimentales contrarias: en este sentido, es comparable a por Einstein. Y justamente de Einstein procede la primera verificación de la el otro, en someter la construcción teórica a controles 10 teoría de Planck. Aquél supone que toda radiación se ajusta a la confirmaciones -pero también algunas falsaciones parciales- proceden hipótesis de los cuantos, y llama «fotón» a la partícula correspondiente de experimentos a una radiación de frecuencia y una cantidad de movimiento; esto le experimento (1921-1922) de O. Stern (1888-1969) y W. Gerlach (n. permite integrar el efecto fotoeléctrico en el seno de la teoría, lo cual 1889) brinda a la teoría de Bohr, ya toda la teoría cuántica, una de sus sirve para confirmarla. En 1923 llevará a cabo con éxito una operación confirmaciones más sólidas. Es evidente que estas nociones, referidas análoga con respecto a la difusión de rayos X o gamma por parte de los a los ámbitos microscópicos, contrastan con las de Maxwell, referentes electrones (efecto Compton). Muy pronto se unificó con la teoría de los a los ámbitos macroscópicos. Sin embargo, el mismo Bohr supera la cuantos el estudio de la estructura del átomo, iniciado por J.J. Thomson potencial contradicción, proponiendo (1916) interpretar la teoría de (1856-1940) en 1897 al descubrir el electrón, cuya carga fue Maxwell corno una descripción estadística de lo que sucede en el caso determinada por R.A. Millikan (1868-1953) entre 1908 y 1911. No pasó de una gran cantidad de componentes elementales. Se enuncia así por mucho tiempo sin que se propusieran diversos modelos sobre el átomo: primera vez el «principio de correspondencia», que constituye una de según J.B. Perrin (1870-1942) estaba formado por un núcleo central en las claves para comprender y aplicar la teoría de los cuantos. Se trata torno al cual giran los electrones (1901); según lord Kelvin (1824-1907) de una noción semejante a la que, en el siglo XIX, había permitido hay en él una distribución uniforme de carga positiva en cuyo interior se superar la oposición potencial que se había evidenciado entre la hallan los electrones en situación de equilibrio (1902). Se trata de dos termodinámica y la mecánica clásica, aplicada microscópicamente. En programas diferentes de investigación científica que entran en 1924 la teoría se enriquece aún más, gracias a L. V. De Broglie (n. competencia: uno «nuclear» y otro «no nuclear»; E. Rutherford (1871- 1892). Este formula la hipótesis según la cual, así como a toda onda 1937), gracias al histórico experimento del haz de partículas (núcleos de electromagnética le corresponde un corpúsculo, sucede a la inversa helio) sobre una finísima placa de oro, será quien haga prevalecer el que a toda partícula, con una masa en reposo y una velocidad, le primer programa (1911). corresponde una onda de longitud, colocando así las bases para un de espectroscopía. No obstante, el histórico nuevo derrotero de estudio teórico, la llamada «mecánica ondulatoria». Nacía entonces el problema referente a cuál era la situación de los La constatación -establecida gracias a una base experimental cada vez electrones en torno al nycleo. La primera respuesta (1913) provino de más amplia- de que no es posible renunciar al estudio de los N.H. Bohr (1885-1962). Este supuso que los electrones giraban en fenómenos mecánicos y electromagnéticos ni al modelo corpuscular o órbitas circulares muy definidas, calculables mediante las leyes de los al ondulatorio, permite que Bohr deduzca la teoría según la cual todo cuantos de energía, y que los átomos absorbían y emitían energía a fenómeno presenta en realidad dos aspectos, que son en ambos casos través de saltos de los electrones de una órbita a otra, más alta o más verdaderos y se complementan y excluyen recíprocamente. Tal es, en baja, fue substancia, el «principio de complementariedad», base de la ley primeras cuantitativa de la indeterminación que formula W. Heisenberg (1901- respectivamente. perfeccionado por AJ. Muy pronto Sommerfeld este modelo (1868-1951). (1916) Las 11 1976), y que establece unos límites precisos a la posible investigación científica básica; asume también una postura análoga con «determinación simultánea» de magnitudes que se refieren a los dos respecto a la insuperabilidad de la velocidad de la luz afirmada por aspectos complementarios. Por ejemplo, resulta imposible determinar, Einstein. Popper observa que sólo puede hacer que progrese el en un instante dado, la posición y el momento (es decir, el producto conocimiento si tratamos de superar los actuales límites, y no entre velocidad y masa) de una partícula con precisiones pequeñas obligándonos a permanecer más acá de ellos. fijadas de forma arbitraria: cuanto más determinada se halla una magnitud, será posible determinar la otra con una precisión La teoría de los cuantos halla en 1927 una primera axiomatización correlativamente menor, y a la inversa. La mecánica ondulatoria es gracias a Dirac y a P. Jordan (n. 1902), y una segunda, más general, sistematizada teóricamente por E. Schródinger (1887-1961), quien elaborada por J. von Neumann (1903-1957) en 1930. A partir de aquel determina la ecuación a la cual debe ajustarse la onda de De Broglie momento el estudio de la teoría cuántica consistirá básicamente en (1926); Max Boro (1882-1960) interpreta dicha ecuación de onda como extender sus aplicaciones y replantear su formulación de un modo más un dato con un significado probabilista. perfeccionado, sin efectuar ninguna crítica de sus principios fundamentales. Como en el caso de la relatividad, pues, se abre un Llegamos así a la base de la interpretación de toda la teoría de los período de «ciencia normal», por lo menos dentro de los límites en que cuantos en un sentido no determinista. Se trata por lo tanto de un dicho término resulta aplicable a una ciencia durante un período en que enfoque muy distinto al que había prevalecido en el caso de la ésta se halla dominada por dos paradigmas y no por uno solo. Entre mecánica clásica a lo largo del siglo XIX. A pesar de ello, no faltaron 1925 y 1940 se desarrollan y se estudian las primeras ecuaciones que interpretaciones contrarias, por ejemplo la llamada «de las variables aplican al mismo tiempo las dos teorías fundamentales. Entre sus ocultas», que tendía a reconducir la indeterminación observada a la autores más conocidos, hay que citar a Schrödinger, Pauli, Dirac, O. existencia de algunas variables no conocidas. En cualquier caso, la Klein, W. Gordon y E. Majorana (1906-1938). interpretación triunfante fue la «interpretación de Copenhague», que se extendió gracias a la figura de Bohr en el centro de investigación de Las investigaciones en este sector aún se hallan en curso. Sin Copenhague (dirigido y fundado por el propio Bohr, y en el que embargo, los numerosos y continuados intentos de construir Una teoría participaron Heisenberg, Boro, P. A. M. Dirac –n. 1902-, W. Pauli -1900- unificada de la naturaleza hasta ahora no han producido ningún 1958- y muchos otros de los más prestigiosos sabios de la época) así resultado significativo, a pesar de que a ello se hayan dedicado sabios corno en los congresos organizados a partir de 1911 por E. Solvay de la categoría de Einstein o Heisenberg. En cambio, podemos hallar (1838-1922) y que continuaron después de su muerte. En su Lógica del innovaciones posteriores, de carácter fundamental, en el sector en el descubrimiento científico, Popper estigmatiza este tipo de concepción cual el único límite que ha encontrado el investigador ha sido el de la porque pone límites de principio al conocimiento posible, y por tanto a la 12 instrumentación técnica, en rápida evolución por lo demás. Se trata del determinados fenómenos radioactivos, y la teoría había sido formulada sector correspondiente a la estructura interna del núcleo. de un modo que no permitía su comprobación en ningún caso, con los instrumentos disponibles en aquella época. Se trataba por lo tanto de una teoría que tenía todo el aspecto de una hipótesis ad hoc para salvar 2.4. Física atómica, nuclear y subnuclear la teoría de los cuantos, con respecto a evidencias al parecer contradictorias. Hubo que dejar pasar unos treinta años para lograr una Después del descubrimiento del electrón y de la estructura nuclear del átomo, la atención de los físicos se concentró en este último. En prueba experimental de la existencia del neutrino, y en consecuencia, para el ingreso efectivo de esta teoría en el ámbito de la ciencia. 1925 Pauli formula el «principio de exclusión», que permite colocar los electrones alrededor del núcleo, de un modo coherente con los El descubrimiento del neutrón implicó la introducción de un tercer descubrimientos de la química. A partir de ese momento, el estudio de tipo de fuerza, además de la gravitacional y de la electromagnética: la las estructuras electrónicas se convertirá en ámbito propio de la «interacción fuerte». El estudio del neutrino puso de manifiesto una química. Bohr bautiza con el nombre de «protones» las partículas cuarta clase de fuerza, la «interacción débil». A lo largo de décadas se cargadas positivamente que se hallan presentes en el núcleo. Los han ido sucediendo los intentos de unificar las teorías de las cuatro experimentos de F.W. Aston (1887-1945) en los años 1919 y 1920 fuerzas fundamentales de la naturaleza, pero hasta ahora sólo se han sobre los isótopos (descubiertos en 1912 por F. Soddy, 1877-1956) obtenido resultados parciales. exigen un tercer tipo de partículas, pesadas y eléctricamente neutras: los neutrones, cuya existencia fue demostrada experimentalmente por l. En cambio, se encuentra más avanzado el proceso de simplificación Chadwick (1891-1974) en 1932. Se proponen entonces los primeros de los componentes elementales de la naturaleza: las más de cien modelos del núcleo (H.A. Bethe, n. 1906; G.c. Wick, n. 1909, y sobre partículas que se han propuesto teóricamente y se han experimentado todo Bohr junto con l. A. Wheeler, n. 1911). Sin embargo, el cuadro se a partir de la década de 1930 hasta hoy parecen reductibles a complicó con mucha rapidez porque se descubrió gran cantidad de combinaciones de unas cuantas partículas subelementales (3, 4, 5, 6...) nuevas partículas elementales, comenzado por la familia de los llamadas «quarks», y cuya hipótesis fue formulada por M. Gell-Mann (n. «mesones», cuyo formulado 1924) por primera vez. La primera teoría en este sentido se ha emitido teóricamente por comprobado en época reciente, y son aún más recientes los primeros datos primer componente Heisenberg y había Majorana, sido y experimentalmente por H. Yukawa (n. 1907) en 1935. experimentales significativos a este respecto. Sin embargo, el conjunto de la cuestión todavía resulta poco claro, y se espera que en un futuro Resulta notable la historia de otra partícula elemental: el «neutrino». Este había sido propuesto por Pauli en 1930, para explicar no demasiado lejano surja una respuesta más precisa. 13 En cambio, ha sido muy rápido el avance técnico en los estudios nucleares: el camino abierto por Rutherford -experimentar el bombardeo pacíficas; la segunda, en cambio, está en el origen de letales ingenios bélicos. de núcleos con partículas más pequeñas- se ha mostrado muy fecundo, sobre todo a partir de la década de 1930, gracias a la aparición de Sin embargo, la bomba de fisión no es el ingenio destructor más aparatos que podían otorgar elevadas velocidades a los proyectiles (R. poderoso realizado hasta ahora. En los años cincuenta se experimentó l. van der Graaf, 1901-1967; E.O. Lawrence, 1901-1958). (fabricando numerosos ejemplares) con una bomba basada en la agregación de varios núcleos de hidrógeno, para obtener helio y gran Entre los experimentadores de dicho período destacan los esposos cantidad de energía (fusión nuclear). Afortunadamente, ésta nunca ha Irene (1897-1956) y Frédéric (1900-1958) loliot-Curie, así como el grupo sido experimentada sobre el hombre; sin embargo, aún no se ha de Roma dirigido por E. Fermi (1901-1954) y formado por E. Amaldi, n. logrado controlar esta reacción nuclear, haciendo que se desarrolle 1908; E. Segré, n. 1905; B. Pontecorvo, n. 1913; F. Rasetti, n. 1901; lentamente: si tal cosa fuese posible, el problema energético quedaría Majorana y Wick. Gracias a estas investigaciones pronto se descubrió resuelto durante siglos. Siguen activas las investigaciones en este que un átomo de uranio bombardeado por protones puede romperse en terreno. dos partes y liberar algunos neutrones, junto con una enorme cantidad de energía (la fisión nuclear, 1938: O. Hahn, 1879-1968, y F. Strassmann, n. 1902), y que los neutrones liberados en determinadas 2.5. La interdisciplinariedad y las disciplinas «de frontera» condiciones pueden dividir otros núcleos de uranio en una sucesión continuada (reacción en cadena, teoría aparecida en 1939, debida A partir de principios del siglo XIX, se ha ido produciendo un sobre todo a H. von Halban y l. B. Perrin). Estos dos descubrimientos proceso de gradual especialización de los científicos y hoy podemos llevarán a Fermi a la pila atómica (1942), y a otros, a la bomba atómica comprobar los efectos de dicho proceso hasta un límite muy notable. No (1945). En las dos aplicaciones distintas, la teoría es la misma: en el obstante, sería erróneo ver en esto un rasgo característico de la ciencia primer caso, la reacción en cadena se hace más lenta debido a que avanzada: la división de los conocimientos en diversas disciplinas a entre los diversos bloques de uranio se interponen determinadas menudo no es más que una mera convención, y la especialización es sustancias que vuelven más lenta la difusión de los neutrones, mientras un alto precio que se ha pagado a la vertiginosa rapidez del progreso. que en el segundo caso la reacción se produce a enorme velocidad, Como ha demostrado Popper, la ciencia tiene su origen en los desarrollando la energía en un tiempo brevísimo. La primera está en la problemas, y por lo general, éstos no se hallan enmarcados dentro de base del funcionamiento de las centrales eléctricas con energía nuclear, esquematismos académicos. En consecuencia, hay que entenderlos de los motores a propulsión nuclear y de muchas otras aplicaciones como oportunos mecanismos correctores de la anómala situación en que se halla la actual investigación científica dos realidades 14 metodológicas que han surgido en este siglo y que caracterizan la En esencia, Darwin había afirmado dos cosas: 1) las especies investigación actual. La primera es la institución de los equipos evolucionan, no son inmutables, se desarrollan gradualmente, dando formados por estudiosos con culturas y formaciones diversas. En los origen así a las diferentes especies; 2) el mecanismo esencial de la progresos más recientes de la investigación biomédica, y en particular evolución de la especie es la selección natural: el medio ambiente toma en aquellos que han llevado a la biología molecular, pueden en consideración las variaciones de los individuos, descartando a los comprobarse magníficos ejemplos de la validez y la fecundidad de este que presentan variaciones desfavorables y preservando a los que modo de investigar. Entre los físicos que han participado en este sector poseen los instrumentos más idóneos para adaptarse al ambiente a lo -junto a médicos, químicos y biólogos- recordemos a M. Delbrück (n. largo de la lucha por la existencia. Ahora bien, es evidente que la 1906), F.H.C. Crick (n. 1916) y los ya citados Bohr, Schrödinger y selección puede actuar sólo cuando las diferencias individuales sean Jordan. Otra figura simbólica, debido a la multiplicidad de sus campos transmisibles a los descendientes, porque si los individuos de una de interés, es la del químico, físico y biólogo, L. Pauling (n. 1901). La especie son todos iguales o si los caracteres por los cuales difieren no segunda realidad está constituida por el nacimiento y desarrollo de las son transmisibles por herencia, la teoría de Darwin no podría existir. disciplinas «de frontera», a caballo entre los sectores tradicionales del Que los individuos de una especie son distintos entre sí es un dato de saber: entre ellas, recordemos la química física, la astrofísica, la hecho. Aquí, empero, se plantean dos graves cuestiones posteriores: a) bioquímica, la biofísica, la geofísica y muchas otras. Estas nuevas ¿cuáles son las causas de las diferencias individuales?; b) si estas disciplinas en sentido estricto, en lugar de contribuir a una posterior diferencias son hereditarias, ¿de qué manera se transmiten a los sectorización, constituyen (en unión a los equipos interdisciplinarios) descendientes? canales a través de los cuales las disciplinas y los investigadores vuelven a entablar comunicación, después de alrededor de un siglo y Como se advierte en las últimas ediciones del Origen de las medio de separación. Hallamos así una orientación hacia el carácter especies, Darwin se había pronunciado a favor de la heredabilidad de unitario de la investigación científica, que se había ido perdiendo a lo los caracteres adquiridos por los organismos bajo la acción del medio largo del siglo XIX. ambiente. En este terreno se aproximaba a Lamarck, aunque de la doctrina de este autor negaba la concepción referente a una tendencia interna, situada dentro de los organismos y que habría impulsado a 3. LA BIOLOGíA DESPUÉS DE DARWlN éstos a perfeccionarse. (En cierto modo esta idea fue defendida por el suizo Karl Wilhelm von Nageli, 1817-1891, a través de su teoría de la 3.1. El neodarwinismo: A. Weismann y H. De Vries «ortogénesis», donde se habla de una fuerza psicoquímica análoga a la fuerza de inercia en la mecánica.) El zoólogo alemán August Weismann (1834-1914), uno de los representantes más batalladores del 15 neodarwinismo, se opuso tajantemente a la propuesta neolamarckiana, Mientras tanto, el botánico holandés Hugo De Vries (1848-1935), rechazando de manera total el influjo del ambiente y negando la noción observando una planta ornamental la Oenothera lamarckiana, que de herencia de los caracteres adquiridos. Para confirmar su postura, había readquirido carácter silvestre en las campiñas de los Países cortó la cola a varias generaciones sucesivas de ratones recién nacidos Bajos- cayó en la cuenta de que, además del tipo normal de la especie, y comprobó que todos los ratones nacían con su cola normal, sin que se en la población de la planta había algunos individuos notablemente hubiese transmitido este carácter adquirido. Estos experimentos de diferentes del tipo normal, por ejemplo en su altura (había individuos Weismann, junto con otros más perfeccionados, confirmaron la teoría enanos e individuos gigantes), la forma de las hojas, etc. De Vries hizo según la cual las variaciones (color, altura, etc.) sobre las cuales actúa que estos individuos «extraños» se reprodujeran y constató que sus más tarde la selección, no provienen del ambiente (que instruiría al caracteres aberrantes se retransmitían a las generaciones sucesivas. organismo) sino del interior del organismo. En el Ensayo sobre la De Vries, por lo tanto, captaba la evolución en acto: además de los herencia y sobre cuestiones biológicas afines (1892) Weismann individuos normales, una especie reproduce individuos manifiestamente distinguió entre el «germoplasma», responsable de la transmisión de los anormales (en un porcentaje del 1 ó 2%). De Vries bautiza con el caracteres hereditarios, y el «soma» o plasma del cuerpo. Weismann nombre de «mutaciones» estas variaciones manifiestas, que se afirma que el germoplasma es la parte más importante de un transmiten hereditariamente. Darwin había observado algunas de estas organismo: él es el que determina las formas y los rasgos asumidos por variaciones de gran alcance y también le habían hablado de ellas los el plasma del cuerpo. El cuerpo sólo sirve para nutrir al germoplasma, criadores de animales, que las llamaban «bromas». Sin embargo, no les de modo que haga posible la reproducción de éste. Aquí encontramos había concedido demasiada importancia y pensaba que la selección la razón -señala Weismann- que explica por qué no son hereditarias las actúa sobre variaciones pequeñas, de mínima entidad. De Vries rectificó modificaciones del soma (por ejemplo, la cola amputada de los ratones). tal postura, proponiendo, con base en sus propias observaciones, la Aunque trabajando sobre temas difíciles y novedosos, Weismann trató noción de «evolución a saltos»: toda especie produce, en determinada de explicar el origen de la variabilidad, atribuyendo su causa a la época de su existencia, mutaciones, es decir, individuos que se alejan reproducción sexual, que une dos patrimonios hereditarios en una mucho de la norma. La selección actúa sobre este material mezcla (que Weismann bautizó con el nombre «anfimixis») que serían notablemente variado (mutado), con la consecuencia de que desde una el origen de la variabilidad. (Más adelante, la genética confirmará la misma especie originaria pueden evolucionar distintas especies, y si teoría de Weismann pero limitando su alcance, en el sentido de que hallan las condiciones requeridas, pueden hacerlo incluso en medios cada fecundación provoca una nueva combinación de los genes diferentes. En cualquier caso, aunque defendía que las mutaciones son existentes en una población.) substancialmente independientes del medio ambiente, De Vries ignoraba las causas de tales mutaciones. Por lo tanto, éstas son las dos aportaciones más relevantes del neodarwinismo: la variabilidad es 16 independiente del medio ambiente; la selección obra sobre variaciones sólo daba plantas altas, mientras que el 50 % restante daba origen al manifiestas, sobre mutaciones, caracteres de nueva aparición. De todas reproducirse a un 75 % de plantas altas y a un 25 % de plantas bajas. maneras, continuaba habiendo problemas y de envergadura. En efecto, Esta es la primera ley de Mendel: la ley de la segregación. Si se cruzan la teoría de la evolución tiene uno de sus puntos decisivos en las plantas o animales que difieren en más de un par de caracteres, éstos desemejanzas o variaciones que en el interior de una misma especie se volverán a combinar de todas las maneras posibles. Ésta es la caracterizan a los diferentes individuos. Por consiguiente, no podía segunda ley de Mendel: la ley de la independencia. Así, por ejemplo, si evitar los interrogantes antes mencionados y tenía que volver sobre cruzamos guisante de semilla amarilla y lisa con guisantes de semilla ellos, a pesar de las aportaciones efectuadas por investigadores como verde y rugosa, en la primera generación se obtendrán plantas con Wiesmann y De Vries: ¿por qué razones surgen las variaciones?, ¿de semillas que presentan los dos caracteres dominantes, por ejemplo, qué modo se transmiten en la reproducción? Estos son los problemas amarillo y liso. En la segunda generación, obtenemos cuatro tipos de que a principio del siglo XX darán origen a la nueva disciplina bautizada individuos que manifiestan las cuatro combinaciones posibles, dos ya en 1906 con el nombre de «genética». producidas en el cruzamiento y otras dos nuevas: amarillo liso, amarillo rugoso, verde liso y verde rugoso. Descubiertas quizás con demasiada anticipación para su época, las leyes de Mendel fueron redescubiertas a 3.2. El descubrimiento de los cromosomas y el redescubrimiento de las leyes de Mendel principios del siglo XX, en un momento en que ya se podía comprender su relevancia y advertir su fecundidad. En efecto, entre 1870 y 1880 el alemán Walther Flemming (1843-1905), utilizando una substancia La genética se enmarca en el seno de la teoría evolutiva, en la colorante (la cromatina), descubrió que en el interior del núcleo de la medida en que esta teoría tenía que explicar los mecanismos de la célula había objetos filiformes, los cromosomas, y vio que en el herencia biológica. Como hemos visto en el capítulo sobre el desarrollo momento crucial de la división de la célula (mitosis) cada cromosoma del pensamiento científico en el siglo XIX, ya en 1866 Mendel había producía una copia de sí mismo. Flemming publicó estos resultados en descubierto las leyes que sirven de fundamento a la genética. Había 1882. Continuando las investigaciones del citólogo alemán, el belga enviado el resultado de sus investigaciones a Nageli, pero éste no Edward van Beneden (1846-1919) demostró que hay una cantidad fija y advirtió su importancia. Mendel cruzó y fecundó artificialmente una constante de cromosomas en cada especie animal o vegetal: las células variedad alta y otra baja de guisantes, y obtuvo semillas que producían del hombre contienen 46, repartidos en 23 pares; el maíz tiene 20, en sólo plantas altas. Éstas, autofecundadas, producían plantas altas y 10 pares; la mosca, 12, en 6 pares; la Drosophila (mosca del vinagre, bajas con una proporción de 3 a 1. De 1/4 de las plantas bajas así que se convertirá más tarde en el héroe de la genética), 8, en 4 pares. obtenidas sólo nacían plantas bajas, mientras que de los 3/4 de las (Cada uno de los dos cromosomas que constituyen un par de plantas altas, una parte (el 25 % del total de la segunda generación) cromosomas proceden respectivamente del padre y de la madre.) 17 Además, van Beneden descubrió que en la formación de las células Morgan (1866 1945) mostró que en los cromosomas (que están, como sexuales (el óvulo y el espermatozoide) la división de los cromosomas, se ha dicho, en el intenor del núcleo de cada célula) se encuentran los para formar la nueva célula, no estaba precedida del desdoblamiento. genes, dispuestos de acuerdo con un orden. Los genes, que pueden Si no se llevase a cabo este proceso, la meiosis, ocurriría que a cada concebirse como partículas materiales y que tienen el tamaño de una nueva generación el individuo originado gracias a la unión de dos gran molécula de proteína, constituyen el patrimonio hereditario del células tendría una doble dotación de cromosomas. individuo. «Son capaces de reproducirse conservando su propia individualidad, su propia independencia con respecto a los otros genes, En este momento, vuelven a descubrirse las leyes de Mendel. y por tanto la capacidad de recombinarse en todos los modos posibles, Sucede entonces que todos estos estudios sobre los cromosomas se así como la capacidad de dar origen a los caracteres que representan» iluminan repentinamente y toda una serie de descubrimientos anteriores (G. Montalenti). Morgan trabajó sobre la Drosophila melanogaster, se integran en un marco racional y coherente. Fue así como el citólogo insecto que posee sólo cuatro pares de cromosomas y que se estadounidense Walter S. Sutton (1876-1916) señaló en 1902 que los desarrolla desde el óvulo hasta el estado adulto en sólo doce días. Las cromosomas se comportan como los factores hereditarios de Mendel: investigaciones sobre la Drosophila revelaron que los rasgos que solían cada célula posee una cantidad fija de pares de cromosomas y cada heredarse juntos a veces se separaban. Morgan interpretó este hecho uno de éstos transmite la capacidad de determinar caracteres físicos de en el sentido de que el cromosoma que contenía los genes se había una a otra célula. En cada par de cromosomas del nuevo organismo, dividido entre las posiciones determinantes de aquellos rasgos, y más uno de ellos proviene de la madre a través del óvulo, y el otro procede tarde se había unido a un fragmento similar procedente de otro del padre a través del espermatozoide. Esta nueva combinación de cromosoma dividido. Mientras tanto, en 1927, Hermann Joseph Muller - cromosomas que tiene lugar en cada generación tiende a poner de alumno manifiesto los caracteres recesivos que se habían visto antes dejados a bombardeando con rayos X los gametos (los espermatozoides y los un lado por un carácter dominante. Las combinaciones siempre nuevas óvulos de los animales, los granos de polen y los óvulos de las plantas) producen aquellas variaciones de caracteres que más tarde serán se aprovechadas por la selección natural. descubrimiento fue de una gran importancia, porque abrió el camino a de obtiene Morgan- un publica porcentaje un descubrimiento elevadísimo de sensacional: mutaciones. Este investigaciones referentes al proceso de mutación y a la naturaleza y la estructura del gen. Antes de la segunda guerra mundial, la genética 3.3. En el interior del cromosoma: los genes había llegado a establecer que: 1) los genes representan los caracteres hereditarios; 2) están localizados en los cromosomas y asumen un Las cosas no se quedaron aquí, puesto que en el lapso que orden lineal; 3) los cromosomas son constantes, en cantidad y calidad, transcurre entre 1910 y 1920 el zoólogo estadounidense Thomas Hunt para cada especie; 4) dichas estructuras son constantes, pero sin 18 embargo resultan susceptibles de variaciones; 5) «dichas variaciones, durante varios días una mezcla de agua, hidrógeno, metano y las mutaciones, se dividen en tres categorías: génicas, constituidas por amoníaco a una chispa eléctrica proveniente de una corriente de alta el paso de un único gen a un estado de alelo; cromosómicas, frecuencia, y obtuvo moléculas complejas, por ejemplo, aminoácidos, variaciones estructurales de un único cromosoma, con la consiguiente urea, etc. Como es obvio, este experimento no es suficiente para decidir variación del orden lineal de los genes; y mutaciones genómicas, la cuestión acerca del origen de la vida. El problema continúa abierto. variaciones en la cantidad de cromosomas, que en ciertas condiciones y Basta con dejar constancia de ello. con unas limitaciones determinadas, también son posibles» (G. Montalenti). Al mismo tiempo, la biología molecular se había ido desarrollando, y el siguiente gran paso adelante estará constituido por 3.4. El código genérico el descubrimiento del código genético, que lleva el análisis del interior mismo del gen. Todo esto sirve como prueba del gran esfuerzo humano Durante mucho tiempo los genetistas estudiaron los caracteres para capturar entre las redes de la razón la vida y su desarrollo. A este hereditarios dedicándose a poner en claro el mecanismo de su respecto hay que decir que si la teoría de la evolución es un intento de transmisión de un individuo a otro, pero olvidando indagar la naturaleza comprender la historia de la vida, otro problema inevitable -y que de las moléculas que actúan como vectores de dicha transmisión. Se también posee serias implicaciones filosóficas- era y sigue siendo el del conocía la existencia de macromoléculas como las proteínas y los origen de la vida. En definitiva, continúa la antigua controversia sobre la ácidos nucleicos, y se suponía que éstos ejercían un papel fundamental generación espontánea: ¿la vida proviene de la materia, o bien omne en el fenómeno, pero hasta la década de 1940 no se inició un vivum e vivo? Hoy se sabe que ningún organismo, a partir de las tratamiento experimental del problema de las bases moleculares de la bacterias, nace por generación espontánea. Es cierto que el herencia. Hacia 1944, O.T. Avery (1877-1955), del Instituto Rockefeller descubrimiento de los virus filtrables (ultravirus) pareció constituir un de Nueva York, había conseguido pruebas elocuentes de que los paso importante hacia la abiogénesis. Sin embargo, dado que estos rasgos hereditarios se transmitían desde una célula bacteriana a otra a virus son parásitos, no es posible considerados como origen de la vida, través del ácido desoxirribonucleico (ADN). Por otra parte, se sabía ya que presuponen la existencia de organismos más complejos, las desde tiempo atrás que el núcleo de las células animales, que contiene células de las cuales son parásitos. Más interesante resulta la los cromosomas y, por lo tanto, los genes, era el órgano subnuclear propuesta realizada recientemente por H. C. Urey, en 1952-1953, y más rico en ácidos nucleicos experimentada por S. Miller entre 1953 y 1957, referente a la formación macromoléculas de ADN son polímeros constituidos por residuos de de compuestos orgánicos complejos, por ejemplo los aminoácidos, que ácido fosfórico, de un azúcar -desoxirribosa- y de bases azoicas, son las moléculas fundamentales de las proteínas, las cuales a su vez guanina, citosina y timina. constituyen los elementos básicos del protoplasma. Miller sometió y, sobre todo, en ADN. Las 19 A principios de la década de 1950, siguiendo las huellas de los en 1958, en Caltec. Además del ADN, existe otro tipo de ácido nucleico, trabajos de L. Pauling que habían ilustrado la estructura de las el ribonucleico o ARN, presente principalmente en el citoplasma celular proteínas -macromoléculas helicoidales constituidas por diversas y que se distingue del ADN en el tipo de azúcar. En el ARN, se trata de combinaciones de una veintena de aminoácidos- se afrontó el problema ribosa, mientras que las bases azoicas son la adenina, la guanina, la de la macromolécula de ADN, que se suponía poseedora de una citosina estructura helicoidal constituida por diferentes combinaciones de cuatro primordialmente un carácter de filamento único, y su actividad resulta nucleótidos distintos. Cada nucleótido está compuesto por un resto de decisiva -junto con la del ADN- como base molecular del mecanismo de ácido fosfórico, una molécula de desoxirribosa y una de las cuatro transmisión genética. El material genético de la vida y todo lo que en el bases azoicas. Las investigaciones se efectuaron empleando métodos pasado se identificaba mediante el nombre de gen está constituido por químicos y cristalográficos, y para la solución del problema fueron de el ADN, mientras que la rama biológica que trata de extraer -estudiando importancia los datos recogidos por E. Chargaff (nacido en 1905) que el comportamiento de moléculas como el DNA y el RNA- las leyes que había demostrado en diversas muestras de ADN la igualdad de restos regulan la transmisión de la herencia, recibe el nombre de «biología de timina y adenina, y la de restos de citosina y guanina. La idea de molecular». y el uracilo. La estructura del ARN parece asumir colocar los componentes moleculares de ADN en forma de doble hélice estabilizada por las interacciones entre bases azoicas complementarias A partir de 1941 se sabía que cada gen controla la formación de una -respectivamente, adenina-timina y citosina-guanina- fue elaborada en enzima, como fue demostrado por G.W. Beadle (n. 1903) y E.L. Tatum Cambridge por F. Crick y J. Watson (n. 1928), mientras que los datos de (n. 1909). Puesto que las enzimas son proteínas -es decir, filamentos difracción de los rayos X necesarios para verificar dicho modelo fueron constituidos por bases azoicas- pronto se puso de manifiesto que la proporcionados por M. Wilkins (n. 1916). secuencia de bases del ADN podía determinar en cierto modo la secuencia de aminoácidos de las proteínas. El problema residía en El modelo de doble hélice consta de dos cadenas polinucleotídicas entender cómo un alfabeto compuesto por cuatro letras podía que giran en sentido necesariamente helicoidal debido a los requisitos representar a un grupo de unas veinte letras. Puesto que combinando estructurales de las bases azoicas y de los puentes de hidrógeno que las cuatro bases, dos a dos, sólo se obtienen 16 combinaciones, quedó forman de modo complementario. La naturaleza complementaria de las en evidencia que era necesario combinar las bases tres a tres para series de bases justifica el proceso de duplicación, es decir, la obtener 64 combinaciones, que eran más que suficientes para formación de dobles hélices partiendo de una hélice doble en la que se representar los veintiún aminoácidos presentes en las proteínas. Así, separan los dos filamentos. El ADN da lugar a un tipo de duplicación cada «triplete» de bases azoicas representa un aminoácido. llamado semiconservador, y el hecho de que cada filamento de ADN dé origen a una nueva doble hélice fue descubierto por Meselson y Stahl 20 En 1955 S. Ochoa logró sintetizar ARN in vitro y en 1956 A. Kornberg obtuvo -también in vitro- ADN. En 1961 F. Jacob y J. Monod representarse así -de modo abreviado-la secuencia de todo el proceso de biosíntesis proteica. demostraron la existencia de un ARN mensajero, es decir, una macromolécula de ARN que se sintetiza según el modelo de ADN La copia del ADN Y la transcripción del ARN mensajero se llevan a (proceso de transcripción) y se engancha a los ribosomas, partículas cabo gracias a las posibilidades de acoplamiento estereoespecífico de subcelulares del citoplasma donde tiene lugar la síntesis proteica. El bases azoicas complementarias: la adenina reconoce la timina, y la ARN mensajero es una especie de cinta que contiene la secuencia citosina reconoce la guanina. El proceso de traducción se realiza a proteica, escrita en código de triplete. través de vectores intermedios, que son moléculas de ARN t, capaces de ligar tanto aminoácidos como bases azoicas. Existen, pues, una Dicha cinta es leída por el ribosoma, que puede así construir la veintena de ARN t que son capaces cada uno de ellos de fijar un proteína correspondiente a la secuencia especificada en la molécula del aminoácido, y están provistos de un lugar que reconoce una tripleta de ARN mensajero. En los años 60 M.W. Nirenberg y J.N. Matthei - ARN mensajero. El ARN t se dispone sobre el ribosoma y allí lee la incubando con extractos de Escherichia coli moléculas de ARN sintético cinta del mensajero que transporta el aminoácido especificado en el constituidas por una sola base, uracilo- lograron formar un polipéptido mensaje. De este modo se construye la secuencia de aminoácidos del constituido por una secuencia de un solo aminoácido, polifenilalanina. ribosoma que posee la maquinaria enzimática necesaria para comenzar El aminoácido y terminar la lectura de la secuencia escrita en el ARN mensajero. El fenilalanina, y este descubrimiento permitió descifrar la clave del código descubrimiento del código genético ha permitido interpretar de modo genético, igual que la piedra Rosetta permitó descifrar los jeroglíficos mecanicista fenómenos como la reproducción, la herencia, las egipcios. Todo el código fue puesto en claro por Nirenberg, Crick, variaciones y las mutaciones. Dicho código es universal y por lo tanto Khorana y otros, que identificaron el significado de los 64 tripletes que representa un lenguaje común a todos los organismos, desde los virus constituían el código mismo. Los tipos de ARN identificados en la célula hasta las bacterias, las plantas y los animales. Se trata de una son el ARN ribosómico, con un elevado peso molecular; el ARN importante etapa en la realización del programa que aspiraba llevar el mensajero, y un ARN soluble llamado ARN transferente o ARN t. El fenómeno de la vida al interior de la razón. triplete uracilo-uracilo-uracilo designaba así al proceso mediante el cual la información genética se transmite del ADN al ARN se llama «transcripción», y es una enzima -el ARNpolimerasa- la que cataliza la síntesis del RNA mensajero sobre el modelo constituido por el ADN. La síntesis de la cadena polipeptídica que concreta en la secuencia proteica la información procedente del ADN tiene lugar en el proceso llamado de «traducción». En consecuencia, puede