2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA SEGUNDA REVOLUCIÓN CIENTÍFICA DEL MUNDO MODERNO (PARTE I) James Clerk Maxwell el hombre que cambió el mundo para siempre. El 20 de diciembre de 2013 la LXVIII Asamblea General de la ONU proclamó el año 2015 como el AÑO INTERNACIONAL DE LA LUZ Y LAS TECNOLOGÍAS BASADAS EN LA LUZ. La Resolución 2015, fue traducida desde entonces a todos los idiomas oficiales de la ONU. Poco puede entenderse del mundo de la vida contemporánea si se desconoce la revolución científica que la originó a mediados del siglo XIX. El año 2015 se cumplió el 150 aniversario de la publicación del legendario artículo del físico escocés James Clerk Maxwell: A Dynamical Theory of the Electromagnetic Field [1865]. También se cumplió el bicentenario de las contribuciones de Augustin-Jean Fresnel a las ecuaciones ondulatorias de la teoría de la luz en 1815 y 110 años del artículo “Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz” sobre el efecto fotoeléctrico (1905)1 de un joven físico alemán, Albert Einstein. Se cumplieron igualmente los cincuenta años del descubrimiento de la Radiación Cósmica de fondo por Arno Penzias y Robert Wilson y del descubrimiento de la Transmisión de luz por fibras ópticas para comunicaciones, por Charles Kuen Kao (ambos de 1965). 1 EINSTEIN, A. (1905): “Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt” (Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz). En Annalen der Physik 17, 132-148. Versión inglesa en: Beck (1989), 86-103. Número de Annalen der Physik 17, 132-148, en el que se publicó el artículo de Einstein sobre el efecto fotoeléctrico Las aplicaciones de la ciencia y la tecnología de la luz son esenciales para entender la segunda gran revolución industrial que esta produjo en todo el mundo en la segunda mitad del siglo XIX. El acceso masivo a la información y las comunicaciones, desde el lejano telégrafo, la radio y la telefonía sin hilos, hasta la televisión y el paradigmático internet, fueron apenas unos cuantos resultado de esta revolución científica y social. Hasta las tecnologías más domésticas y cotidianas como los teléfonos móviles, el control remoto que usamos para ver la televisión, oír música o calentar la comida en el microondas, las nuevas fuentes de energías renovables y eficientes que limitaron el despilfarro y redujeron la contaminación de la energía producida del carbón, la madera y el petróleo. La revolución de los nuevos materiales como la fibra óptica, los cambios en la minería tradicional, en la construcción, en la industria automotriz, en la aviación y los viajes espaciales, en la arquitectura, la arqueología, en el arte y la cultura de masas como el cinematógrafo, entre tantas otras cosas que configuran en su conjunto el mundo actual. La misma formulación matemática de la estructura ONDULATORIA de la luz propuesta inicialmente por Christian Huygens, Thomas Young2 y formulada por Agustín Fresnel en 1815, culminó en apenas 50 años con el desarrollo de la teoría electromagnética de la propagación de la luz (o Teoría del Campo Unificado) formulada por el físico Escocés James Maxwell en 1865. Fue a estas ecuaciones, a las que el científico holandés Hendrik Antoon Lorentz introdujo en 1900 un conjunto de transformaciones “grupo de Lorentz” bajo el cual las ecuaciones de Maxwell adquirieron consecuencias imprevisibles que condujeron a la Teoría Generalizada de la Relatividad y al nacimiento de la Física Cuántica durante el siglo XX. 2 El denominado experimento de la doble rendija, fue realizado en 1801 por Thomas Young - Físico, médico y egiptólogo británico-, en un intento de discernir sobre la naturaleza corpuscular u ondulatoria de la luz. Young comprobó un patrón de interferencias en la luz procedente de una fuente lejana al difractarse en el paso por dos rejillas, resultado que contribuyó a la teoría de la naturaleza ondulatoria de la luz. Hendrik Antoon Lorentz Tales modificaciones cambiaron nuestra visión del mundo y nuestro mismo PARADIGMA FILOSÓFICO CONTEMPORÁNEO DE CIENCIA de una manera radicalmente diferente al PARADIGMA MECANICISTA MODERNO de ciencia fundado por Copérnico, Galileo, Descartes y Newton. Se puede resumir este cambio, en la célebre observación de Werner Heisenberg en 1979: “El influjo más fuerte sobre la Física y la Química de los últimos siglos lo ejerció sin duda la doctrina atómica de Demócrito […] Hoy, lo que realmente hace falta es un cambio en los conceptos fundamentales. Tendremos que abandonar la filosofía de Demócrito y el concepto de partícula elemental. Y en su lugar deberíamos aceptar el concepto de simetrías fundamentales que deriva de la filosofía de Platón […] No creo que aparte de este cambio conceptual vaya a haber ninguna otra ruptura espectacular”3. «SOLO EXISTEN LOS ÁTOMOS» Desde su nacimiento, la mecánica moderna dio la respuesta de Demócrito como método de investigación y de explicación científica: “Por convención es lo dulce y lo amargo, lo caliente y lo frío, por convención es el color; en realidad solo existen los átomos y el vacío”. El atomismo no era, por supuesto, una tesis filosófica novísima, ni específicamente moderna. Fue sostenida primero por los pitagóricos, que identificaron la unidad mínima de los números enteros positivos con el punto geométrico. La paradoja matemática estalló con el célebre Teorema de Pitágoras: cualquier dimensión, por mínima que sea, es siempre divisible ad infinitum, dando lugar a lo que los griegos llamaron “números irracionales” imposibles de expresar en números enteros positivos. Como mostraron las aporías de Zenón, el atomismo resultaba contradictorio con la experiencia sensible y absurdo por la vía inteligible. Leucipo y Demócrito, reformularon la ontología atomista matemática del pitagorismo y le dieron su forma fisicalista clásica. No definieron el átomo por su dimensión geométrica, 3 Werner Heisenberg; «Tradition in Science». Science and Public Affairs-Bulletin of the Atomic Scientists, 29, N° 10, p. 410 [1973]. Trad al español en: Encuentros y conversaciones con Einstein y otros ensayos. Madrid, 1979, Alianza Editorial, pp. 23-24 y 89-90. sino a partir de una propiedad física, teórica y empíricamente evidente: su impenetrabilidad4. Del hecho, de que dos cuerpos no pueden ocupar un mismo lugar se sigue que deben existir unidades mínimas absolutamente densas, simples (sin partes) y por tanto indivisibles e inmutables. Así los describe Lucrecio en el Lib I, versos 599-614 de su Rerum natura: como “sólidos y simples”. Una sola pregunta quedaba en pie: ¿Cuál era el origen causal del movimiento de los átomos? ¿Tenía que existir algo más aparte de los átomos y el vacío? ¿Un vórtice o torbellino inicial –como sostuvo Descartes que suplantara una causa metafísica final al desencadenar las interacciones atómicas y la formación de todos los cuerpos compuestos conocidos? GALILEO Galileo fue quien formuló el primer axioma o principio de la MECÁNICA TEÓRICA MODERNA (luego consagrado por Newton como Primera Ley de la Física o Ley de la Inercia) en su obra de 1638 Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias5. Con ella buscó independizar la Física de todo supuesto Metafísico respecto a una primera causa externa, así como de la paradoja de la infinita divisibilidad de cualquier magnitud matemática (como los pitagóricos) o geométrica (como la de “extensión” de Descartes) positiva. Galileo formuló una PROPIEDAD FÍSICA INTRÍNSECA DE UN CUERPO AISLADO, que denominó Gravedad (gravitá)6. Definió la gravedad como la “cantidad de masa inercial” que posee un cuerpo para ser tal (cantidad que vulgarmente designamos como “peso”)7. En la medida que la masa es constante e invariante, origina el movimiento más simple, natural y espontáneo: el movimiento uniforme y rectilíneo que caracteriza el movimiento inercial, como el de la caída de un cuerpo en un espacio vacío, independientemente de su relación con otro. 4 Kirk G. S., J.E. Raven y M. Schofield; Los filósofos presocráticos, Historia, Crítica con selección de textos, BHF 63, Ed. Gredos, Madrid, 1987, pp. 566 y 567. 5 Galileo Galilei; Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias. Madrid, 1981, Editora Nacional, pp. 93, y 97-101. 6 “…un cuerpo pesado tiene, por naturaleza, un principio intrínseco que lo mueve hacia el centro común de los graves (hacia el centro de nuestro globo terrestre) con movimiento continuamente acelerado y siempre igualmente acelerado en tiempos iguales […] con la condición de que se eliminen todos los obstáculos accidentales y externos.” Galileo Galilei; Consideraciones…, op. cit. pp. 164-165. 7 Aunque el término “peso” (el que medimos con una balanza) técnicamente se refiere a la “masa gravitacional” y no a la inercial. El movimiento inercial en un espacio vacío no requiere de una explicación causal o teleológica (no necesita de “causas primeras”, “causas ocultas” o “lugares naturales”), es simplemente la consecuencia de una propiedad intrínseca de un “cuerpo” o de un “sistema mecánico” de poseer masa. En un sistema mecánico, todos los demás movimientos son variables del movimiento inercial y no serían sino un producto de la acción directa de otro cuerpo (por choque), o por rozamiento (una superficie) u oscilación de un medio (aire, agua, gases, etcétera), que pueden desviarlo, acelerarlo, desacelerarlo, curvarlo, dando lugar a todos los movimientos compuestos. Galileo demostraba la composición de los movimientos curvos con el ejemplo de la parábola que describía la trayectoria de un proyectil, análoga a la trayectoria que describía una bola que se desliza por un plano inclinado. En consecuencia, todo movimiento solo puede ser descrito y explicado en términos locales y por acción directa, descartando todo tipo de “causas ocultas” o “acciones a distancia”. La centralidad del concepto de masa, abrió pronto otro enigma: ¿Qué es el vacío? ¿Cómo puede existir algo donde no hay” nada”? ¿Es un sinsentido postular la existencia de la nada? Peor aún, sugerir que tiene la propiedad física material de “extensión” (¿de la nada?). Descartes otro de los padres del mecanicismo se dio cuenta de esta aporía instalada en la primera ley de la mecánica moderna. Solo quedaban dos posibilidades: 1. Eliminar la hipótesis del vacío. Pero ello traería abajo el principio de inercia que lo presupone y con ello el derrumbe de todo el sistema teórico mecanicista construido sobre dicho principio, o, 2. Añadir otro principio independiente que lo complemente para explicar las interacciones entre los cuerpos que no se derivan del principio inercial. Según el propio Descartes, la hipótesis del vacío, “tomada en la acepción de los filósofos, esto es, como aquello en que no hay absolutamente sustancia alguna”. Resulta contradictorio afirmar “que hay extensión de la nada… pues cuando nada hay entre dos cuerpos, es forzoso que se toquen mutuamente”8. A partir de esta crítica, Descartes va a elaborar la conjetura de la existencia de una “materia sutil" o “éter” que llenaría el espacio aparentemente vacío entre los cuerpos. Este plenum permitiría explicar interacciones como la gravitatoria, existentes entre los planetas, que suponemos están separados por inmensos espacios vacíos, sin tener que postular inexplicables “interacciones a distancia” a través del espacio vacío. 8 Descartes, René; Los principios de la filosofía. Buenos Aires, 1951, Losada, “Segunda parte”, pp. 44-45. Pero el costo de esta hipótesis era demasiado alto, pues sacrificaba el principio del movimiento inercial y tampoco se presentaba como una hipótesis con mayor respaldo empírico que la del vacío. NEWTON Newton, en un principio, vio con cierta simpatía la hipótesis cartesiana. En una carta a Boyle –fechada el 28 de febrero de 1678- expone sus simpatías por la hipótesis cartesiana: Supongo que existe una sustancia etérea difundida por todas partes, capaz de contraerse o dilatarse, sumamente elástica… muy parecida al aire… pero mucho más sutil […] cuando dos cuerpos se aproximan… el éter entre ambos comienza a rarificarse […] finalmente… el exceso de presión del éter externo […] es tan grande como para vencer la resistencia que tienen los cuerpos a entrar en contacto […] ese exceso de presión los juntará con violencia y hará que se adhieran mutuamente9. Todavía en su carta a Bentley del 25 de febrero de 1692 resumió el motivo de su decisión: Que la gravitación sea innata, intrínseca y esencial a la materia, de suerte que un cuerpo pueda actuar sobre otro a distancia, a través del vacío, sin la mediación de ninguna otra cosa a través de la cual su acción pueda pasar de uno a otro, me parece a mí un absurdo tan grande que no creo que hombre alguno que piense con sensatez en materias filosóficas pueda jamás caer en él10. Pero, rodeado en la Roya Society de un ambiente baconiano radicalmente experimentalista y hostil a toda especulación metafísica, optó finalmente por la segunda y formuló la ley de gravitación como un axioma independiente, que no se deducía del principio inercial. Hasta aquí hemos explicado los fenómenos de nuestro cielo y nuestro mar como fuerza gravitatoria, pero no hemos asignado aún causa a esa fuerza […] ni voy a fingir hipótesis, pues las hipótesis metafísicas carecen de lugar en la filosofía experimenta Ya es bastante que la gravitación realmente exista y actúe con arreglo a las leyes que hemos expuesto […]. Podríamos adelantar algo sobre cierto espíritu sutilísimo por cuya fuerza y acción las partículas de los cuerpos se atraen unas a otras cuando se encuentran a escasa distancia […] Pero no disponemos de la cantidad suficiente de experimentos para determinarlo con precisión y demostrar mediante qué leyes opera este espíritu eléctrico y elástico11. 9 Newton Isaac; Selección de textos. Bs. As. 1943, Espasa-Calpe, pp. 92-95. Citado por R. G. Collingwood; Idea de la naturaleza. México, 1950, FCE, pp. 170-71. 11 Newton, Isaac; Principios matemáticos de la filosofía natural y su sistema del mundo. Madrid, 1982, Editora Nacional, pp. 816-817. 10 Newton optó por preservar el principio de inercia de Galileo (Primera ley del Movimiento). Con ello preserva la extraña y paradójica hipótesis del espacio vacío o absoluto (in it self) carente de masa, que presupone el movimiento inercial uniforme y rectilíneo. A partir de estos de estos dos elementos deduce la Segunda ley del movimiento, o variación del estado inercial primitivo, resultando por composición o “suma de movimientos” que remite a la aceleración que otro cuerpo o fuerza le imprime en la misma dirección del movimiento inercial, que se obtiene multiplicando la masa de un cuerpo (K=m x v) por la velocidad. La tercera ley del movimiento, (acción y reacción) plantea la inversa: a toda acción de un cuerpo sobre otro en sentido contrario de su dirección inercial, le corresponde una reacción igual y en sentido contrario equivalente a la masa inercial o “resistencia al cambio de su inercia”. A su vez, cuando una fuerza o cuerpo externo modifica la velocidad y dirección del movimiento de un cuerpo por choque o resistencia de un medio (rozamiento), dependiendo del punto de contacto, se deducen un conjunto de trayectorias curvadas. A continuación procedió a añadir un nuevo principio independiente que denominó fuerza gravitatoria, para describir todas las variables interacciones físicas en términos relativos a las proporciones espaciales (distancias entre los cuerpos) y la cantidad de masa de un cuerpo en movimiento, desde las mareas hasta los planetas. EL ENIGMA DE LA «ACCIÓN A DISTANCIA» Todavía a fines del siglo XVIII (1796), el viejo Kant admitía que si bien «el sistema de la gravitación universal de newton se mantiene, conlleva la dificultad de no poder explicar cómo es posible la acción a distancia»12. En la mecánica todos los fenómenos del mundo físico pueden explicarse como resultado de las múltiples interacciones entre cuerpos materiales en movimiento: a) el movimiento lineal o inercial con un solo grado de libertad b) el movimiento por choque y dispersión de cuerpos materiales y c) el movimiento por oscilaciones pequeñas de un medio en las proximidades de su posición de equilibrio estable. Así, el comportamiento de los tres estados básicos de la materia puede ser descrito de la siguiente manera: el sólido como un conjunto discreto de partículas materiales que mantienen entre si distancias invariantes. Un líquido puede ser descrito por las oscilaciones de un medio en las proximidades de cierto rango de dispersión de sus partículas que le permiten un cierto grado de equilibrio. Un gas, puede ser descrito como una enorme congregación de partículas materiales que por múltiples choques y dispersión de sus partículas no mantienen distancias invariantes. La mecánica estadística permite trazar una media del incremento de la energía cinética (que vulgarmente denominamos “calor”) que dichas interacciones aparentemente desordenadas originan. Este procedimiento permite entonces calcular estadísticamente las variaciones en conjunto de la estructura y movimiento de dicho sistema mecánico. La Ley de gravitación de Newton permitió generalizar el modelo de explicación mecanicista como interacciones lineales entre cuerpos materiales a todos los ámbitos del 12 Kant Enmanuel; Principios metafísicos de la ciencia de la naturaleza. Madrid, 1989, Alianza Editorial, p. 41. mundo físico, sea por acción directa (choque, rozamiento u oscilación de un medio) o por acción a distancia, que suponía la hipótesis de vacío. La mecánica clásica –según Einstein– sugiere la conjetura de que todos los fenómenos pueden explicarse por la acción de fuerzas de atracción o repulsión, la cual depende únicamente de la distancia y obra entre partículas invariantes13. Fue así como el físico francés Charles-Agustin de Coulomb, elaboró el principio fundamental de la electrostática o ley de Coulomb (1785), estableciendo que la fuerza de atracción (o repulsión) entre dos cargas eléctricas puntuales de distinto (o igual) signo es directamente proporcional al producto del valor de sus cargas e inversamente proporcional al cuadrado de la distancia que las separa: Thomas Young Coulomb Alessandro Volta La primera pila eléctrica (llamada desde entonces PILA VOLTAICA), fue dada a conocer por el científico italiano Alessandro Volta en 1800 mediante una carta que envió al presidente de la Royal Society londinense. Inició la era eléctrica en que vivimos y la investigación experimental de la mecánica de funcionamiento físico de las leyes de Coulumb. La pila estaba conformada por una serie de pares de discos (apilados) de zinc y cobre, separados unos de otros por trozos de cartón que medían unos 3cm de diámetro. Las placas eran de diferente potencial, la de cobre tenía más alto potencial que la de zinc y ambas estaban sumergidas en dos recipientes llenos de una solución acuosa de ácido sulfúrico, unidas por un alambre conductor. De acuerdo con las leyes de Coulumb, debería producirse un flujo eléctrico de una a otra, hasta anular la diferencia de potencial y al establecerse el equilibrio debía cesar todo el fujo eléctrico. NUEVA PIEZA DEL ROMPECABEZAS Pero resultó que sus cargas se restablecían continuamente después de cada descarga creando una carga ilimitada que perpetuaba el flujo eléctrico, cuando, según las leyes de Coulumb –tratándose de un sistema aislado este debía agotarse y cesar. Era como si de pronto el flujo eléctrico adquiriese vida propia, independientemente de la fuente emisora material. Más aún, el flujo eléctrico generaba también una notable cantidad de calor, que nadie había asociado a la electricidad, lo que implicaba una triple transformación de energía química en 13 Einstein Albert y L. Infield; La física aventura del pensamiento…, Buenos Aires, 1945, Losada S. A., p.81. eléctrica y de esta en calorífica. Las que eran consideradas como entidades independientes solo eran momentos de un flujo continuo. El método mecanicista se extendió también al magetismo, fenómeno que se explicaba por la interacción proporcional entre dos polos magneticos. Al situar la aguja imantada de una brújula en las proximidades del hilo conductor de un circuito eléctrico por el que fluye corriente, la brújula abandona su posición norte sur para reorientarse en una dirección perpendicular al hilo. Esta sencilla experiencia, realizada por el físico danés Hans Christian Oersted en 1819, ofreció la primera prueba de la relación entre la electricidad y el magnetismo. De ello se deduce que las cargas eléctricas en movimiento generan en el espacio circundante un campo eléctrico y otro magnético de dirección perpendicular al anterior. No se trataba entonces de una interacción lineal simple, sino que las fuerzas electromagnéticas describían todo un “campo difuminado” alrededor de los cuerpos materiales. De manera que el campo no es creado por el cuerpo mismo sino por el movimiento de la carga eléctrica, dependiendo de la velocidad de la corriente, independientemente del cuerpo material estático que la produce. A los experimentos de Oersted se añadieron en 1831 los experimentos del físico inglés M. Faraday, que demostraron el proceso inverso. La ley de inducción electromagnética de Faraday estableció que el voltaje inducido en un circuito cerrado es directamente proporcional a la rapidez con que cambia en el tiempo el flujo magnético. De manera que las variaciones en la intensidad del campo electromagnético no dependen de la distancia entre dos cuerpos materiales sino de la velocidad de las cargas electromagnéticas. Se trataba de un proceso físico realmente autónomo de los cuerpos con masa. Fizeau Orsted Faraday Joule Finalmente, el físico británico James Prescott Joule que en 1843 extendió el mismo formalismo en la Ley de transformación de la energía eléctrica en energía calorífica, según la cual, la cantidad de calor producida en un conductor al paso de la corriente eléctrica es directamente proporcional a la resistencia del mismo conductor e inversa al cuadrado de la intensidad, por el tiempo de duración de la corriente inducida [E= (V2/R) x t] Hacia la culminación de la primera mitad del siglo XIX la investigación de los fenómenos luminosos y ópticos, desde los pioneros trabajos de Huygens (un contemporáneo de Newton), Young, Fresnel, Fizeau14 y muchos otros, los había ido alejando progresivamente de la concepción corpuscular de la mecánica newtoniana, conduciéndolos progresivamente a una concepción ondulatoria de la estructura de la luz (vibración de un medio) de manera análoga al sonido (que suponía la vibración del aire). Pero esta analogía era muy limitada, pues a diferencia del sonido, la luz se desplazaba en inmensos espacios vacíos, como en el caso de la luz solar y otros cuerpos celestes. Resultaba entonces un absurdo suponer la “vibración del vacío”. pero tampoco se tenía como justificar su propiedad ondulatoria, como vibración hipotética de un “eter luminoso” que aparecía como una pieza del rompecabezas que no se sabía exactamente como encajaba en el conjunto de la física mecanicista. Agustín Fresnel Peor aún, la estructura ondulatoria, depende de la densidad del medio vibrante para su interpretación física. Un medio extremadamente fino y sutil (casi indistinguible del vacío) correspondería necesariamente a un tipo vibratorio de onda longitudinal. Pero las investigaciones del matemático francés Agustín Fresnel sobre la disfracción de la luz entre 181515 y 1818, lo llevaron a confirmar experimentalmente la exactitud de su integral que suponían la estructura ondulatoria “transversal” y no longitudinal de las ondas de luz. La integral de Fresnel permitió calcular experimentalmente los patrones de difracción generados por obstáculos y aberturas y explicar de forma satisfactoria la propagación 14 Hippolyte Fizeau (1819- 1896) concretó en 1849 un experimento clásico. Al hacer pasar la luz reflejada por dos espejos entre los intersticios de una rueda girando rápidamente, determinó la velocidad que podría tener la luz en su trayectoria, que estimó aproximadamente en 300.000 km./s. Después lo siguió su colaborador León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del agua. Ello le iba a servir de criterio entre la teoría corpuscular y la ondulatoria. La primera, requería que la velocidad fuese mayor en el agua que en el aire. En sus experimentos, Foucault logró comprobar en 1851, que la velocidad de la luz en el agua es inferior a la que desarrolla en el aire. Con esto la teoría ondulatoria adquiere preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada por Maxwell. Leer más: http://www.monografias.com/trabajos5/natlu/natlu.shtml#ixzz3vqgufCV8 15 En 1815 Agustín Fresnel publicó el artículo «Premier Mémoire sur la Diffraction de la Lumière». rectilínea en medios homogéneos, eliminando así la objeción principal de Newton para la teoría ondulatoria. Representación de onda electromagnética polarizada plana. Campos eléctricos (E) y magnético (B) están en fase, perpendiculares entre si y a la dirección de propagación de la onda. Fuente: Investigación y Ciencia. Ed. española de Scientific American.2009 abril 2816. También permitió describir con exactitud el fenómeno de la polarización, comprobando que dos luces cuyas polarizaciones son perpendiculares no interfieren, por lo que concluyó que la luz era una onda transversal. Es decir, presuponían un medio tan denso como una gelatina. LA OTRA MITAD DEL MUNDO: LA ELECTRODINÁMICA Como consecuencia de las investigaciones brevemente reseñadas en este artículo, a mediados del siglo XIX aparece entre los cuerpos materiales (allí donde la mecánica newtoniana registraba un vacío absoluto), la realidad del campo electromagnético, como una realidad autónoma que nadie había detectado y llenaba todo el espacio circundante de los cuerpos materiales. Este proceso culminó en 1865, hace 150 años, cuando el físico escocés James Clerk Maxwell llevó adelante la hazaña de sintetizar en un solo sistema de ecuaciones, independientes de las ecuaciones de la relatividad de Galileo, las leyes que rigen el campo electromagnético unificado. A partir de este momento cambió irreversiblemente nuestra mirada del mundo. Durante una de las visitas que Albert Einstein realizó a Cambridge (Inglaterra), alguien le señaló que había llegado tan lejos solo porque se subió a los hombros de Newton. Einstein le replicó tajante: «Eso es falso. Yo me subí en los hombros de Maxwell». La Teoría del Campo Unificado de Maxwell implicaba una estructura legal completamente distinta a las ecuaciones de la mecánica. El procedimiento analítico de la Mecánica privilegiaba el rol determinante de las entidades (invariantes) sobre las interacciones 16 Ángel Gozález Ureña;«Descubrimiento de las ondas de Radio: la confirmación de la Teoría Electromagnética». En: http://www.investigacionyciencia.es/blogs/fisica-y-quimica/10/posts/descubrimiento-de-las-ondas-de-radio-la-confirmacin-de-la-teoraelectromagntica-10186 . variables; la Electrodinámica privilegia el papel determinante de las relaciones abstractas o sistémicas (campo) sobre las entidades. En esta inversión metodológica parece residir esencialmente el cambio de paradigma de la ciencia contemporánea. Se trata de leyes estructurales que describen relaciones sistémicas y no en función de entidades. No relacionan objetos en función de distancias sino una sucesión de acontecimientos y transformaciones en el tiempo. Las ecuaciones de Maxwell nos permiten seguir algo así como LA HISTORIA DEL CAMPO, no solo en el formalismo sino también en la interpretación física, pues nos introduce a la historia del sistema de relaciones y no a la historia de las cosas o individuos. La red de interacciones electromagnéticas, son más reales que los cuerpos que poseen masa. El campo unificado es como una especie de nube o engrudo donde los cuerpos que poseen masa constituyen apenas algunos grumos del engrudo. El trabajo de Maxwell se desarrolló entre 1856 («On Faraday's Lines Of Force»17), 1861 ("On Physical Lines of Force") y 1865 ("A Dynamical Theory of the Electromagnetic Field”)18 y culminó en 1873 con su Treatise on Electricity and Magnetism, donde revisó sus papeles y reunió los resultados de 17 años de investigación. Treatise on Electricity and Magnetism [1873] Cuando Maxwell, publicó en 1865 su trabajo A Dynamical Theory of the Electromagnetic Field acababa de cumplir 34 años. Envió previamente un breve resumen del mismo a la Royal Society el 27 de octubre de 1864. Una primera versión del trabajo fue leída por Maxwell ante esta sociedad el 8 de diciembre de ese año. Una vez que Maxwell concluyó el artículo, lo remitió el 23 de marzo de 1865 a George Stokes, Secretario de Ciencias Físicas de la Royal Society y tras varias revisiones fue aceptado el 15 de junio de 1865 para su publicación. Tal como reseñamos, ya se conocían muchas leyes individuales sobre el comportamiento de la Electricidad, de la luz y del Magnetismo, pero no se tenía una teoría formal que explicara de manera unificada los fenómenos de naturaleza electromagnética conocidos. 17 18 J. Clerk Maxwell; Transactions of the Cambridge Philosophical Society. Vol. X, Part I, 1856, feb.11, pp. 158-209. J. Clerk Maxwell; Philosophical. Transaction.of the Royal. Society. London. 1865. N° 155, pp. 459-512, published 1 January 1865. Maxwell propuso inicialmente veinte ecuaciones que denominó “ecuaciones generales del campo electromagnético” y que relacionan veinte variables que rigen el comportamiento de la interacción electromagnética. El artículo consta de 53 páginas y contiene siete partes y en su conjunto proporcionan una base teórica completa para el tratamiento de los fenómenos electromagnéticos clásicos. No fue hasta 1884 cuando Oliver Heaviside (1850-1925)19, utilizando Análisis Vectorial redujo las 20 ecuaciones del campo electromagnético a las cuatro ecuaciones en forma vectorial que conocemos hoy en día. Oliver Heaviside (1850-1925) Fue precisamente la visión de conjunto lo que permitió a Maxwell reunir todos los resultados parciales acumulados previamente en un todo armonioso: La ley de Gauss del campo eléctrico20, la ley de Gauss del campo magnético, la ley de Faraday-Henry de la inducción electromagnética y la ley de Ampére-Maxwell. Carl Friedrich Gauss André-Marie Ampère (1775- 1836) Maxwell armó un modelo físico-matemático capaz de explicar no solo la totalidad de los fenómenos conocidos en esa época, sino también predecir nuevas ondas electromagnéticas entonces desconocidas. La gran contribución de James Clerk Maxwell fue reunir en estas ecuaciones largos años de resultados experimentales debidos a Coulomb, Gauss, Ampere, Faraday y otros, 19 20 Sus trabajos publicados incluyen numerosos papers y artículos, entre ellos: Electromagnetic Waves (1889), Electrical Papers (1892) y Electromagnetic Theory (3 vols 1893-1912). La ley de Gauss establece que: el flujo de campo eléctrico neto a través de cualquier superficie cerrada (Gaussiana) es proporcional a la carga eléctrica neta encerrada por dicha superficie dividida por la permisividad eléctrica del vacío o del aire. La superficie cerrada empleada para calcular el flujo del campo eléctrico se denomina superficie gaussiana. La Ley de Gauss es una de las ecuaciones de Maxwell y está relacionada con el teorema de la divergencia, (o teorema de Gauss). Fue formulada en 1835, pero no fue publicada hasta 1867. Bellone, Enrico (1980). A World on Paper: Studies on the Second Scientific Revolution. introduciendo los conceptos de campo y corriente de desplazamiento, unificando los fenómenos eléctricos y magnéticos en un solo concepto: el campo electromagnético. El desarrollo del Electromagnetismo permitió comprender el mecanismo de interacción entre cuerpos, invalidando la casi mágica interacción denominada “acción a distancia” que implícitamente establecía el mecanicismo y suponía la Ley de Coulomb. La Teoría de Relatividad Especial formulada por Einstein en 1905 (40 años después), se basa implícitamente en las ecuaciones de Maxwell pues ellas se cumplen con rigor en todos los sistemas inerciales, lo que permite deducir naturalmente las transformaciones del campo magnético de Lorentz como relaciones únicas de transformación de coordenadas entre sistemas inerciales. La primera ecuación de Maxwell se fundamenta en el diseño experimental formulado por Faraday en 1831, sobre la fuerza electromotriz inducida. Según este, un campo eléctrico se genera, cuando hay un movimiento relativo del imán con el conductor eléctrico. La fórmula matemática de la ley de Faraday sería: El miembro izquierdo de la ecuación (campo eléctrico), define la fuerza eléctrica inducida en el conductor. La curva C, se define por el conductor (alambre de cobre). El segundo miembro es la variación temporal (movimiento del imán) del flujo magnético a través de la superficie que tiene por borde a la curva C. no es que el campo eléctrico sea creado por el campo magnético sino por el movimiento relativo de ambos. La segunda ecuación de Maxwell, también se basa en los experimentos de inducción eléctrica de Faraday (1831), donde una carga Q es encerrada por un recipiente conductor inicialmente neutro, pero sin establecer contacto directo con el cuerpo cargado. El recipiente conductor reordena sus cargas (fenómeno de inducción) de tal manera que las superficies interior y exterior del recipiente quedan cargadas con signo opuesto. La carga total inducida en cada superficie resulta de magnitud exactamente igual a la de la carga encerrada. La expresión matemática de ambas ecuaciones fue dada por Gauss y reformulada por Heaviside con la actual forma vectorial, utilizando el campo de “inducción” D, que fuera definido y medido por Faraday: El primer miembro es el flujo del campo D a través de cualquier superficie que encierre la carga Q, mientras que el segundo miembro representa la carga total encerrada. La tercera ecuación de Maxwell, se basaba en la Ley de Ampère. Hasta el año 1820 se pensaba que la electricidad y el magnetismo no eran fenómenos relacionados. En una conferencia que daba Oersted, posó una brújula sobre un conductor con corriente provocando que la aguja se orientara de manera transversal al conductor. De casualidad, descubrió que una corriente eléctrica está rodeada por un campo magnético. Pero no logró dar una explicación satisfactoria, pues buscaba una relación causal entre magnetismo y electricidad. Fue el gran físico matemático francés A. Ampère, quien dio la expresión matemática del fenómeno (que lleva su nombre). Hoy sabemos que las corrientes eléctricas y el campo magnético asociado no son causa y efecto ya que ambos, corriente y campo, aparecen simultáneamente con el movimiento (causa) de cargas. Matemáticamente la ley de Ampère expresa correctamente tal asociación: El primer miembro es la circulación de H, siendo C cualquier curva cerrada que rodee a la corriente I concatenada. Siempre y cuando sean corrientes constantes. La cuarta ecuación de Maxwell, se basaba en una particular propiedad del campo magnético (B), cuyas líneas de fuerza son necesariamente cerradas pues no tienen ni fuentes ni sumideros. Un mérito destacable de Maxwell fue lograr una descripción operativa de los fenómenos anteriores mediante complicadas ecuaciones diferenciales, en una época en que aún no se había desarrollado el análisis vectorial, de mayor potencia y elegante sencillez. Se concluye que si en un punto del espacio hay un campo magnético variable en el tiempo, en el entorno del punto habrá también un campo eléctrico variable. Este mecanismo de vinculación entre campos variables en el tiempo, históricamente se lo denominó concatenación de campos o lo que es o lo que es lo mismo: propagación ondulatoria. Pero la Hipótesis de Maxwell no sólo explica cómo se transmiten las perturbaciones, también predice la existencia de ondas independientes de la materia. El campo electromagnético adquiere categoría de ente físico real. La teoría electromagnética de Maxwell no solo produjo una revolución teórica sino que allanó el camino para importantes innovaciones tecnológicas. La primera y posiblemente más importante de ellas se produjo en 1888, cuando Heinrich Hertz utilizó la teoría de Maxwell para crear instrumentos capaces de enviar y recibir pulsos de radio. Este descubrimiento, abrió el camino andado hasta el actual uso cotidiano de las microondas. Dicen que el gran físico alemán Ludwig Boltzmann consideró que estas ecuaciones eran tan bellas por su simplicidad y elegancia que, como el Fausto de Goethe, se preguntó: «¿Fue acaso un dios quien escribió estos signos?» Placa con ecuaciones de Maxwell en estatua de Edimburgo. Polo usado por estudiantes de electrónica en diversos países. Maxwell logró deducirla velocidad de las ondas electromagnéticas en el “vacío” etéreo, suponiendo un grado de densidad mínima (Dm = m0) obteniendo un resultado sorprendente: la velocidad de una oda electromagnética en tales condiciones, resultaba igual a la velocidad de la luz. Todo el universo de las radiaciones de onda comenzó a aparecer ante nuestra experiencia cotidiana. En la parte sexta de su artículo de 1865 A Dynamical Theory of the Electromagnetic Field, concluyó con la siguiente legendaria afirmación: «… la luz y el magnetismo son alteraciones de la misma sustancia y la luz es una perturbación electromagnética que se propaga a través del campo según las leyes del electromagnetismo»21. Esto quiere decir que no todas las radiaciones electromagnéticas tienen la misma longitud de onda sino que esta se puede ampliar a intervalos muy amplios, un universo conocido como ESPECTRO ELECTROMAGNÉTICO. La gran mayoría de estas radiaciones permanecieron ocultas a la experiencia humana durante milenios, pues no impresionaban directamente a nuestros sentidos (el rango de frecuencias que se pueden percibir con la vista, va apenas desde el color rojo hasta el violeta), pero indirectamente revelaban su existencia por sus efectos como el calentamiento térmico o fotoeléctrico. Gracias a las ecuaciones de Maxwell fue posible detectar radiaciones cuya longitud de onda varía desde 50 Km (caso de las ondas hertzianas que se emplean en la telefonía sin hilos), hasta ondas de una longitud equivalente a la diez milésima parte de un milímetro, como los Rayos Gamma que posee la menor longitud de onda [10-12 m]; los Rayos Infrarrojos [10-6m] de fuerte efecto calórico; los Rayos Ultravioletas [10-8m] que provienen fundamentalmente de la luz solar, o los Rayos X [10-10m] que se emplea en exploraciones médicas y en el estudio de los metales. 21 «…light and magnetism are affections of the same substance, and de light is an electromagnetic disturbance propagated through the field according to electromagnetic laws». ESPECTRO ELECTROMAGNÉTICO Hoy se estima que el límite para la longitud de onda más pequeña posible es la Longitud de Planck u Hodón. Unidad de medida que se calcula a partir de tres constantes fundamentales: la velocidad de la luz, la constante de Planck y la constante gravitacional, que equivale a la distancia que recorre un fotón viajando a la velocidad de la luz en un instante del tiempo de Planck. Por otro lado, el límite máximo de una onda electromagnética sería del tamaño del universo mismo, o equivalente a la Radiación Cósmica de Fondo derivada del Big Bang. Aunque formalmente (teóricamente) el espectro electromagnético es infinito y es continuo. No obstante la unanimidad del mundo académico, una amplia mayoría pensó que solo se trataba de una mera proyección matemática y nadie creyó que esta tuviera alguna utilidad práctica hasta que el físico alemán R. Heinrich Hertz (1857-1894) descubrió la forma de producir y detectar ondas de radio mediante una serie de experimentos confirmando así la teoría de Maxwell de la radiación electromagnética. Heinrich Hertz En 1888 Hertz produjo por primera vez artificialmente ondas electromagnéticas cuando ya era profesor de Física en la Universidad de Karlsruhe en el laboratorio. Esto suponía, no solo la confirmación empírica de la teoría, sino una victoria sobre aquellos ingenieros telegráficos que pensaban que la teoría de Maxwell era solo una especulación teórica y negaban la aplicabilidad de la Electrodiámica a cuestiones de ingeniería práctica. Hertz probó experimentalmente la existencia física de las ondas electromagnéticas, como había sido predicho por Maxwell y Faraday, construyendo él mismo en su laboratorio un emisor y un receptor de ondas, usando como emisor un simple oscilador y como receptor un resonador artesanal. Hoy, es tan fácil percibir como las ondas electromagnéticas dominan nuestro Universo y vida social, que basta con mirar a nuestro alrededor y percibir la luz que emiten las estrellas como el Sol y entender fenómenos como el calentamiento global; o escuchar la Radio y la TV para vivir “al instante” los sucesos mundiales; o ingresar a Internet lo mismo que hablar por el teléfono móvil para la casi totalidad de nuestras actividades económicas, industriales, sociales, políticas, educativas, profesionales y que sirven hasta para usar las microondas en la preparación de nuestros alimentos diarios a un costo infinitamente bajo. Una de las consecuencias de esta realidad desbordante, es que ya nadie se acuerda de aquellos “hombres prácticos” de fines del siglo XIX que pensaban que la electrodinámica era solo una exquisita especulación matemática para físicos teóricos o una novela de ciencia ficción, carente de realidad material. La teoría Electromagnética de Maxwell incluía la hipótesis el éter luminoso y estudiaba las interacciones electromagnéticas en el marco de un éter omnipresente. Maxwell se mantuvo firme en que la energía electromagnética y el éter no eran entidades hipotéticas, sino reales. De hecho, para los físicos británicos del siglo XIX el éter era una condición de existencia tan real para las ondas electromagnéticas, hasta tal punto, que llegaron a pensar que “o existía el éter o la electromagnética se vendría abajo. No había forma de sostener una tesis como la “vibración del vacío”. El enigma podría plantearse también de otra manera. La teoría del campo, si bien unificaba todos los fenómenos de la esfera de las radiaciones, no resolvía el enigma de las relaciones entre la radiación y la materia ¿Cómo así los cuerpos materiales son capaces de recibir y emitir energía? Esto requería una sola Teoría General de la Física, bajo un solo sistema de ecuaciones. Pero la Física estaba dividida. Por un lado, la Mecánica de los cuerpos materiales que poseían masa se encontraba regida por el Principio de Relatividad de Galileo. Por otro lado, la Electrodinámica de las radiaciones, que carecían de masa, se encontraba regida por el Principio de Constancia Absoluta de la velocidad de la luz, independientemente del cuerpo material que las emita o las reciba. Ambos sistemas de ecuaciones eran absolutamente divergentes. CARA A CARA CON EL ÁTOMO Fue el Físico Holandés Hendrik Antoon Lorentz discípulo de Maxwell quien llevó adelante la tarea de construir un lenguaje matemático adecuado para resolver este enigma. Para ello extrapoló las ecuaciones continuas de Maxwell hasta que sus valores alcanzaran los valores mínimos requeridos que los hicieran equivalentes a los fenómenos corpusculares y le permitieran describir en detalle los fenómenos eléctricos que se producen en el seno de los corpúsculos elementales de materia. Formuló conjuntamente con G. F. FitzGerald, una teoría sobre el cambio de forma de un cuerpo como resultado de su movimiento. Efecto conocido como «contracción de LorentzFitzGerald». La representación matemática de este fenómeno es conocida por el nombre de «Transformación de Lorentz». Lorentz descubrió en 1900 que las ecuaciones de Maxwell bajo este conjunto de transformaciones resultaban invariantes. Las transformaciones de Lorentz fueron publicadas en 1904, pero su formalismo matemático inicial no era completamente consistente. El matemático francés Henrí Poincaré las desarrolló en forma más consistente, que es la que se conocen hoy día. Junto con el matemático ruso Hermann Minkowski mostraron que las relaciones de Lorentz podrían interpretarse como fórmulas de transformación para la rotación en un espacio-tiempo cuatridimensional, elaborado por Minkowski. En 1907 Minkowski se percató de que la Teoría Especial de la Relatividad presentada por Einstein en 1905, basada en los trabajo previos de Lorentz y Poincaré podía entenderse de manera objetiva y no subjetiva usando una Geometría no-euclideana, en un espacio cuatridimensional. Desde entonces esta es conocida como “Espacio de Minkowski”. Aquí el tiempo y el espacio no son entidades separadas sino variables ligadas denominada espacio-tiempo. En este espacio real, la “transformación de Lorentz se convierte en una propiedad geométrica del espacio. Con la interpretación física que Albert Einstein dio a dichas relaciones en 1905, como transformaciones genuinas de coordenadas en un espacio-tiempo tetradimensional (y no tridimensional, como hasta entonces se venía haciendo) la hipótesis del éter se volvió innecesaria. Minkowski Einstein y Lorentz Poincaré En su discurso de inauguración de la 80 reunión de la Asamblea general alemana de científicos naturales y físicos el 21 de septiembre de 1908, Minkowski pronunció una frase que ahora es célebre: «Las ideas sobre el espacio y el tiempo que deseo mostrarles hoy descansan en el suelo firme de la física experimental, en la cual yace su fuerza. Son ideas radicales. Por lo tanto, el espacio y el tiempo por separado están destinados a desvanecerse entre las sombras y tan sólo una unión de ambos puede representar la realidad». Las consecuencias de estos cambios fueron desbastadoras para la representación mecanicista del mundo. En primer lugar, al introducir las transformaciones de Lorentz en la estructura material, mediante estas unidades mínimas de electricidad en el seno de los cuerpos materiales, a las cuales dio el nombre genérico de “electrones”sugerida por Thomson y Stoney, introdujo la idea revolucionaria de que toda la materia estaba conformada por combinaciones de estos “corpúsculos”. Lo que llamamos vulgarmente un “cuerpo cargado”, sería uno que contiene un total de unidades mínimas que conducen más electricidad o cargas de un cierto signo. Un cuerpo eléctricamente neutro, es el que contiene cantidades iguales de unidades mínimas de las dos clases de electricidad. Ahora la materia se define intrínsecamente por sus interacciones de energía. Una imagen completamente opuesta al corpúsculo material de la Mecánica newtoniana, que solo se define por su masa inercial invariante. El desplazamiento de estos corpúsculos es definido completamente por el desplazamiento de sus cargas eléctricas, emitiendo o receptando radiación. Las transformaciones de Lorentz reformuladas ya no exigen que la vibración luminosa sea vibración de algo distinto a la materia (éter luminoso) y esta es definida por vectores que se remiten a “interacciones electromagnéticas realmente existentes”. En segundo lugar, estos corpúsculos ya no tienen la estructura de la mecánica newtoniana: carecen de masa inercial invariante, pues su masa transversal se reduce en la dirección del movimiento (como si se achataran) conforme el aumento de su velocidad se aproxima a la velocidad de la luz (por el aumento de su resistencia inercial). En consecuencia se rompe también el principio de la Mecánica newtoniana de “igualdad entre acción y reacción”, que supone la invariancia de la masa inercial. Ahora el cociente inercial (masa) crece con la velocidad. Y si crece el cociente inercial con la velocidad, crece igualmente el coeficiente gravitacional. En tercer lugar, al explicar el nacimiento de las ondas electromagnéticas como producto del movimiento continuo de los electrones alrededor de átomo, se pone en cuestión el principio mecánico del equilibrio termodinámico entre materia y radiación. Si es el movimiento de los electrones es el que genera la emisión de ondas de radiación (campo electromagnético), según las leyes de la termodinámica mecanicista, la consecuencia sería la inestabilidad completa del átomo. Pero la tesis contraria también resulta paradójica, pues la estabilidad del átomo implicaría que los electrones no están en movimiento y resultaría inexplicable la emisión de ondas del campo electromagnético continuo. Para resolver esta paradoja, Einstein sugirió que la gravitación sería en realidad un campo con las propiedades de la estructura continua del espacio-tiempo. Esto permitiría deshacerse de las dos hipótesis más problemáticas: la del “éter” y la del “espacio vacío”. Con la existencia del continuo materia-campo, “espacio vacío” no sería sino campo “gravitacional puro”. Einstein sostiene esta hipótesis a partir de un hecho admitido por la propia Mecánica: la sorprendente coincidencia entre masa inercial (que se da en el espacio vacío) y masa gravitacional (que se da con la interacción entre cuerpos), que hace irrelevante el concepto de “masa inercial” pues se trata de lo mismo. En la Teoría Especial de la Relatividad carece de sentido hablar de un “espacio-tiempo inercial” separado del continuo, materiacampo (espacio vacío). En la TR el campo (energía) tiene masa y la masa tiene energía (campo), el coeficiente de intercambio entre ambos varía con la velocidad (E = m.c2). Einstein sugirió una hipotética prueba experimental: dado que un rayo de luz tiene masa, al atravesar grandes distancias interplanetarias de un espacio supuestamente vacío «debería describir una trayectoria curvada». Este experimento fue llevado adelante por científicos de la Royal Astronomical Society, mediante fotografías del eclipse solar del 29 de mayo de 1919. El experimento confirmó la hipótesis de la existencia de un Campo Gravitacional Universal que no era una propiedad de los cuerpos sino del mismo espacio-tiempo compuesto de materia y campo. El “vacío” resulta que estaba “lleno de campo”. En cuarto lugar, otra categoría conceptual decisiva de la ciencia mecanicista moderna se encontró fuertemente problematizada: la categoría de «conexión causal». Generalmente este concepto se refiere a la influencia que tiene un hecho sobre otro que le sigue linealmente en el tiempo, lo cual supone un espacio invariante (tipo recipiente) que no sufre modificación alguna cuando varía el tiempo. Ahora, se presenta una “conexión causal extraña” cuando espacio y tiempo constituyen un continuo tetradimensional o si los objetos materiales a su vez influyen en el espacio-tiempo. Recordemos que en la TGR la aceleración de los cuerpos y la acción del campo gravitacional alteran el tiempo y las relaciones espaciales. La causalidad no se da como una sucesión de estados de los objetos materiales en un espacio-tiempo invariante y único, sino que depende de la velocidad y de la masa gravitacional de los móviles que interactúan, ni permite una suma indefinida de velocidades y masas como una progresión lineal. La causalidad comienza a perder euclideano, para transformarse en proporcionales, pues como señaló descubrimiento de la equivalencia definido»22. la imagen unidireccional y rectilínea de un espacio un sistema de correlaciones de fuerzas inversamente Einstein «la división en materia y campo es, desde el entre masa y energía, algo artificial y no claramente ORÍGENES DE LA INTERACCIÓN RADIACIÓN-MATERIA Como consecuencia del desarrollo del electromagnetismo después de Maxwell, la investigación giró desde fines del siglo XIX al estudio de los orígenes de las interacciones radiación-materia. Se inició con la investigación experimental sobre los cuerpos radioactivos de la tabla de Mendeleiev23 y por las propiedades ionizantes de los rayos emitidos por algunos de ellos (el uranio por ejemplo). Tras los trabajos de Einstein, las ondas electromagnéticas no necesitan de ningún otro medio material (éter luminoso) para su propagación, como requería la Mecánica, pues ellas mismas (las ondas electromagnéticas) eran parte del continuo campo-materia. 22 23 Einstein A. y L. Infeld; La física aventura del pensamiento. Bs. Aires, 1945, Ed. Losada S. A., (tercera edición), p. 292. Pertenecen al período 7 de la tabla periódica, es decir van ubicados en la séptima fila. El período 7 se caracteriza por elementos más pesados, por el mayor número de protones que poseen, son muy inestables y en su mayoría radiactivos. Esta investigación experimental dio sus primeros frutos cuando Ernest Rutherford demostró el fenómeno de la trasmutación espontánea de los elementos químicos. La investigación de la radioactividad produjo a su vez otros interrogantes sobre el origen de las grandes energías que se originaban en el átomo que la mecánica consideraba simple e inerte. En un principio se pensó que la emisión de energía resultaba de alguna absorción accidental del medio circundante (calor, frío, presión o fusión de elementos) pero los sucesivos fracasos llevaron a la conclusión que la desintegración radioactiva dependía de algún cambio interno del atomo. La búsqueda de un modelo matemático básico para orientar la investigación de la interacción radiación-materia condujo a Lorentz a despojar al átomo de la imagen mecánica de simpleza inercial, compuesto únicamente por una cantidad mínima y constante de masa. Le incorporó un “grano de electricidad” orbitando alrededor de un núcleo compuesto de cargas eléctricas (positiva) opuestas a los electrones (negativa), como un pequeño sistema planetario. En 1911 publicó su hallazgo del núcleo atómico (diez mil veces más pequeño que el átomo) en el que se hallaba casi toda la masa de este. De este movimiento orbital y de la altísima velocidad con que el electrón se desplazaba alrededor del núcleo atómico, se deducía el origen y la fuente de todas las ondas electromagnéticas y de todas las interacciones entre la radiación y la materia. Este modelo matemático de átomo complejo, traía sin embargo una paradoja. En la medida que este modelo explicaba la creación continua de energía, a expensas del movimiento continuo del electrón, debería emitir y consumir toda su energía disponible, en una fracción de segundo el electrón y caer sobre el núcleo. Esto haría inexplicable, tanto la estabilidad como la neutralidad observada en la materia en general. El modelo solar de Rutherford y Thomson, basado en las leyes del magnetismo clásico entró en crisis. PRIMER GIRO EN LA INVESTIGACIÓN El 19 de octubre de 1900, se produjo un giro total, cuando el físico alemán Max Planck informó a la Sociedad Física de Berlín un descubrimiento que desconcertó a todos, pues aparentemente refutaba la teoría ondulatoria de la Electrodinámica. Su informe decía que el desplazamiento de la energía de radiación térmica podía ser considerada matemáticamente de forma discontinua como porciones o paquetes intermitentes de cantidades mínimas posibles de energía, que denominó quatum o cuantos. La fuente de su fórmula matemática, provenía de una rama de la Física completamente diferente: la termodinámica. Es decir, Planck utilizaba para el estudio del desplazamiento de la radiación un método análogo al desarrollado por el físico austriaco Ludwig Eduard Boltzmann para la termodinámica, de probabilidades estadísticas en términos de incremento de la entropía de un sistema, producidos por la infinidad de movimientos moleculares de un gas. Ludwig Eduard Boltzmann La función termodinámica “entropía” es central en la Termodinámica. Es como una medida de la distribución aleatoria de un sistema. Un sistema altamente distribuido al azar tiene alta entropía. La magnitud (variación del orden molecular) es una función probabilística del sistema. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, y entonces se alcanzará la configuración de mayor probabilidad. La ruptura era tan grande que el propio Planck justificó su procedimiento aduciendo que solo se trataba de una mera técnica de cálculo y no de una representación física real. Sus cantidades discretas, al expandirse restablecerían posteriormente la continuidad física real de la energía. Pero en realidad, cuando estableció la magnitud proporcional de estos cuantos, multiplicando la frecuencia (f) por una constante universal conocida luego como constante de Planck (h), resultó que cuanto más corta era la longitud de onda, mayor era la porción de energía (E=hf), su valor resultó pequeñísimo (6.6x10-27erg.s). Tan es así, que un foco de 25w contiene alrededor de sesenta trillones de porciones de energía por segundo. Por ello la luz parece continua. Pero Plank no logró sugerir un experimento que respalde de modo directo su hipótesis. NUEVO MODELO Sumando los resultados de Planck (1900) y Einstein (1905) el físico danés Neils Henrik David Bohr formuló un nuevo “modelo solar modificado” que permitía superar el enigma. Los electrones existentes en un átomo deberían almacenar energía en diferentes niveles (capas u órbitas sucesivas). Cuanto mayor era la distancia existente entre un electrón y el núcleo, mayor sería su depósito de energía. Cuanto más permanecen girando en una órbita dada, no emiten ni absorben energía. Esto solo se da cuando saltan de una órbita a otra. De esta manera, la diferencia mínima de una órbita a otra corresponde a un cuanto de energía y su paso de una a otra no es continuo sino a saltos. Ello explicaría su forma cuántica. Neils Bohr Cuando un electrón salta de una órbita externa a una interna, quiere decir que pierde energía en forma de un fotón (cuánto de luz); cuando sucede a la inversa es porque ha absorbido un cuanto de energía. Por ello el electrón no emite energía en forma continua y no colapsa en el núcleo ni se escapa fácilmente del átomo. El nuevo modelo parecía perfecto, pero los físicos se encontraron con una nueva dificultad: la imposibilidad de calcular el movimiento de un electrón mediante el procedimiento tradicional de determinar simultáneamente su posición y su velocidad, al igual que el movimiento de cualquier partícula material. Pero con un electrón, al moverse, sucedía algo sumamente extraño, como si su masa se esparciera por toda una región del espacio. Al intentar medir su velocidad, se perdía la posición del electrón y, a la inversa, al determinar su posición se perdía su movimiento. Jamás se había presentado en la física anterior un cuerpo tan extraño. El propio Bohr fue explícito sobre la debilidad de su teoría, al interpretar el cuanto como una partícula clásica. El problema no tenía un origen empírico, sino conceptual. El electrón no parecía una partícula material simple, invariante y perfectamente determinable, sino hasta cierto límite, en sus estados estacionarios. Pero cuando se producía un salto de una órbita a otra, el modelo de Bohr le perdía el rastro, era incapaz de seguir a un electrón. Las propiedades corpusculares y ondulatorias son operativamente opuestas en una descripción matemática. Pero ahora se presentaban unidas en una sola entidad. ¿No planteaba esto la necesidad de revisar nuestra noción tradicional de “objeto físico”? Es decir, como una unidad puntual de masa positiva invariante. Las partículas elementales aparecían como un sistema conformado por relaciones internas no convergentes. ¿«ONDAS DE MATERIA»? En setiembre de 1924 apareció en The Philosophical Magazine24 un artículo firmado por un joven y entonces poco conocido físico francés Luis De Broglie25. Fue allí donde por primera vez se habló de “ondas de materia” y planteó los componentes básicos de su teoría ondulatoria de la materia, por la que recibiría el premio nobel de Física en 1929. De Broglie sostiene en este artículo la hipótesis de que las ondas se producen cuando se mueve cualquier cuerpo, sea este un planeta, una piedra, una partícula de polvo o un electrón, incluyendo aquellos cuerpos no cargados eléctricamente. Imagen del texto original de De Broglie en The Philosophical magazine (1924), p. 450. 24 Una de las más antiguas revistas científicas, publicada en Escocia, fundada en 1798. En ella escribieron grandes científicos como Faraday, Joule, Maxwell, J.J. Thomson, Rutherford y muchos otros. En 1814, Philosophical Magazine se fusionó con el Journal of Natural Philosophy, Chemistry and the Arts para formar The Philosophical Magazine and Journal. Fusiones posteriores con Annals of Philosophy y con The Edinburgh Journal of Science lo llevaron nuevamente a cambiar de nombre, hasta que en 1949 volvió a su nombre original: The Philosophical Magazine, con el que se mantiene hasta hoy. 25 de Broglie, Louis; «A Tentative theory of light quanta». En The Philosophical magazine, (1924), 47 (S. 6), pp.446-458. Más aún, las ondas de De Broglie no eran un simple revival de las ondas continuas de la Electrodinámica clásica, sino que eran (de acuerdo con Planck) cuánticas, es decir discretas. Su longitud de onda (λ) era directamente proporcional a la constante de Planck (h) e inversa a la masa del cuerpo en movimiento (m) por la velocidad (v) de su movimiento: λ = h/mv La presencia de la constante de Planck en el numerador del segundo miembro de la ecuación, muestra de que se trata de ondas extraordinariamente pequeñas (6.6 x 10-27 erg.s), cuya longitud ningún aparato podría registrar directamente, pues serían algo así como trillones de veces menor que un átomo, en el caso del movimiento de una simple piedra. Lo importante es su valor teórico para una descripción dinámica y estructural de todos los procesos de transformación que se operan en el mundo físico (de ondas en partículas y viceversa) que resultaban imposibles con la teoría corpuscular de Bohr. Cuando el movimiento del electrón disminuye el denominador tiende a anularse y la longitud de onda tiende a hacerse infinita. Cresta y valle se alegan tanto que la entidad se torna probabilística. Max Born sugirió por ello el concepto de “onda de probabilidad”. Por el contrario, cuando la longitud de onda decrece comienzan a manifestarse las propiedades corpusculares del electrón. Lo que es compatible con el coeficiente de intercambio masa-energía de la ecuación de Einstein. Lo que en la Mecánica clásica estaba absolutamente separado (la trayectoria de un cuerpo regida por la segunda ley de Newton y la trayectoria de una onda de energía por la ecuación de D’Alambert) ahora, ambos fenómenos se encuentra unido bajo un mismo sistema de ecuaciones. De Broglie utilizó las clasificaciones que había realizado un siglo antes el matemático escocés William Hamilton, que había observado ciertas analogías o simetrías entre los procedimientos para describir el movimiento de un cuerpo material y la propagación de la luz. Con De Broglie una simetría puramente formal adquirió un profundo significado físico. Casi paralelamente independientemente de De Broglie, el físico austriaco Erwin Schrödinger modifico la ecuación de Hamilton en 1926 y obtuvo las ondas de De Broglie. Esta modificación fue desde entonces conocida como la “ecuación de Schrödinger”. Lo novedoso de esta modificación del formalismo fue que al describir la función de onda como una función escalar y no como un vector, asoció la onda a un corpúsculo y se ahorró la necesidad de tener que referir la onda a la paradójica hipótesis de la existencia de un medio vibrante (como el “éter luminoso”) en el vacío. Por otro lado, el carácter complejo de su ecuación, le permitió trabajar con coeficientes que no necesariamente son reducibles a números reales (entre ellos se encuentra la √-1), es decir que no necesariamente tienen que reducirse a un punto o corpúsculo individual claramente definido, como exige el clásico axioma de extensión que requiere la enumeración individual de todos los elementos o propiedades de un conjunto. La “función de onda” es la solución que adquiere una ecuación diferencial básica donde las interacciones que se describen no son propiedades de los individuos u objetos sino, del sistema, no describen historias individuales sino leyes probabilísticas de las interacciones causales del grupo. Esto se consigue haciendo que la ecuación sea simétrica. Restringe los tipos de soluciones posibles a ciertos parámetros o límites que definen la movilidad del sistema. El carácter no reduccionista de la “ecuación de Schrödinger” coincidió a su vez con los procedimientos del “Principio de exclusión de Pauli”, donde los límites de la movilidad de las partículas fluctúan entre la más alta (“barrera de potencial”) y la más baja (“pozo de potencial”). La “ecuación de Schrödinger” al poner al centro los procesos de transición materia-energía unifican dos hipótesis que parecían incompatibles para el pensamiento mecánico: los cuantos de energía de Planck y las ondas de materia de De Broglie, despejando la aporía esencial que envolvía la física moderna. Parafraseando a Hegel, se podría decir que el formalismo mecánico, solo veía la identidad o la diferencia, pero no la transición de lo uno en lo otro, que es la esencia de la dialéctica. TEORÍA CUÁNTICA RELATIVISTA A finales de la década de 1920, la Física Cuántica comenzó a penetrar en el corazón del átomo. Pero el giro epistemológico siguió dominado todavía en gran parte por el pensamiento mecanicista, los científicos siguieron acumulando rutinariamente los descubrimientos de nuevas entidades llamadas “partículas elementales” al interior del átomo. En los años treinta, en el núcleo fueron descubiertos el neutrón y el protón, luego los mesones-pi y los mesones-mu y el neutrino. Hoy se contabilizan más de cien “partículas” a las que se les atribuye propiedades diversas. Solo la existencia de tal cantidad de entidades era un fuerte indicio de que no se trataba de entidades “elementales”. En lugar de simplificar el panorama, nuevamente se había complicado con esta multiplicación excesiva de entidades corpusculares. La tradición mecanicista persistía a pesar de Schrödinger26. Paul Dirac, Erwin Schrödinger y Werner Heisenberg Cuando todo parecía haber vuelto a su estado inicial, a inicios de 1928, el físico inglés Paul Dirac publicó una solución matemática a este problema con la formulación de una ecuación que describe el movimiento de un electrón libre (no atado a un núcleo), mediante cuatro 26 El Premio Nobel de Física de 1933 se repartió a partes iguales entre Erwin Schrödinger y Paul Dirac. funciones de onda. Dirac descubrió su ecuación a finales de 1927, y fue publicada en febrero de 1928 en su famoso artículo «The Quantum Theory of the Electron»27. Dos funciones de onda describían el movimiento propio del electrón (spin) con respecto a la dirección de su movimiento. La otra pareja de funciones, una describía la energía total positiva del sistema y la otra la energía total negativa del sistema. Lo “paradójico” de estas ecuaciones era precisamente la presencia necesaria de la función de onda que describe la energía total negativa del sistema, pues esta solo se usa para describir una partícula ligada con otras (en el átomo por ejemplo). Pero la ecuación de Dirac fue formulada para describir únicamente al electrón libre, aunque para describirlo de manera que coincidiera con los hechos, las ecuaciones de Dirac tuvieron que suponerlo libre y ligado al mismo tiempo, lo cual resultaba absurdo, si pensamos en una partícula clásica. Dirac propuso una justificación explosiva. Sugirió algo así como que el vacío “no estaba vacío” sino lleno de “electrones positivos”. Añadió también que estos copaban hasta el límite diversos niveles de energía que existían en el espacio llamado “vacío”. Para Dirac, lo que llamamos “vacío” son interacciones negativas (antipartículas) que se encuentran por debajo de la energía positiva que señala la ecuación de Einstein (E= m0.c2) donde fija el coeficiente simétrico de intercambio entre masa y energía. Dirac las llamó “antipartículas”, por su “masa negativa” (inferior a m0). Estas antipartículas no se pueden detectar mientras están en el “pozo de potencial”, hasta que saltan la “barrera de potencial” y se dice que el vacío de “ioniza”. En su lugar queda como una suerte de “hueco” (“antipartícula”) con carga positiva (Positrón). Clásicamente se definía el vacío como “ausencia de interacción”. Ahora, el vacío no es neutro, el Positrón es tan real como el Electrón, su carga positiva interactúa desde este peculiar “vacío” con la carga negativa de los electrones. En 1932 se confirmó experimentalmente la existencia de estos “huecos” o antipartículas de Dirac y se abrió el camino para investigar esta clase de las llamadas antipartículas. La cuestión esencial, para entender este fenómeno en la Física Cuántica Relativista (FCR), es que tanto las partículas elementales como las antipartículas, no son “entidades”, sino relaciones del sistema de interacciones del flujo radiación-materia, dos estados de la misma substancia. Desde la ecuación de Schrödinger, los físicos pudieron “ver de cerca” las transformaciones del campo en materia y de materia en campo. También se hizo evidente el porqué del error del proyecto inicial de Einstein de pretender reducir el concepto de materia al concepto de campo. Se trata de momentos y procesos de un mismo flujo, no de entidades invariantes e independientes de sus interacciones (separadas por “hard and fast lines”) como suponía el principio inercial de la mecánica clásica. «El campo ilimitado e imponderable puede adquirir dimensiones y masa. La materia que pesa y es visible puede perder dimensiones y masa»28. 27 Proceedings of the Royal Society of London. Series A, Containing Papers of a Mathematical and Physical Character. Vol. 117, No. 778 (Feb. 1, 1928), pp. 610-624 Lo mismo sucedía con la línea rígida que separaba materia y vacío. Ahora, cuando el electrón se “sumerge en el vacío”, el electrón no simplemente cede parte de su energía, sino que cede su “energía propia” (spin) deja de ser electrón y se transforma en positrón (antipartícula). De manera inversa, el positrón, al dejar el espacio aparentemente vacío, deja de ser una antipartícula y deviene en un electrón. Cuando hablamos de materia y campo o materia y vacío, o partícula y onda, estamos hablando de interacciones, no de entidades, sino de existencias relativas unas de otras. No existen cuerpos sin campo, ni ondas sin cuerpos. Son dos caras de la misma moneda. Las llamadas “partículas elementales” se refieren a relaciones o interacciones elementales o básicas de la transición de un sistema a otro. Y estas transiciones se dan por emisión y absorción de mesones, al igual que el intercambio electrónico se realiza por emisión o absorción de fotones. Cuando el protón y el neutrón intercambian mesones-pi, este intercambio va acompañado de transformaciones cualitativas. No se trata de un simple intercambio mecánico. Luego de su intercambio, el protón y el neutrón no vuelven a su situación inicial, sino que el resultado es una suerte de «nuevo enlace», debido precisamente a las características ondulatorias tanto de la energía como de la masa que en la mecánica eran invariantes adquieren una gran indeterminación. Tal lectura permitió construir una teoría sobre la estructura de las “Interacciones Fundamentales” (o Relaciones Fundamentales), un nombre más riguroso que el de “Partículas Fundamentales”. Son teorías que desarrollan una lógica de relaciones, donde las entidades son como nodos de una red de internet o como los grumos de un engrudo. PROCESOS VIRTUALES ¿Hasta qué distancia se extienden los límites de las interacciones electromagnéticas? Carece de límites; puede ser cualquiera. La indeterminación de la masa y la energía de los fenómenos nucleares fue descrita como “procesos virtuales” o nuevamente como “partículas virtuales”, aunque acá tienen un significado físico real. No se trata de entidades metafísicas o imaginarias como suele ser en el uso coloquial del lenguaje29. Se trata de conceptos “observables”. Lo que sucede es que el concepto “observable” ya no tiene un sentido simple a partir de la Electrodinámica Cuántica Relativista. Un electrón es en un cierto sentido “inobservable”, si intentamos medir simultáneamente su velocidad y posición. Por el contrario el vacío se vuelve virtualmente “observable” en la medida que ya no es eléctricamente neutro y sus cargas positivas interactúan con los electrones. Entonces, el positrón se hace observable y real. A partir de la década de 1950, la introducción de los procesos virtuales en la Física Cuánica Relativista y el uso creciente de aceleradores de partículas, condujo al descubrimiento masivo de nuevas “partículas” o nodos de una red. La mayoría de ellas son 28 Weisskopf V.F.; «Las tres espectroscopias». En Partículas elementales. Libros de Investigación y Ciencia. Prensa Científica. Barcelona, 1984, p. 42. 29 Kendall H. W. y W.K.H. Panofsky; «Estructura del protón y del neutrón». Scientific American, junio,1971. Rep., en: Partículas elementales…, op. cit. P. 57-58. muy inestables y esto dio a su vez los parámetros temporales para el establecimiento de “familias de interacciones”. La mayoría de ellas tiene una media de existencia de 10-23s. Tiempo que dura el intercambio mesónico en los núcleos. Al conjunto de interacciones que se producen en las proximidades de estos valores, se les denominó Interacciones Fuertes (IF) por la gran energía que contienen, y a los cuantos de dicha interacción se les denomina hadrones. Un segundo grupo está formado por las llamadas Interacciones Electromagnéticas (IE), cuyos cuantos son los fotones. Un tercer grupo está formado por las llamadas Interacciones Débiles (ID) o de “disgregación” cuyos cuantos aún se desconocen. Su radio de acción es corto y no es capaz de construir estados ligados. Finalmente, el cuarto grupo, es el que describe las Interacciones Gravitatorias (IG) de gran debilidad, que no ha permitido hasta ahora describir sus cuantos o gravitones. Hoy son las interacciones las que definen las partículas y no a la inversa como en el método mecánico clásico. Sus leyes describen, como dice Heisenberg, “simetrías fundamentales”, a partir de familias (multipletes) establecidas por las cuatro interacciones básicas. Este entendimiento es clave para entender los problemas fundamentales del formalismo cuántico. Por ejemplo, en los procesos de transformación de una partículas en otras, se rebelaron resultados paradójicos: cuando el mesón-pi de gran energía chocaba con un protón, se desintegraban y surgía en su lugar un mesón-k y un hiperón-lambda, pero en lugar de fragmentos más pequeños del protón, aparecía un hiperón-lambda que tiene más masa que el protón. Sucede que en la Física Cuántica Relativista carece de sentido la imagen (que podemos denominar como “teorema de Zenón”), de “división indefinida por masas” cada vez más pequeñas de partículas elementales; al igual que en la Teoría General de la Relatividad carece de sentido la extensión indefinida del teorema de galileano de la “suma de velocidades”. Hay fuertes razones para el abandono de esta visión mecanicista, que coloca la noción de masa como componente central del mundo material. En la relación de indeterminación de Heisenberg, la masa solo se considera constante cuando su velocidad dista mucho de la velocidad de la luz. Conforme un cuerpo material se aproxima a esta velocidad van desapareciendo cada vez más sus límites precisos en la medida que se desarrollan sus propiedades ondulatorias. Carece de sentido decir que un electrón es más grande que un protón (u otra partícula nuclear) pues por sus propiedades ondulatorias puede extenderse por toda una región del espacio, cualquiera sea su dimensión inicial. Tampoco es posible asignarle una dimensión fija a la masa de un cuerpo, pues en la ecuación de Hamilton (Ecn = m.v 2/2) la masa tiene incluso probabilidad negativa. En consecuencia, si la cantidad de masa que posee un cuerpo no es constante, ningún cuerpo, por más diminuto que sea puede ser una “partícula elemental” (en el sentido intuitivo del término), salvo por convención. Se trata de estructuras móviles e inestables. Finalmente la graduación de los cuerpos exclusivamente por la cantidad de masa que poseen, carece de sentido físico, pues no existen cuerpos materiales independientes de sus mutuas interacciones, algo así como una “cosa en sí” kantiana. Este era precisamente el supuesto metafísico de la Mecánica de Galileo y newton. Para manejar con precisión estos fenómenos se han propuesto varios formalismos. En la década de 1970 se comenzó a explorar un nuevo método para resolver la paradójica tendencia al confinamiento de las partículas elementales respecto de sus interacciones; o si se quiere, las interacciones entre las partículas cargadas eléctricamente y el campo electromagnético, denominado “grupo de renormalización”. Este no consiste en una teoría descriptiva de la naturaleza, sino en un método general de construir teorías. Sugiere vincular en una sola visión teórica la descripción de fenómenos tan disímiles como por ejemplo: un fluido en un punto crítico, un ferromagneto en la temperatura de imanación espontánea, una aleación metálica a la temperatura en que sus átomos se distribuyen ordenadamente y, otros fenómenos como la superconductividad, la superfluidez, la formación de polímeros y el enlace de quarks. En otras palabras, se trata de un método de tratamiento del mundo físico que nos estimula a evitar mirar el mundo como un “compuesto heterogéneo de cosas” o una “suma de entidades discretas” y más bien nos invita a percibirlo como si se tratara de fluctuaciones de una sola estructura elástica o fluida básica. Un modelo bastante económico, que no incluya átomos u otras partículas análogas que requieren muchas escalas de longitud; que consiste solo en vectores de spin, ordenados en una red y establecidos a partir de lo que se puede considerar un “punto crítico” de “fluidez”. En realidad, las similitudes y analogías establecidas entre todos estos fenómenos, no son sino ejemplos de una hipótesis más general llamada Universalidad del Punto Crítico, según la cual, diversos fenómenos físicos o socio-culturales, si se estudian como sistemas, se comportan de la misma manera conforme se acercan a su respectivo punto crítico y, entonces se dice que son miembros de la misma clase de universalidad. Este enfoque, inspiró desde inicios de la década de 1980, una nueva teoría unificada, llamada de Simetría Cúbica30. Su mayor ventaja consiste en la simplicidad lógica. Reduce los leptones y quarks a una sola familia; las fuerzas débiles, fuertes y electromagnéticas a una única fuerza fundamental. Partículas y fuerzas, son como estados de temperaturas y consecuentemente producto de variaciones en la energía de las partículas. A su vez, la energía a partir de la cual se establece la identidad básica de todos los entes físicos es de 1015 GeV (Giga-electronvolt). Dicha teoría amplia inmensamente el espectro predictivo y explicativo de fenómenos no deducibles de teorías anteriores. Por ejemplo: la existencia de más materia que antimateria en el universo. También predice la desintegración del protón y la consecuente inestabilidad evolutiva de la materia, contraria a la imagen simétrica y equilibrada que proporcionaba el mecanicismo atomista moderno. 30 Howard,Georgi; «teoría unificada de las partículas elementales y las fuerzas». En Scientific American, jun., 1981, Rep. En: Partículas elementales…, op. cit., p. 230. Se trata de un formalismo donde 5 estados básicos de la materia y 24 interacciones básicas son suficientes para explicar todas las interacciones físicas observadas hasta hoy. DE LA CAUSALIDAD MECÁNICA A LA CAUSALIDAD SISTÉMICA La tradición mecanicista restringió toda relación causal a la continuidad local entre dos entidades o sucesos, prohibiendo toda interacción a distancia, sintetizada en el popular adagio latino: natura non facit saltum. Si bien la TGR problematizó este determinismo local absoluto que identificaba determinación métrica con relación causal, no cuestionó la noción restrictiva de continuidad exclusivamente local que esta suponía. Por ejemplo, dos estados espacios-temporales (no contiguos) pueden tener propiedades métricamente diferentes (inconmensurables entre sí) pero si pueden poseer la misma estructura causal y ser topológicamente semejantes (ciertas estructuras espaciales de contigüidad) como sucede con la deformación de un cuerpo, cuando lo estiramos como una goma de mascar. A pesar de la distorsión métrica, se ha preservado una misma estructura topológica. En topología matemática se dice que no ha habido un “corte” (o curvatura causal cerrada) o “rasgadura” que rompa su continuidad, solo ha habido una ruptura métrica, no topológica. Se dice entonces que la causalidad estructural a diferencia de la causalidad mecánica local es una causalidad sistémica (estructural), irreductible a las interacciones locales de sus elementos simples (métricos). Pues bien, la teoría cuántica inició una radical problematización de la noción de medición, pues describe una variedad de relaciones o interacciones cuyo grado de incertidumbre son características de un sistema. ¿Cómo podría describirse entonces un “sistema cuántico”? Desde otra perspectiva, podemos trasladar la interrogante a la noción misma de “sistema mecánico”, o más precisamente a la noción de “sistema aislado” o “simple”. Un sistema complejo no lo es por el simple aumento cuantitativo de sus componentes. Un sistema mecánico se dice que es simple porque sus componentes o dispositivos tiene una función específica: transmitir o transformar el movimiento de distintos tipos de energía de una fuente a un objeto recipiente. Desde mucho antes del capitalismo se conocían y usaban muchos de estos sistemas mecánicos simples: la rueda y los rodillos para desplazar objetos pesados; la rueda dentada o engranaje; la polea fija y móvil; la palanca simple, la de segundo y tercer grado; el plano inclinado; la cuña, para romper sólidos; el tornillo o tuerca que permite convertir un movimiento giratorio en una lineal y continuo y, muchos otros. La comprensión de los cambios en el paradigma de ciencia contemporánea, son realmente un problema para todos los que identifican el paradigma de ciencia con los sistemas mecánicos simples (o aislados), que tienen pocas variables e interacciones y que sus algoritmos las cubren directamente. La problematización de estos sistemas –no provino de un debate exclusivamente académico- se produjo porque no pueden explicar teóricamente ni responder prácticamente a sistemas complejos que contienen fenómenos como los de “retroalimentación”, ni encierran subsistemas o elementos autónomos que descentralizan las respuestas, ni responden a fluctuaciones o desestabilizaciones de algún equilibrio matriz. Los sistemas complejos tratan precisamente de “sistemas integrados” por acoplamientos o uniones variables, cuyos vínculos crean información adicional no visible aisladamente por el observador. Como resultado de las interacciones entre elementos no convergentes, surgen propiedades nuevas que no pueden explicarse a partir de las propiedades de sus elementos aislados. Dichas propiedades se denominan «propiedades emergentes» de un sistema. Un «sistema complejo», posee más información contextual que la que da, cada parte, de manera aislada. Un caso sencillo y cotidiano de este tipo de sistemas se puede observar en las transformaciones que fue adquiriendo una industria típica de esta segunda revolución científica: la industria automotriz. La mayoría de investigaciones relacionadas con el sector automotriz se ha concentrado en el análisis de la naturaleza mecánica de los vehículos y, muy poco en el estudio de su transformación electrónica. Sus componentes y subsistemas electrónicos han transformado hoy la naturaleza de los vehículos automotores de un sistema simple a un sistema complejo. John Stewart Bell en 1982 El argumento más fuerte a favor de la Física Cuántica, provino del teorema formulado en 1964 por el físico irlandés John Stewart Bell, conocido desde entonces como “Teorema de Bell”. En realidad, se trata de un METATEOREMA, que argumenta que las predicciones de la teoría cuántica no resultan aparentemente intuitivas porque afectan a dos supuestos metafísicos fundamentales de la física mecanicista moderna: el supuesto de la “separabilidad” de una entidad de sus interacciones con otras y el de la “localidad” (o continuidad métrica) de toda relación causal. Se trata de un teorema de imposibilidad, al que Bell agrega una prueba experimental para demostrar que con una teoría física de “variables ocultas locales” (es decir “mecánica”), no se puede lograr ninguna de las predicciones exitosas de la teoría cuántica31. Es decir, se trata de una argumetación, que no sin humor,algunos académicos han denominado como “Metafísica Experimental”. Pero independientemente del nombre, el hecho es que, luego de resolver infinidad de problemas técnicos, entre 1971 y 1980 se realizaron un total de siete experimentos. Cinco de ellos respaldaron las predicciones de la teoría cuántica. ¿De qué estamos hablando entonces cuando nos referimos a estructuras sistémicas “no locales” y “no deterministas”? que ciertamente no remiten a un sistema mecánico simple, sino a lo que algunos comienzan a denominar como “sistemas enmarañados” (entaglenment). El valor de la medición resulta en el teorema de Bell un valor del sistema, aún sin estar en contacto local con él. La violación del principio de separabilidad por la teoría cuántica sugiere que estas entidades cuánticas constituyen un todo abierto e indivisible. MODELOS DE CUERDAS Desde mediados de la década de los ochenta, se vienen explorando diversas teorías basadas en un paradigma matemático muy diferente al de los modelos corpusculares, como los de la teoría de “Supercuerdas”. Las interacciones de las entidades cuánticas se asemejan a los diferentes modos de vibración armónica (simetría)32 que dependen de la tensión de una cuerda. La frecuencia de la vibración determina la energía y por tanto la masa de las entidades cuánticas. Lo prometedor de los modelos de cuerdas es que su formalismo permite considerar las cuatro interacciones fundamentales como aspectos diversos de una sola simetría subyacente, que sugiere cambiar nuestra “geometría del universo”. Por ejemplo, en el modelo de Supercuerdas la gravitación define un mundo ampliado a diez dimensiones espacio-temporales. Una enorme ampliación geométrica de nuestra idea del “espacio-tiempo tetradimensional” de la ya revolucionaria Geometría de Riemann y la Teoría General de la Relatividad de Einstein. Dicha ampliación no solo consiste en el agregado de seis nuevas dimensiones a las cuatro visibles, sino que origina un cambio radical de nuestra geometría del universo. El número de posibles configuraciones de un “campo de cuerda” o “vibración de una entidad cuántica” que a diferencia de un modelo de partículas, barre toda una “hoja del universo”. En la TGR (no-cuántica) se supone una partícula puntual que se mueve a lo largo de una “línea del universo” (línea de Minkowsky) limitando sus interacciones a una longitud unidimensional, pues no conlleva información de su interacción con el espacio de fondo. Una “hoja del universo” en cambio, incorpora una masa de información contextual que 31 32 Bell J. S.; «On the Einstein Podolsky Rosen paradox». En: Physics, 1964, vol 1. N° 3, pp. 195-200. Los conceptos de “simetrías” y “grupos” están asociados al Álgebra abstracta, disciplina que estudia “estructuras algebraicas” (grupos, anillos, cuerpos o espacios vectoriales). Un grupo es una estructura algebraica que consta de un conjunto de elementos y una operación que combina cualquier pareja de sus elementos para formar un tercer elemento. El conjunto y la operación deben satisfacer algunas condiciones llamadas axiomas del grupo. Los grupos comparten un parentesco fundamental con la noción de simetría. El concepto de grupo surgió del estudio de ecuaciones algebraicas con una incógnita. Comenzó con los trabajos de matemático francés Evaristo Galois durante la década de 1830. Después surgieron contribuciones desde otros campos, como la Teoría de números y la Geometría. La noción de grupo se generalizó alrededor de 1870. podría describir algo así como el desplazamiento (como movimientos vibratorios) de una película jabonosa que envuelve toda una región del espacio-tiempo. Por la información que produce, una cuerda da lugar a dos tipos: cuerdas abiertas o cuerdas cerradas. Las cerradas, son aquellas que barren hojas del universo que topológicamente incluyen registros de todas las posibles superficies conexas (estiramientos, torceduras o deformaciones elásticas suaves (sin rasgaduras) de las superficies en que se desarrollan los eventos físicos. Las cuerdas abiertas son, por el contrario, aquellas que barren hojas del universo con rasgaduras en su continuidad topológica, con un número arbitrario de “agujeros”. Cuando asociamos uno a uno elementos de un conjunto, con otros elementos del mismo conjunto, decimos que se ha producido una transformación por rotación automórfica, en la medida que son simétricas y continuas en torno a ejes espacio-temporales internos del mismo grupo. Cuando las transformaciones simétricas se realizan de manera independiente, en cada punto del espacio y de manera continua, se les denomina “simetrías de aforo” y las teorías que las usan “teorías de aforo”. Cuando se produce un cambio de estado o direccionalidad de un sistema de un sistema a otro distinto, se le denomina “simetrías de aforo rotas”. Este mismo procedimiento condujo a la formulación posterior de “grupos de simetría de aforo”. Sirven para explicar de manera unificada sistemas complejos que agrupan fenómenos muy diversos. Esto permitió posteriormente una nueva agrupación, para formular las denominadas “Supersimetrías”. Por ejemplo, este grupo permitió unificar en una sola teoría las interacciones electromagnéticas y las interacciones débiles, en la Teoría Electrodebil. Si bien a temperaturas ordinarias, ambas funcionan como dos interacciones con propiedades y características métricas totalmente distintas, a temperaturas muy superiores a los 1015 gr. cel., su simetría se hace patente. Pero en términos físicos, recién a partir de los años ochenta, los físicos Schwarz y Green empezaron a construir modelos de teorías de cuerdas con supersimetrías, motivados por las implicancias del Principio de Incertidumbre de Heisenberg. La conducta de las entidades cuánticas fue denominada por Richard P. Feynman “método de suma de historias”, en la medida que exige una teoría de Supercuerdas. Es definitivamente –como señala Heisenberg, el cambio en el modelo mismo de construir teorías, donde se ha producido el cambio más importante que trajo la segunda revolución científica e industrial iniciada a mediados del siglo XIX.