LA SEGUNDA REVOLUCIÓN CIENTÍFICA Y FILOSÓFICA DEL MUNDO MODERNO_JOSÉ CARLOS BALLÓN.pdf

Anuncio
2015: EL «AÑO DE LA LUZ»
ORÍGENES DE LA SEGUNDA REVOLUCIÓN CIENTÍFICA
DEL MUNDO MODERNO
(PARTE I)
James Clerk Maxwell el hombre que cambió el mundo para siempre.
El 20 de diciembre de 2013 la LXVIII Asamblea General de la ONU proclamó el año
2015 como el AÑO INTERNACIONAL DE LA LUZ Y LAS TECNOLOGÍAS BASADAS
EN LA LUZ. La Resolución 2015, fue traducida desde entonces a todos los idiomas
oficiales de la ONU.
Poco puede entenderse del mundo de la vida contemporánea si se desconoce la revolución
científica que la originó a mediados del siglo XIX. El año 2015 se cumplió el 150
aniversario de la publicación del legendario artículo del físico escocés James Clerk
Maxwell: A Dynamical Theory of the Electromagnetic Field [1865].
También se cumplió el bicentenario de las contribuciones de Augustin-Jean Fresnel a las
ecuaciones ondulatorias de la teoría de la luz en 1815 y 110 años del artículo “Sobre un
punto de vista heurístico concerniente a la producción y transformación de la luz” sobre el
efecto fotoeléctrico (1905)1 de un joven físico alemán, Albert Einstein.
Se cumplieron igualmente los cincuenta años del descubrimiento de la Radiación Cósmica
de fondo por Arno Penzias y Robert Wilson y del descubrimiento de la Transmisión de luz
por fibras ópticas para comunicaciones, por Charles Kuen Kao (ambos de 1965).
1
EINSTEIN, A. (1905): “Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt” (Sobre un
punto de vista heurístico concerniente a la producción y transformación de la luz). En Annalen der Physik 17, 132-148. Versión inglesa
en: Beck (1989), 86-103.
Número de Annalen der Physik 17, 132-148, en el que se publicó el artículo de Einstein sobre el efecto fotoeléctrico
Las aplicaciones de la ciencia y la tecnología de la luz son esenciales para entender la
segunda gran revolución industrial que esta produjo en todo el mundo en la segunda mitad
del siglo XIX.
El acceso masivo a la información y las comunicaciones, desde el lejano telégrafo, la radio
y la telefonía sin hilos, hasta la televisión y el paradigmático internet, fueron apenas unos
cuantos resultado de esta revolución científica y social.
Hasta las tecnologías más domésticas y cotidianas como los teléfonos móviles, el control
remoto que usamos para ver la televisión, oír música o calentar la comida en el microondas,
las nuevas fuentes de energías renovables y eficientes que limitaron el despilfarro y
redujeron la contaminación de la energía producida del carbón, la madera y el petróleo.
La revolución de los nuevos materiales como la fibra óptica, los cambios en la minería
tradicional, en la construcción, en la industria automotriz, en la aviación y los viajes
espaciales, en la arquitectura, la arqueología, en el arte y la cultura de masas como el
cinematógrafo, entre tantas otras cosas que configuran en su conjunto el mundo actual.
La misma formulación matemática de la estructura ONDULATORIA de la luz propuesta
inicialmente por Christian Huygens, Thomas Young2 y formulada por Agustín Fresnel en
1815, culminó en apenas 50 años con el desarrollo de la teoría electromagnética de la
propagación de la luz (o Teoría del Campo Unificado) formulada por el físico Escocés
James Maxwell en 1865.
Fue a estas ecuaciones, a las que el científico holandés Hendrik Antoon Lorentz introdujo
en 1900 un conjunto de transformaciones “grupo de Lorentz” bajo el cual las ecuaciones
de Maxwell adquirieron consecuencias imprevisibles que condujeron a la Teoría
Generalizada de la Relatividad y al nacimiento de la Física Cuántica durante el siglo XX.
2
El denominado experimento de la doble rendija, fue realizado en 1801 por Thomas Young - Físico, médico y egiptólogo británico-, en
un intento de discernir sobre la naturaleza corpuscular u ondulatoria de la luz. Young comprobó un patrón de interferencias en la luz
procedente de una fuente lejana al difractarse en el paso por dos rejillas, resultado que contribuyó a la teoría de la naturaleza
ondulatoria de la luz.
Hendrik Antoon Lorentz
Tales modificaciones cambiaron nuestra visión del mundo y nuestro mismo PARADIGMA
FILOSÓFICO CONTEMPORÁNEO DE CIENCIA de una manera radicalmente diferente
al PARADIGMA MECANICISTA MODERNO de ciencia fundado por Copérnico,
Galileo, Descartes y Newton.
Se puede resumir este cambio, en la célebre observación de Werner Heisenberg en 1979:
“El influjo más fuerte sobre la Física y la Química de los últimos siglos lo
ejerció sin duda la doctrina atómica de Demócrito […] Hoy, lo que
realmente hace falta es un cambio en los conceptos fundamentales.
Tendremos que abandonar la filosofía de Demócrito y el concepto de
partícula elemental. Y en su lugar deberíamos aceptar el concepto de
simetrías fundamentales que deriva de la filosofía de Platón […] No creo
que aparte de este cambio conceptual vaya a haber ninguna otra ruptura
espectacular”3.
«SOLO EXISTEN LOS ÁTOMOS»
Desde su nacimiento, la mecánica moderna dio la respuesta de Demócrito como método de
investigación y de explicación científica: “Por convención es lo dulce y lo amargo, lo
caliente y lo frío, por convención es el color; en realidad solo existen los átomos y el
vacío”.
El atomismo no era, por supuesto, una tesis filosófica novísima, ni específicamente
moderna. Fue sostenida primero por los pitagóricos, que identificaron la unidad mínima de
los números enteros positivos con el punto geométrico.
La paradoja matemática estalló con el célebre Teorema de Pitágoras: cualquier dimensión,
por mínima que sea, es siempre divisible ad infinitum, dando lugar a lo que los griegos
llamaron “números irracionales” imposibles de expresar en números enteros positivos.
Como mostraron las aporías de Zenón, el atomismo resultaba contradictorio con la
experiencia sensible y absurdo por la vía inteligible.
Leucipo y Demócrito, reformularon la ontología atomista matemática del pitagorismo y le
dieron su forma fisicalista clásica. No definieron el átomo por su dimensión geométrica,
3
Werner Heisenberg; «Tradition in Science». Science and Public Affairs-Bulletin of the Atomic Scientists, 29, N° 10, p. 410 [1973]. Trad
al español en: Encuentros y conversaciones con Einstein y otros ensayos. Madrid, 1979, Alianza Editorial, pp. 23-24 y 89-90.
sino a partir de una propiedad física, teórica y empíricamente evidente: su
impenetrabilidad4.
Del hecho, de que dos cuerpos no pueden ocupar un mismo lugar se sigue que deben existir
unidades mínimas absolutamente densas, simples (sin partes) y por tanto indivisibles e
inmutables. Así los describe Lucrecio en el Lib I, versos 599-614 de su Rerum natura:
como “sólidos y simples”.
Una sola pregunta quedaba en pie: ¿Cuál era el origen causal del movimiento de los
átomos? ¿Tenía que existir algo más aparte de los átomos y el vacío? ¿Un vórtice o
torbellino inicial –como sostuvo Descartes que suplantara una causa metafísica final al
desencadenar las interacciones atómicas y la formación de todos los cuerpos compuestos
conocidos?
GALILEO
Galileo fue quien formuló el primer axioma o principio de la MECÁNICA TEÓRICA
MODERNA (luego consagrado por Newton como Primera Ley de la Física o Ley de la
Inercia) en su obra de 1638 Consideraciones y demostraciones matemáticas sobre dos
nuevas ciencias5.
Con ella buscó independizar la Física de todo supuesto Metafísico respecto a una primera
causa externa, así como de la paradoja de la infinita divisibilidad de cualquier magnitud
matemática (como los pitagóricos) o geométrica (como la de “extensión” de Descartes)
positiva.
Galileo formuló una PROPIEDAD FÍSICA INTRÍNSECA DE UN CUERPO AISLADO,
que denominó Gravedad (gravitá)6. Definió la gravedad como la “cantidad de masa
inercial” que posee un cuerpo para ser tal (cantidad que vulgarmente designamos como
“peso”)7.
En la medida que la masa es constante e invariante, origina el movimiento más simple,
natural y espontáneo: el movimiento uniforme y rectilíneo que caracteriza el movimiento
inercial, como el de la caída de un cuerpo en un espacio vacío, independientemente de su
relación con otro.
4
Kirk G. S., J.E. Raven y M. Schofield; Los filósofos presocráticos, Historia, Crítica con selección de textos, BHF 63, Ed. Gredos,
Madrid, 1987, pp. 566 y 567.
5
Galileo Galilei; Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias. Madrid, 1981, Editora Nacional, pp. 93, y
97-101.
6
“…un cuerpo pesado tiene, por naturaleza, un principio intrínseco que lo mueve hacia el centro común de los graves (hacia el centro de
nuestro globo terrestre) con movimiento continuamente acelerado y siempre igualmente acelerado en tiempos iguales […] con la
condición de que se eliminen todos los obstáculos accidentales y externos.” Galileo Galilei; Consideraciones…, op. cit. pp. 164-165.
7
Aunque el término “peso” (el que medimos con una balanza) técnicamente se refiere a la “masa gravitacional” y no a la inercial.
El movimiento inercial en un espacio vacío no requiere de una explicación causal o
teleológica (no necesita de “causas primeras”, “causas ocultas” o “lugares naturales”), es
simplemente la consecuencia de una propiedad intrínseca de un “cuerpo” o de un “sistema
mecánico” de poseer masa.
En un sistema mecánico, todos los demás movimientos son variables del movimiento
inercial y no serían sino un producto de la acción directa de otro cuerpo (por choque), o
por rozamiento (una superficie) u oscilación de un medio (aire, agua, gases, etcétera), que
pueden desviarlo, acelerarlo, desacelerarlo, curvarlo, dando lugar a todos los movimientos
compuestos.
Galileo demostraba la composición de los movimientos curvos con el ejemplo de la
parábola que describía la trayectoria de un proyectil, análoga a la trayectoria que describía
una bola que se desliza por un plano inclinado. En consecuencia, todo movimiento solo
puede ser descrito y explicado en términos locales y por acción directa, descartando todo
tipo de “causas ocultas” o “acciones a distancia”.
La centralidad del concepto de masa, abrió pronto otro enigma: ¿Qué es el vacío? ¿Cómo
puede existir algo donde no hay” nada”? ¿Es un sinsentido postular la existencia de la
nada? Peor aún, sugerir que tiene la propiedad física material de “extensión” (¿de la nada?).
Descartes otro de los padres del mecanicismo se dio cuenta de esta aporía instalada en la
primera ley de la mecánica moderna. Solo quedaban dos posibilidades: 1. Eliminar la
hipótesis del vacío. Pero ello traería abajo el principio de inercia que lo presupone y con
ello el derrumbe de todo el sistema teórico mecanicista construido sobre dicho principio, o,
2. Añadir otro principio independiente que lo complemente para explicar las interacciones
entre los cuerpos que no se derivan del principio inercial.
Según el propio Descartes, la hipótesis del vacío, “tomada en la acepción de los filósofos,
esto es, como aquello en que no hay absolutamente sustancia alguna”. Resulta
contradictorio afirmar “que hay extensión de la nada… pues cuando nada hay entre dos
cuerpos, es forzoso que se toquen mutuamente”8.
A partir de esta crítica, Descartes va a elaborar la conjetura de la existencia de una “materia
sutil" o “éter” que llenaría el espacio aparentemente vacío entre los cuerpos. Este plenum
permitiría explicar interacciones como la gravitatoria, existentes entre los planetas, que
suponemos están separados por inmensos espacios vacíos, sin tener que postular
inexplicables “interacciones a distancia” a través del espacio vacío.
8
Descartes, René; Los principios de la filosofía. Buenos Aires, 1951, Losada, “Segunda parte”, pp. 44-45.
Pero el costo de esta hipótesis era demasiado alto, pues sacrificaba el principio del
movimiento inercial y tampoco se presentaba como una hipótesis con mayor respaldo
empírico que la del vacío.
NEWTON
Newton, en un principio, vio con cierta simpatía la hipótesis cartesiana. En una carta a
Boyle –fechada el 28 de febrero de 1678- expone sus simpatías por la hipótesis cartesiana:
Supongo que existe una sustancia etérea difundida por todas partes, capaz de
contraerse o dilatarse, sumamente elástica… muy parecida al aire… pero
mucho más sutil […] cuando dos cuerpos se aproximan… el éter entre ambos
comienza a rarificarse […] finalmente… el exceso de presión del éter externo
[…] es tan grande como para vencer la resistencia que tienen los cuerpos a
entrar en contacto […] ese exceso de presión los juntará con violencia y hará
que se adhieran mutuamente9.
Todavía en su carta a Bentley del 25 de febrero de 1692 resumió el motivo de su decisión:
Que la gravitación sea innata, intrínseca y esencial a la materia, de suerte que
un cuerpo pueda actuar sobre otro a distancia, a través del vacío, sin la
mediación de ninguna otra cosa a través de la cual su acción pueda pasar de uno
a otro, me parece a mí un absurdo tan grande que no creo que hombre alguno
que piense con sensatez en materias filosóficas pueda jamás caer en él10.
Pero, rodeado en la Roya Society de un ambiente baconiano radicalmente experimentalista
y hostil a toda especulación metafísica, optó finalmente por la segunda y formuló la ley de
gravitación como un axioma independiente, que no se deducía del principio inercial.
Hasta aquí hemos explicado los fenómenos de nuestro cielo y nuestro mar
como fuerza gravitatoria, pero no hemos asignado aún causa a esa fuerza […] ni
voy a fingir hipótesis, pues las hipótesis metafísicas carecen de lugar en la
filosofía experimenta Ya es bastante que la gravitación realmente exista y actúe
con arreglo a las leyes que hemos expuesto […]. Podríamos adelantar algo
sobre cierto espíritu sutilísimo por cuya fuerza y acción las partículas de los
cuerpos se atraen unas a otras cuando se encuentran a escasa distancia […] Pero
no disponemos de la cantidad suficiente de experimentos para determinarlo con
precisión y demostrar mediante qué leyes opera este espíritu eléctrico y
elástico11.
9
Newton Isaac; Selección de textos. Bs. As. 1943, Espasa-Calpe, pp. 92-95.
Citado por R. G. Collingwood; Idea de la naturaleza. México, 1950, FCE, pp. 170-71.
11
Newton, Isaac; Principios matemáticos de la filosofía natural y su sistema del mundo. Madrid, 1982, Editora Nacional, pp. 816-817.
10
Newton optó por preservar el principio de inercia de Galileo (Primera ley del Movimiento).
Con ello preserva la extraña y paradójica hipótesis del espacio vacío o absoluto (in it self)
carente de masa, que presupone el movimiento inercial uniforme y rectilíneo.
A partir de estos de estos dos elementos deduce la Segunda ley del movimiento, o variación
del estado inercial primitivo, resultando por composición o “suma de movimientos” que
remite a la aceleración que otro cuerpo o fuerza le imprime en la misma dirección del
movimiento inercial, que se obtiene multiplicando la masa de un cuerpo (K=m x v) por la
velocidad.
La tercera ley del movimiento, (acción y reacción) plantea la inversa: a toda acción de un
cuerpo sobre otro en sentido contrario de su dirección inercial, le corresponde una reacción
igual y en sentido contrario equivalente a la masa inercial o “resistencia al cambio de su
inercia”. A su vez, cuando una fuerza o cuerpo externo modifica la velocidad y dirección
del movimiento de un cuerpo por choque o resistencia de un medio (rozamiento),
dependiendo del punto de contacto, se deducen un conjunto de trayectorias curvadas.
A continuación procedió a añadir un nuevo principio independiente que denominó fuerza
gravitatoria, para describir todas las variables interacciones físicas en términos relativos a
las proporciones espaciales (distancias entre los cuerpos) y la cantidad de masa de un
cuerpo en movimiento, desde las mareas hasta los planetas.
EL ENIGMA DE LA «ACCIÓN A DISTANCIA»
Todavía a fines del siglo XVIII (1796), el viejo Kant admitía que si bien «el sistema de la
gravitación universal de newton se mantiene, conlleva la dificultad de no poder explicar
cómo es posible la acción a distancia»12.
En la mecánica todos los fenómenos del mundo físico pueden explicarse como resultado de
las múltiples interacciones entre cuerpos materiales en movimiento: a) el movimiento lineal
o inercial con un solo grado de libertad b) el movimiento por choque y dispersión de
cuerpos materiales y c) el movimiento por oscilaciones pequeñas de un medio en las
proximidades de su posición de equilibrio estable.
Así, el comportamiento de los tres estados básicos de la materia puede ser descrito de la
siguiente manera: el sólido como un conjunto discreto de partículas materiales que
mantienen entre si distancias invariantes. Un líquido puede ser descrito por las oscilaciones
de un medio en las proximidades de cierto rango de dispersión de sus partículas que le
permiten un cierto grado de equilibrio.
Un gas, puede ser descrito como una enorme congregación de partículas materiales que por
múltiples choques y dispersión de sus partículas no mantienen distancias invariantes. La
mecánica estadística permite trazar una media del incremento de la energía cinética (que
vulgarmente denominamos “calor”) que dichas interacciones aparentemente desordenadas
originan. Este procedimiento permite entonces calcular estadísticamente las variaciones en
conjunto de la estructura y movimiento de dicho sistema mecánico.
La Ley de gravitación de Newton permitió generalizar el modelo de explicación
mecanicista como interacciones lineales entre cuerpos materiales a todos los ámbitos del
12
Kant Enmanuel; Principios metafísicos de la ciencia de la naturaleza. Madrid, 1989, Alianza Editorial, p. 41.
mundo físico, sea por acción directa (choque, rozamiento u oscilación de un medio) o por
acción a distancia, que suponía la hipótesis de vacío.
La mecánica clásica –según Einstein– sugiere la conjetura de que todos los fenómenos
pueden explicarse por la acción de fuerzas de atracción o repulsión, la cual depende
únicamente de la distancia y obra entre partículas invariantes13.
Fue así como el físico francés Charles-Agustin de Coulomb, elaboró el principio
fundamental de la electrostática o ley de Coulomb (1785), estableciendo que la fuerza de
atracción (o repulsión) entre dos cargas eléctricas puntuales de distinto (o igual) signo es
directamente proporcional al producto del valor de sus cargas e inversamente proporcional
al cuadrado de la distancia que las separa:
Thomas Young
Coulomb
Alessandro Volta
La primera pila eléctrica (llamada desde entonces PILA VOLTAICA), fue dada a conocer
por el científico italiano Alessandro Volta en 1800 mediante una carta que envió al
presidente de la Royal Society londinense. Inició la era eléctrica en que vivimos y la
investigación experimental de la mecánica de funcionamiento físico de las leyes de
Coulumb.
La pila estaba conformada por una serie de pares de discos (apilados) de zinc y cobre,
separados unos de otros por trozos de cartón que medían unos 3cm de diámetro. Las placas
eran de diferente potencial, la de cobre tenía más alto potencial que la de zinc y ambas
estaban sumergidas en dos recipientes llenos de una solución acuosa de ácido sulfúrico,
unidas por un alambre conductor.
De acuerdo con las leyes de Coulumb, debería producirse un flujo eléctrico de una a otra,
hasta anular la diferencia de potencial y al establecerse el equilibrio debía cesar todo el fujo
eléctrico.
NUEVA PIEZA DEL ROMPECABEZAS
Pero resultó que sus cargas se restablecían continuamente después de cada descarga
creando una carga ilimitada que perpetuaba el flujo eléctrico, cuando, según las leyes de
Coulumb –tratándose de un sistema aislado este debía agotarse y cesar. Era como si de
pronto el flujo eléctrico adquiriese vida propia, independientemente de la fuente emisora
material.
Más aún, el flujo eléctrico generaba también una notable cantidad de calor, que nadie había
asociado a la electricidad, lo que implicaba una triple transformación de energía química en
13
Einstein Albert y L. Infield; La física aventura del pensamiento…, Buenos Aires, 1945, Losada S. A., p.81.
eléctrica y de esta en calorífica. Las que eran consideradas como entidades independientes
solo eran momentos de un flujo continuo.
El método mecanicista se extendió también al magetismo, fenómeno que se explicaba por
la interacción proporcional entre dos polos magneticos. Al situar la aguja imantada de una
brújula en las proximidades del hilo conductor de un circuito eléctrico por el que fluye
corriente, la brújula abandona su posición norte sur para reorientarse en una dirección
perpendicular al hilo. Esta sencilla experiencia, realizada por el físico danés Hans Christian
Oersted en 1819, ofreció la primera prueba de la relación entre la electricidad y el
magnetismo.
De ello se deduce que las cargas eléctricas en movimiento generan en el espacio
circundante un campo eléctrico y otro magnético de dirección perpendicular al anterior. No
se trataba entonces de una interacción lineal simple, sino que las fuerzas electromagnéticas
describían todo un “campo difuminado” alrededor de los cuerpos materiales.
De manera que el campo no es creado por el cuerpo mismo sino por el movimiento de la
carga eléctrica, dependiendo de la velocidad de la corriente, independientemente del cuerpo
material estático que la produce.
A los experimentos de Oersted se añadieron en 1831 los experimentos del físico inglés M.
Faraday, que demostraron el proceso inverso. La ley de inducción electromagnética de
Faraday estableció que el voltaje inducido en un circuito cerrado es directamente
proporcional a la rapidez con que cambia en el tiempo el flujo magnético. De manera que
las variaciones en la intensidad del campo electromagnético no dependen de la distancia
entre dos cuerpos materiales sino de la velocidad de las cargas electromagnéticas. Se
trataba de un proceso físico realmente autónomo de los cuerpos con masa.
Fizeau
Orsted
Faraday
Joule
Finalmente, el físico británico James Prescott Joule que en 1843 extendió el mismo
formalismo en la Ley de transformación de la energía eléctrica en energía calorífica, según
la cual, la cantidad de calor producida en un conductor al paso de la corriente eléctrica es
directamente proporcional a la resistencia del mismo conductor e inversa al cuadrado de la
intensidad, por el tiempo de duración de la corriente inducida
[E= (V2/R) x t]
Hacia la culminación de la primera mitad del siglo XIX la investigación de los fenómenos
luminosos y ópticos, desde los pioneros trabajos de Huygens (un contemporáneo de
Newton), Young, Fresnel, Fizeau14 y muchos otros, los había ido alejando progresivamente
de la concepción corpuscular de la mecánica newtoniana, conduciéndolos progresivamente
a una concepción ondulatoria de la estructura de la luz (vibración de un medio) de manera
análoga al sonido (que suponía la vibración del aire).
Pero esta analogía era muy limitada, pues a diferencia del sonido, la luz se desplazaba en
inmensos espacios vacíos, como en el caso de la luz solar y otros cuerpos celestes.
Resultaba entonces un absurdo suponer la “vibración del vacío”. pero tampoco se tenía
como justificar su propiedad ondulatoria, como vibración hipotética de un “eter luminoso”
que aparecía como una pieza del rompecabezas que no se sabía exactamente como encajaba
en el conjunto de la física mecanicista.
Agustín Fresnel
Peor aún, la estructura ondulatoria, depende de la densidad del medio vibrante para su
interpretación física. Un medio extremadamente fino y sutil (casi indistinguible del vacío)
correspondería necesariamente a un tipo vibratorio de onda longitudinal.
Pero las investigaciones del matemático francés Agustín Fresnel sobre la disfracción de la
luz entre 181515 y 1818, lo llevaron a confirmar experimentalmente la exactitud de su
integral que suponían la estructura ondulatoria “transversal” y no longitudinal de las ondas
de luz.
La integral de Fresnel permitió calcular experimentalmente los patrones de difracción
generados por obstáculos y aberturas y explicar de forma satisfactoria la propagación
14
Hippolyte Fizeau (1819- 1896) concretó en 1849 un experimento clásico. Al hacer pasar la luz reflejada por dos espejos entre los
intersticios de una rueda girando rápidamente, determinó la velocidad que podría tener la luz en su trayectoria, que estimó
aproximadamente en 300.000 km./s. Después lo siguió su colaborador León Foucault (1819 – 1868) al medir la velocidad de
propagación de la luz a través del agua. Ello le iba a servir de criterio entre la teoría corpuscular y la ondulatoria. La primera, requería
que la velocidad fuese mayor en el agua que en el aire. En sus experimentos, Foucault logró comprobar en 1851, que la velocidad de la
luz en el agua es inferior a la que desarrolla en el aire. Con esto la teoría ondulatoria adquiere preeminencia sobre la corpuscular, y
pavimenta el camino hacia la gran síntesis realizada por Maxwell.
Leer más: http://www.monografias.com/trabajos5/natlu/natlu.shtml#ixzz3vqgufCV8
15
En 1815 Agustín Fresnel publicó el artículo «Premier Mémoire sur la Diffraction de la Lumière».
rectilínea en medios homogéneos, eliminando así la objeción principal de Newton para la
teoría ondulatoria.
Representación de onda electromagnética polarizada plana. Campos eléctricos (E) y magnético (B) están en fase, perpendiculares entre si
y a la dirección de propagación de la onda. Fuente: Investigación y Ciencia. Ed. española de Scientific American.2009 abril 2816.
También permitió describir con exactitud el fenómeno de la polarización, comprobando que
dos luces cuyas polarizaciones son perpendiculares no interfieren, por lo que concluyó que
la luz era una onda transversal. Es decir, presuponían un medio tan denso como una
gelatina.
LA OTRA MITAD DEL MUNDO: LA ELECTRODINÁMICA
Como consecuencia de las investigaciones brevemente reseñadas en este artículo, a
mediados del siglo XIX aparece entre los cuerpos materiales (allí donde la mecánica
newtoniana registraba un vacío absoluto), la realidad del campo electromagnético, como
una realidad autónoma que nadie había detectado y llenaba todo el espacio circundante de
los cuerpos materiales.
Este proceso culminó en 1865, hace 150 años, cuando el físico escocés James Clerk
Maxwell llevó adelante la hazaña de sintetizar en un solo sistema de ecuaciones,
independientes de las ecuaciones de la relatividad de Galileo, las leyes que rigen el campo
electromagnético unificado. A partir de este momento cambió irreversiblemente nuestra
mirada del mundo.
Durante una de las visitas que Albert Einstein realizó a Cambridge (Inglaterra), alguien le
señaló que había llegado tan lejos solo porque se subió a los hombros de Newton. Einstein
le replicó tajante: «Eso es falso. Yo me subí en los hombros de Maxwell».
La Teoría del Campo Unificado de Maxwell implicaba una estructura legal completamente
distinta a las ecuaciones de la mecánica. El procedimiento analítico de la Mecánica
privilegiaba el rol determinante de las entidades (invariantes) sobre las interacciones
16
Ángel Gozález Ureña;«Descubrimiento de las ondas de Radio: la confirmación de la Teoría Electromagnética». En:
http://www.investigacionyciencia.es/blogs/fisica-y-quimica/10/posts/descubrimiento-de-las-ondas-de-radio-la-confirmacin-de-la-teoraelectromagntica-10186 .
variables; la Electrodinámica privilegia el papel determinante de las relaciones abstractas o
sistémicas (campo) sobre las entidades.
En esta inversión metodológica parece residir esencialmente el cambio de paradigma de la
ciencia contemporánea. Se trata de leyes estructurales que describen relaciones sistémicas y
no en función de entidades. No relacionan objetos en función de distancias sino una
sucesión de acontecimientos y transformaciones en el tiempo.
Las ecuaciones de Maxwell nos permiten seguir algo así como LA HISTORIA DEL
CAMPO, no solo en el formalismo sino también en la interpretación física, pues nos
introduce a la historia del sistema de relaciones y no a la historia de las cosas o individuos.
La red de interacciones electromagnéticas, son más reales que los cuerpos que poseen
masa. El campo unificado es como una especie de nube o engrudo donde los cuerpos que
poseen masa constituyen apenas algunos grumos del engrudo.
El trabajo de Maxwell se desarrolló entre 1856 («On Faraday's Lines Of Force»17), 1861
("On Physical Lines of Force") y 1865 ("A Dynamical Theory of the Electromagnetic
Field”)18 y culminó en 1873 con su Treatise on Electricity and Magnetism, donde revisó
sus papeles y reunió los resultados de 17 años de investigación.
Treatise on Electricity and Magnetism [1873]
Cuando Maxwell, publicó en 1865 su trabajo A Dynamical Theory of the Electromagnetic
Field acababa de cumplir 34 años. Envió previamente un breve resumen del mismo a la
Royal Society el 27 de octubre de 1864. Una primera versión del trabajo fue leída por
Maxwell ante esta sociedad el 8 de diciembre de ese año. Una vez que Maxwell concluyó el
artículo, lo remitió el 23 de marzo de 1865 a George Stokes, Secretario de Ciencias Físicas
de la Royal Society y tras varias revisiones fue aceptado el 15 de junio de 1865 para su
publicación.
Tal como reseñamos, ya se conocían muchas leyes individuales sobre el comportamiento de
la Electricidad, de la luz y del Magnetismo, pero no se tenía una teoría formal que explicara
de manera unificada los fenómenos de naturaleza electromagnética conocidos.
17
18
J. Clerk Maxwell; Transactions of the Cambridge Philosophical Society. Vol. X, Part I, 1856, feb.11, pp. 158-209.
J. Clerk Maxwell; Philosophical. Transaction.of the Royal. Society. London. 1865. N° 155, pp. 459-512, published 1 January 1865.
Maxwell propuso inicialmente veinte ecuaciones que denominó “ecuaciones generales del
campo electromagnético” y que relacionan veinte variables que rigen el comportamiento de
la interacción electromagnética. El artículo consta de 53 páginas y contiene siete partes y en
su conjunto proporcionan una base teórica completa para el tratamiento de los fenómenos
electromagnéticos clásicos.
No fue hasta 1884 cuando Oliver Heaviside (1850-1925)19, utilizando Análisis Vectorial
redujo las 20 ecuaciones del campo electromagnético a las cuatro ecuaciones en forma
vectorial que conocemos hoy en día.
Oliver Heaviside (1850-1925)
Fue precisamente la visión de conjunto lo que permitió a Maxwell reunir todos los
resultados parciales acumulados previamente en un todo armonioso: La ley de Gauss del
campo eléctrico20, la ley de Gauss del campo magnético, la ley de Faraday-Henry de la
inducción electromagnética y la ley de Ampére-Maxwell.
Carl Friedrich Gauss
André-Marie Ampère (1775- 1836)
Maxwell armó un modelo físico-matemático capaz de explicar no solo la totalidad de los
fenómenos conocidos en esa época, sino también predecir nuevas ondas electromagnéticas
entonces desconocidas.
La gran contribución de James Clerk Maxwell fue reunir en estas ecuaciones largos años de
resultados experimentales debidos a Coulomb, Gauss, Ampere, Faraday y otros,
19
20
Sus trabajos publicados incluyen numerosos papers y artículos, entre ellos: Electromagnetic Waves (1889), Electrical Papers (1892) y
Electromagnetic Theory (3 vols 1893-1912).
La ley de Gauss establece que: el flujo de campo eléctrico neto a través de cualquier superficie cerrada (Gaussiana) es proporcional a
la carga eléctrica neta encerrada por dicha superficie dividida por la permisividad eléctrica del vacío o del aire. La superficie
cerrada empleada para calcular el flujo del campo eléctrico se denomina superficie gaussiana. La Ley de Gauss es una de las
ecuaciones de Maxwell y está relacionada con el teorema de la divergencia, (o teorema de Gauss). Fue formulada en 1835, pero no
fue publicada hasta 1867. Bellone, Enrico (1980). A World on Paper: Studies on the Second Scientific Revolution.
introduciendo los conceptos de campo y corriente de desplazamiento, unificando los
fenómenos eléctricos y magnéticos en un solo concepto: el campo electromagnético.
El desarrollo del Electromagnetismo permitió comprender el mecanismo de interacción
entre cuerpos, invalidando la casi mágica interacción denominada “acción a distancia” que
implícitamente establecía el mecanicismo y suponía la Ley de Coulomb.
La Teoría de Relatividad Especial formulada por Einstein en 1905 (40 años después), se
basa implícitamente en las ecuaciones de Maxwell pues ellas se cumplen con rigor en todos
los sistemas inerciales, lo que permite deducir naturalmente las transformaciones del campo
magnético de Lorentz como relaciones únicas de transformación de coordenadas entre
sistemas inerciales.
La primera ecuación de Maxwell se fundamenta en el diseño experimental formulado por
Faraday en 1831, sobre la fuerza electromotriz inducida. Según este, un campo eléctrico se
genera, cuando hay un movimiento relativo del imán con el conductor eléctrico. La fórmula
matemática de la ley de Faraday sería:
El miembro izquierdo de la ecuación (campo eléctrico), define la fuerza eléctrica inducida
en el conductor. La curva C, se define por el conductor (alambre de cobre). El segundo
miembro es la variación temporal (movimiento del imán) del flujo magnético a través de la
superficie que tiene por borde a la curva C. no es que el campo eléctrico sea creado por el
campo magnético sino por el movimiento relativo de ambos.
La segunda ecuación de Maxwell, también se basa en los experimentos de inducción
eléctrica de Faraday (1831), donde una carga Q es encerrada por un recipiente conductor
inicialmente neutro, pero sin establecer contacto directo con el cuerpo cargado. El
recipiente conductor reordena sus cargas (fenómeno de inducción) de tal manera que las
superficies interior y exterior del recipiente quedan cargadas con signo opuesto. La carga
total inducida en cada superficie resulta de magnitud exactamente igual a la de la carga
encerrada.
La expresión matemática de ambas ecuaciones fue dada por Gauss y reformulada por
Heaviside con la actual forma vectorial, utilizando el campo de “inducción” D, que fuera
definido y medido por Faraday:
El primer miembro es el flujo del campo D a través de cualquier superficie que encierre la
carga Q, mientras que el segundo miembro representa la carga total encerrada.
La tercera ecuación de Maxwell, se basaba en la Ley de Ampère. Hasta el año 1820 se
pensaba que la electricidad y el magnetismo no eran fenómenos relacionados. En una
conferencia que daba Oersted, posó una brújula sobre un conductor con corriente
provocando que la aguja se orientara de manera transversal al conductor. De casualidad,
descubrió que una corriente eléctrica está rodeada por un campo magnético. Pero no logró
dar una explicación satisfactoria, pues buscaba una relación causal entre magnetismo y
electricidad.
Fue el gran físico matemático francés A. Ampère, quien dio la expresión matemática del
fenómeno (que lleva su nombre). Hoy sabemos que las corrientes eléctricas y el campo
magnético asociado no son causa y efecto ya que ambos, corriente y campo, aparecen
simultáneamente con el movimiento (causa) de cargas. Matemáticamente la ley de Ampère
expresa correctamente tal asociación:
El primer miembro es la circulación de H, siendo C cualquier curva cerrada que rodee a la
corriente I concatenada. Siempre y cuando sean corrientes constantes.
La cuarta ecuación de Maxwell, se basaba en una particular propiedad del campo
magnético (B), cuyas líneas de fuerza son necesariamente cerradas pues no tienen ni
fuentes ni sumideros.
Un mérito destacable de Maxwell fue lograr una descripción operativa de los fenómenos
anteriores mediante complicadas ecuaciones diferenciales, en una época en que aún no se
había desarrollado el análisis vectorial, de mayor potencia y elegante sencillez.
Se concluye que si en un punto del espacio hay un campo magnético variable en el tiempo,
en el entorno del punto habrá también un campo eléctrico variable. Este mecanismo de
vinculación entre campos variables en el tiempo, históricamente se lo denominó
concatenación de campos o lo que es o lo que es lo mismo: propagación ondulatoria.
Pero la Hipótesis de Maxwell no sólo explica cómo se transmiten las perturbaciones,
también predice la existencia de ondas independientes de la materia. El campo
electromagnético adquiere categoría de ente físico real.
La teoría electromagnética de Maxwell no solo produjo una revolución teórica sino que
allanó el camino para importantes innovaciones tecnológicas. La primera y posiblemente
más importante de ellas se produjo en 1888, cuando Heinrich Hertz utilizó la teoría de
Maxwell para crear instrumentos capaces de enviar y recibir pulsos de radio. Este
descubrimiento, abrió el camino andado hasta el actual uso cotidiano de las microondas.
Dicen que el gran físico alemán Ludwig Boltzmann consideró que estas ecuaciones eran
tan bellas por su simplicidad y elegancia que, como el Fausto de Goethe, se preguntó:
«¿Fue acaso un dios quien escribió estos signos?»
Placa con ecuaciones de Maxwell en estatua de Edimburgo. Polo usado por estudiantes de electrónica en diversos países.
Maxwell logró deducirla velocidad de las ondas electromagnéticas en el “vacío” etéreo,
suponiendo un grado de densidad mínima (Dm = m0) obteniendo un resultado sorprendente:
la velocidad de una oda electromagnética en tales condiciones, resultaba igual a la
velocidad de la luz. Todo el universo de las radiaciones de onda comenzó a aparecer ante
nuestra experiencia cotidiana.
En la parte sexta de su artículo de 1865 A Dynamical Theory of the Electromagnetic Field,
concluyó con la siguiente legendaria afirmación:
«… la luz y el magnetismo son alteraciones de la misma sustancia y la
luz es una perturbación electromagnética que se propaga a través del
campo según las leyes del electromagnetismo»21.
Esto quiere decir que no todas las radiaciones electromagnéticas tienen la misma longitud
de onda sino que esta se puede ampliar a intervalos muy amplios, un universo conocido
como ESPECTRO ELECTROMAGNÉTICO.
La gran mayoría de estas radiaciones permanecieron ocultas a la experiencia humana
durante milenios, pues no impresionaban directamente a nuestros sentidos (el rango de
frecuencias que se pueden percibir con la vista, va apenas desde el color rojo hasta el
violeta), pero indirectamente revelaban su existencia por sus efectos como el calentamiento
térmico o fotoeléctrico.
Gracias a las ecuaciones de Maxwell fue posible detectar radiaciones cuya longitud de onda
varía desde 50 Km (caso de las ondas hertzianas que se emplean en la telefonía sin hilos),
hasta ondas de una longitud equivalente a la diez milésima parte de un milímetro, como los
Rayos Gamma que posee la menor longitud de onda [10-12 m]; los Rayos Infrarrojos [10-6m]
de fuerte efecto calórico; los Rayos Ultravioletas [10-8m] que provienen fundamentalmente
de la luz solar, o los Rayos X [10-10m] que se emplea en exploraciones médicas y en el
estudio de los metales.
21
«…light and magnetism are affections of the same substance, and de light is an electromagnetic disturbance propagated through the
field according to electromagnetic laws».
ESPECTRO ELECTROMAGNÉTICO
Hoy se estima que el límite para la longitud de onda más pequeña posible es la Longitud de
Planck u Hodón. Unidad de medida que se calcula a partir de tres constantes
fundamentales: la velocidad de la luz, la constante de Planck y la constante gravitacional,
que equivale a la distancia que recorre un fotón viajando a la velocidad de la luz en un
instante del tiempo de Planck.
Por otro lado, el límite máximo de una onda electromagnética sería del tamaño del universo
mismo, o equivalente a la Radiación Cósmica de Fondo derivada del Big Bang. Aunque
formalmente (teóricamente) el espectro electromagnético es infinito y es continuo.
No obstante la unanimidad del mundo académico, una amplia mayoría pensó que solo se
trataba de una mera proyección matemática y nadie creyó que esta tuviera alguna utilidad
práctica hasta que el físico alemán R. Heinrich Hertz (1857-1894) descubrió la forma de
producir y detectar ondas de radio mediante una serie de experimentos confirmando así la
teoría de Maxwell de la radiación electromagnética.
Heinrich Hertz
En 1888 Hertz produjo por primera vez artificialmente ondas electromagnéticas cuando ya
era profesor de Física en la Universidad de Karlsruhe en el laboratorio. Esto suponía, no
solo la confirmación empírica de la teoría, sino una victoria sobre aquellos ingenieros
telegráficos que pensaban que la teoría de Maxwell era solo una especulación teórica y
negaban la aplicabilidad de la Electrodiámica a cuestiones de ingeniería práctica.
Hertz probó experimentalmente la existencia física de las ondas electromagnéticas, como
había sido predicho por Maxwell y Faraday, construyendo él mismo en su laboratorio un
emisor y un receptor de ondas, usando como emisor un simple oscilador y como receptor
un resonador artesanal.
Hoy, es tan fácil percibir como las ondas electromagnéticas dominan nuestro Universo y
vida social, que basta con mirar a nuestro alrededor y percibir la luz que emiten las estrellas
como el Sol y entender fenómenos como el calentamiento global; o escuchar la Radio y la
TV para vivir “al instante” los sucesos mundiales; o ingresar a Internet lo mismo que hablar
por el teléfono móvil para la casi totalidad de nuestras actividades económicas, industriales,
sociales, políticas, educativas, profesionales y que sirven hasta para usar las microondas en
la preparación de nuestros alimentos diarios a un costo infinitamente bajo.
Una de las consecuencias de esta realidad desbordante, es que ya nadie se acuerda de
aquellos “hombres prácticos” de fines del siglo XIX que pensaban que la electrodinámica
era solo una exquisita especulación matemática para físicos teóricos o una novela de
ciencia ficción, carente de realidad material.
La teoría Electromagnética de Maxwell incluía la hipótesis el éter luminoso y estudiaba las
interacciones electromagnéticas en el marco de un éter omnipresente. Maxwell se mantuvo
firme en que la energía electromagnética y el éter no eran entidades hipotéticas, sino reales.
De hecho, para los físicos británicos del siglo XIX el éter era una condición de existencia
tan real para las ondas electromagnéticas, hasta tal punto, que llegaron a pensar que “o
existía el éter o la electromagnética se vendría abajo. No había forma de sostener una
tesis como la “vibración del vacío”.
El enigma podría plantearse también de otra manera. La teoría del campo, si bien unificaba
todos los fenómenos de la esfera de las radiaciones, no resolvía el enigma de las relaciones
entre la radiación y la materia ¿Cómo así los cuerpos materiales son capaces de recibir y
emitir energía? Esto requería una sola Teoría General de la Física, bajo un solo sistema de
ecuaciones.
Pero la Física estaba dividida. Por un lado, la Mecánica de los cuerpos materiales que
poseían masa se encontraba regida por el Principio de Relatividad de Galileo. Por otro
lado, la Electrodinámica de las radiaciones, que carecían de masa, se encontraba regida por
el Principio de Constancia Absoluta de la velocidad de la luz, independientemente del
cuerpo material que las emita o las reciba. Ambos sistemas de ecuaciones eran
absolutamente divergentes.
CARA A CARA CON EL ÁTOMO
Fue el Físico Holandés Hendrik Antoon Lorentz discípulo de Maxwell quien llevó
adelante la tarea de construir un lenguaje matemático adecuado para resolver este enigma.
Para ello extrapoló las ecuaciones continuas de Maxwell hasta que sus valores alcanzaran
los valores mínimos requeridos que los hicieran equivalentes a los fenómenos
corpusculares y le permitieran describir en detalle los fenómenos eléctricos que se producen
en el seno de los corpúsculos elementales de materia.
Formuló conjuntamente con G. F. FitzGerald, una teoría sobre el cambio de forma de un
cuerpo como resultado de su movimiento. Efecto conocido como «contracción de LorentzFitzGerald».
La representación matemática de este fenómeno es conocida por el nombre de
«Transformación de Lorentz». Lorentz descubrió en 1900 que las ecuaciones de Maxwell
bajo este conjunto de transformaciones resultaban invariantes. Las transformaciones de
Lorentz fueron publicadas en 1904, pero su formalismo matemático inicial no era
completamente consistente.
El matemático francés Henrí Poincaré las desarrolló en forma más consistente, que es la
que se conocen hoy día. Junto con el matemático ruso Hermann Minkowski mostraron que
las relaciones de Lorentz podrían interpretarse como fórmulas de transformación para la
rotación en un espacio-tiempo cuatridimensional, elaborado por Minkowski.
En 1907 Minkowski se percató de que la Teoría Especial de la Relatividad presentada por
Einstein en 1905, basada en los trabajo previos de Lorentz y Poincaré podía entenderse de
manera objetiva y no subjetiva usando una Geometría no-euclideana, en un espacio
cuatridimensional. Desde entonces esta es conocida como “Espacio de Minkowski”. Aquí
el tiempo y el espacio no son entidades separadas sino variables ligadas denominada
espacio-tiempo. En este espacio real, la “transformación de Lorentz se convierte en una
propiedad geométrica del espacio.
Con la interpretación física que Albert Einstein dio a dichas relaciones en 1905, como
transformaciones genuinas de coordenadas en un espacio-tiempo tetradimensional (y no
tridimensional, como hasta entonces se venía haciendo) la hipótesis del éter se volvió
innecesaria.
Minkowski
Einstein y Lorentz
Poincaré
En su discurso de inauguración de la 80 reunión de la Asamblea general alemana de
científicos naturales y físicos el 21 de septiembre de 1908, Minkowski pronunció una frase
que ahora es célebre:
«Las ideas sobre el espacio y el tiempo que deseo mostrarles hoy
descansan en el suelo firme de la física experimental, en la cual yace su
fuerza. Son ideas radicales. Por lo tanto, el espacio y el tiempo por
separado están destinados a desvanecerse entre las sombras y tan sólo una
unión de ambos puede representar la realidad».
Las consecuencias de estos cambios fueron desbastadoras para la representación
mecanicista del mundo.
En primer lugar, al introducir las transformaciones de Lorentz en la estructura material,
mediante estas unidades mínimas de electricidad en el seno de los cuerpos materiales, a las
cuales dio el nombre genérico de “electrones”sugerida por Thomson y Stoney, introdujo
la idea revolucionaria de que toda la materia estaba conformada por combinaciones de estos
“corpúsculos”.
Lo que llamamos vulgarmente un “cuerpo cargado”, sería uno que contiene un total de
unidades mínimas que conducen más electricidad o cargas de un cierto signo. Un cuerpo
eléctricamente neutro, es el que contiene cantidades iguales de unidades mínimas de las dos
clases de electricidad.
Ahora la materia se define intrínsecamente por sus interacciones de energía. Una imagen
completamente opuesta al corpúsculo material de la Mecánica newtoniana, que solo se
define por su masa inercial invariante.
El desplazamiento de estos corpúsculos es definido completamente por el desplazamiento
de sus cargas eléctricas, emitiendo o receptando radiación. Las transformaciones de Lorentz
reformuladas ya no exigen que la vibración luminosa sea vibración de algo distinto a la
materia (éter luminoso) y esta es definida por vectores que se remiten a “interacciones
electromagnéticas realmente existentes”.
En segundo lugar, estos corpúsculos ya no tienen la estructura de la mecánica newtoniana:
carecen de masa inercial invariante, pues su masa transversal se reduce en la dirección del
movimiento (como si se achataran) conforme el aumento de su velocidad se aproxima a la
velocidad de la luz (por el aumento de su resistencia inercial). En consecuencia se rompe
también el principio de la Mecánica newtoniana de “igualdad entre acción y reacción”, que
supone la invariancia de la masa inercial. Ahora el cociente inercial (masa) crece con la
velocidad. Y si crece el cociente inercial con la velocidad, crece igualmente el coeficiente
gravitacional.
En tercer lugar, al explicar el nacimiento de las ondas electromagnéticas como producto
del movimiento continuo de los electrones alrededor de átomo, se pone en cuestión el
principio mecánico del equilibrio termodinámico entre materia y radiación.
Si es el movimiento de los electrones es el que genera la emisión de ondas de radiación
(campo electromagnético), según las leyes de la termodinámica mecanicista, la
consecuencia sería la inestabilidad completa del átomo. Pero la tesis contraria también
resulta paradójica, pues la estabilidad del átomo implicaría que los electrones no están en
movimiento y resultaría inexplicable la emisión de ondas del campo electromagnético
continuo.
Para resolver esta paradoja, Einstein sugirió que la gravitación sería en realidad un campo
con las propiedades de la estructura continua del espacio-tiempo. Esto permitiría deshacerse
de las dos hipótesis más problemáticas: la del “éter” y la del “espacio vacío”. Con la
existencia del continuo materia-campo, “espacio vacío” no sería sino campo “gravitacional
puro”.
Einstein sostiene esta hipótesis a partir de un hecho admitido por la propia Mecánica: la
sorprendente coincidencia entre masa inercial (que se da en el espacio vacío) y masa
gravitacional (que se da con la interacción entre cuerpos), que hace irrelevante el concepto
de “masa inercial” pues se trata de lo mismo. En la Teoría Especial de la Relatividad
carece de sentido hablar de un “espacio-tiempo inercial” separado del continuo, materiacampo (espacio vacío).
En la TR el campo (energía) tiene masa y la masa tiene energía (campo), el coeficiente de
intercambio entre ambos varía con la velocidad (E = m.c2). Einstein sugirió una hipotética
prueba experimental: dado que un rayo de luz tiene masa, al atravesar grandes distancias
interplanetarias de un espacio supuestamente vacío «debería describir una trayectoria
curvada».
Este experimento fue llevado adelante por científicos de la Royal Astronomical Society,
mediante fotografías del eclipse solar del 29 de mayo de 1919. El experimento confirmó la
hipótesis de la existencia de un Campo Gravitacional Universal que no era una propiedad
de los cuerpos sino del mismo espacio-tiempo compuesto de materia y campo. El “vacío”
resulta que estaba “lleno de campo”.
En cuarto lugar, otra categoría conceptual decisiva de la ciencia mecanicista moderna se
encontró fuertemente problematizada: la categoría de «conexión causal». Generalmente
este concepto se refiere a la influencia que tiene un hecho sobre otro que le sigue
linealmente en el tiempo, lo cual supone un espacio invariante (tipo recipiente) que no sufre
modificación alguna cuando varía el tiempo.
Ahora, se presenta una “conexión causal extraña” cuando espacio y tiempo constituyen un
continuo tetradimensional o si los objetos materiales a su vez influyen en el espacio-tiempo.
Recordemos que en la TGR la aceleración de los cuerpos y la acción del campo
gravitacional alteran el tiempo y las relaciones espaciales. La causalidad no se da como una
sucesión de estados de los objetos materiales en un espacio-tiempo invariante y único, sino
que depende de la velocidad y de la masa gravitacional de los móviles que interactúan, ni
permite una suma indefinida de velocidades y masas como una progresión lineal.
La causalidad comienza a perder
euclideano, para transformarse en
proporcionales, pues como señaló
descubrimiento de la equivalencia
definido»22.
la imagen unidireccional y rectilínea de un espacio
un sistema de correlaciones de fuerzas inversamente
Einstein «la división en materia y campo es, desde el
entre masa y energía, algo artificial y no claramente
ORÍGENES DE LA INTERACCIÓN RADIACIÓN-MATERIA
Como consecuencia del desarrollo del electromagnetismo después de Maxwell, la
investigación giró desde fines del siglo XIX al estudio de los orígenes de las interacciones
radiación-materia.
Se inició con la investigación experimental sobre los cuerpos radioactivos de la tabla de
Mendeleiev23 y por las propiedades ionizantes de los rayos emitidos por algunos de ellos (el
uranio por ejemplo).
Tras los trabajos de Einstein, las ondas electromagnéticas no necesitan de ningún otro
medio material (éter luminoso) para su propagación, como requería la Mecánica, pues ellas
mismas (las ondas electromagnéticas) eran parte del continuo campo-materia.
22
23
Einstein A. y L. Infeld; La física aventura del pensamiento. Bs. Aires, 1945, Ed. Losada S. A., (tercera edición), p. 292.
Pertenecen al período 7 de la tabla periódica, es decir van ubicados en la séptima fila. El período 7 se caracteriza por elementos más
pesados, por el mayor número de protones que poseen, son muy inestables y en su mayoría radiactivos.
Esta investigación experimental dio sus primeros frutos cuando Ernest Rutherford demostró
el fenómeno de la trasmutación espontánea de los elementos químicos. La investigación de
la radioactividad produjo a su vez otros interrogantes sobre el origen de las grandes
energías que se originaban en el átomo que la mecánica consideraba simple e inerte.
En un principio se pensó que la emisión de energía resultaba de alguna absorción accidental
del medio circundante (calor, frío, presión o fusión de elementos) pero los sucesivos
fracasos llevaron a la conclusión que la desintegración radioactiva dependía de algún
cambio interno del atomo.
La búsqueda de un modelo matemático básico para orientar la investigación de la
interacción radiación-materia condujo a Lorentz a despojar al átomo de la imagen mecánica
de simpleza inercial, compuesto únicamente por una cantidad mínima y constante de masa.
Le incorporó un “grano de electricidad” orbitando alrededor de un núcleo compuesto de
cargas eléctricas (positiva) opuestas a los electrones (negativa), como un pequeño sistema
planetario. En 1911 publicó su hallazgo del núcleo atómico (diez mil veces más pequeño
que el átomo) en el que se hallaba casi toda la masa de este.
De este movimiento orbital y de la altísima velocidad con que el electrón se desplazaba
alrededor del núcleo atómico, se deducía el origen y la fuente de todas las ondas
electromagnéticas y de todas las interacciones entre la radiación y la materia.
Este modelo matemático de átomo complejo, traía sin embargo una paradoja. En la medida
que este modelo explicaba la creación continua de energía, a expensas del movimiento
continuo del electrón, debería emitir y consumir toda su energía disponible, en una fracción
de segundo el electrón y caer sobre el núcleo. Esto haría inexplicable, tanto la estabilidad
como la neutralidad observada en la materia en general. El modelo solar de Rutherford y
Thomson, basado en las leyes del magnetismo clásico entró en crisis.
PRIMER GIRO EN LA INVESTIGACIÓN
El 19 de octubre de 1900, se produjo un giro total, cuando el físico alemán Max Planck
informó a la Sociedad Física de Berlín un descubrimiento que desconcertó a todos, pues
aparentemente refutaba la teoría ondulatoria de la Electrodinámica. Su informe decía que el
desplazamiento de la energía de radiación térmica podía ser considerada matemáticamente
de forma discontinua como porciones o paquetes intermitentes de cantidades mínimas
posibles de energía, que denominó quatum o cuantos.
La fuente de su fórmula matemática, provenía de una rama de la Física completamente
diferente: la termodinámica. Es decir, Planck utilizaba para el estudio del desplazamiento
de la radiación un método análogo al desarrollado por el físico austriaco Ludwig Eduard
Boltzmann para la termodinámica, de probabilidades estadísticas en términos de
incremento de la entropía de un sistema, producidos por la infinidad de movimientos
moleculares de un gas.
Ludwig Eduard Boltzmann
La función termodinámica “entropía” es central en la Termodinámica. Es como una medida
de la distribución aleatoria de un sistema. Un sistema altamente distribuido al azar tiene
alta entropía. La magnitud (variación del orden molecular) es una función probabilística del
sistema. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, y
entonces se alcanzará la configuración de mayor probabilidad.
La ruptura era tan grande que el propio Planck justificó su procedimiento aduciendo que
solo se trataba de una mera técnica de cálculo y no de una representación física real.
Sus cantidades discretas, al expandirse restablecerían posteriormente la continuidad física
real de la energía. Pero en realidad, cuando estableció la magnitud proporcional de estos
cuantos, multiplicando la frecuencia (f) por una constante universal conocida luego como
constante de Planck (h), resultó que cuanto más corta era la longitud de onda, mayor era la
porción de energía (E=hf), su valor resultó pequeñísimo (6.6x10-27erg.s).
Tan es así, que un foco de 25w contiene alrededor de sesenta trillones de porciones de
energía por segundo. Por ello la luz parece continua. Pero Plank no logró sugerir un
experimento que respalde de modo directo su hipótesis.
NUEVO MODELO
Sumando los resultados de Planck (1900) y Einstein (1905) el físico danés Neils Henrik
David Bohr formuló un nuevo “modelo solar modificado” que permitía superar el enigma.
Los electrones existentes en un átomo deberían almacenar energía en diferentes niveles
(capas u órbitas sucesivas). Cuanto mayor era la distancia existente entre un electrón y el
núcleo, mayor sería su depósito de energía. Cuanto más permanecen girando en una órbita
dada, no emiten ni absorben energía. Esto solo se da cuando saltan de una órbita a otra.
De esta manera, la diferencia mínima de una órbita a otra corresponde a un cuanto de
energía y su paso de una a otra no es continuo sino a saltos. Ello explicaría su forma
cuántica.
Neils Bohr
Cuando un electrón salta de una órbita externa a una interna, quiere decir que pierde
energía en forma de un fotón (cuánto de luz); cuando sucede a la inversa es porque ha
absorbido un cuanto de energía. Por ello el electrón no emite energía en forma continua y
no colapsa en el núcleo ni se escapa fácilmente del átomo.
El nuevo modelo parecía perfecto, pero los físicos se encontraron con una nueva dificultad:
la imposibilidad de calcular el movimiento de un electrón mediante el procedimiento
tradicional de determinar simultáneamente su posición y su velocidad, al igual que el
movimiento de cualquier partícula material.
Pero con un electrón, al moverse, sucedía algo sumamente extraño, como si su masa se
esparciera por toda una región del espacio. Al intentar medir su velocidad, se perdía la
posición del electrón y, a la inversa, al determinar su posición se perdía su movimiento.
Jamás se había presentado en la física anterior un cuerpo tan extraño. El propio Bohr fue
explícito sobre la debilidad de su teoría, al interpretar el cuanto como una partícula clásica.
El problema no tenía un origen empírico, sino conceptual. El electrón no parecía una
partícula material simple, invariante y perfectamente determinable, sino hasta cierto límite,
en sus estados estacionarios.
Pero cuando se producía un salto de una órbita a otra, el modelo de Bohr le perdía el rastro,
era incapaz de seguir a un electrón. Las propiedades corpusculares y ondulatorias son
operativamente opuestas en una descripción matemática. Pero ahora se presentaban unidas
en una sola entidad.
¿No planteaba esto la necesidad de revisar nuestra noción tradicional de “objeto físico”? Es
decir, como una unidad puntual de masa positiva invariante. Las partículas elementales
aparecían como un sistema conformado por relaciones internas no convergentes.
¿«ONDAS DE MATERIA»?
En setiembre de 1924 apareció en The Philosophical Magazine24 un artículo firmado por un
joven y entonces poco conocido físico francés Luis De Broglie25. Fue allí donde por
primera vez se habló de “ondas de materia” y planteó los componentes básicos de su teoría
ondulatoria de la materia, por la que recibiría el premio nobel de Física en 1929.
De Broglie sostiene en este artículo la hipótesis de que las ondas se producen cuando se
mueve cualquier cuerpo, sea este un planeta, una piedra, una partícula de polvo o un
electrón, incluyendo aquellos cuerpos no cargados eléctricamente.
Imagen del texto original de De Broglie en The Philosophical magazine (1924), p. 450.
24
Una de las más antiguas revistas científicas, publicada en Escocia, fundada en 1798. En ella escribieron grandes científicos como
Faraday, Joule, Maxwell, J.J. Thomson, Rutherford y muchos otros. En 1814, Philosophical Magazine se fusionó con el Journal of
Natural Philosophy, Chemistry and the Arts para formar The Philosophical Magazine and Journal. Fusiones posteriores con Annals of
Philosophy y con The Edinburgh Journal of Science lo llevaron nuevamente a cambiar de nombre, hasta que en 1949 volvió a su
nombre original: The Philosophical Magazine, con el que se mantiene hasta hoy.
25
de Broglie, Louis; «A Tentative theory of light quanta». En The Philosophical magazine, (1924), 47 (S. 6), pp.446-458.
Más aún, las ondas de De Broglie no eran un simple revival de las ondas continuas de la
Electrodinámica clásica, sino que eran (de acuerdo con Planck) cuánticas, es decir
discretas.
Su longitud de onda (λ) era directamente proporcional a la constante de Planck (h) e inversa
a la masa del cuerpo en movimiento (m) por la velocidad (v) de su movimiento:
λ = h/mv
La presencia de la constante de Planck en el numerador del segundo miembro de la
ecuación, muestra de que se trata de ondas extraordinariamente pequeñas (6.6 x 10-27 erg.s),
cuya longitud ningún aparato podría registrar directamente, pues serían algo así como
trillones de veces menor que un átomo, en el caso del movimiento de una simple piedra.
Lo importante es su valor teórico para una descripción dinámica y estructural de todos los
procesos de transformación que se operan en el mundo físico (de ondas en partículas y
viceversa) que resultaban imposibles con la teoría corpuscular de Bohr.
Cuando el movimiento del electrón disminuye el denominador tiende a anularse y la
longitud de onda tiende a hacerse infinita. Cresta y valle se alegan tanto que la entidad se
torna probabilística. Max Born sugirió por ello el concepto de “onda de probabilidad”.
Por el contrario, cuando la longitud de onda decrece comienzan a manifestarse las
propiedades corpusculares del electrón. Lo que es compatible con el coeficiente de
intercambio masa-energía de la ecuación de Einstein.
Lo que en la Mecánica clásica estaba absolutamente separado (la trayectoria de un cuerpo
regida por la segunda ley de Newton y la trayectoria de una onda de energía por la ecuación
de D’Alambert) ahora, ambos fenómenos se encuentra unido bajo un mismo sistema de
ecuaciones.
De Broglie utilizó las clasificaciones que había realizado un siglo antes el matemático
escocés William Hamilton, que había observado ciertas analogías o simetrías entre los
procedimientos para describir el movimiento de un cuerpo material y la propagación de la
luz. Con De Broglie una simetría puramente formal adquirió un profundo significado físico.
Casi paralelamente independientemente de De Broglie, el físico austriaco Erwin
Schrödinger modifico la ecuación de Hamilton en 1926 y obtuvo las ondas de De Broglie.
Esta modificación fue desde entonces conocida como la “ecuación de Schrödinger”.
Lo novedoso de esta modificación del formalismo fue que al describir la función de onda
como una función escalar y no como un vector, asoció la onda a un corpúsculo y se ahorró
la necesidad de tener que referir la onda a la paradójica hipótesis de la existencia de un
medio vibrante (como el “éter luminoso”) en el vacío.
Por otro lado, el carácter complejo de su ecuación, le permitió trabajar con coeficientes que
no necesariamente son reducibles a números reales (entre ellos se encuentra la √-1), es
decir que no necesariamente tienen que reducirse a un punto o corpúsculo individual
claramente definido, como exige el clásico axioma de extensión que requiere la
enumeración individual de todos los elementos o propiedades de un conjunto.
La “función de onda” es la solución que adquiere una ecuación diferencial básica donde las
interacciones que se describen no son propiedades de los individuos u objetos sino, del
sistema, no describen historias individuales sino leyes probabilísticas de las interacciones
causales del grupo.
Esto se consigue haciendo que la ecuación sea simétrica. Restringe los tipos de soluciones
posibles a ciertos parámetros o límites que definen la movilidad del sistema. El carácter no
reduccionista de la “ecuación de Schrödinger” coincidió a su vez con los procedimientos
del “Principio de exclusión de Pauli”, donde los límites de la movilidad de las partículas
fluctúan entre la más alta (“barrera de potencial”) y la más baja (“pozo de potencial”).
La “ecuación de Schrödinger” al poner al centro los procesos de transición materia-energía
unifican dos hipótesis que parecían incompatibles para el pensamiento mecánico: los
cuantos de energía de Planck y las ondas de materia de De Broglie, despejando la aporía
esencial que envolvía la física moderna.
Parafraseando a Hegel, se podría decir que el formalismo mecánico, solo veía la identidad o
la diferencia, pero no la transición de lo uno en lo otro, que es la esencia de la dialéctica.
TEORÍA CUÁNTICA RELATIVISTA
A finales de la década de 1920, la Física Cuántica comenzó a penetrar en el corazón del
átomo. Pero el giro epistemológico siguió dominado todavía en gran parte por el
pensamiento mecanicista, los científicos siguieron acumulando rutinariamente los
descubrimientos de nuevas entidades llamadas “partículas elementales” al interior del
átomo.
En los años treinta, en el núcleo fueron descubiertos el neutrón y el protón, luego los
mesones-pi y los mesones-mu y el neutrino. Hoy se contabilizan más de cien “partículas” a
las que se les atribuye propiedades diversas. Solo la existencia de tal cantidad de entidades
era un fuerte indicio de que no se trataba de entidades “elementales”.
En lugar de simplificar el panorama, nuevamente se había complicado con esta
multiplicación excesiva de entidades corpusculares. La tradición mecanicista persistía a
pesar de Schrödinger26.
Paul Dirac, Erwin Schrödinger y Werner Heisenberg
Cuando todo parecía haber vuelto a su estado inicial, a inicios de 1928, el físico inglés Paul
Dirac publicó una solución matemática a este problema con la formulación de una ecuación
que describe el movimiento de un electrón libre (no atado a un núcleo), mediante cuatro
26
El Premio Nobel de Física de 1933 se repartió a partes iguales entre Erwin Schrödinger y Paul Dirac.
funciones de onda. Dirac descubrió su ecuación a finales de 1927, y fue publicada en
febrero de 1928 en su famoso artículo «The Quantum Theory of the Electron»27.
Dos funciones de onda describían el movimiento propio del electrón (spin) con respecto a
la dirección de su movimiento. La otra pareja de funciones, una describía la energía total
positiva del sistema y la otra la energía total negativa del sistema.
Lo “paradójico” de estas ecuaciones era precisamente la presencia necesaria de la función
de onda que describe la energía total negativa del sistema, pues esta solo se usa para
describir una partícula ligada con otras (en el átomo por ejemplo). Pero la ecuación de
Dirac fue formulada para describir únicamente al electrón libre, aunque para describirlo de
manera que coincidiera con los hechos, las ecuaciones de Dirac tuvieron que suponerlo
libre y ligado al mismo tiempo, lo cual resultaba absurdo, si pensamos en una partícula
clásica.
Dirac propuso una justificación explosiva. Sugirió algo así como que el vacío “no estaba
vacío” sino lleno de “electrones positivos”. Añadió también que estos copaban hasta el
límite diversos niveles de energía que existían en el espacio llamado “vacío”.
Para Dirac, lo que llamamos “vacío” son interacciones negativas (antipartículas) que se
encuentran por debajo de la energía positiva que señala la ecuación de Einstein (E= m0.c2)
donde fija el coeficiente simétrico de intercambio entre masa y energía. Dirac las llamó
“antipartículas”, por su “masa negativa” (inferior a m0).
Estas antipartículas no se pueden detectar mientras están en el “pozo de potencial”, hasta
que saltan la “barrera de potencial” y se dice que el vacío de “ioniza”. En su lugar queda
como una suerte de “hueco” (“antipartícula”) con carga positiva (Positrón).
Clásicamente se definía el vacío como “ausencia de interacción”. Ahora, el vacío no es
neutro, el Positrón es tan real como el Electrón, su carga positiva interactúa desde este
peculiar “vacío” con la carga negativa de los electrones. En 1932 se confirmó
experimentalmente la existencia de estos “huecos” o antipartículas de Dirac y se abrió el
camino para investigar esta clase de las llamadas antipartículas.
La cuestión esencial, para entender este fenómeno en la Física Cuántica Relativista (FCR),
es que tanto las partículas elementales como las antipartículas, no son “entidades”, sino
relaciones del sistema de interacciones del flujo radiación-materia, dos estados de la misma
substancia.
Desde la ecuación de Schrödinger, los físicos pudieron “ver de cerca” las transformaciones
del campo en materia y de materia en campo. También se hizo evidente el porqué del error
del proyecto inicial de Einstein de pretender reducir el concepto de materia al concepto de
campo. Se trata de momentos y procesos de un mismo flujo, no de entidades invariantes e
independientes de sus interacciones (separadas por “hard and fast lines”) como suponía el
principio inercial de la mecánica clásica.
«El campo ilimitado e imponderable puede adquirir dimensiones y masa. La
materia que pesa y es visible puede perder dimensiones y masa»28.
27
Proceedings of the Royal Society of London. Series A, Containing Papers of a Mathematical and Physical Character. Vol. 117, No.
778 (Feb. 1, 1928), pp. 610-624
Lo mismo sucedía con la línea rígida que separaba materia y vacío. Ahora, cuando el
electrón se “sumerge en el vacío”, el electrón no simplemente cede parte de su energía, sino
que cede su “energía propia” (spin) deja de ser electrón y se transforma en positrón
(antipartícula).
De manera inversa, el positrón, al dejar el espacio aparentemente vacío, deja de ser una
antipartícula y deviene en un electrón.
Cuando hablamos de materia y campo o materia y vacío, o partícula y onda, estamos
hablando de interacciones, no de entidades, sino de existencias relativas unas de otras. No
existen cuerpos sin campo, ni ondas sin cuerpos. Son dos caras de la misma moneda.
Las llamadas “partículas elementales” se refieren a relaciones o interacciones elementales o
básicas de la transición de un sistema a otro. Y estas transiciones se dan por emisión y
absorción de mesones, al igual que el intercambio electrónico se realiza por emisión o
absorción de fotones.
Cuando el protón y el neutrón intercambian mesones-pi, este intercambio va acompañado
de transformaciones cualitativas. No se trata de un simple intercambio mecánico. Luego de
su intercambio, el protón y el neutrón no vuelven a su situación inicial, sino que el
resultado es una suerte de «nuevo enlace», debido precisamente a las características
ondulatorias tanto de la energía como de la masa que en la mecánica eran invariantes
adquieren una gran indeterminación.
Tal lectura permitió construir una teoría sobre la estructura de las “Interacciones
Fundamentales” (o Relaciones Fundamentales), un nombre más riguroso que el de
“Partículas Fundamentales”. Son teorías que desarrollan una lógica de relaciones, donde las
entidades son como nodos de una red de internet o como los grumos de un engrudo.
PROCESOS VIRTUALES
¿Hasta qué distancia se extienden los límites de las interacciones electromagnéticas?
Carece de límites; puede ser cualquiera.
La indeterminación de la masa y la energía de los fenómenos nucleares fue descrita como
“procesos virtuales” o nuevamente como “partículas virtuales”, aunque acá tienen un
significado físico real. No se trata de entidades metafísicas o imaginarias como suele ser en
el uso coloquial del lenguaje29. Se trata de conceptos “observables”.
Lo que sucede es que el concepto “observable” ya no tiene un sentido simple a partir de la
Electrodinámica Cuántica Relativista. Un electrón es en un cierto sentido “inobservable”, si
intentamos medir simultáneamente su velocidad y posición. Por el contrario el vacío se
vuelve virtualmente “observable” en la medida que ya no es eléctricamente neutro y sus
cargas positivas interactúan con los electrones. Entonces, el positrón se hace observable y
real.
A partir de la década de 1950, la introducción de los procesos virtuales en la Física
Cuánica Relativista y el uso creciente de aceleradores de partículas, condujo al
descubrimiento masivo de nuevas “partículas” o nodos de una red. La mayoría de ellas son
28
Weisskopf V.F.; «Las tres espectroscopias». En Partículas elementales. Libros de Investigación y Ciencia. Prensa Científica.
Barcelona, 1984, p. 42.
29
Kendall H. W. y W.K.H. Panofsky; «Estructura del protón y del neutrón». Scientific American, junio,1971. Rep., en: Partículas
elementales…, op. cit. P. 57-58.
muy inestables y esto dio a su vez los parámetros temporales para el establecimiento de
“familias de interacciones”. La mayoría de ellas tiene una media de existencia de 10-23s.
Tiempo que dura el intercambio mesónico en los núcleos.
Al conjunto de interacciones que se producen en las proximidades de estos valores, se les
denominó Interacciones Fuertes (IF) por la gran energía que contienen, y a los cuantos de
dicha interacción se les denomina hadrones. Un segundo grupo está formado por las
llamadas Interacciones Electromagnéticas (IE), cuyos cuantos son los fotones. Un tercer
grupo está formado por las llamadas Interacciones Débiles (ID) o de “disgregación” cuyos
cuantos aún se desconocen. Su radio de acción es corto y no es capaz de construir estados
ligados. Finalmente, el cuarto grupo, es el que describe las Interacciones Gravitatorias
(IG) de gran debilidad, que no ha permitido hasta ahora describir sus cuantos o gravitones.
Hoy son las interacciones las que definen las partículas y no a la inversa como en el método
mecánico clásico. Sus leyes describen, como dice Heisenberg, “simetrías fundamentales”, a
partir de familias (multipletes) establecidas por las cuatro interacciones básicas. Este
entendimiento es clave para entender los problemas fundamentales del formalismo
cuántico.
Por ejemplo, en los procesos de transformación de una partículas en otras, se rebelaron
resultados paradójicos: cuando el mesón-pi de gran energía chocaba con un protón, se
desintegraban y surgía en su lugar un mesón-k y un hiperón-lambda, pero en lugar de
fragmentos más pequeños del protón, aparecía un hiperón-lambda que tiene más masa que
el protón.
Sucede que en la Física Cuántica Relativista carece de sentido la imagen (que podemos
denominar como “teorema de Zenón”), de “división indefinida por masas” cada vez más
pequeñas de partículas elementales; al igual que en la Teoría General de la Relatividad
carece de sentido la extensión indefinida del teorema de galileano de la “suma de
velocidades”.
Hay fuertes razones para el abandono de esta visión mecanicista, que coloca la noción de
masa como componente central del mundo material. En la relación de indeterminación de
Heisenberg, la masa solo se considera constante cuando su velocidad dista mucho de la
velocidad de la luz.
Conforme un cuerpo material se aproxima a esta velocidad van desapareciendo cada vez
más sus límites precisos en la medida que se desarrollan sus propiedades ondulatorias.
Carece de sentido decir que un electrón es más grande que un protón (u otra partícula
nuclear) pues por sus propiedades ondulatorias puede extenderse por toda una región del
espacio, cualquiera sea su dimensión inicial.
Tampoco es posible asignarle una dimensión fija a la masa de un cuerpo, pues en la
ecuación de Hamilton (Ecn = m.v 2/2) la masa tiene incluso probabilidad negativa.
En consecuencia, si la cantidad de masa que posee un cuerpo no es constante, ningún
cuerpo, por más diminuto que sea puede ser una “partícula elemental” (en el sentido
intuitivo del término), salvo por convención. Se trata de estructuras móviles e inestables.
Finalmente la graduación de los cuerpos exclusivamente por la cantidad de masa que
poseen, carece de sentido físico, pues no existen cuerpos materiales independientes de sus
mutuas interacciones, algo así como una “cosa en sí” kantiana. Este era precisamente el
supuesto metafísico de la Mecánica de Galileo y newton.
Para manejar con precisión estos fenómenos se han propuesto varios formalismos. En la
década de 1970 se comenzó a explorar un nuevo método para resolver la paradójica
tendencia al confinamiento de las partículas elementales respecto de sus interacciones; o si
se quiere, las interacciones entre las partículas cargadas eléctricamente y el campo
electromagnético, denominado “grupo de renormalización”.
Este no consiste en una teoría descriptiva de la naturaleza, sino en un método general de
construir teorías.
Sugiere vincular en una sola visión teórica la descripción de fenómenos tan disímiles como
por ejemplo: un fluido en un punto crítico, un ferromagneto en la temperatura de imanación
espontánea, una aleación metálica a la temperatura en que sus átomos se distribuyen
ordenadamente y, otros fenómenos como la superconductividad, la superfluidez, la
formación de polímeros y el enlace de quarks.
En otras palabras, se trata de un método de tratamiento del mundo físico que nos estimula a
evitar mirar el mundo como un “compuesto heterogéneo de cosas” o una “suma de
entidades discretas” y más bien nos invita a percibirlo como si se tratara de fluctuaciones de
una sola estructura elástica o fluida básica.
Un modelo bastante económico, que no incluya átomos u otras partículas análogas que
requieren muchas escalas de longitud; que consiste solo en vectores de spin, ordenados en
una red y establecidos a partir de lo que se puede considerar un “punto crítico” de
“fluidez”.
En realidad, las similitudes y analogías establecidas entre todos estos fenómenos, no son
sino ejemplos de una hipótesis más general llamada Universalidad del Punto Crítico, según
la cual, diversos fenómenos físicos o socio-culturales, si se estudian como sistemas, se
comportan de la misma manera conforme se acercan a su respectivo punto crítico y,
entonces se dice que son miembros de la misma clase de universalidad.
Este enfoque, inspiró desde inicios de la década de 1980, una nueva teoría unificada,
llamada de Simetría Cúbica30. Su mayor ventaja consiste en la simplicidad lógica. Reduce
los leptones y quarks a una sola familia; las fuerzas débiles, fuertes y electromagnéticas a
una única fuerza fundamental.
Partículas y fuerzas, son como estados de temperaturas y consecuentemente producto de
variaciones en la energía de las partículas. A su vez, la energía a partir de la cual se
establece la identidad básica de todos los entes físicos es de 1015 GeV (Giga-electronvolt).
Dicha teoría amplia inmensamente el espectro predictivo y explicativo de fenómenos no
deducibles de teorías anteriores. Por ejemplo: la existencia de más materia que antimateria
en el universo.
También predice la desintegración del protón y la consecuente inestabilidad evolutiva de la
materia, contraria a la imagen simétrica y equilibrada que proporcionaba el mecanicismo
atomista moderno.
30
Howard,Georgi; «teoría unificada de las partículas elementales y las fuerzas». En Scientific American, jun., 1981, Rep. En: Partículas
elementales…, op. cit., p. 230.
Se trata de un formalismo donde 5 estados básicos de la materia y 24 interacciones básicas
son suficientes para explicar todas las interacciones físicas observadas hasta hoy.
DE LA CAUSALIDAD MECÁNICA A LA CAUSALIDAD SISTÉMICA
La tradición mecanicista restringió toda relación causal a la continuidad local entre dos
entidades o sucesos, prohibiendo toda interacción a distancia, sintetizada en el popular
adagio latino: natura non facit saltum.
Si bien la TGR problematizó este determinismo local absoluto que identificaba
determinación métrica con relación causal, no cuestionó la noción restrictiva de
continuidad exclusivamente local que esta suponía.
Por ejemplo, dos estados espacios-temporales (no contiguos) pueden tener propiedades
métricamente diferentes (inconmensurables entre sí) pero si pueden poseer la misma
estructura causal y ser topológicamente semejantes (ciertas estructuras espaciales de
contigüidad) como sucede con la deformación de un cuerpo, cuando lo estiramos como una
goma de mascar.
A pesar de la distorsión métrica, se ha preservado una misma estructura topológica. En
topología matemática se dice que no ha habido un “corte” (o curvatura causal cerrada) o
“rasgadura” que rompa su continuidad, solo ha habido una ruptura métrica, no topológica.
Se dice entonces que la causalidad estructural a diferencia de la causalidad mecánica
local es una causalidad sistémica (estructural), irreductible a las interacciones locales de
sus elementos simples (métricos).
Pues bien, la teoría cuántica inició una radical problematización de la noción de medición,
pues describe una variedad de relaciones o interacciones cuyo grado de incertidumbre son
características de un sistema.
¿Cómo podría describirse entonces un “sistema cuántico”?
Desde otra perspectiva, podemos trasladar la interrogante a la noción misma de “sistema
mecánico”, o más precisamente a la noción de “sistema aislado” o “simple”.
Un sistema complejo no lo es por el simple aumento cuantitativo de sus componentes. Un
sistema mecánico se dice que es simple porque sus componentes o dispositivos tiene una
función específica: transmitir o transformar el movimiento de distintos tipos de energía de
una fuente a un objeto recipiente.
Desde mucho antes del capitalismo se conocían y usaban muchos de estos sistemas
mecánicos simples: la rueda y los rodillos para desplazar objetos pesados; la rueda dentada
o engranaje; la polea fija y móvil; la palanca simple, la de segundo y tercer grado; el plano
inclinado; la cuña, para romper sólidos; el tornillo o tuerca que permite convertir un
movimiento giratorio en una lineal y continuo y, muchos otros.
La comprensión de los cambios en el paradigma de ciencia contemporánea, son realmente
un problema para todos los que identifican el paradigma de ciencia con los sistemas
mecánicos simples (o aislados), que tienen pocas variables e interacciones y que sus
algoritmos las cubren directamente.
La problematización de estos sistemas –no provino de un debate exclusivamente
académico- se produjo porque no pueden explicar teóricamente ni responder prácticamente
a sistemas complejos que contienen fenómenos como los de “retroalimentación”, ni
encierran subsistemas o elementos autónomos que descentralizan las respuestas, ni
responden a fluctuaciones o desestabilizaciones de algún equilibrio matriz.
Los sistemas complejos tratan precisamente de “sistemas integrados” por acoplamientos o
uniones variables, cuyos vínculos crean información adicional no visible aisladamente por
el observador.
Como resultado de las interacciones entre elementos no convergentes, surgen propiedades
nuevas que no pueden explicarse a partir de las propiedades de sus elementos aislados.
Dichas propiedades se denominan «propiedades emergentes» de un sistema. Un «sistema
complejo», posee más información contextual que la que da, cada parte, de manera aislada.
Un caso sencillo y cotidiano de este tipo de sistemas se puede observar en las
transformaciones que fue adquiriendo una industria típica de esta segunda revolución
científica: la industria automotriz. La mayoría de investigaciones relacionadas con el sector
automotriz se ha concentrado en el análisis de la naturaleza mecánica de los vehículos y,
muy poco en el estudio de su transformación electrónica. Sus componentes y subsistemas
electrónicos han transformado hoy la naturaleza de los vehículos automotores de un sistema
simple a un sistema complejo.
John Stewart Bell en 1982
El argumento más fuerte a favor de la Física Cuántica, provino del teorema formulado en
1964 por el físico irlandés John Stewart Bell, conocido desde entonces como “Teorema de
Bell”.
En realidad, se trata de un METATEOREMA, que argumenta que las predicciones de la
teoría cuántica no resultan aparentemente intuitivas porque afectan a dos supuestos
metafísicos fundamentales de la física mecanicista moderna: el supuesto de la
“separabilidad” de una entidad de sus interacciones con otras y el de la “localidad” (o
continuidad métrica) de toda relación causal.
Se trata de un teorema de imposibilidad, al que Bell agrega una prueba experimental para
demostrar que con una teoría física de “variables ocultas locales” (es decir “mecánica”), no
se puede lograr ninguna de las predicciones exitosas de la teoría cuántica31. Es decir, se
trata de una argumetación, que no sin humor,algunos académicos han denominado como
“Metafísica Experimental”.
Pero independientemente del nombre, el hecho es que, luego de resolver infinidad de
problemas técnicos, entre 1971 y 1980 se realizaron un total de siete experimentos. Cinco
de ellos respaldaron las predicciones de la teoría cuántica.
¿De qué estamos hablando entonces cuando nos referimos a estructuras sistémicas “no
locales” y “no deterministas”? que ciertamente no remiten a un sistema mecánico simple,
sino a lo que algunos comienzan a denominar como “sistemas enmarañados”
(entaglenment).
El valor de la medición resulta en el teorema de Bell un valor del sistema, aún sin estar en
contacto local con él. La violación del principio de separabilidad por la teoría cuántica
sugiere que estas entidades cuánticas constituyen un todo abierto e indivisible.
MODELOS DE CUERDAS
Desde mediados de la década de los ochenta, se vienen explorando diversas teorías basadas
en un paradigma matemático muy diferente al de los modelos corpusculares, como los de la
teoría de “Supercuerdas”.
Las interacciones de las entidades cuánticas se asemejan a los diferentes modos de
vibración armónica (simetría)32 que dependen de la tensión de una cuerda. La frecuencia de
la vibración determina la energía y por tanto la masa de las entidades cuánticas.
Lo prometedor de los modelos de cuerdas es que su formalismo permite considerar las
cuatro interacciones fundamentales como aspectos diversos de una sola simetría
subyacente, que sugiere cambiar nuestra “geometría del universo”.
Por ejemplo, en el modelo de Supercuerdas la gravitación define un mundo ampliado a diez
dimensiones espacio-temporales. Una enorme ampliación geométrica de nuestra idea del
“espacio-tiempo tetradimensional” de la ya revolucionaria Geometría de Riemann y la
Teoría General de la Relatividad de Einstein.
Dicha ampliación no solo consiste en el agregado de seis nuevas dimensiones a las cuatro
visibles, sino que origina un cambio radical de nuestra geometría del universo. El número
de posibles configuraciones de un “campo de cuerda” o “vibración de una entidad cuántica”
que a diferencia de un modelo de partículas, barre toda una “hoja del universo”.
En la TGR (no-cuántica) se supone una partícula puntual que se mueve a lo largo de una
“línea del universo” (línea de Minkowsky) limitando sus interacciones a una longitud
unidimensional, pues no conlleva información de su interacción con el espacio de fondo.
Una “hoja del universo” en cambio, incorpora una masa de información contextual que
31
32
Bell J. S.; «On the Einstein Podolsky Rosen paradox». En: Physics, 1964, vol 1. N° 3, pp. 195-200.
Los conceptos de “simetrías” y “grupos” están asociados al Álgebra abstracta, disciplina que estudia “estructuras algebraicas” (grupos,
anillos, cuerpos o espacios vectoriales). Un grupo es una estructura algebraica que consta de un conjunto de elementos y una operación
que combina cualquier pareja de sus elementos para formar un tercer elemento. El conjunto y la operación deben satisfacer algunas
condiciones llamadas axiomas del grupo. Los grupos comparten un parentesco fundamental con la noción de simetría. El concepto de
grupo surgió del estudio de ecuaciones algebraicas con una incógnita. Comenzó con los trabajos de matemático francés Evaristo Galois
durante la década de 1830. Después surgieron contribuciones desde otros campos, como la Teoría de números y la Geometría. La
noción de grupo se generalizó alrededor de 1870.
podría describir algo así como el desplazamiento (como movimientos vibratorios) de una
película jabonosa que envuelve toda una región del espacio-tiempo.
Por la información que produce, una cuerda da lugar a dos tipos: cuerdas abiertas o cuerdas
cerradas.
Las cerradas, son aquellas que barren hojas del universo que topológicamente incluyen
registros de todas las posibles superficies conexas (estiramientos, torceduras o
deformaciones elásticas suaves (sin rasgaduras) de las superficies en que se desarrollan los
eventos físicos.
Las cuerdas abiertas son, por el contrario, aquellas que barren hojas del universo con
rasgaduras en su continuidad topológica, con un número arbitrario de “agujeros”.
Cuando asociamos uno a uno elementos de un conjunto, con otros elementos del mismo
conjunto, decimos que se ha producido una transformación por rotación automórfica, en la
medida que son simétricas y continuas en torno a ejes espacio-temporales internos del
mismo grupo.
Cuando las transformaciones simétricas se realizan de manera independiente, en cada punto
del espacio y de manera continua, se les denomina “simetrías de aforo” y las teorías que las
usan “teorías de aforo”.
Cuando se produce un cambio de estado o direccionalidad de un sistema de un sistema a
otro distinto, se le denomina “simetrías de aforo rotas”.
Este mismo procedimiento condujo a la formulación posterior de “grupos de simetría de
aforo”. Sirven para explicar de manera unificada sistemas complejos que agrupan
fenómenos muy diversos. Esto permitió posteriormente una nueva agrupación, para
formular las denominadas “Supersimetrías”.
Por ejemplo, este grupo permitió unificar en una sola teoría las interacciones
electromagnéticas y las interacciones débiles, en la Teoría Electrodebil. Si bien a
temperaturas ordinarias, ambas funcionan como dos interacciones con propiedades y
características métricas totalmente distintas, a temperaturas muy superiores a los 1015 gr.
cel., su simetría se hace patente.
Pero en términos físicos, recién a partir de los años ochenta, los físicos Schwarz y Green
empezaron a construir modelos de teorías de cuerdas con supersimetrías, motivados por las
implicancias del Principio de Incertidumbre de Heisenberg.
La conducta de las entidades cuánticas fue denominada por Richard P. Feynman “método
de suma de historias”, en la medida que exige una teoría de Supercuerdas.
Es definitivamente –como señala Heisenberg, el cambio en el modelo mismo de construir
teorías, donde se ha producido el cambio más importante que trajo la segunda revolución
científica e industrial iniciada a mediados del siglo XIX.
Descargar