CURSO PROPEDEUTICO DE FÍSICA AGOSTO 2013 LIC. EN

Anuncio
CURSO PROPEDEUTICO DE
FÍSICA
AGOSTO 2013
LIC. EN FISIOTERÁPIA
Elaborado por:
Alejandro Carreto Sosa
1
Sonido
Del latín sonitus, un sonido es una sensación que se genera en el oído a partir de las vibraciones
de las cosas. Estas vibraciones se transmiten por el aire u otro medio elástico.
Para la física, el sonido implica un fenómeno vinculado a la difusión de una onda de características
elásticas que produce una vibración en un cuerpo, aun cuando estas ondas no se escuchen.
El sonido audible para los seres humanos está formado por las variaciones que se producen en la
presión del aire, que el oído convierte en ondas mecánicas para que el cerebro pueda percibirlas y
procesarlas.
Al propagarse, el sonido transporta energía pero no materia. Las vibraciones se generan en
idéntico rumbo en el que se difunde el sonido: puede hablarse, por lo tanto, de ondas
longitudinales.
Se ha estimado que el sonido, cuando se registra una temperatura de veinte grados centígrados,
alcanza una velocidad en el aire de trescientos cuarenta metros por segundo. Cabe destacar, por
lo tanto, que la velocidad que consigue el sonido es superior en los medios sólidos que en los
líquidos, y que es mayor en éstos últimos que en los gases.
Se conoce como potencia acústica, por otra parte, a la cantidad energética en forma de ondas que
emite una cierta fuente por unidad de tiempo. Esta potencia depende de la amplitud (la variación
más grande de desplazamiento del movimiento ondulatorio).
Las cualidades principales del sonido son la altura (grave, agudo o medio, según la frecuencia de
las ondas), la duración (el tiempo en el cual se mantiene el sonido), el timbre (su rasgo
característico) y la intensidad (la cantidad de energía que contiene
FÍSICA DEL SONIDO
Naturaleza del sonido
El sonido consiste en la propagación de una perturbación en un medio (en general el aire).
¿Cómo es la energía sonora? ¿Cómo se propaga la energía de un lugar a otro?
Para comprender mejor esto imaginemos un tubo muy largo lleno de aire. El aire está formado por
una cantidad muy grande de pequeñas partículas o moléculas. Inicialmente, el aire dentro del tubo
está en reposo (o más técnicamente, en equilibrio). Este equilibrio es dinámico ya que las
moléculas se mueven en todas direcciones debido a la agitación térmica, pero con la
particularidad de que están homogéneamente distribuidas (en cada cm3 de aire hay
aproximadamente la misma cantidad de moléculas - 25 trillones).
2
Supongamos que se mueve rápidamente el pistón hacia el interior del tubo. Las moléculas que se
encuentran junto al pistón serán empujadas, mientras que las que se encuentran alejadas no. En la
zona del pistón el aire se encontrará más comprimido que lejos de él, es decir que la misma
cantidad de aire ocupa menos espacio. El aire comprimido tiende a descomprimirse (como cuando
abrimos la válvula de un neumático) desplazándose hacia la derecha y comprimiendo el aire
próximo. Esta nueva compresión implica nuevamente una tendencia a descomprimirse, por lo que
la perturbación original se propaga a lo largo del tubo alejándose de la fuente.
Es importante enfatizar que el aire no se mueve de un lugar a otro junto con el sonido. Hay
trasmisión de energía pero no traslado de materia (comparar con el olfato).
Propagación
Características del medio - Para que la onda sonora se propague en un medio este debe ser
elástico, tener masa e inercia. El aire posee además algunas características relevantes para la
propagación del sonido:
•
•
•
La propagación es lineal (en el intervalo de sonidos audibles la aproximación es válida).
Esto permite que diferentes ondas sonoras se propaguen por el mismo espacio al mismo
tiempo sin afectarse.
El medio es no dispersivo. Por esta razón las ondas se propagan a la misma velocidad
independientemente de su frecuencia o amplitud.
El medio es homogéneo. No existen direcciones de propagación privilegiadas por lo que el
sonido se propaga esféricamente (en todas direcciones).
Ondas de sonido
Las ondas mecánicas son las que se propagan a través de un material (sólido, líquido, gaseoso). La
velocidad de propagación depende de las propiedades elásticas e inerciales del medio. Hay dos
tipos básicos de ondas mecánicas: transversales y longitudinales.
En las ondas longitudinales el desplazamiento de las partículas es paralelo a la dirección de
propagación, mientras que en las ondas transversales es perpendicular.
Las ondas sonoras son longitudinales. En muchos instrumentos (como en la vibración de una
cuerda) podemos identificar ondas transversales (así como en la membrana basilar dentro de la
cóclea, en el oído interno).
Excitación periódica
La mayoría de los sonidos de la naturaleza no son producto de una única perturbación del aire,
sino de múltiples perturbaciones sucesivas. Un ejemplo de esto es la excitación producida por un
diapasón luego de ser golpeado, analizada la clase pasada.
3
Consideremos un movimiento periódico del pistón. (Ver animación de movimiento periódico del
pistón). Sucesión de compresiones y rarefacciones del aire cerca del pistón genera una onda
periódica que se propaga alejándose de la fuente. Luego de que la primera perturbación recorrió
cierta distancia comienza la segunda, y así sucesivamente. La longitud de onda es la distancia
entre perturbaciones sucesivas en el espacio. La frecuencia es la cantidad de perturbaciones por
segundo (en ciclos por segundo o Hz).
Como ya mencionamos, al aire libre, las ondas sonoras se propagan en todas direcciones, como
ondas esféricas. (Ver animación de radiación de un monopolo y un diapasón). En presencia de
superficies reflectoras la onda deja de ser esférica para volverse sumamente compleja debido a la
superposición con las reflexiones. Se denomina campo sonoro a la forma en que se distribuye el
sonido en diversos puntos dentro de un determinado espacio como una sala o al aire libre.
Se denomina frente de onda al conjunto de puntos de la onda sonora que se encuentran en fase,
o de otra forma, una superficie continua que es alcanzada por la perturbación en un instante.
Dentro del tubo el frente de onda es plano, mientras que en el monopolo al aire libre el frente de
onda es esférico. A determinada distancia las ondas esféricas pueden considerarse ondas planas.
Presión sonora
Según lo visto hasta el momento, el sonido puede considerarse como una sucesión de ondas de
compresión y rarefacción que se propaga por el aire. Sin embargo si nos ubicamos en un punto en
el espacio (una posición fija) veremos como la presión atmosférica aumenta y disminuye
periódicamente a medida que tienen lugar las sucesivas perturbaciones. La presión atmosférica se
mide en Pascal y es del orden de los 100.000 Pa (o como en los informes meteorológicos de 100
hPa). Sin embargo, cambios de presión debidos al pasaje de una onda sonora son muy pequeños
respecto a este valor de presión atmosférica. Los sonidos más intensos que se perciben implican
un incremento de 20 Pa. Por esta razón, para distinguir el incremento de presión de la presión
atmosférica en ausencia de sonido se lo denomina presión sonora (p). La presión sonora es la
presión que se debe agregar a la presión atmosférica para obtener el valor real de presión
atmosférica en presencia de sonido.
Las presiones sonoras audibles varían entre los 20 micro Pa y los 20 Pa (esto se verá mejor en otras
clases). Es importante apreciar que es un rango muy importante de variación (de un millón de
veces). Esta gran cantidad de cifras es incómoda de manejar. Es por esta razón y por razones
fisiológicas que normalmente se expresa la presión sonora en decibles y se denomina Nivel de
Presión Sonora (NPS o SPL por sus iniciales en inglés). Se define un nivel de presión sonora de
referencia, que es aproximadamente la mínima presión audible (20 micro Pa). Se define el Nivel de
Presión Sonora como:
4
El nivel de referencia corresponde a 0dB mientras que el nivel sonoro máximo corresponde a
120dB. El rango de audición es entonces de 120dB.
Una sala de conciertos vacía
30
dB
Conversación susurrando
40
dB
Potencia máxima de
altoparlante doméstico
un 110
dB
Dispersión de potencia - pérdida proporcional al cuadrado de la distancia
Representación de una onda sonora
Según la naturaleza del sonido que hemos analizado, su representación en un oscilograma es para
un punto espacial, el valor de presión sonora en cada instante de tiempo. Es decir, que la
representación más usual de la onda sonora es como la variación de presión sonora en el tiempo.
(Hacer diagrama en el pizarrón relacionando la distribución de moléculas y presión en el tubo con
la representación del sonido como onda senoidal).
Esta variación de presión sonora puede traducirse a la variación de otra magnitud. Por ejemplo un
micrófono es un trasductor de variación de presión sonora a variación de una magnitud eléctrica
(voltaje o corriente).
Velocidad, longitud de onda y frecuencia de una onda sonora.
¿De qué forma se relacionan la longitud de onda y la frecuencia de una onda sonora? A mayor
frecuencia menor longitud de onda y viceversa. Para ver de qué forma se relacionan consideremos
una onda periódica desplazándose hacia la derecha. El tiempo entre el instante que una cresta
pasa por un punto espacial dado y el instante en que llega la próxima es el período T (T=1/f). La
distancia que recorre la onda de un instante a otro corresponde a la longitud de onda L, por lo que
la relación es: L /T = Lf = c, donde c es la velocidad del sonido.
5
Como ya mencionamos la velocidad de propagación del sonido no depende de la frecuencia ni de
la intensidad del mismo sino de las características del medio. En el aire su velocidad es de
aproximadamente 344 m/s @ 20C (o 1200 km/h - 3 segundos para recorrer 1 km). Esta velocidad
aumenta con la temperatura (0.17% /grado C), pero no cambia con la presión. En los líquidos es un
poco mayor (1440 m/s en el agua) y mayor aún en los sólidos (5000 m/s en el acero).
No debemos confundir la velocidad de propagación de la onda sonora con la velocidad
instantánea de las partículas (estas realizan un movimiento oscilatorio más rápido).
Podemos apreciar que la velocidad del sonido es relativamente alta y normalmente la propagación
parece instantánea. Sin embargo en algunos casos es notoria, por ejemplo al compararla con la
velocidad de la luz. Ejemplos: ver una banda tocando en la plaza desde lo alto de un edificio,
relámpago y trueno, eco, sistema de amplificación.
El rango de frecuencias audibles se considera de forma muy aproximada entre los 20 Hz y 20 kHz.
Esto determina cierto rango de valores de longitud de onda del sonido que va desde los 1,7 cm a
17m. Las longitudes de onda son comparables a los objetos ordinarios de la vida cotidiana. Esto es
determinante en la forma en que se propaga el sonido, como veremos a continuación.
La longitud de onda juega un papel importante en las dimensiones de los altavoces. Cuando la
longitud de onda emitida por un parlante es mucho menor que su propio tamaño la potencia
emitida se reduce considerablemente. Es por esta razón que los tweeters son mucho más
pequeños que los woofers.
Difracción
Las ondas luminosas poseen una longitud de onda muy pequeña (de 0,6 millonésimos de metros).
Sabemos por experiencia que la luz se propaga en línea recta y arroja sombras bien definidas. Por
otra parte, las olas del océano tienen una longitud de onda de varios metros. También sabemos
que fluyen alrededor de un pilote que sobresalga del agua y son poco afectadas por el mismo.
Estos ejemplos ilustran un hecho sumamente importante: las ondas son afectadas por objetos
grandes comparados con su longitud de onda. Frente a objetos grandes las ondas arrojan sombras
y parecen moverse en línea recta. Pero las ondas son poco afectadas por objetos pequeños
comparados con su longitud de onda y pasan a través de tales objetos.
La longitud de onda de las ondas sonoras está a medio camino respecto a los objetos que nos
rodean, por lo que en general muestran un comportamiento mixto. Las ondas graves (de longitud
de onda grande) son capaces de eludir objetos ordinarios y por ejemplo dar vuelta una esquina.
Por el contrario los agudos tienden a propagarse en línea recta y arrojan sombras acústicas.
Sabemos por experiencia que los graves de un parlante se dispersan en todas direcciones pero si
salimos de la habitación donde está el parlante perdemos las notas agudas.
La difracción es de especial importancia en nuestra capacidad de localización del sonido (para
sonidos agudos). La cabeza y las orejas arrojan sombras acústicas.
6
Otro ejemplo son los micrófonos que arrojan sombra sobre sí mismos para las frecuencias agudas
y tiene una transferencia no completamente plana.
ejemplo: Al aire libre, una persona canta una nota baja y luego silba una nota aguda. El sonido es
casi tan intenso adelante y atrás para la nota grave y apreciablemente más fuerte adelante que
atrás para el silbido.
Interferencia - Superposición de ondas
Mencionamos que las ondas sonoras se propagan sin afectarse unas a otras, incluso cuando su
diferencia de intensidad es muy grande (linealidad del medio). Sin embargo, el sistema auditivo es
sensible a la presión sonora total. Es necesario analizar cómo se combinan o superponen
diferentes ondas sonoras. La forma de onda resultante de la superposición de ondas se obtiene
sumando algebraicamente cada una de las ondas que componen el movimiento.
Si superponemos ondas sinusoidales de igual frecuencia (pero distinta amplitud y fase) obtenemos
una sinusoidal de igual frecuencia pero diferente amplitud y fase. Eventualmente ambas ondas
podrían cancelarse, si tuvieran igual amplitud pero a contrafase (180º).
Interferencia constructiva (dfi < L/2) y destructiva (dfi > L/2).
La superposición de sinusoidales es de especial relevancia ya que la teoría de Fourier establece
que un sonidos periódico complejo puede descomponerse como suma de sinusoidales.
7
Reflexión
Cuando una onda sonora se refleja en un plano, parte de la energía se trasmite al obstáculo y otra
parte es reflejada. Una de las formas de interferencia más usuales entre dos ondas sonoras es la
que se produce entre una onda sonora proveniente de la fuente y una reflexión de la misma que
viaja en la misma dirección.
Dos ondas de igual frecuencia viajando en sentidos opuestos forman un patrón de onda
estacionaria. La onda resultante no se propaga, sino que oscila presentando puntos de amplitud
mínima (nodos) y puntos de amplitud máxima (antinodos). En una cuerda vibrando puede
distinguirse un patrón de onda estacionaria.
Pulsaciones
La superposición de ondas de frecuencia cercana produce un fenómeno particular denominado
pulsación o batido. Si las frecuencias son muy cercanas el sistema auditivo no es capaz de
discriminarlas y se percibe una frecuencia única promedio de las presentes (½ [f1+f2]). La onda
resultante cambia en amplitud a una frecuencia igual a la diferencia entre las frecuencias
presentes (f1-f2).
8
Este fenómeno de batido se percibe para diferencias de frecuencia de hasta aproximadamente 1520 Hz. Al aumentar la diferencia se comienza a percibir un sonido áspero y al seguir aumentando
llega un punto en que son percibidas como frecuencias diferentes.
Oscilaciones
Si un sistema recibe una única fuerza y comienza a oscilar hasta detenerse, el tipo de oscilación se
denomina oscilación libre. Si nada perturbara el sistema este seguiría oscilando indefinidamente.
En la naturaleza la fuerza de rozamiento (o fricción) amortigua el movimiento hasta que
finalmente se detiene. Este tipo de oscilación se llama oscilación amortiguada y su amplitud varía
exponencialmente decayendo con cierta constante de tiempo.
Si se continúa introduciendo energía al sistema podemos contrarrestar la amortiguación logrando
una oscilación autosostenida. Esta oscilación se caracteriza por tener además de un ataque y un
decaimiento, una fase intermedia casi estacionaria.
Una oscilación forzada puede producirse al aplicar una excitación periódica de frecuencia
diferente a la frecuencia propia de oscilación del sistema, logrando que este vibre a la frecuencia
de la excitación.
9
Se denomina generador al elemento que produce la excitación, y resonador al sistema que se
pone en vibración. Este tipo de oscilación forzada es la que se produce en las cuerdas de una
guitarra que vibran por "simpatía". No siempre es posible obtener una oscilación forzada, sino que
depende de la relación entre las características del generador y el resonador.
En el caso de una oscilación forzada, cuando la frecuencia del generador coincide con la del
resonador, se dice que el sistema está en resonancia. La magnitud de la oscilación del resonador
depende de la magnitud de la excitación pero también de la relación entre las frecuencias de
excitación y de resonancia. Cuanto mayor es la diferencia de frecuencias menor será la amplitud
de la oscilación. Por el contrario cuando las frecuencias coinciden exactamente una pequeña
cantidad de energía de excitación puede producir grandes amplitudes de vibración.
En un caso extremo el sistema resonador puede llegar a romperse, como cuando un cantante
rompe una copa de cristal al dar una nota aguda.
Muchos instrumentos musicales tienen un elemento resonador que determina el timbre del
instrumento favoreciendo algunos parciales de la excitación original.
10
LUZ
1. Introducción
La óptica es la parte de la física que estudia la luz y los fenómenos relacionados con ella, y su
estudio comienza cuando el hombre intenta explicarse el fenómeno de la visión.
Diferentes teorías se han ido desarrollando para interpretar la naturaleza de la luz hasta llegar al
conocimiento actual. Las primeras aportaciones conocidas son las de Lepucio (450 a.C.)
perteneciente a la escuela atomista, que consideraban que los cuerpos eran focos que
desprendían imágenes, algo así como halos oscuros, que eran captados por los ojos y de éstos
pasaban al alma, que los interpretaba.
Los partidarios de la escuela pitagórica afirmaban justamente lo contrario: no eran los objetos los
focos emisores, sino los ojos. Su máximo representante fue Apuleyo (400 a.C.); haciendo un símil
con el sentido del tacto, suponían que el ojo palpaba los objetos mediante una fuerza invisible a
modo de tentáculo, y al explorar los objetos determinaba sus dimensiones y color.
Dentro de la misma escuela, Euclides (300 a.C.) introdujo el concepto de rayo de luz emitido por el
ojo, que se propagaba en línea recta hasta alcanzar el objeto.
Pasarían nada más que trece siglos antes de que el árabe Ajasen Basora (965-1039) opinara que la
luz era un proyectil que provenía del Sol, rebotaba en los objetos y de éstos al ojo.
¿Qué es la luz?. Los sabios de todas las épocas han tratado de responder a esta pregunta. Los
griegos suponían que la luz emanaba de los objetos, y era algo así como un "espectro" de los
mismos, extraordinariamente sutil, que al llegar al ojo del observador le permitía verlo.
De esta manera los griegos y los egipcios se abocaron a la solución de estos problemas sin
encontrar respuestas adecuadas. Posteriormente en la Europa del S. XV al XVII, con los avances
realizados por la ciencia y la técnica, surgieron muchos matemáticos y filósofos que produjeron
importantes trabajos sobre la luz y los fenómenos luminosos.
Es Newton el que formula la primera hipótesis seria sobre la naturaleza de la luz.
2. Modelo corpuscular.
Se la conoce como teoría corpuscular o de la emisión. A finales del siglo XVI, con el uso de lentes e
instrumentos ópticos, empezaran a experimentarse los fenómenos luminosos, siendo el holandés
Willebrord Snell, en 1620, quién descubrió experimentalmente la ley de la refracción, aunque no
fue conocida hasta que, en 1638, René Descartes (1596-1650) publicó su tratado: Óptica.
Descartes fue el primer gran defensor de la teoría corpuscular, diciendo que la luz se comportaba
como un proyectil que se propulsaba a velocidad infinita, sin especificar absolutamente nada
sobre su naturaleza, pero rechazando que cierta materia fuera de los objetos al ojo.
11
Explicó claramente la reflexión, pero tuvo alguna dificultad con la refracción.
Según Newton, las fuentes luminosas emiten corpúsculos muy livianos que se desplazan a gran
velocidad y en línea recta. Podemos fijar ya la idea de que esta teoría además de concebir la
propagación de la luz por medio de corpúsculos, también sienta el principio de que los rayos se
desplazan en forma rectilínea.
Como toda teoría física es válida en tanto y en cuanto pueda explicar los fenómenos conocidos
hasta el momento, en forma satisfactoria.
Newton explicó que la variación de intensidad de la fuente luminosa es proporcional a la cantidad
de corpúsculos que emite en determinado tiempo.
La reflexión de la luz consiste en la incidencia de dichos corpúsculos en forma oblicua en una
superficie espejada, de manera que al llegar a ella varía de dirección pero siempre en el mismo
medio.
La igualdad del ángulo de incidencia con el de reflexión se debe a la circunstancia de que tanto
antes como después de la reflexión los corpúsculos conservan la misma velocidad (debido a que
permanece en el mismo medio).
La refracción la resolvió expresando que los corpúsculos que inciden oblicuamente en una
superficie de separación de dos medios de distinta densidad son atraídos por la masa del medio
más denso y, por lo tanto, aumenta la componente de la velocidad que es la velocidad que es
perpendicular a la superficie de separación, razón por la cual los corpúsculos luminosos se acercan
a la normal.
El fenómeno de la birrefrigencia del espato de Islandia descubierto por el danés Bartholinus en
1669, quiso ser justificado por Newton suponiendo que los corpúsculos del rayo podían ser
rectangulares y sus propiedades variar según su orientación respecto a la dirección de la
propagación.
Según lo expresado por Newton, la velocidad de la luz aumentaría en los medios de mayor
densidad, lo cual contradice los resultados de los experimentos realizados años después.
Esta explicación, contradictoria con los resultados experimentales sobre la velocidad de la luz en
medios más densos que el vacío, obligó al abandono de la teoría corpuscular.
3. Modelo ondulatorio.
Propugnada por en el año 1678, describe y explica lo que hoy se considera como leyes de reflexión
y refracción. Define a la luz como un movimiento ondulatorio semejante al que se produce con el
sonido.
12
Propuso el modelo ondulatorio, en el que se defendía que la luz no era más que una perturbación
ondulatoria, parecida al sonido, y de tipo mecánico pues necesitaba un medio material para
propagarse. Supuso tres hipótesis:
1. todos los puntos de un frente de ondas eran centros emisores de ondas secundarias;
2. de todo centro emisor se propagaban ondas en todas direcciones del espacio con
velocidad distinta en cada medio;
3. como la luz se propagaba en el vacío y necesitaba un material perfecto sin rozamiento, se
supuso que todo el espacio estaba ocupado por éter, que hacía de soporte de las ondas.
hora, como los físicos de la época consideraban que todas las ondas requerían de algún medio que
las transportaran en el vacío, para las ondas lumínicas se postula como medio a una materia
insustancial e invisible a la cual se le llamó éter.
Justamente la presencia del éter fue el principal medio cuestionador de la teoría ondulatoria. En
ello, es necesario equiparar las vibraciones luminosas con las elásticas transversales de los sólidos
sin que se transmitan, por lo tanto, vibraciones longitudinales. Aquí es donde se presenta la mayor
contradicción en cuanto a la presencia del éter como medio de transporte de ondas, ya que se
requeriría que éste reuniera alguna característica sólida pero que a su vez no opusiera resistencia
al libre tránsito de los cuerpos sólidos. (Las ondas transversales sólo se propagan a través de
medios sólidos.)
En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente, y tal como ya
lo mencionamos, dado al prestigio que alcanzó Newton. Pasó más de un siglo para que fuera
tomada en cuenta la Teoría Ondulatoria de la luz. Los experimentos del médico inglés Thomas
Young sobre los fenómenos de interferencias luminosas, y los del físico francés Auguste Jean
Fresnel sobre la difracción fueron decisivos para que ello ocurriera y se colocara en la tabla de
estudios de los físicos sobre la luz, la propuesta realizada en el siglo XVII por Huygens.
Young demostró experimentalmente el hecho paradójico que se daba en la teoría corpuscular de
que la suma de dos fuentes luminosas puede producir menos luminosidad que por separado. En
una pantalla negra practica dos minúsculos agujeros muy próximos entre sí: al acercar la pantalla
al ojo, la luz de un pequeño y distante foco aparece en forma de anillos alternativamente
brillantes y oscuros. ¿Cómo explicar el efecto de ambos agujeros que por separado darían un
campo iluminado, y combinados producen sombra en ciertas zonas? Young logra explicar que la
alternancia de las franjas por la imagen de las ondas acuáticas. Si las ondas suman sus crestas
hallándose en concordancia de fase, la vibración resultante será intensa. Por el contrario, si la
cresta de una onda coincide con el valle de la otra, la vibración resultante será nula. Deducción
simple imputada a una interferencia y se embriona la idea de la luz como estado vibratorio de una
materia insustancial e invisible, el éter, al cual se le resucita.
Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de la luz
estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por Young y la
explicación que presentó sobre el fenómeno de la polarización al transformar el movimiento
ondulatorio longitudinal, supuesto por Huygens y ratificado por Young, quien creía que las
vibraciones luminosas se efectuaban en dirección paralela a la propagación de la onda luminosa,
13
en transversales. Pero aquí, y pese a las sagaces explicaciones que incluso rayan en las adivinanzas
dadas por Fresnel, inmediatamente queda presentada una gran contradicción a esta doctrina, ya
que no es posible que se pueda propagar en el éter la luz por medio de ondas transversales,
debido a que éstas sólo se propagan en medios sólidos.
En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz polarizada.
Observa que dos rayos polarizados ubicados en un mismo plano se interfieren, pero no lo hacen si
están polarizados entre sí cuando se encuentran perpendicularmente. Este descubrimiento lo
invita a pensar que en un rayo polarizado debe ocurrir algo perpendicularmente en dirección a la
propagación y establece que ese algo no puede ser más que la propia vibración luminosa. La
conclusión se impone: las vibraciones en la luz no pueden ser longitudinales, como Young lo
propusiera, sino perpendiculares a la dirección de propagación, transversales.
Las distintas investigaciones y estudios que se realizaron sobre la naturaleza de la luz, en la época
en que nos encontramos de lo que va transcurrido del relato, engendraron aspiraciones de
mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr medir la velocidad de la
luz con mayor exactitud que la permitida por las observaciones astronómicas. Hippolyte Fizeau
(1819- 1896) concretó el proyecto en 1849 con un clásico experimento. Al hacer pasar la luz
reflejada por dos espejos entre los intersticios de una rueda girando rápidamente, determinó la
velocidad que podría tener la luz en su trayectoria, que estimó aproximadamente en 300.000
km./s. Después de Fizeau, lo siguió León Foucault (1819 – 1868) al medir la velocidad de
propagación de la luz a través del agua. Ello fue de gran interés, ya que iba a servir de criterio
entre la teoría corpuscular y la ondulatoria.
La primera, como señalamos, requería que la velocidad fuese mayor en el agua que en el aire; lo
contrario exigía, pues, la segunda. En sus experimentos, Foucault logró comprobar, en 1851, que la
velocidad de la luz cuando transcurre por el agua es inferior a la que desarrolla cuando transita por
el aire. Con ello, la teoría ondulatoria adquiere cierta preeminencia sobre la corpuscular, y
pavimenta el camino hacia la gran síntesis realizada por Maxwell.
En 1670, por primera vez en la historia, el astrónomo danés Olaf Roemer pudo calcular la
velocidad de la luz.
Se hallaba estudiando los eclipses de uno de los satélites de Júpiter, cuyo período había
determinado tiempo atrás. Estaba en condiciones de calcular cuales serían los próximos eclipses.
Se dispuso a observar uno de ellos, y con sorpresa vio que a pesar de que llegaba el instante tan
cuidadosamente calculado por él, el eclipse no se producía y que el satélite demoró 996 seg en
desaparecer.
Roemer realizó sus primeros cálculos cuando la tierra se encontraba entre el Sol y Júpiter; pero
cuando observó el retraso en el eclipse era el Sol quien se encontraba entre la Tierra y Júpiter.
Por lo tanto la luz debía recorrer una distancia suplementaria de 299.000.000 Km., que es el
diámetro de la órbita terrestre, por lo tanto:
Vel. Luz = Diam. Órbita terrestre 299.000.000 Km / Atraso observado 996 seg. = 300.200 Km/seg.
14
Observaciones posteriores llevaron a la conclusión que el atraso en cuestión era de 1.002 seg. , lo
cual da por resultado que la velocidad de la luz sería de 298.300 Km/seg.
Si se consideraba onda, la luz debería atravesar los obstáculos, como el sonido. Como no era así,
se precisaba de alguna nueva hipótesis. Aún más considerando que tampoco podía explicar los
fenómenos de polarización. Todos estos problemas, junto al prestigio de Newton que defendía la
teoría contraria, relegó a un segundo plano, durante algún tiempo, el modelo ondulatorio.
En 1849, el físico francés Fizeau, logró medir la velocidad de la luz con una experiencia hecha en la
tierra.
Envió un rayo de luz, por entre los dientes de una rueda dentada que giraba a gran velocidad, de
modo que se reflejara en un espejo y volviera hacia la rueda.
Esta relación de velocidad entre el camino recorrido por la luz en su ida y vuelta y las revoluciones
de la rueda dentada, fue la que tomó Fizeau de base para calcular la velocidad de la luz.
Podemos escribir: t = 2d / v
Si la rueda tiene N dientes y N espacios, y da n vueltas por segundo y pasan en 1 seg. 2 Nn dientes
y espacios
t= 1 /.2Nn
Cuando no llega más luz al observador es evidente que estos tiempos son iguales y por lo tanto
tenemos:
2d / v = 1 / 2Nn
De donde v = 4 d Nn
Fizeau colocó el espejo a 8.633 m del observador, la rueda tenía 760 dientes y giraba a 12,6
revoluciones por segundo.
Si aplicamos la fórmula obtenida, resultará:
V = 313.274 Km./seg.
León Foucault y casi simultáneamente Fizeau, hallaron en 1850 un método que permite medir la
velocidad de la luz en espacios reducidos.
15
La idea consiste en enviar un haz de luz sobre un espejo giratorio haciéndole atravesar una lámina
de vidrio semitransparente y semirreflectora, un espejo fijo devuelve el rayo y atraviesa luego
lámina observándose la mancha luminosa en una pantalla.
Con este método se obtuvo que:
V = 295.680 Km./seg.
Luego Foucault junto a concibió la idea de calcular la velocidad de la luz en otro medio que no sea
el aire.
Midieron la velocidad de la luz en el agua y obtuvieron un resultado experimental que decidió la
controversia a favor de la teoría ondulatoria.
En general todas las mediciones de que se tiene conocimiento obtuvieron resultados entre
298.000 Km/seg y 313.300 Km/seg sin embargo se toma como velocidad de la luz la de 300.000
Km/seg por ser un término medio entre los valores obtenidos y por ser una cifra exacta que
facilitan los cálculos.
4. Modelo electromagnético.
Si bien en la separata 1.03 de este ensayo nos referiremos a ella con una relativa extensión,
cuando hablemos del electromagnetismo, aquí podemos señalar sucintamente que fue
desarrollada por quien es considerado el más imaginativo de los físicos teóricos del siglo XIX, nos
referimos a James Clerk Maxwell (1831-1879). Este físico inglés dio en 1865 a los descubrimientos,
que anteriormente había realizado el genial autodidacta Michael Faraday, el andamiaje
matemático y logró reunir los fenómenos ópticos y electromagnéticos hasta entonces
identificados dentro del marco de una teoría de reconocida hermosura y de acabada estructura.
En la descripción que hace de su propuesta, Maxwell propugna que cada cambio del campo
eléctrico engendra en su proximidad un campo magnético, e inversamente cada variación del
campo magnético origina uno eléctrico.
Dado que las acciones eléctricas se propagan con velocidad finita de punto a punto, se podrán
concebir los cambios periódicos - cambios en dirección e intensidad - de un campo eléctrico como
una propagación de ondas. Tales ondas eléctricas están necesariamente acompañadas por ondas
magnéticas indisolublemente ligadas a ellas. Los dos campos, eléctrico y magnético,
periódicamente variables, están constantemente perpendiculares entre sí y a la dirección común
de su propagación. Son, pues, ondas transversales semejantes a las de la luz. Por otra parte, las
ondas electromagnéticas se transmiten, como se puede deducir de las investigaciones de Weber y
Kohlrausch, con la misma velocidad que la luz. De esta doble analogía, y haciendo gala de una
espectacular volada especulativa Maxwell termina concluyendo que la luz consiste en una
perturbación electromagnética que se propaga en el éter. Ondas eléctricas y ondas luminosas son
fenómenos idénticos.
16
Veinte años más tarde, Heinrich Hertz (1857-1894) comprueba que las ondas hertzianas de origen
electromagnético tienen las mismas propiedades que las ondas luminosas, estableciendo con ello,
definitivamente, la identidad de ambos fenómenos.
Hertz, en 1888, logró producir ondas por medios exclusivamente eléctricos y, a su vez, demostrar
que estas ondas poseen todas las características de la luz visible, con la única diferencia de que las
longitudes de sus ondas son manifiestamente mayores. Ello, deja en evidencia que las ondas
eléctricas se dejan refractar, reflejar y polarizar, y que su velocidad de propagación es igual a la de
la luz. La propuesta de Maxwell quedaba confirmada: ¡la existencia de las ondas electromagnéticas
era una realidad inequívoca! Establecido lo anterior, sobre la factibilidad de transmitir oscilaciones
eléctricas sin inalámbricas, se abrían las compuertas para que se produjera el desarrollo de una
multiplicidad de inventivas que han jugado un rol significativo en la evolución de la naturaleza
humana contemporánea.
Pero las investigaciones de Maxwell y Hertz no sólo se limitaron al ámbito de las utilizaciones
prácticas, sino que también trajeron con ellas importantes consecuencias teóricas. Todas las
radiaciones se revelaron de la misma índole física, diferenciándose solamente en la longitud de
onda en la cual se producen. Su escala comienza con las largas ondas hertzianas y, pasando por la
luz visible, se llegan a la de los rayos ultravioletas, los rayos X, los radiactivos, y los rayos cósmicos.
Ahora, la teoría electromagnética de Maxwell, pese a su belleza, comporta debilidades, ya que
deja sin explicación fenómenos tan evidentes como la absorción o emisión; el fotoeléctrico, y la
emisión de luz por cuerpos incandescentes. En consecuencia, pasado el entusiasmo inicial, fue
necesario para los físicos, como los hizo Planck en 1900, retomar la teoría corpuscular.
ero la salida al dilema que presentaban las diferentes teorías sobre la naturaleza de la luz, empezó
a tomar forma en 1895 en la mente de un estudiante de dieciséis años, Albert Einstein, que en el
año 1905, en un ensayo publicado en el prestigioso periódico alemán Anales de la física, abre el
camino para eliminar la dicotomía que existía sobre las consideraciones que se hacían sobre la luz
al introducir el principio que más tarde se haría famoso como relatividad.
La luz es, de acuerdo a la visión actual, una onda, más precisamente una oscilación
electromagnética, que se propaga en el vacío o en un medio transparente, cuya longitud de onda
es muy pequeña, unos 6.500 Å para la luz roja y unos 4.500 Å para la luz azul. (1Å = un Angstrom,
corresponde a una décima de milimicra, esto es, una diez millonésima de milímetro).
Por otra parte, la luz es una parte insignificante del espectro electromagnético. Más allá del rojo
está la radiación infrarroja; con longitudes de ondas aún más largas la zona del infrarrojo lejano,
las microondas de radio, y luego toda la gama de las ondas de radio, desde las ondas
centimétricas, métricas, decamétricas, hasta las ondas largas de radiocomunicación, con
longitudes de cientos de metros y más. Por ejemplo, el dial de amplitud modulada, la llamada
onda media, va desde 550 y 1.600 kilociclos por segundo, que corresponde a una longitud de onda
de 545 a 188 metros, respectivamente.
17
En física, se identifica a las ondas por lo que se llama longitud de onda, distancia entre dos
máximos y por su frecuencia, número de oscilaciones por segundo, que se cuenta en un punto, y
se mide en ciclos por segundo (oscilaciones por segundo). El producto de ambas cantidades es
igual a la velocidad de propagación de la onda.
En el otro extremos del espectro electromagnético se encuentra la radiación ultravioleta, luego los
rayos X y a longitudes de onda muy diminutas los rayos γ.
La atmósfera terrestre es transparente sólo en la región óptica, algo en el infrarrojo y en la zona de
ondas de radio. Por ello, es que la mayor información que hemos obtenido sobre el universo ha
sido a través de la ventana óptica, aunque en las últimas décadas la radioastronomía ha venido
jugando un rol sustancial en la entrega de conocimientos sobre el cosmos, proporcionando datos
cruciales. Observaciones en el ultravioleta, rayos X y γ, como así también de parte del infrarrojo,
hay que efectuarlas con instrumentos ubicados fuera de la atmósfera de la Tierra. Sin embargo, es
posible también obtener resultados en el infrarrojo con instrumentación alojada en observatorios
terrestres empotrados a gran altura sobre el nivel del mar o con tecnología puesta en aviones o
globos que se eleven por sobre la baja atmósfera, que contiene la mayor parte del vapor de agua,
que es la principal causa de la absorción atmosférica en el infrarrojo.
5. Longitud de Onda de De Broglie
En 1924, Louis de Broglie, plantea la posibilidad de asociar una función de onda a las partículas. El
razonamiento lo hace por criterios de simetría con respecto a la necesidad de asignar propiedades
corpusculares a la radiación electromagnética, cuya conveniencia es el resultado de analizar
experiencias como por ejemplo los efectos fotoeléctricos y Compton. Una consecuencia inmediata
del principio de De Broglie es la interpretación de las leyes de cuantificación utilizadas, por
ejemplo, en el modelo atómico de Bohr, como equivalentes a considerar solo aquellas "órbitas"
cuya longitud hace que la onda del electrón sea estacionaria.
La hipótesis de De Broglie adquiere fuerza con los resultados del experimento de Davisson y
Germer, entre otros, en los que un haz de electrones acelerados produce un patrón de
interferencia, resultado típicamente ondulatorio, al ser dispersado por un cristal de Níquel.
Las conclusiones de los experimentos de difracción de haces de partículas, y de interpretación del
efecto Compton, así como otras experiencias con radiación electromagnética, hacen que nos
cuestionemos sobre la "verdadera" naturaleza de la materia y de las radiaciones, ¿son ondas o
partículas?. El principio de Complementariedad de Niels Bohr, nos indica la dualidad de ondas y
partículas, siendo el experimento planteado el que determine el modelo a utilizar.
En vista de la necesidad de asociar una función de onda a las partículas, nos induce a plantear la
posible interpretación física de la misma. Los conocimientos previos de campos
electromagnéticos, unidos a la interpretación corpuscular de la radiación electromagnética,
indujeron a Albert Einstein a interpretar el cuadrado de la amplitud del campo eléctrico como una
medida de la densidad de fotones de un haz, por tanto, la densidad de partículas de un haz podría
18
asociarse al cuadrado de la amplitud de la función de onda de materia. Sin embargo, el significado
de la función de ondas de una única partícula no queda claro. Max Born, sugiere que en ese caso la
interpretación es la de una densidad de probabilidad de presencia de la partícula entorno a una
posición determinada del espacio y en un instante de tiempo. Queda de esta forma asociada la
función de onda a una probabilidad, concepto contrapuesto, en cierta medida, al determinismo
asociado a la "posición espacial" de la física clásica.
Haciendo uso, una vez más, de los conocimientos del electromagnetismo intentaremos
representar las partículas por medio de ondas armónicas, u ondas planas. Sin embargo la
interpretación de Born conduce a una total "deslocalización" espacial para éstas partículas,
tendremos por tanto, que introducir paquetes de ondas, es decir superposición de ondas planas,
para poder limitar la deslocalización de la partícula a una zona de dimensiones finitas. Ahora bien,
matemáticamente, para construir un paquete de ondas de dimensiones espaciales finitas,
necesitamos un rango de vectores de ondas distintos. Si el paquete es una representación de la
onda de materia concluiremos que cuanto más localizada esté una partícula, más amplio será el
espectro de vectores de ondas, es decir de cantidades de movimiento, necesario. Este es el
concepto básico contenido en el Principio de Indeterminación de Heisemberg. Éste principio
destruye por completo el determinismo clásico ya que impide la definición, con absoluta precisión,
de las condiciones iniciales de un sistema físico, premisa en que se basa la supuesta posibilidad de
predecir, de nuevo con absoluta precisión según la física clásica, la evolución futura del sistema.
Luis de Broglie fue quien señaló que las partículas poseían no sólo características de tales sino
también de ondas, lo que llevó al señalamiento jocoso de que los electrones se comportaban
como partículas los lunes, miércoles y viernes y como ondas los martes y jueves. Ya se conocía,
gracias a Einstein, que el fotón podía ser descrito por su masa en reposo y por su frecuencia lo que
llevó a relacionar el momento del fotón (característica de partícula) con la frecuencia
(característica de onda), y a de Broglie a proponer que esta asociación era característica de todas
las partículas, no sólo del fotón, lo que se esquematiza en las siguientes ecuaciones
De esta asociación entre partículas y ondas es que surge luego la teoría ondulatoria de
Schrödinger, que es el objeto del cual estamos hablando en este capítulo.
Anexos
19
Espectro electromagnético.- La región correspondiente a la luz es una diminuta ventana en todo el
espectro. La atmósfera terrestre sólo es transparente en la región óptica y de ondas de radio. El
infrarrojo se puede observar desde gran altura con globos o satélites, al igual que los rayos γ, rayos
X, y la radiación ultravioleta.
Representación de una onda. Se llama longitud de onda a la distancia entre dos "valles" o dos
"montes".
6. Conclusión
Podemos decir que la luz es toda radiación electromagnética capaz de ser percibida por nuestro
sentido de la vista. El intervalo de frecuencias de las radiaciones que componen la luz solamente
está delimitado por la capacidad del órgano de la visión.
La luz que nosotros percibimos será siempre formada por radiaciones correspondientes a grandes
cantidades de frecuencias. El láser constituye la única radiación visible formada por radiaciones de
la misma longitud de onda, todas ella. La luz, en un medio homogéneo, se propaga en línea recta.
Cada una de las direcciones de propagación de la luz es un rayo luminoso. Un conjunto de rayos
que parten de un punto es un haz. Si el punto de donde proceden los rayos está muy alejado se
consideran paralelos.
La velocidad de la luz en el vacío es de 3 . 108 m/s. Para comparar la velocidad de la luz en una
sustancia con la del vacío se emplea el índice de refracción, obtenido como cociente entre la
segunda y la primera:
n=c
v
c = velocidad de la luz en el vacío
v = velocidad de la luz en la sustancia
Un prisma óptico es un cuerpo con dos caras planas no paralelas. Este dispositivo se utiliza, con
accesorios más o menos sofisticados, para efectuar análisis de la luz.
Si sobre una cara de un prisma óptico se hace incidir una luz compuesta, debido al distinto índice
de refracción que presenta el prisma para cada longitud de onda, las distintas radiaciones sufrirán
desviaciones distintas y se podrán discernir fácilmente.
20
EL CALOR
Cantidades de calor
Aun cuando no sea posible determinar el contenido total de energía calorífica de un cuerpo,
puede medirse la cantidad que se toma o se cede al ponerlo en contacto con otro a diferente
temperatura. Esta cantidad de energía en tránsito de los cuerpos de mayor temperatura a los de
menor temperatura es precisamente lo que se entiende en física por calor.
La ecuación calorimétrica
La experiencia pone de manifiesto que la cantidad de calor tomada (o cedida) por un cuerpo es
directamente proporcional a su masa y al aumento (o disminución) de temperatura que
experimenta. La expresión matemática de esta relación es la ecuación calorimétrica.
Q = c e .m.(T f - T i )
(8.6)
donde Q representa el calor cedido o absorbido, la masa del cuerpo y T f y T i las temperaturas final
e inicial respectivamente. Q será positivo si la temperatura final es mayor que la inicial (T f > T i ) y
negativo en el caso contrario (T f < T i ). La letra c representa la constante de proporcionalidad
correspondiente y su valor es característico del tipo de sustancia que constituye el cuerpo en
cuestión. Dicha constante se denomina calor específico. Su significado puede deducirse de la
ecuación (8.6). Si se despeja c,de ella resulta:
c e = Q/ m.(T f - T i )
El calor específico de una sustancia equivale, por tanto, a una cantidad de calor por unidad de
masa y de temperatura; o en otros términos, es el calor que debe suministrarse a la unidad de
masa de una sustancia dada para elevar su temperatura un grado.
Unidades de calor
La ecuación calorimétrica (8.6) sirve para determinar cantidades de calor si se conoce la masa del
cuerpo, su calor específico y la diferencia de temperatura, pero además permite definir la caloría
como unidad de calor. Si por convenio se toma el agua líquida como sustancia de referencia
asignando a su calor específico un valor unidad, la caloría resulta de hacer uno el resto de las
variables que intervienen en dicha ecuación.
Una caloría es la cantidad de calor necesaria para elevar en un grado centígrado (1 °C) la
temperatura de un gramo de agua. Esta definición, que tiene su origen en la época en la que la
teoría del calórico estaba en plena vigencia, se puede hacer más precisa si se considera el hecho
de que el calor específico del agua varía con la temperatura. En tal caso la elevación de un grado
21
centígrado a la que hace referencia la anterior definición ha de producirse entre 14,5 y 15,5 °C a la
presión atmosférica.
Una vez identificado el calor como una forma de energía y no como un fluido singular, la distinción
entre unidades de calor y unidades de energía perdió significado. Así, la unidad de calor en el SI
coincide con la de energía y es el joule (J), habiendo quedado la caloría reducida a una unidad
práctica que se ha mantenido por razones históricas,pero que va siendo progresivamente
desplazada por el joule.
Calor específico y capacidad calorífica
La ecuación calorimétrica puede escribirse también en la forma:
Q = C.(T f - T i )
(8.7)
expresando así que en un cuerpo dado la cantidad de calor cedido o absorbido es directamente
proporcional a la variación de temperatura. La nueva constante de proporcionalidad C recibe el
nombre de capacidad calorífica
C = Q/(T T f - T i )
y representa la cantidad de calor que cede o toma el cuerpo al variar su temperatura en un grado.
A diferencia del calor específico, la capacidad calorífica es una característica de cada cuerpo y se
expresa en el SI en J/K. Su relación con el calor específico resulta de comparar las ecuaciones (8.6)
y (8.7) en las que ambas magnitudes están presentes:
C = m.c e
(8.8)
De acuerdo con esta relación, la capacidad calorífica de un cuerpo depende de su masa y de la
naturaleza de la sustancia que lo compone.
Ejemplo de la determinación del calor específico: El calor específico de un cuerpo puede
determinarse mediante el calorímetro. Dado que éste es un atributo físico característico de cada
sustancia, la comparación del valor obtenido con los de una tabla estándar de calores específicos
puede ayudar a la identificación de la sustancia que compone el cuerpo en cuestión.
Se pretende identificar el metal del que está formada una medalla. Para ello se determina su masa
mediante una balanza que arroja el valor de 25 g. A continuación se calienta al « baño María »,
hasta alcanzar una temperatura de 85 °C y se introduce en el interior de un calorímetro que
contiene 50 g de agua a 16,5 °C de temperatura. Al cabo de un cierto tiempo y tras utilizar varias
veces el agitador, la columna del termómetro del calorímetro deja de subir señalando una
temperatura de equilibrio de 19,5 °C. ¿De qué metal puede tratarse?
22
Si se aplica la ecuación de conservación de la energía expresada en la forma, calor tomado = - calor
cedido, resulta:
Q1 = - Q2
m 1 .c e1 .(T - T 1 ) = - m 2 .c e2 .(T - T 2 )
considerando en este caso el subíndice 1 referido al agua y el 2 referido a la moneda. Sustituyendo
valores en la ecuación anterior, se,tiene:
50 g.1 (cal/g.°C).(19,5 °C - 16,5 °C) = - 25 g. c e2 .(19,5 °C - 85 °C)
Operando y despejando c e2 resulta:
150 (cal/g.°C) = 1 637,5. c e2
c e2 = 0,09 cal/g.°C
Si se compara el resultado con una tabla de calores específicos de metales, se concluye que puede
tratarse de cobre. Otras propiedades físicas como el color, por ejemplo, confirmarán el resultado.
Medida del calor
De acuerdo con el principio de conservación de la energía, suponiendo que no existen pérdidas,
cuando dos cuerpos a diferentes temperaturas se ponen en contacto, el calor tomado por uno de
ellos ha de ser igual en cantidad al calor cedido por el otro. Para todo proceso de transferencia
calorífica que se realice entre dos cuerpos puede escribirse entonces la ecuación:
Q1 = - Q2
En donde el signo - indica que en un cuerpo el calor se cede, mientras que en el otro se toma.
Recurriendo a la ecuación calorimétrica, la igualdad anterior puede escribirse en la forma:
m 1 .c e1 .(T e - T 1 ) = - m 2 .c e2 .(T e - T 2 ) (8.9)
Donde el subíndice 1 hace referencia al cuerpo frío y el subíndice 2 al caliente. La temperatura
T e en el equilibrio será superior a T 1 e inferior a T 2 . La anterior ecuación indica que si se conocen
los valores del calor específico, midiendo temperaturas y masas, es posible determinar cantidades
de calor. El aparato que se utiliza para ello se denomina calorímetro. Un calorímetro ordinario
consta de un recipiente de vidrio aislado térmicamente del exterior por un material apropiado.
Una tapa cierra el conjunto y dos pequeños orificios realizados sobre ella dan paso al termómetro
y al agitador, los cuales se sumergen en un líquido llamado calorimétrico, que es generalmente
agua.
23
Cuando un cuerpo a diferente temperatura que la del agua se sumerge en ella y se cierra el
calorímetro, se produce una cesión de calor entre ambos hasta que se alcanza el equilibrio
térmico. El termómetro permite leer las temperaturas inicial y final del agua y con un ligero
movimiento del agitador se consigue una temperatura uniforme. Conociendo el calor específico y
la masa del agua utilizada, mediante la ecuación calorimétrica se puede determinar la cantidad de
calor cedida o absorbida por el agua.
En este tipo de medidas han de tomarse las debidas precauciones para que el intercambio de calor
en el calorímetro se realice en condiciones de suficiente aislamiento térmico. Si las pérdidas son
considerables no será posible aplicar la ecuación de conservación Q 1 = - Q 2 y si ésta se utiliza los
resultados estarán afectados de un importante error.
La ecuación (8.9) puede aplicarse únicamente a aquellos casos en los cuales el calentamiento o el
enfriamiento del cuerpo problema no llevan consigo cambios de estado físico (de sólido a líquido o
viceversa, por ejemplo). A partir de ella y con la ayuda del calorímetro es posible determinar
también el calor específico del cuerpo si se conocen las temperaturas T 1 , T 2 y T e , las masas m 1 y
m 2 y el calor específico del agua.
El electromagnetismo fue descubierto de forma accidental en 1821 por el físico danés Hans
Christian Oersted. El electromagnetismo se utiliza tanto en la conversión de energía mecánica en
energía eléctrica (en generadores), como en sentido opuesto, en los motores eléctricos.
En el dibujo hemos construido un circuito eléctrico con una bobina de cable de cobre aislado,
arrollada alrededor de un núcleo de "hierro" (acero magnético).
El electromagnetismo es un campo muy amplio, por lo tanto describirlo en pocas palabras es
imposible. Así que se empezará por las corrientes y sus efectos en un cable conductor
Cuando una corriente (sea alterna o continua) viaja por un conductor (cable), genera a su
alrededor un efecto no visible llamado campo electromagnético.
Este campo forma unos círculos alrededor del cable como se muestra en la figura. Hay círculos
cerca y lejos al cable en forma simultánea.
El campo magnético es más intenso cuanto más cerca está del cable y esta intensidad disminuye
conforme se aleja de él hasta que su efecto es nulo. Se puede encontrar el sentido que tiene el
flujo magnético si se conoce la dirección que tiene la corriente en el cable y con la ayuda de La ley
de la mano derecha
Este efecto es muy fácil visualizar en corriente continua.
24
La fórmula para obtener el campo magnético en un conductor largo es:
B=mI / (2pd)
Donde:
•
•
•
•
•
B: campo magnético
m: es la permeabilidad del aire
I: corriente que circula por el cable
p: Pi = 3.1416
d: distancia desde el cable
Si hubiera N cables juntos el campo magnético resultante sería:
B = N m I / (2 p d
Donde N: número de cables.
El campo magnético en el centro de una bobina de N espiras circulares es:
B = N m I / (2 R) Donde: R es el radio de la espira
•
•
Nota: es importante mencionar que: Una corriente en un conductor genera un campo
magnético y que
Un campo magnético genera una corriente en un conductor.
Sin embargo, las aplicaciones más conocidas utilizan corriente alterna.
Por ejemplo:
•
Las bobinas: Donde la energía se almacena como campo magnético.
Los transformadores: Donde la corriente alterna genera un campo magnético alterno en el
bobinado primario, que induce en el bobinado secundario otro campo magnético que a su vez
causa una corriente, que es la corriente alterna de salida.
Generación e Interacción de campo magnético
Aunque los antiguos griegos conocían las propiedades electrostáticas del ámbar, y los chinos ya
fabricaban imanes con magnetita en el 2700 a.C., los fenómenos eléctricos y magnéticos no
empezaron a comprenderse hasta finales del siglo XVIII, cuando comenzaron a realizarse
experimentos en estos campos. En 1785, el físico francés Charles de Coulomb confirmó por
primera vez de forma experimental que las cargas eléctricas se atraen o se repelen con una
25
intensidad inversamente proporcional al cuadrado de la distancia que las separa (ley de Coulomb).
Más tarde el matemático francés Siméon Denis Poisson y su colega alemán Carl Friedrich Gauss
desarrollaron una potente teoría para calcular el efecto de un número indeterminado de cargas
eléctricas estáticas arbitrariamente distribuidas.
Dos partículas con cargas opuestas se atraen, por lo que tienden a acelerarse una hacia la otra. Si
el medio a través del cual se mueven ofrece resistencia, pueden acabar moviéndose con velocidad
constante (en lugar de moverse con aceleración constante) a la vez que el medio se calienta y
sufre otras alteraciones.
La posibilidad de mantener una fuerza electromotriz capaz de impulsar de forma continuada
partículas eléctricamente cargadas llegó con el desarrollo de la pila química en 1800, debido al
físico italiano Alessandro Volta. La teoría clásica de un circuito eléctrico simple supone que los dos
polos de una pila semantienen cargados positiva y negativamente debido a las propiedades
internas de la misma.
Cuando los polos se conectan mediante un conductor, las partículas cargadas negativamente son
repelidas por el polo negativo y atraídas por el positivo, con lo que se mueven hacia él y calientan
el conductor, ya que ofrece resistencia a dicho movimiento. Al llegar al polo positivo las partículas
son obligadas a desplazarse dentro de la pila hasta el polo negativo, en contra de las fuerzas que
se oponen a ello según la ley de Coulomb. El físico alemán Georg Simon Ohm descubrió la
existencia de una constante de proporcionalidad sencilla entre la corriente que fluye por el
circuito y la fuerza electromotriz suministrada por la pila. Esta constante es la resistencia eléctrica
del circuito, R.
La ley de Ohm, que afirma que la resistencia es igual a la fuerza electromotriz, o tensión, dividida
entre la intensidad de corriente, no es una ley fundamental de la física de aplicación universal, sino
que describe el comportamiento de una clase limitada de materiales sólidos.
Los conceptos elementales del magnetismo, basados en la existencia de pares de polos opuestos,
aparecieron en el siglo XVII y fueron desarrollados en los trabajos de Coulomb. Sin embargo, la
primera conexión entre el magnetismo y la electricidad se encontró en los experimentos del físico
y químico danés Hans Christian Oersted, que en 1819 descubrió que un cable conductor por el que
fluía una corriente eléctrica desviaba una aguja magnética situada en sus proximidades.
26
A la semana de conocer el descubrimiento de Oersted, el científico francés André Marie Ampère
demostró experimentalmente que dos cables por los que circula una corriente ejercen una
influencia mutua igual a la de los polos de un imán.
En 1831, el físico y químico británico Michael Faraday descubrió que podía inducirse el flujo de una
corriente eléctrica en un conductor en forma de espira no conectado a una batería, moviendo un
imán en sus proximidades o situando cerca otro conductor por el que circulara una corriente
variable.
La forma más fácil de enunciar la íntima relación entre la electricidad y el magnetismo,
perfectamente establecida en la actualidad, es a partir de los conceptos de campo eléctrico y
magnético. La intensidad, dirección y sentido del campo en cada punto mide la fuerza que actuaría
sobre una carga unidad (en el caso del campo eléctrico) o una corriente unidad (en el caso del
campo magnético) situadas en ese punto. Las cargas eléctricas estacionarias producen campos
eléctricos; las corrientes —esto es, las cargas en movimiento— producen campos eléctricos y
magnéticos.
Un campo eléctrico también puede ser producido por un campo magnético variable, y viceversa.
Los campos eléctricos ejercen fuerzas sobre las partículas cargadas por el simple hecho de tener
carga, independientemente de su velocidad; los campos magnéticos sólo ejercen fuerzas sobre
partículas cargadas en movimiento.
Estos hallazgos cualitativos fueron expresados en una forma matemática precisa por el físico
británico James Clerk Maxwell, que desarrolló las ecuaciones diferenciales en derivadas parciales
que llevan su nombre. Las ecuaciones de Maxwell relacionan los cambios espaciales y temporales
de los campos eléctrico y magnético en un punto con las densidades de carga y de corriente en
dicho punto. En principio, permiten calcular los campos en cualquier momento y lugar a partir del
conocimiento de las cargas y corrientes.
Un resultado inesperado que surgió al resolver las ecuaciones fue la predicción de un nuevo tipo
de campo electromagnético producido por cargas eléctricas aceleradas.
Este campo se propagaría por el espacio con la velocidad de la luz en forma de onda
electromagnética, y su intensidad disminuiría de forma inversamente proporcional al cuadrado de
la distancia de la fuente.
En 1887, el físico alemán Heinrich Hertz consiguió generar físicamente esas ondas por medios
eléctricos, con lo que sentó las bases para la radio, el radar, la televisión y otras formas de
telecomunicaciones.
El comportamiento de los campos eléctrico y magnético en estas ondas es bastante similar al de
una cuerda tensa muy larga cuyo extremo se hace oscilar rápidamente hacia arriba y hacia abajo.
Cualquier punto de la cuerda se mueve hacia arriba y hacia abajo con la misma frecuencia que la
fuente de las ondas situada en el extremo de la cuerda. Los puntos de la cuerda situados a
27
diferentes distancias de la fuente alcanzan su máximo desplazamiento vertical en momentos
diferentes.
Cada punto de la cuerda hace lo mismo que su vecino, pero lo hace algo más tarde si está más
lejos de la fuente de vibración (véase Oscilación). La velocidad con que se transmite la
perturbación a lo largo de la cuerda, o la `orden' de oscilar, se denomina velocidad de onda (véase
Movimiento ondulatorio). Esta velocidad es función de la densidad lineal de la cuerda (masa por
unidad de longitud) y de la tensión a la que esté sometida.
Una fotografía instantánea de la cuerda después de llevar moviéndose cierto tiempo mostraría
que los puntos que presentan el mismo desplazamiento están separados por una distancia
conocida como longitud de onda, que es igual a la velocidad de onda dividida entre la frecuencia.
En el caso del campo electromagnético la intensidad del campo eléctrico se puede asociar al
movimiento vertical de cada punto de la cuerda, mientras que el campo magnético se comporta
del mismo modo pero formando un ángulo recto con el campo eléctrico (y con la dirección de
propagación). La velocidad con que la onda electromagnética se aleja de la fuente es la velocidad
de la luz.
A finales del siglo XVIII y principios del XIX se investigaron simultáneamente las teorías de la
electricidad y el magnetismo.
En 1819, el físico danés Hans Christian Oersted llevó a cabo un importante descubrimiento al
observar que una aguja magnética podía ser desviada por una corriente eléctrica. Este
descubrimiento, que mostraba una conexión entre la electricidad y el magnetismo, fue
desarrollado por el científico francés André Marie Ampère, que estudió las fuerzas entre cables
por los que circulan corrientes eléctricas, y por el físico francés Dominique François Arago, que
magnetizó un pedazo de hierro colocándolo cerca de un cable recorrido por una corriente. En
1831, el científico británico Michael Faraday descubrió que el movimiento de un imán en las
proximidades de un cable induce en éste una corriente eléctrica; este efecto era inverso al hallado
por Oersted.
Así, Oersted demostró que una corriente eléctrica crea un campo magnético, mientras que
Faraday demostró que puede emplearse un campo magnético para crear una corriente eléctrica.
La unificación plena de las teorías de la electricidad y el magnetismo se debió al físico británico
James Clerk Maxwell, que predijo la existencia de ondas electromagnéticas e identificó la luz como
un fenómeno electromagnético. Los estudios posteriores sobre el magnetismo se centraron cada
vez más en la comprensión del origen atómico y molecular de las propiedades magnéticas de la
materia. En 1905, el físico francés Paul Langevin desarrolló una teoría sobre la variación con la
temperatura de las propiedades magnéticas de las sustancias paramagnéticas (ver más adelante),
basada en la estructura atómica de la materia.
28
Esta teoría es uno de los primeros ejemplos de la descripción de propiedades macroscópicas a
partir de las propiedades de los electrones y los átomos. Posteriormente, la teoría de Langevin fue
ampliada por el físico francés Pierre Ernst Weiss, que postuló la existencia de un campo magnético
interno, molecular, en los materiales como el hierro .Este concepto, combinado con la teoría de
Langevin, sirvió para explicar las propiedades de los materiales fuertemente magnéticos como la
piedra imán.
Después de que Weiss presentara su teoría, las propiedades magnéticas se estudiaron de forma
cada vez más detallada. La teoría del físico danés Niels Bohr sobre la estructura atómica, por
ejemplo, hizo que se comprendiera la tabla periódica y mostró por qué el magnetismo aparece en
los elementos de transición, como el hierro, en los lantánidos o en compuestos que incluyen estos
elementos. Los físicos estadounidenses Samuel Abraham Goudsmit y George Eugene Uhlenbeck
demostraron en 1925 que los electrones tienen espín y se comportan como pequeños imanes con
un `momento magnético' definido. El momento magnético de un objeto es una magnitud vectorial
(véase Vector) que expresa la intensidad y orientación del campo magnético del objeto. El físico
alemán Werner Heisenberg dio una explicación detallada del campo molecular de Weiss en 1927,
basada en la recientemente desarrollada mecánica cuántica (véase Teoría cuántica). Más tarde,
otros científicos predijeron muchas estructuras atómicas del momento magnético más complejas,
con diferentes propiedades magnéticas.
El campo magnético
Una barra imantada o un cable que transporta corriente pueden influir en otros materiales
magnéticos sin tocarlos físicamente porque los objetos magnéticos producen un `campo
magnético'. Los campos magnéticos suelen representarse mediante `líneas de campo magnético' o
`líneas de fuerza'. En cualquier punto, la dirección del campo magnético es igual a la dirección de
las líneas de fuerza, y la intensidad del campo es inversamente proporcional al espacio entre las
líneas.
En el caso de una barra imantada, las líneas de fuerza salen de un extremo y se curvan para llegar
al otro extremo; estas líneas pueden considerarse como bucles cerrados, con una parte del bucle
dentro del imán y otra fuera. En los extremos del imán, donde las líneas de fuerza están más
próximas, el campo magnético es más intenso; en los lados del imán, donde las líneas de fuerza
están más separadas, el campo magnético es más débil.
29
Según su forma y su fuerza magnética, los distintos tipos de imán producen diferentes esquemas
de líneas de fuerza. La estructura de las líneas de fuerza creadas por un imán o por cualquier
objeto que genere un campo magnético puede visualizarse utilizando una brújula o limaduras de
hierro.
Los imanes tienden a orientarse siguiendo las líneas de campo magnético. Por tanto, una brújula,
que es un pequeño imán que puede rotar libremente, se orientará en la dirección de las líneas.
Marcando la dirección que señala la brújula al colocarla en diferentes puntos alrededor de la
fuente del campo magnético, puede deducirse el esquema de líneas de fuerza. Igualmente, si se
agitan limaduras de hierro sobre una hoja de papel o un plástico por encima de un objeto que crea
un campo magnético, las limaduras se orientan siguiendo las líneas de fuerza y permiten así
visualizar su estructura. Los campos magnéticos influyen sobre los materiales magnéticos y sobre
las partículas cargadas en movimiento. En términos generales, cuando una partícula cargada se
desplaza a través de un campo magnético, experimenta una fuerza que forma ángulos rectos con
la velocidad de la partícula y con la dirección del campo.
Como la fuerza siempre es perpendicular a la velocidad, las partículas se mueven en trayectorias
curvas. Los campos magnéticos se emplean para controlar las trayectorias de partículas cargadas
en dispositivos como los aceleradores de partículas o los espectrógrafos de masas.
Naturaleza de los Imanes
¿Qué es un imán?
Un imán es un material capaz de producir un campo magnético exterior y atraer el hierro (también
puede atraer al cobalto y al níquel). Los imanes que manifiestan sus propiedades de forma
permanente pueden ser naturales, como la magnetita (Fe3O4) o artificiales, obtenidos a partir de
aleaciones de diferentes metales. En un imán la capacidad de atracción es mayor en sus extremos
o polos. Estos polos se denominan norte y sur, debido a que tienden a orientarse según los polos
geográficos de la Tierra, que es un gigantesco imán natural. La región del espacio donde se pone
de manifiesto la acción de un imán se llama campo magnético. Este campo se representa
mediante líneas de fuerza, que son unas líneas imaginarias, cerradas, que van del polo norte al
polo sur, por fuera del imán y en sentido contrario en el interior de éste; se representa con la letra
B
30
¿De dónde procede el magnetismo?
Desde hace tiempo es conocido que una corriente eléctrica genera un campo magnético a su
alrededor. En el interior de la materia existen pequeñas corrientes cerradas debidas al movimiento
de los electrones que contienen los átomos, cada una de ellas origina un microscópico imán o
dipolo. Cuando estos pequeños imanes están orientados en todas direcciones sus efectos se
anulan mutuamente y el material no presenta propiedades magnéticas; en cambio si todos los
imanes se alinean actúan como un único imán y en ese caso decimos que la sustancia se ha
magnetizado.
¿Puede un imán perder su potencia?
Para que un imán pierda sus propiedades debe llegar a la llamada "temperatura de Curie" que es
diferente para cada composición. Por ejemplo para un imán cerámico es de 450° C, para uno de
cobalto 800° C, etc. También se produce la desimanación por contacto, cada vez que pegamos algo
a un imán perdemos parte de sus propiedades. Los golpes fuertes pueden descolocar las partículas
haciendo que el imán pierda su potencia. ¿Cuántos tipos de imanes permanentes hay? Además de
la magnetita o imán natural existen diferentes tipos de imanes fabricados con diferentes
aleaciones:
•
•
•
Imanes cerámicos o ferritas. Imanes de álnico. Imanes de tierras raras.
Imanes flexibles.
Otros
Imanes cerámicos
Se llaman así por sus propiedades físicas. Su apariencia es lisa y de color gris oscuro, de aspecto
parecido a la porcelana. Se les puede dar cualquier forma, por eso es uno de los imanes más
usados (altavoces, aros para auriculares, cilindros para pegar en figuras que se adhieren a las
neveras, etc.). Son muy frágiles, pueden romperse si se caen o se acercan a otro imán sin el debido
cuidado. Se fabrican a partir de partículas muy finas de material ferromagnético (óxidos de hierro)
que se transforman en un conglomerado por medio de tratamientos térmicos a presión elevada,
sin sobrepasar la temperatura de fusión. Otro tipo de imanes cerámicos, conocidos como ferritas,
31
están fabricados con una mezcla de bario y estroncio. Son resistentes a muchas sustancias
químicas (disolventes y ácidos) y pueden utilizarse a temperaturas comprendidas entre _40 ºC y
260°C
Imanes de álnico
Se llaman así porque en su composición llevan los elementos aluminio, níquel y cobalto. Se
fabrican por fusión de un 8 % de aluminio, un 14 % de níquel, un 24 % de cobalto, un 51 % de
hierro y un 3 % de cobre. Son los que presentan mejor comportamiento a temperaturas elevadas.
Tienen la ventaja de poseer buen precio, aunque no tienen mucha fuerza.
Imanes de tierras raras
Son imanes pequeños, de apariencia metálica, con una fuerza de 6 a 10 veces superior a los
materiales magnéticos tradicionales. Los imanes de boro/neodimio están formados por hierro,
neodimio y boro; tienen alta resistencia a la desmagnetización.
Son lo bastante fuertes como para magnetizar y desmagnetizar algunos imanes de alnico y
flexibles. Se oxidan fácilmente, por eso van recubiertos con un baño de cinc, níquel o un barniz
epoxídico y son bastante frágiles.
32
Los imanes de samario/cobalto no presentan problemas de oxidación pero tienen el inconveniente
de ser muy caros. Están siendo sustituidos por los de boro _ neodimio.Es importante manejar
estos imanes con cuidado para evitar daños corporales y daño a los imanes (los dedos se pueden
pellizcar seriamente).
Imanes flexibles
Se fabrican por aglomeración de partículas magnéticas (hierro y estroncio) en un elastómero
(caucho, PVC, etc.).Su principal característica es la flexibilidad, presentan forma de rollos o
planchas con posibilidad de una cara adhesiva. Se utilizan en publicidad, cierres para nevera, llaves
codificadas, etc.
Consisten en una serie de bandas estrechas que alternan los polos norte y sur. Justo en la
superficie su campo magnético es intenso pero se anula a una distancia muy pequeña,
dependiendo de la anchura de las bandas. Se hacen así para eliminar problemas, como por
ejemplo que se borre la banda magnética de una tarjeta de crédito (se anulan con el grosor del
cuero de una cartera).
Otros imanes
Los imanes de platino/cobalto son muy buenos y se utilizan en relojería, en dispositivos
aeroespaciales y en odontología para mejorar la retención de prótesis completas. Son muy caros.
Otras aleaciones utilizadas son cobre/níquel/cobalto y hierro/cobalto/vanadio.
33
IMANES NATURALES Y ARTIFICIALES
Existen dos tipos de imanes:
-imanes naturales: son aquellos que se encuentran en la Tierra y que atraen al hierro.
Denominados magnetita, hoy sabemos que es hierro cristalino Fe3O4. Pero también la Tierra es un
imán natural.
-imanes artificiales: son cuerpos que han sido imanados en forma artificial. El hierro y el acero
pueden ser magnetizados. El acero se magnetiza permanentemente, como comprobaste con la
aguja; lo mismo sucede con las tijeras: si la dejas en contacto con el imán durante un rato, se
magnetizarán. Compruébalo
PROPIEDADES
Los imanes poseen dos zonas en las que se concentra la fuerza que ejercen, estas zonas son los
extremos del imán y reciben el nombre de polos magnéticos, norte y sur. Los polos del mismo
nombre
se
repelen
y
los
polos
opuestos
se
atraen.
Compruébalo.
Los polos de un imán no se pueden aislar, es decir, si partes por la mitad un imán, obtienes dos
imanes, cada uno con su polo norte y polo sur respectivo. La tierra es un imán natural, el polo
Norte geográfico es un polo sur magnético y el polos Sur geográfico es un polo norte magnético;
en esta propiedad está basado el funcionamiento de la brújula.
Un imán puede perder su imantación de dos formas:
-aplicando el frotamiento en sentido contrario o invirtiendo el sentido de la corriente, según sea el
método que se usó para imanarlo.
-aplicándole calor.
Aplicaciones
El electroimán es la base del motor eléctrico y el transformador. El desarrollo de nuevos
materiales magnéticos ha influido notablemente en la revolución de los ordenadores o
computadoras. Es posible fabricar memorias de computadora utilizando dominios burbuja. Estos
dominios son pequeñas regiones de magnetización, paralelas o antiparalelas a la magnetización
global del material. Según que el sentido sea uno u otro, la burbuja indica un uno o un cero, por lo
que actúa como dígito en el sistema binario empleado por los ordenadores. Los materiales
magnéticos también son componentes importantes de las cintas y discos para almacenar datos.
Los imanes grandes y potentes son cruciales en muchas tecnologías modernas. Los imanes
superconductores se emplean en los aceleradores de partículas más potentes para mantener las
partículas aceleradas en una trayectoria curva y enfocarlas.
34
La ley de Coulomb
Mediante una balanza de torsión, Coulomb encontró que la fuerza de atracción o repulsión entre
dos cargas puntuales (cuerpos cargados cuyas dimensiones son despreciables comparadas con la
distancia r que las separa) es inversamente proporcional al cuadrado de la distancia que las
separa.
El valor de la constante de proporcionalidad depende de las unidades en las que se exprese F, q, q’
y r. En el Sistema Internacional de Unidades de Medida vale 9·109 Nm2/C2.
Las formulaciones matemáticas para poder describir el comportamiento de la fuerza eléctrica
fueron desarrolladas en el año 1785 por Charles-Augustin de Coulomb (1,736-1,806). Famoso
también por sus investigaciones sobre el magnetismo, el roce, las fuerzas insertas en estructuras
de ingeniería, y otros temas. Ahora bien, nos es posible estimar, por ejemplo, en lo que respecta a
distancia, que la «fuerza de Coulomb» es igual a la de gravedad como la describió Newton: al
duplicar la distancia, su magnitud disminuye a la cuarta parte (ley inversa del cuadrado de la
distancia). Muy semejante verdad. Pero pese a ello, hay una diferencia fundamental entre ambas
fuerzas. Mientras la gravedad depende de la masa del objeto (se duplica cuando se duplica la
masa), la fuerza eléctrica sólo depende de su carga (también se duplica con la carga, pero
permanece invariable si se dobla en tamaño la masa). Podemos describir también el fenómeno,
señalando que mientras dos cuerpos de distinta masa caen igual hacia un tercero que los atrae por
gravedad, dos objetos de diferente carga caen en forma diferente si son atraídos eléctricamente
hacia un tercero. La fuerza eléctrica no es reductible a una propiedad geométrica del espaciotiempo, como lo es la gravedad.
Para una distribución continua en cgs,
35
Ahora bien, cuando hablamos de interacción de la fuerza eléctrica a distancia, la Ley de Coulomb
nos permite deducir que si hay una carga eléctrica aquí y otra, por ejemplo, en la Luna, ellas se
influyen mutuamente a través del vacío del espacio intermedio, tal como las masas lo hacen según
la teoría de Newton de la gravedad.
Aquí, hemos entrado a una cuestión de la física que, para muchos, siempre va a ser un motivo de
discusión y dudas. Para obtener el electromagnetismo y la gravedad matemáticamente se
necesitan cinco dimensiones espacio-tiempo en vez de cuatro. Para ello, es necesario aceptar la
idea propuesta por el matemático Theodor Kaluza, quién demostró que con el artificio de una
dimensión adicional a las cuatro conocidas de espacio-tiempo, es factible obtener el
electromagnetismo y la gravedad a partir de una misma teoría. El problema de la idea es saber qué
es esa quinta dimensión agregada, que no percibimos. En uno de mis trabajos que se encuentra
inserto en uno de los temas que he difundido en «A Horcajadas en el Tiempo», precisamente en el
capítulo XII, sección 05.02, intento explicar los alcances teóricos de esa propuesta de Kaluza.
EL ORIGEN ATÓMICO DEL CAMPO MAGNÉTICO
Hacia fines del siglo XIX, se logró una descripción unificada de los fenómenos electromagnéticos. Si
la luz resulta de la vibración de cargas, la siguiente pregunta a responder es, ¿por qué los átomos
emiten luz?, ¿hay algo que vibre dentro de ellos? Como veremos a continuación, la respuesta de la
última pregunta es: sí, el electrón. Las primeras evidencias de la existencia de esa partícula son
muy antiguas y están asociadas con la electricidad, es decir, con los fenómenos relacionados con el
movimiento, acumulación o deficiencia de electrones en la materia.
DESCARGAS A TRAVÉS DE GASES
El fenómeno eléctrico más espectacular es el de las descargas entre nubes (los rayos), que
originalmente era asociado al estado de ánimo de algunas deidades; fue Benjamín Franklin el
primero en demostrar su naturaleza eléctrica en su famoso experimento con cometas de papel.
Sin embargo, los rayos resultaron demasiado esporádicos e incontrolables como para permitir su
estudio sistemático.
Las descargas eléctricas a través de gases habían sido observadas en el laboratorio por Francis
Hauskbee quien, en 1709, reportó la aparición de una luz extraña cuando electrificaba un
recipiente de vidrio que contenía aire a baja presión. Otros estudiosos del fenómeno fueron
William Watson, quien en 1748 notó la aparición de flamas en la zona de vacío de sus barómetros
de mercurio, y Michael Faraday, quien en 1838 realizó experimentos con descargas eléctricas a
través de gases enrarecidos. La conducción eléctrica a través de gases intrigó a Faraday, ya que
incluso los gases que eran considerados como aislantes, cuando eran enrarecidos, propiciaban
fácilmente ese tipo de descargas. ¿Sería posible la conducción eléctrica en el vacío? En tal caso, se
podría estudiar directamente la naturaleza del fluido eléctrico.
36
LOS RAYOS CATÓDICOS
Antes de que se lograra dar respuesta a esta pregunta, debieron desarrollarse tres técnicas
experimentales fundamentales: una bomba de vacío eficiente, un sello metal-vidrio que
permitiera transmitir el potencial eléctrico a los electrodos dentro de la zona evacuada y la bobina
de inducción para obtener las enormes diferencias de potencial requeridas. La necesidad de este
tipo de cambios se aprecia mejor si se considera que Faraday utilizaba un tubo de vidrio tapado en
ambos extremos por corchos a través de los cuales hacía pasar alambres para conectar los
electrodos internos a una batería.
Las primeras bombas de vacío funcionaban con pistones ajustados a sus respectivos cilindros a
través de empaques que sellaban muy mal. No fue sino hasta 1855 que Johann Heinrich Geissler
inventó en Bonn, Alemania, una bomba que utilizaba columnas de mercurio como pistones, y que
eliminaba así los empaques. De este modo, se lograron obtener presiones de una diezmilésima de
atmósfera. Simultáneamente, el mismo Geissler desarrolló nuevos tipos de vidrio cuyos
coeficientes de dilatación eran iguales a los de algunos metales, con lo que permitió pasar
alambres a través de vidrio fundido sin peligro de que se formaran fracturas por las que se
perdiera el vacío.
Otra mejora indispensable fue la obtención de grandes diferencias de potencial eléctrico. En este
sentido, la contribución de otro alemán, Heinrich Daniel Ruhmkorff, fue importante. Como ya se
mencionó, los primeros experimentos con tubos de descarga obtenían sus voltajes de baterías
enormes conectadas en serie. Ruhmkorff modificó la bobina de inducción para obtener algo
parecido a las bobinas de los automóviles actuales, con las que se producen descargas de miles de
voltios a partir de una batería de menos de diez voltios.
Con estos avances, en 1858 el profesor alemán Julius Plucker estudió la conducción de electricidad
a través de gases a muy baja presión utilizando un tubo de vidrio en el que colocó dos placas
metálicas en la parte interior de los extremos. Tal como se había observado antes para un vacío
pobre, Plucker vio cómo se iluminaba todo el tubo al aplicar electricidad a las placas.
Sin embargo, cuando casi todo el gas era evacuado notó que esa luz desaparecía quedando tan
sólo un resplandor verdoso en el vidrio cercano a la zona de la placa conectada a la terminal
positiva de su fuente de electricidad (el ánodo); la imagen luminosa no dependía mucho de la
posición de ese electrodo. Más bien, parecía como si la luminosidad en esa zona fuera producida
por algún tipo de rayos emitidos por la placa conectada al cátodo, y que viajaban de una placa a la
otra a través del vacío.
Plucker también observó que la posición de la imagen luminosa podía ser modificada si se
acercaba un imán a la zona del ánodo. Un alumno de Plucker, J. W. Hittorf, encontró que al
interponer objetos entre el cátodo y el ánodo se producían sombras en la imagen luminosa, con lo
que reforzó la idea del origen catódico para esos rayos. El nombre de rayos catódicos fue
introducido años después por el investigador alemán Eugen Goldstein, quien además demostró
que las propiedades de esos rayos no dependían del material de que estuviera hecho el cátodo.
37
Una de las primeras teorías sobre la naturaleza de los rayos catódicos fue propuesta por el inglés
William Crookes, quien sugirió que se podía tratar de moléculas de gas, cargadas eléctricamente
en el cátodo y, posteriormente, repelidas violentamente por la acción del campo eléctrico.
Goldstein puso en duda esta hipótesis basado en la gran penetrabilidad que demostraban tener
los rayos catódicos, lo cual había sido interpretado por el físico alemán Heinrich Hertz como una
indicación de que, en lugar de partículas, los rayos catódicos serían ondas electromagnéticas tal
como él mismo había demostrado que era la luz. Sin embargo, en 1895 el físico francés Jean
Baptiste Perrin encontró que los rayos catódicos depositaban carga en un electroscopio, con lo
que confirmó que se trataba de partículas cargadas. Fue por aquellas fechas que el inglés Joseph
John Thomson se interesó en medir la velocidad de dichas partículas.
THOMSON Y EL ELECTRÓN
Nacido en 1856, Thomson se ganó en 1880 una posición en el Trinity College de la Universidad de
Cambridge, Inglaterra, para trabajar en el Laboratorio Cavendish. Originalmente dedicó su tiempo
a estudios matemáticos poco relevantes, hasta que en 1884 fue inesperadamente designado
director del laboratorio. El Cavendish había sido construido diez años antes con fondos donados
por el Duque de Devon, William Cavendish, descendiente del famoso Henry Cavendish, quien
midiera por primera vez la fuerza de atracción gravitacional entre dos objetos de laboratorio. El
puesto de director había sido ocupado por James Clark Maxwell y, posteriormente, por John
William Strutt (Lord Rayleigh), quien se retiró en 1884.
El nuevo nombramiento implicaba una orientación más experimental para su investigación y,
siguiendo los consejos de Rayleigh, Thomson se dedicó a estudiar la naturaleza de los rayos
catódicos. Como ya vimos, por esas fechas el tema era atacado también en otros laboratonos. La
contribución de Thomson fue publicada en tres artículos aparecidos en 1897. Aun cuando no era
demasiado hábil con las manos —uno de sus asistentes decía que ellos preferían que no tocara los
instrumentos—, su genio consistió en saber qué hacer luego de cada nueva observación.
Para medir la velocidad de los rayos catódicos, Thomson los hacía pasar por la combinación de un
campo eléctrico y uno magnético, producidos por un par de placas conectadas a una batería y por
un par de electroimanes, respectivamente (véase figura 2). Tanto la fuerza eléctrica como la
magnética ejercidas sobre las supuestas partículas eran directamente proporcionales a la relación
entre su carga y su masa. Sin embargo, la fuerza magnética depende, además, de la velocidad. Con
este principio, Thomson ajustaba ambos campos para compensar con el segundo la deflección
ocasionada por el primero. En estas condiciones, conocer el cociente de los campos era medir la
velocidad. Como información adicional, el experimento permitía medir la relación entre la carga y
la masa de las partículas en cuestión.
38
Figura 2. Tubo de rayos catódicos. Los electrones emitidos por el cátodo (C) son acelerados por el
campo eléctrico hacia el ánodo (A) que deja pasar algunos por un orificio central. La trayectoria de
este haz es afectada por la acción de un campo magnético y uno eléctrico. J.J. Thomson buscaba
cancelar esos efectos para determinar la velocidad de los electrones.
Los resultados del trabajo de Thomson indicaban que la velocidad de los rayos con los que él
trabajaba era, aproximadamente, diez veces menor que la de la luz. Sin embargo, lo que más llamó
su atención es que la relación carga/masa obtenida era mil veces mayor que la esperada para
iones (véase II.7). Este resultado sugería que, si los rayos catódicos tenían algún origen atómico, se
trataba de partículas (los electrones) mil veces más ligeras que el átomo de hidrógeno. Estas
partículas resultaron ser los electrones.
Estrictamente, el que la masa del electrón fuese mil veces menor que la del átomo que lo contenía
era sólo una de las posibles interpretaciones, que dependía de suponer que la carga del electrón
era igual a la unidad electrolítica de carga. Fue entonces necesario determinar
experimentalmente, y en forma independiente, la carga y/o la masa del electrón.
CARGA Y MASA DEL ELECTRÓN
Los primeros experimentos tendientes a determinar la carga del electrón fueron motivados por el
descubrimiento de un alumno de Thomson, Charles Thomson Rees Wilson, en el sentido de que
los iones podían servir como semillas de condensación de gotas en las nubes. La fascinación de
Wilson por los fenómenos ópticos producidos por la luz del sol al pasar por las nubes, lo motivó a
estudiar en el laboratorio la producción de atmósferas gaseosas.
Antes que Wilson, Coulier y Aitken habían descubierto un método para producir nubes al expandir
una cámara que contuviera una atmósfera húmeda. Siguiendo este método, en 1894 Wilson
encontró que, en ausencia de polvo, se podía lograr una atmósfera supersaturada de humedad
libre de gotas.
La producción de gotas sólo se producía si se rebasaba cierto límite de saturación, o bien si se
provocaba algún tipo de ionización de las moléculas del medio. Aparentemente, cada ion atrapaba
a las moléculas libres para formar gotas.
En 1895, cuando Roentgen descubrió los rayos X, J. J. Thomson propuso a Wilson estudiar el efecto
de esos rayos sobre medios supersaturados con su cámara de expansión, y se encontró que esos
rayos eran altamente ionizantes.
Poco tiempo después, con el descubrimiento de la radiactividad, vio que ésta era capaz de
producir gotas en la cámara. La cámara de Wilson fue esencial en el descubrimiento de algunas de
las partículas elementales, motivo por el cual recibió el Premio Nobel de física en 1927.
39
Thomson y otros de sus colegas, J. S. E. Townsend y H. A. Wilson, cada uno por su cuenta,
diseñaron métodos para medir la masa de las gotitas que se formaban alrededor de cada ion.
Townsend, por ejemplo, separaba el líquido de las gotitas que se formaban alrededor de iones,
midiendo la carga total. La masa de cada gotita era deducida de la velocidad de caída bajo la
acción conjunta de la gravedad y la viscosidad del aire.
La masa total del líquido dividido por la masa de cada gotita determinaba el número de gotitas
acumuladas, y la carga total dividida por el número de gotitas daba la carga de cada gotita. En el
supuesto de que cada gotita creció alrededor de un ion, la carga de cada gotita sería la carga del
ion. Y ya que este tipo de ionización se puede asociar con la pérdida de un electrón por parte de
una molécula, la carga del ion es de la misma magnitud que la del electrón perdido, puesto que la
molécula no ionizada es eléctricamente neutra.
El método de Thomson utilizaba medidas de conductividad eléctrica y térmica de la nube gaseosa
para determinar la masa líquida, mientras que H. A. Wilson mejoró el método de Townsend al
incluir un campo eléctrico variable, paralelo al gravitacional, que permitía una medida más directa
de la carga de cada gotita. Sus resultados, publicados independientemente entre 1897 y 1903,
indicaban que la carga iónica era del orden de l0-19 coulombs.
Las medidas del grupo de Thomson, a pesar de ser bastante cercanas al valor aceptado
actualmente (1.6021 X 10-19 coulomb), fueron vistas con desconfianza y abrieron el camino para
medidas más precisas. En 1906, el físico norteamericano Robert Andrews Millikan atacó el
problema repitiendo las medidas de H. A. Wilson con la ayuda de Harvey Fletcher, entonces
estudiante de doctorado. Pronto se dieron cuenta que la masa de las gotitas variaba rápidamente
debido a la evaporación. Para minimizar este efecto empezaron a utilizar gotitas de aceite.
Otro cambio importante fue que, en lugar de observar el comportamiento global, Millikan se
concentró en el comportamiento de gotas individuales al ser expuestas al efecto combinado de la
gravedad y el campo eléctrico a la manera de Wilson. Los resultados mostraron que, si bien la
carga inicial de cada gotita observada era enorme comparada con lo reportado por Thomson y su
grupo, ésta fluctuaba de una a otra (para la misma gotita) en pasos discretos.
Pronto se dieron cuenta de que estas diferencias eran múltiplos pequeños de una misma carga,
aparentemente debidos a la pérdida o ganancia de algunos electrones por interacción con el
medio en su trayecto. Luego de un simple análisis estadístico, esto los llevó a deducir 1.592 X l0-19
coulombs como la carga del electrón, que se denota comúnmente con la letra e. Millikan recibió el
Premio Nobel en 1923 por este trabajo.
Una vez determinada la carga del electrón, su masa pudo ser deducida utilizando la relación
carga/masa medida por Thomson, que dio como resultado 9 X 10-31 kg. El propio Millikan dedujo
el número de Avogadro, simplemente dividiendo el faraday por e, que dio como resultado: 6.06 X
1023 moléculas por gramo-mol, y la masa del ion de hidrógeno a partir de la relación carga/masa
deducida en electrólisis, que dio 1.66 X 10-27 kg. Es decir, la masa del electrón es casi 1/2000 de la
del átomo que lo contiene. Un cálculo aritmético simple también permitió a Thomson deducir que
las dimensiones de un átomo son del orden de 10-10 metros.
40
Para terminar, vale la pena hacer notar que, si bien Zeeman y otros realizaron simultáneamente
investigaciones cuyos resultados muestran inequívocamente la existencia del electrón, el crédito
de este descubrimiento se otorga casi enteramente a Thomson. Esto puede deberse a que, desde
su publicación original, Thomson hizo hincapié en el carácter elemental del electrón, al
considerarlo una fracción del átomo.
RESUMEN
Los estudios enfocados a entender la naturaleza del fluido eléctrico fueron motivados inicialmente
por las descargas a través de gases. En tal labor se requirió el desarrollo de técnicas de vacío y de
otras que dieron como resultado el tubo de rayos catódicos. El descubrimiento de que estos rayos
están constituidos por partículas cargadas fue la labor de J. J. Thomson quien, antes de deducir la
naturaleza elemental, necesitó demostrar que su masa era mucho menor que la de los átomos que
las contenían
FUERZAS MAGNETICAS
Las fuerzas magnéticas son producidas por el movimiento de partículas cargadas, como por
ejemplo electrones, lo que indica la estrecha relación entre la electricidad y el magnetismo. El
marco que aúna ambas fuerzas se denomina teoría electromagnética. La manifestación más
conocida del magnetismo es la fuerza de atracción o repulsión que actúa entre los materiales
magnéticos como el hierro. Sin embargo, en toda la materia se pueden observar efectos más
sutiles del magnetismo.
Recientemente, estos efectos han proporcionado claves importantes para comprender la
estructura atómica de la materia.
Fuerza magnética sobre una corriente rectilínea
Una carga en movimiento en presencia de un imán experimenta una fuerza magnética Fm que
desvía su trayectoria. Dado que la corriente eléctrica supone un movimiento continuado de
cargas, un conductor por donde circula corriente sufrirá, por la acción de un campo magnético, el
efecto conjunto de las fuerzas magnéticas que se ejercen sobre las diferentes cargas móviles de su
interior. Si la corriente es rectilínea y de longitud l, la expresión de la fuerza magnética toma la
forma:
Fm = I.B.L.sen ϕ
(11.6)
en donde I es la intensidad de corriente, B la intensidad de campo y ϕ el ángulo que forma la
corriente con el vector campo. La anterior ecuación, que se conoce como ley de Laplace, se puede
obtener experimentalmente, también puede deducirse de la expresión Fm = I.B.l.sen ϕ de la fuerza
magnética sobre una carga móvil. Admitiendo que la corriente es estacionaria, esto es, de
intensidad constante y considerando en tal circunstancia el movimiento de avance de las cargas
como uniforme, se cumple la igualdad:
41
q.v = I.L (11.7)
pues en tal supuesto v = L/t e I = q/t; despejando la variable t en ambas ecuaciones e igualándolas,
resulta
L/v = q/I
ecuación equivalente a la anterior. La dirección y el sentido de la fuerza magnética Fm se obtiene
aplicando la regla de la mano izquierda, con el dedo pulgar representando la dirección de la fuerza
magnética Fm, el índice el campo magnético B y el dedo corazón la corriente l.
Fuerza magnética sobre una espira rectangular
Una espira con forma rectangular por la que circula una corriente cuando es situada en el interior
de un campo magnético, como el producido por un imán de herradura, sufre un conjunto de
acciones magnéticas que producen en ella un movimiento de giro o rotación, hasta situarla
dispuesta paralelamente a la dirección del campo B (o dirección de las líneas de fuerza).
La explicación de este fenómeno puede efectuarse aplicando la ley de Laplace a cada uno de los
tramos rectilíneos de la espira. Supóngase que como se muestra en la figura adjunta, la espira
puede girar en torno a un eje que es perpendicular a las líneas de fuerza.
La espira rectangular está formada por dos pares de segmentos rectilíneos paralelos entre sí, un
par horizontal AD y BC y otro vertical AB = DC, por los que circula la corriente I. Cuando se aplica la
regla de la mano izquierda a los segmentos horizontales AD y BC se advierte que las fuerzas
magnéticas correspondientes resultan verticales y opuestas de modo que no producen ningún
efecto de movimiento. Las fuerzas sobre los segmentos verticales AB y DC son opuestas y paralelas
y están contenidas en un plano horizontal. Constituyen por tanto un par de fuerzas, el cual da
lugar a un movimiento de giro que hace que la espira se sitúe perpendicularmente a las líneas de
fuerza. En tal situación también estas otras fuerzas actuantes se anulan mutuamente y el cuadro
permanece en equilibrio. La expresión del momento del par de fuerzas que actúa sobre la espira
es, de acuerdo con su definición:
M = fuerza x braza = Fm.b.sen ϕ
donde b es la dimensión horizontal de la espira y es el ángulo que forma la dirección de una
cualquiera de las dos fuerzas del par con la línea que une sus respectivos puntos de aplicación. La
aplicación de la ley de Laplace a uno cualquiera de los segmentos verticales de longitud a da lugar
a la expresión:
Fm = B.I.a.sen 90º = B.I.a
42
pues B y la dirección de la corriente I son perpendiculares; la expresión del momento toma la
forma:
M = B.I.a.b.sen α = B.I.S.sen α
(11.8)
donde S = a · b es el área de la espira. Cuando la espira al girar se orienta paralelamente al campo,
α se hace cero y el momento M resulta nulo, lo que explica que esta orientación sea la del
equilibrio.
Trayectoria de una partícula en un campo magnético
La desviación de una aguja magnética bajo la acción de un campo originado por una corriente,
según el experimento de Oersted, pone de manifiesto la existencia de una fuerza magnética que el
campo aplica sobre la aguja.
Si existe una fuerza hacia alguna dirección, según la tercera ley de Newton, debe existir una
segunda fuerza equivalente y de sentido contrario, que actúe sobre el conductor o sobre las cargas
en movimiento. Esto se da realmente, ya que si colocamos una barra conductora en un imán en
forma de "u", observaremos que se mueve saliendo o entrando en el imán, hacia el lado de la
corriente que este dispuesto. Al experimentar en esta forma nos damos cuenta que el sentido de
la corriente, el campo y el movimiento son perpendiculares entre sí. Esto permite señalar varias
reglas para determinar con precisión uno de éstos sentidos cuando se conocen los otros dos.
Regla de la mano izquierda:
Consiste en colocar perpendicularmente entre sí los tres primeros dedos de la mano izquierda, de
modo que el índice señale el sentido del campo, el medio indique el sentido de la corriente y,
entonces, el pulgar señala el sentido del movimiento del conductor o de la desviación que
experimentan las cargas.
Regla de la mano derecha:
Consiste en extender la mano derecha, de modo que el pulgar quede perpendicular a los restantes
dedos (en un solo plano). Entonces, si el pulgar indica el sentido de la corriente y de los demás
dedos, el sentido del campo, el sentido del movimiento o de la fuerza aplicada sobre el conductor
o sobre las cargas será perpendicular a la palma de la mano, alejándose de ésta.
APLICACIONES TECNOLÓGICAS DEL MAGNETISMO.
El caso del electromagnetismo es notable, entre otras cosas, por el hecho de que una vez llevados
a cabo los descubrimientos científicos tuvieron inmediata aplicación práctica y viceversa, las
aplicaciones prácticas fomentaron la investigación científica para resolver diferentes problemas, lo
cual a su vez abrió nuevos horizontes científicos.
43
Se reseña la curiosidad científica que ha tenido el hombre desde tiempos inmemoriales por las
propiedades de la electricidad por un lado y del magnetismo por otro.
Se relata el descubrimiento de la relación entre estos dos campos, resaltando el hecho de que no
son independientes. Se habla de los trabajos de Christian Oersted, André-Marie Ampère y Michael
Faraday, algunas de las figuras señeras de la ciencia en el siglo pasado.
El conocimiento científico de la relación entre electricidad y magnetismo dio lugar,
inmediatamente, a aplicaciones tecnológicas importantes. Éstas se detallan en los capítulos VII-X e
incluyen al telégrafo, con el que el hombre pudo comunicarse por medios eléctricos, y a las
máquinas eléctricas, o sea, motores eléctricos y generadores de electricidad. De esta forma, el
hombre tuvo a su disposición fuentes de corriente eléctrica de gran intensidad, hecho que cambió
drásticamente la vida, dando lugar a una revolución en la forma de vida de la humanidad, cuyas
consecuencias fueron la iluminación eléctrica y el teléfono, entre otras.
Otra novedad importante que se dio en el desarrollo de estas aplicaciones de la electricidad y el
magnetismo fue la creación de los primeros laboratorios industriales, que desempeñaron un papel
primordial en los subsiguientes avances.
Por otro lado, la historia dio un vuelco inesperado. James Glerk Maxwell realizó una gran síntesis
teórica de los trabajos de Ampère y Faraday sobre la electricidad y el magnetismo, lo que le
condujo al sorpresivo descubrimiento de que la luz era de origen eléctrico y magnético.
Además, como consecuencia de la teoría que desarrolló predijo la existencia de las ondas
electromagnéticas. El contexto en que trabajó Maxwell se presenta en los capítulos XI a XIII y su
contribución se relata en el capítulo XlV. Basado en el trabajo de sus antecesores, Maxwell
construyó uno de los pilares de la física, comparable con la mecánica desarrollada por Newton.
Hemos de mencionar que la teoría electromagnética de Maxwell sirvió para el futuro desarrollo de
la teoría de la relatividad de Einstein.
Años después de que Maxwell hiciera la predicción de las ondas electromagnéticas en forma
teórica, Hertz llevó a cabo un notable experimento, que es un ejemplo de la forma en que se hace
ciencia. Se propuso indagar si en la naturaleza efectivamente existen ondas electromagnéticas. Su
trabajo verificó en forma brillante las predicciones de Maxwell.
Después de los experimentos de Hertz no quedó ya ninguna duda, desde el punto de vista
conceptual, acerca de la realidad física de los campos, idea que Faraday había propuesto
originalmente y que Maxwell elaboró en su forma matemática. Esta idea ha sido de crucial
importancia en la física posterior, tanto para la relatividad de Einstein como para las teorías
modernas de las partículas elementales
Otra consecuencia de los trabajos de Maxwell y Hertz fue el inicio de las comunicaciones
inalámbricas. Los antecedentes y trabajos más importantes se presentan en los capítulos XVI a
XVIII.
44
A principios del presente siglo, los trabajos de Marconi solamente habían dado por resultado el
telégrafo inalámbrico. La necesidad de desarrollar la radiotelefonía precipitó el inicio de la
electrónica moderna. De hecho, esta rama del electromagnetismo consolidó el importante papel
de los laboratorios industriales. En el capítulo XX se describe la relación entre la parte científica y
sus aplicaciones prácticas. Una vez logrado el entendimiento fundamental del funcionamiento de
los tubos al vacío hubo una nueva irrupción de grandes novedades: la radio, que dominaría la vida
humana durante varias décadas, y posteriormente la televisión, que tanta repercusión ha tenido.
Esto lo reseñamos en los capítulos XXI y XXII.
En el capítulo XXIII presentamos en forma breve la introducción y aplicaciones de la electricidad en
México.
En los capítulos XXV y XXVI se detalla la invención del radar y el papel determinante que
desempeñó en la victoria de los ingleses en la llamada Batalla de Inglaterra. Ésta, que tuvo en sus
momentos culminantes en el otoño de 1940, fue decisiva en la posterior derrota de la Alemania
nazi y pudo lograrse gracias a que los ingleses contaban con el radar, primitivo, pero funcional.
Éste fue una aplicación importante de la teoría electromagnética. Para mejorar su funcionamiento
y reducir su tamaño fue necesario trabajar con microondas, que se lograron generar por medio del
magnetrón.
Como se reseña en el capítulo XXVII, hacia 1946 se terminó de construir un dispositivo que llegaría
a tener gran influencia en la vida humana: las computadoras electrónicas.
Otra revolución se lleva a cabo en la segunda parte de la década de 1940: la invención del
transistor. En el capítulo XXVIII se presenta el trabajo científico que se realizó para lograr esta
novedad; en particular, la base cuántica fue indispensable para hacer una descripción correcta de
la estructura microscópica de los sólidos. De esta manera, como se puede leer en el capítulo XXIX,
se inició un torrente de aplicaciones y de mejoras cada vez más interesantes, lo que hizo posible la
miniaturización de los aparatos electrónicos.
De hecho, a partir de la década de 1950 se ha vivido en una revolución continua.
Los avances científicos en la comprensión de la estructura de la materia han dado lugar a un sinfin
de aplicaciones del electromagnetismo. Una de ellas fue el láser, cuyo principio se basó en un
mecanismo que Einstein propuso en 1917 para explicar la distribución de radiación encontrada
por Planck en 1900. En el capitulo XXX se detalla la base del funcionamiento de este dispositivo,
que tiene una cantidad impresionante de aplicaciones, algunas de las cuales presentamos.
Finalmente, en el último capítulo, el XXXI, se indican algunos de los avances que se están dando en
la actualidad, así como las tendencias hacia el futuro. La fotónica, o sea la transmisión de señales,
ahora por medio de ondas electromagnéticas y usando fibras ópticas, está ahora al frente del
desarrollo, con la posibilidad real de reemplazar a los dispositivos electrónicos. De hecho, se
vislumbra que en el siglo venidero los aparatos no sean ya electrónicos sino fotónicos,
convirtiéndose en realidad un sueño de excitantes posibilidades, sólo concebido en la ciencia
ficción.
45
Por limitación de espacio el autor ha elegido sólo algunos de los más importantes avances
tecnológicos del electromagnetismo; aun así ha sido necesario abreviar la información, ya que
varios de ellos requerirían un libro completo.
En esta obra se plantea el hecho de que, en el caso del electromagnetismo, la frontera entre la
ciencia y la tecnología no está bien delimitada; de hecho, es difícil hablar de frontera. Y es que las
dos están tan interrelacionadas que no puede avanzar una sin la ayuda de la otra. Esta mancuerna
ha sido la base de la civilización moderna
46
Descargar