Apuntes1

Anuncio
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 1
E
lectricidad
es la categoría de fenómenos físicos originados por la existencia
de cargas eléctricas y por la interacción de las mismas. Cuando
una carga eléctrica se encuentra estacionaria, o estática,
produce fuerzas eléctricas sobre las otras cargas situadas en su
misma región del espacio; cuando está en movimiento, produce además
efectos magnéticos. Los efectos eléctricos y magnéticos dependen de la
posición y movimiento relativos de las partículas con carga. En lo que
respecta a los efectos eléctricos, estas partículas pueden ser neutras,
positivas o negativas. La electricidad se ocupa de las partículas cargadas
positivamente, como los protones, que se repelen mutuamente, y de las
partículas cargadas negativamente, como los electrones, que también se
repelen mutuamente. En cambio, las partículas negativas y positivas se
atraen entre sí. Este comportamiento puede resumirse diciendo que las
cargas del mismo signo se repelen y las cargas de distinto signo se atraen.
Electrostática
Una manifestación habitual de la electricidad es la fuerza de atracción o
repulsión entre dos cuerpos estacionarios que, de acuerdo con el principio de
acción y reacción, ejercen la misma fuerza eléctrica uno sobre otro. La carga
eléctrica de cada cuerpo puede medirse en culombios. La fuerza entre dos
partículas con cargas q1 y q2 puede calcularse a partir de la ley de Coulomb
Según la cual la fuerza es proporcional al producto de las cargas dividido
entre el cuadrado de la distancia que las separa. La constante de
proporcionalidad K depende del medio que rodea a las cargas. La ley se
llama así en honor al físico francés Charles de Coulomb.
Toda partícula eléctricamente cargada crea a su alrededor un campo de
fuerzas. Este campo puede representarse mediante líneas de fuerza que
indican la dirección de la fuerza eléctrica en cada punto. Para mover otra
partícula cargada de un punto a otro del campo hay que realizar trabajo. La
cantidad de energía necesaria para efectuar ese trabajo sobre una partícula
de carga unidad se conoce como diferencia de potencial entre ambos puntos.
Esta magnitud se mide en voltios. La Tierra, un conductor de gran tamaño
que puede suponerse sustancialmente uniforme a efectos eléctricos, suele
emplearse como nivel de referencia cero para la energía potencial. Así, se
dice que el potencial de un cuerpo cargado positivamente es de tantos voltios
por encima del potencial de tierra, y el potencial de un cuerpo cargado
negativamente es de tantos voltios por debajo del potencial de tierra.
Propiedades eléctricas de los sólidos
El primer fenómeno eléctrico artificial que se observó fue la propiedad que
presentan algunas sustancias resinosas como el ámbar, que adquieren una
carga negativa al ser frotadas con una piel o un trapo de lana, tras lo cual
atraen objetos pequeños. Un cuerpo así tiene un exceso de electrones. Una
varilla de vidrio frotada con seda tiene una capacidad similar para atraer
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 2
objetos no cargados, y atrae los cuerpos cargados negativamente con una
fuerza aún mayor. El vidrio tiene una carga positiva, que puede describirse
como un defecto de electrones o un exceso de protones.
Cuando algunos átomos se combinan para formar sólidos, frecuentemente
quedan libres uno o más electrones, que pueden moverse con facilidad a
través del material. En algunos materiales, llamados conductores, ciertos
electrones se liberan fácilmente. Los metales, en particular el cobre y la plata,
son buenos conductores.
Los materiales en los que los electrones están fuertemente ligados a los
átomos se conocen como aislantes, no conductores o dieléctricos. Algunos
ejemplos son el vidrio, la goma o la madera seca.
Existe un tercer tipo de materiales en los que un número relativamente
pequeño de electrones puede liberarse de sus átomos de forma que dejan un
‘hueco’ en el lugar del electrón. El hueco, que representa la ausencia de un
electrón negativo, se comporta como si fuera una unidad de carga positiva.
Un campo eléctrico hace que tanto los electrones negativos como los huecos
positivos se desplacen a través del material, con lo que se produce una
corriente eléctrica. Generalmente, un sólido de este tipo, denominado
semiconductor, tiene una resistencia mayor al paso de corriente que un
conductor como el cobre, pero menor que un aislante como el vidrio. Si la
mayoría de la corriente es transportada por los electrones negativos, se dice
que es un semiconductor de tipo n. Si la mayoría de la corriente corresponde
a los huecos positivos, se dice que es de tipo p.
Si un material fuera un conductor perfecto, las cargas circularían por él sin
ninguna resistencia; por su parte, un aislante perfecto no permitiría que se
movieran las cargas por él. No se conoce ninguna sustancia que presente
alguno de estos comportamientos extremos a temperatura ambiente. A esta
temperatura, los mejores conductores ofrecen una resistencia muy baja (pero
no nula) al paso de la corriente y los mejores aislantes ofrecen una
resistencia alta (pero no infinita. Sin embargo, la mayoría de los metales
pierden toda su resistencia a temperaturas próximas al cero absoluto; este
fenómeno se conoce como superconductividad.
Cargas eléctricas
El electroscopio es un instrumento cualitativo empleado para demostrar la
presencia de cargas eléctricas. En la figura 1 se muestra el instrumento tal
como lo utilizó por primera vez el físico y químico británico Michael Faraday.
El electroscopio está compuesto por dos láminas de metal muy finas (a,a_)
colgadas de un soporte metálico (b) en el interior de un recipiente de vidrio u
otro material no conductor (c). Una esfera (d) recoge las cargas eléctricas del
cuerpo cargado que se quiere observar; las cargas, positivas o negativas,
pasan a través del soporte metálico y llegan a ambas láminas. Al ser iguales,
las cargas se repelen y las láminas se separan. La distancia entre éstas
depende de la cantidad de carga.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 3
Pueden utilizarse tres métodos para cargar eléctricamente un objeto:
1)
contacto con otro objeto de distinto material (como por ejemplo,
ámbar y piel) seguido por separación;
2)
contacto con otro cuerpo cargado;
3)
inducción.
El efecto de las cargas eléctricas sobre conductores y no conductores se
muestra en la figura 2. Un cuerpo cargado negativamente, A, está situado
entre un conductor neutro, B, y un no conductor neutro, C. Los electrones
libres del conductor son repelidos hacia la zona del conductor alejada de A,
mientras que las cargas positivas se ven atraídas hacia la zona próxima. El
cuerpo B en su conjunto es atraído hacia A, porque la atracción de las cargas
distintas más próximas entre sí es mayor que la repulsión de las cargas
iguales más separadas (las fuerzas entre las cargas eléctricas son
inversamente proporcionales al cuadrado de la distancia entre las cargas). En
el no conductor, C, los electrones no pueden moverse libremente, pero los
átomos o moléculas del mismo se reorientan de forma que sus electrones
constituyentes estén lo más lejos posible de A; el no conductor también es
atraído por A, pero en menor medida que el conductor.
El movimiento de los electrones en el conductor B de la figura 2 y la
reorientación de los átomos del no conductor C proporciona a esos cuerpos
cargas positivas en los lados más próximos a A y negativas en los lados más
distantes de A. Las cargas generadas de esta forma se denominan cargas
inducidas.
Medidas eléctricas
El flujo de carga, o intensidad de corriente, que recorre un cable conductor
se mide por el número de culombios que pasan en un segundo por una
sección determinada del cable. Un culombio por segundo equivale a 1
amperio, unidad de intensidad de corriente eléctrica llamada así en honor al
físico francés André Marie Ampère.
Cuando una carga de 1 culombio se desplaza a través de una diferencia
de potencial de 1 voltio, el trabajo realizado equivale a 1 julio, unidad llamada
así en honor al físico británico James Prescott Joule. Esta definición facilita la
conversión de cantidades mecánicas en eléctricas.
Una unidad de energía muy usada en física atómica es el electronvoltio
(eV). Corresponde a la energía adquirida por un electrón acelerado por una
diferencia de potencial de 1 voltio. Esta unidad es muy pequeña y muchas
veces se multiplica por un millón o mil millones, abreviándose el resultado
como 1 MeV o 1 GeV.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 4
Corriente eléctrica
Si dos cuerpos de carga igual y opuesta se conectan por medio de un
conductor metálico, por ejemplo un cable, las cargas se neutralizan
mutuamente. Esta neutralización se lleva a cabo mediante un flujo de
electrones a través del conductor, desde el cuerpo cargado negativamente al
cargado positivamente (en ingeniería eléctrica, se considera por convención
que la corriente fluye en sentido opuesto, es decir, de la carga positiva a la
negativa). En cualquier sistema continuo de conductores, los electrones
fluyen desde el punto de menor potencial hasta el punto de mayor potencial.
Un sistema de esa clase se denomina circuito eléctrico. La corriente que
circula por un circuito se denomina corriente continua (C.C.) si fluye siempre
en el mismo sentido y corriente alterna (C.A.) si fluye alternativamente en uno
u otro sentido.
El flujo de una corriente continua está determinado por tres magnitudes
relacionadas entre sí. La primera es la diferencia de potencial en el circuito,
que en ocasiones se denomina fuerza electromotriz (f.e.m.), tensión o voltaje.
La segunda es la intensidad de corriente. Esta magnitud se mide en
amperios; 1 amperio corresponde al paso de unos
6.250.000.000.000.000.000 electrones por segundo por una sección
determinada del circuito. La tercera magnitud es la resistencia del circuito.
Normalmente, todas las sustancias, tanto conductores como aislantes,
ofrecen cierta oposición al flujo de una corriente eléctrica, y esta resistencia
limita la corriente. La unidad empleada para cuantificar la resistencia es el
1 amperio en un circuito con una f.e.m. de 1 voltio. La ley de Ohm, llamada
así en honor al físico alemán Georg Simon Ohm, que la descubrió en 1827,
permite relacionar la intensidad con la fuerza electromotriz. Se expresa
mediante la ecuación
× R, donde es la fuerza electromotriz en voltios,
I es la intensidad en amperios y R es la resistencia en ohmios. A partir de
esta ecuación puede calcularse cualquiera de las tres magnitudes en un
circuito dado si se conocen las otras dos.
Cuando una corriente eléctrica fluye por un cable pueden observarse dos
efectos importantes: la temperatura del cable aumenta y un imán o brújula
colocado cerca del cable se desvía, apuntando en dirección perpendicular al
cable. Al circular la corriente, los electrones que la componen colisionan con
los átomos del conductor y ceden energía, que aparece en forma de calor. La
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 5
cantidad de energía desprendida en un circuito eléctrico se mide en julios. La
potencia consumida se mide en vatios; 1 vatio equivale a 1 julio por segundo.
La potencia P consumida por un circuito determinado puede calcularse a
partir de la expresión
× I, o la que se obtiene al aplicar a ésta la ley de
2
Ohm: P = I × R. También se consume potencia en la producción de trabajo
mecánico, en la emisión de radiación electromagnética como luz u ondas de
radio y en la descomposición química.
lectromagnetismo
E
El movimiento de la aguja de una brújula en las proximidades de un
conductor por el que circula una corriente indica la presencia de un
campo magnético alrededor del conductor. Cuando dos conductores
paralelos son recorridos cada uno por una corriente, los conductores se
atraen si ambas corrientes fluyen en el mismo sentido y se repelen cuando
fluyen en sentidos opuestos. El campo magnético creado por la corriente que
fluye en una espira de alambre es tal que si se suspende la espira cerca de la
Tierra se comporta como un imán o una brújula, y oscila hasta que la espira
forma un ángulo recto con la línea que une los dos polos magnéticos
terrestres.
Puede considerarse que el campo magnético en torno a un conductor
rectilíneo por el que fluye una corriente se extiende desde el conductor igual
que las ondas creadas cuando se tira una piedra al agua. Las líneas de
fuerza del campo magnético tienen sentido anti horario cuando se observa el
conductor en el mismo sentido en que se desplazan los electrones. El campo
en torno al conductor es estacionario mientras la corriente fluya por él de
forma uniforme.
Cuando un conductor se mueve de forma que atraviesa las líneas de
fuerza de un campo magnético, este campo actúa sobre los electrones libres
del conductor desplazándolos y creando una diferencia de potencial y un flujo
de corriente en el mismo. Se produce el mismo efecto si el campo magnético
es estacionario y el cable se mueve que si el campo se mueve y el cable
permanece estacionario. Cuando una corriente empieza a circular por un
conductor, se genera un campo magnético que parte del conductor. Este
campo atraviesa el propio conductor e induce en él una corriente en sentido
opuesto a la corriente que lo causó (según la llamada regla de Lenz). En un
cable recto este efecto es muy pequeño, pero si el cable se arrolla para
formar una bobina, el efecto se amplía ya que los campos generados por
cada espira de la bobina cortan las espiras vecinas e inducen también una
corriente en ellas. El resultado es que cuando se conecta una bobina así a
una fuente de diferencia de potencial, impide el flujo de corriente cuando
empieza a aplicarse la diferencia de potencial. De forma similar, cuando se
elimina la diferencia de potencial, el campo magnético se desvanece, y las
líneas de fuerza vuelven a cortar las espiras de la bobina. La corriente
inducida en estas circunstancias tiene el mismo sentido que la corriente
original, y la bobina tiende a mantener el flujo de corriente. Debido a estas
propiedades, una bobina se resiste a los cambios en el flujo de corriente, por
lo que se dice que posee inercia eléctrica o autoinducción. Esta inercia tiene
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 6
poca importancia en circuitos de corriente continua, ya que no se observa
cuando la corriente fluye de forma continuada, pero es muy importante en los
circuitos de corriente alterna.
Conducción en líquidos y gases
Cuando fluye una corriente eléctrica por un conductor metálico, el flujo sólo
tiene lugar en un sentido, ya que la corriente es transportada en su totalidad
por los electrones. En cambio en los líquidos y gases, se hace posible un flujo
en dos sentidos debido a la ionización. En una solución líquida, los iones
positivos se mueven en la disolución de los puntos de potencial más alto a los
puntos de potencial más bajo; los iones negativos se mueven en sentido
opuesto. De forma similar, en los gases —que pueden ser ionizados por
radiactividad, por los rayos ultravioletas de la luz solar, por ondas
electromagnéticas o por un campo eléctrico muy intenso— se produce un
movimiento de iones en dos sentidos que produce una corriente eléctrica a
través del gas.
Fuentes de fuerza electromotriz
Para producir un flujo de corriente en cualquier circuito eléctrico es
necesaria una fuente de fuerza electromotriz. Las fuentes disponibles son las
siguientes: 1) máquinas electrostáticas, que se basan en el principio de
inducir cargas eléctricas por medios mecánicos; 2) máquinas
electromagnéticas, en las que se genera corriente desplazando
mecánicamente un conductor a través de un campo o campos magnéticos;
3) células voltaicas, que producen una fuerza electromotriz a través de una
acción electroquímica; 4) dispositivos que producen una fuerza electromotriz
a través de la acción del calor; 5) dispositivos que generan una fuerza
electromotriz por la acción de la luz; 6) dispositivos que producen una fuerza
electromotriz a partir de una presión física, como los cristales piezoeléctricos.
Corrientes alternas
Cuando se hace oscilar un conductor en un campo magnético, el flujo de
corriente en el conductor cambia de sentido tantas veces como lo hace el
movimiento físico del conductor. Varios sistemas de generación de
electricidad se basan en este principio, y producen una forma de corriente
oscilante llamada corriente alterna. Esta corriente tiene una serie de
características ventajosas en comparación con la corriente continua, y suele
utilizarse como fuente de energía eléctrica tanto en aplicaciones industriales
como en el hogar. La característica práctica más importante de la corriente
alterna es que su voltaje puede cambiarse mediante un sencillo dispositivo
electromagnético denominado transformador. Cuando una corriente alterna
pasa por una bobina de alambre, el campo magnético alrededor de la bobina
se intensifica, se anula, se vuelve a intensificar con sentido opuesto y se
vuelve a anular. Si se sitúa otra bobina en el campo magnético de la primera
bobina, sin estar directamente conectada a ella, el movimiento del campo
magnético induce una corriente alterna en la segunda bobina. Si esta
segunda bobina tiene un número de espiras mayor que la primera, la tensión
inducida en ella será mayor que la tensión de la primera, ya que el campo
actúa sobre un número mayor de conductores individuales. Al contrario, si el
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 7
número de espiras de la segunda bobina es menor, la tensión será más baja
que la de la primera.
La acción de un transformador hace posible la transmisión rentable de
energía eléctrica a lo largo de grandes distancias. Si se quieren suministrar
200.000 vatios de potencia a una línea eléctrica, puede hacerse con un
voltaje de 200.000 voltios y una corriente de 1 amperio o con un voltaje de
2.000 voltios y una corriente de 100 amperios, ya que la potencia es igual al
producto de tensión y corriente. La potencia perdida en la línea por
calentamiento es igual al cuadrado de la intensidad de la corriente
multiplicado por la resistencia. Por ejemplo, si la resistencia de la línea es de
10 ohmios, la pérdida de potencia con 200.000 voltios será de 10 vatios,
mientras que con 2.000 voltios será de 100.000 vatios, o sea, la mitad de la
potencia disponible.
En un circuito de corriente alterna, el campo magnético en torno a una
bobina varía constantemente, y la bobina obstaculiza continuamente el flujo
de corriente en el circuito debido a la autoinducción. La relación entre el
voltaje aplicado a una bobina ideal (es decir, sin resistencia) y la intensidad
que fluye por dicha bobina es tal que la intensidad es nula cuando el voltaje
es máximo, y es máxima cuando el voltaje es nulo. Además, el campo
magnético variable induce una diferencia de potencial en la bobina de igual
magnitud y sentido opuesto a la diferencia de potencial aplicada. En la
práctica, las bobinas siempre presentan resistencia y capacidad además de
autoinducción.
Si en un circuito de corriente alterna se coloca un condensador (también
llamado capacitor) la intensidad de corriente es proporcional al tamaño del
condensador y a la velocidad de variación del voltaje en el mismo. Por tanto,
por un condensador cuya capacidad es de 2 faradios pasará el doble de
intensidad que por uno de 1 faradio. En un condensador ideal, el voltaje está
totalmente desfasado con la intensidad. Cuando el voltaje es máximo no fluye
intensidad, porque la velocidad de cambio de voltaje es nula. La intensidad es
máxima cuando el voltaje es nulo, porque en ese punto la velocidad de
variación del voltaje es máxima. A través de un condensador circula
intensidad —aunque no existe una conexión eléctrica directa entre sus
placas— porque el voltaje de una placa induce una carga opuesta en la otra.
De los efectos indicados se deduce que si se aplica un voltaje alterno a
una bobina o condensador ideales, no se consume potencia. No obstante, en
todos los casos prácticos los circuitos de corriente alterna presentan
resistencia además de autoinducción y capacidad, y se consume potencia.
Esta potencia consumida depende de la proporción relativa de las tres
magnitudes en el circuito.
Historia de la electricidad
Es posible que el filósofo griego Tales de Mileto, que vivió en torno al
600 a.C., ya supiera que el ámbar adquiere la propiedad de atraer objetos
ligeros al ser frotado. Otro filósofo griego, Teofrasto, afirmaba en un tratado
escrito tres siglos después que otras sustancias poseen esa propiedad. Sin
embargo, el primer estudio científico de los fenómenos eléctricos no apareció
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 8
hasta el 1600 d.C., cuando se publicaron las investigaciones del médico
británico William Gilbert, quien aplicó el término ‘eléctrico’ (del griego elektron,
‘ámbar’) a la fuerza que ejercen esas sustancias después de ser frotadas.
También distinguió entre las acciones magnética y eléctrica.
La primera máquina para producir una carga eléctrica fue descrita en 1672
por el físico alemán Otto von Guericke. Estaba formada por una esfera de
azufre movida por una manivela, sobre la que se inducía una carga cuando
se apoyaba la mano sobre ella. El científico francés Charles François de
Cisternay Du Fay fue el primero en distinguir claramente los dos tipos
diferentes de carga eléctrica: positiva y negativa. El condensador más
antiguo, la botella de Leyden, fue desarrollado en 1745. Estaba formado por
una botella de vidrio recubierta por dos láminas de papel de estaño, una en el
interior y otra en el exterior. Si se cargaba una de las láminas con una
máquina electrostática, se producía una descarga violenta si se tocaban
ambas láminas a la vez.
El inventor estadounidense Benjamin Franklin dedicó mucho tiempo a la
investigación de la electricidad. Su famoso experimento con una cometa o
papalote demostró que la electricidad atmosférica que provoca los fenómenos
del relámpago y el trueno es de la misma naturaleza que la carga
electrostática de una botella de Leyden. Franklin desarrolló una teoría según
la cual la electricidad es un ‘fluido’ único que existe en toda la materia, y sus
efectos pueden explicarse por el exceso o la escasez de ese fluido.
La ley de que la fuerza entre cargas eléctricas es inversamente
proporcional al cuadrado de la distancia entre las cargas fue demostrada
experimentalmente por el químico británico Joseph Priestley alrededor de
1766. Priestley también demostró que una carga eléctrica se distribuye
uniformemente sobre la superficie de una esfera metálica hueca, y que en el
interior de una esfera así no existen cargas ni campos eléctricos. Charles de
Coulomb inventó una balanza de torsión para medir con precisión la fuerza
que se ejerce entre las cargas eléctricas. Con ese aparato confirmó las
observaciones de Priestley y demostró que la fuerza entre dos cargas
también es proporcional al producto de las cargas individuales. Faraday, que
realizó numerosas contribuciones al estudio de la electricidad a principios del
siglo XIX, también desarrolló la teoría de las líneas de fuerza eléctricas.
Los físicos italianos Luigi Galvani y Alessandro Volta llevaron a cabo los
primeros experimentos importantes con corrientes eléctricas. Galvani produjo
contracciones musculares en las patas de una rana aplicándoles una
corriente eléctrica. En 1800, Volta presentó la primera fuente electroquímica
artificial de diferencia de potencial, un tipo de pila eléctrica o batería. La
existencia de un campo magnético en torno a un flujo de corriente eléctrica
fue demostrada por el científico danés Hans Christian Oersted en 1819, y en
1831 Faraday demostró que la corriente que circula por una espira de cable
puede inducir electromagnéticamente una corriente en una espira cercana.
Alrededor de 1840, James Prescott Joule y el científico alemán Hermann von
Helmholtz demostraron que los circuitos eléctricos cumplen la ley de
conservación de la energía, y que la electricidad es una forma de energía.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 9
El físico matemático británico James Clerk Maxwell realizó una
contribución importante al estudio de la electricidad en el siglo XIX; Maxwell
investigó las propiedades de las ondas electromagnéticas y la luz y desarrolló
la teoría de que ambas tienen la misma naturaleza. Su trabajo abrió el camino
al físico alemán Heinrich Hertz, que produjo y detectó ondas eléctricas en la
atmósfera en 1886, y al ingeniero italiano Guglielmo Marconi, que en 1896
empleó esas ondas para producir el primer sistema práctico de señales de
radio.
La teoría de los electrones, que forma la base de la teoría eléctrica
moderna, fue presentada por el físico holandés Hendrik Antoon Lorentz en
1892. El primero en medir con precisión la carga del electrón fue el físico
estadounidense Robert Andrews Millikan, en 1909. El uso generalizado de la
electricidad como fuente de energía se debe en gran medida a ingenieros e
inventores pioneros de Estados Unidos, como Thomas Alva Edison, Nikola
Tesla o Charles Proteus Steinmetz.
Semiconductor
Se llama así a un material sólido o líquido capaz de conducir la electricidad
mejor que un aislante, pero peor que un metal. La conductividad eléctrica,
que es la capacidad de conducir la corriente eléctrica cuando se aplica una
diferencia de potencial, es una de las propiedades físicas más importantes.
Ciertos metales, como el cobre, la plata y el aluminio son excelentes
conductores. Por otro lado, ciertos aislantes como el diamante o el vidrio son
muy malos conductores. A temperaturas muy bajas, los semiconductores
puros se comportan como aislantes. Sometidos a altas temperaturas,
mezclados con impurezas o en presencia de luz, la conductividad de los
semiconductores puede aumentar de forma espectacular y llegar a alcanzar
niveles cercanos a los de los metales. Las propiedades de los
semiconductores se estudian en la física del estado sólido.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 10
Electrones de conducción y huecos
Entre los semiconductores comunes se encuentran elementos químicos y
compuestos, como el silicio, el germanio, el selenio, el arseniuro de galio, el
seleniuro de cinc y el telururo de plomo. El incremento de la conductividad
provocado por los cambios de temperatura, la luz o las impurezas se debe al
aumento del número de electrones conductores que transportan la corriente
eléctrica. En un semiconductor característico o puro como el silicio, los
electrones de valencia (o electrones exteriores) de un átomo están
emparejados y son compartidos por otros átomos para formar un enlace
covalente que mantiene al cristal unido. Estos electrones de valencia no
están libres para transportar corriente eléctrica. Para producir electrones de
conducción, se utiliza la luz o la temperatura, que excita los electrones de
valencia y provoca su liberación de los enlaces, de manera que pueden
transmitir la corriente. Las deficiencias o huecos que quedan contribuyen al
flujo de la electricidad (se dice que estos huecos transportan carga positiva).
Éste es el origen físico del incremento de la conductividad eléctrica de los
semiconductores a causa de la temperatura.
Dopar
Otro método para obtener electrones para el transporte de electricidad
consiste en añadir impurezas al semiconductor o doparlo. La diferencia del
número de electrones de valencia entre el material dopante (tanto si acepta
como si confiere electrones) y el material receptor hace que crezca el número
de electrones de conducción negativos (tipo n) o positivos (tipo p). Este
concepto se ilustra en el diagrama adjunto, que muestra un cristal de silicio
dopado. Cada átomo de silicio tiene cuatro electrones de valencia
(representados mediante puntos). Se requieren dos para formar el enlace
covalente. En el silicio tipo n, un átomo como el del fósforo (P), con cinco
electrones de valencia, reemplaza al silicio y proporciona electrones
adicionales. En el silicio tipo p, los átomos de tres electrones de valencia
como el aluminio (Al) provocan una deficiencia de electrones o huecos que se
comportan como electrones positivos. Los electrones o los huecos pueden
conducir la electricidad.
Cuando ciertas capas de semiconductores tipo p y tipo n son adyacentes,
forman un diodo de semiconductor, y la región de contacto se llama unión pn.
Un diodo es un dispositivo de dos terminales que tiene una gran resistencia al
paso de la corriente eléctrica en una dirección y una baja resistencia en la
otra. Las propiedades de conductividad de la unión pn dependen de la
dirección del voltaje, que puede a su vez utilizarse para controlar la
naturaleza eléctrica del dispositivo. Algunas series de estas uniones se usan
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 11
para hacer transistores y otros dispositivos semiconductores como células
solares, láseres de unión pn y rectificadores.
Los dispositivos semiconductores tienen muchas aplicaciones en la
ingeniería eléctrica. Los últimos avances de la ingeniería han producido
pequeños chips semiconductores que contienen cientos de miles de
transistores. Estos chips han hecho posible un enorme grado de
miniaturización en los dispositivos electrónicos. La aplicación más eficiente de
este tipo de chips es la fabricación de circuitos de semiconductores de metalóxido complementario o CMOS, que están formados por parejas de
transistores de canal p y n controladas por un solo circuito. Además, se están
fabricando dispositivos extremadamente pequeños utilizando la técnica
epitaxial de haz molecular.
Conductor eléctrico
Es cualquier material que ofrezca poca resistencia al flujo de electricidad.
La diferencia entre un conductor y un aislante, que es un mal conductor de
electricidad o de calor, es de grado más que de tipo, ya que todas las
sustancias conducen electricidad en mayor o en menor medida. Un buen
conductor de electricidad, como la plata o el cobre, puede tener una
conductividad mil millones de veces superior a la de un buen aislante, como
el vidrio o la mica. El fenómeno conocido como superconductividad se
produce cuando al enfriar ciertas sustancias a un temperatura cercana al cero
absoluto su conductividad se vuelve prácticamente infinita. En los
conductores sólidos la corriente eléctrica es transportada por el movimiento
de los electrones; y en disoluciones y gases, lo hace por los iones.
Aislante es cualquier material que conduce mal el calor o la electricidad y
que se emplea para suprimir su flujo.
Aislantes eléctricos
El aislante perfecto para las aplicaciones eléctricas sería un material
absolutamente no conductor, pero ese material no existe. Los materiales
empleados como aislantes siempre conducen algo la electricidad, pero
presentan una resistencia al paso de corriente eléctrica hasta 2,5 × 1024
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 12
veces mayor que la de los buenos conductores eléctricos como la plata o el
cobre. Estos materiales conductores tienen un gran número de electrones
libres (electrones no estrechamente ligados a los núcleos) que pueden
transportar la corriente; los buenos aislantes apenas poseen estos electrones.
Algunos materiales, como el silicio o el germanio, que tienen un número
limitado de electrones libres, se comportan como semiconductores, y son la
materia básica de los transistores.
En los circuitos eléctricos normales suelen usarse plásticos como
revestimiento aislante para los cables. Los cables muy finos, como los
empleados en las bobinas (por ejemplo, en un transformador), pueden
aislarse con una capa delgada de barniz. El aislamiento interno de los
equipos eléctricos puede efectuarse con mica o mediante fibras de vidrio con
un aglutinador plástico. En los equipos electrónicos y transformadores se
emplea en ocasiones un papel especial para aplicaciones eléctricas. Las
líneas de alta tensión se aíslan con vidrio, porcelana u otro material cerámico.
La elección del material aislante suele venir determinada por la aplicación.
El polietileno y poliestireno se emplean en instalaciones de alta frecuencia, y
el mylar se emplea en condensadores eléctricos. También hay que
seleccionar los aislantes según la temperatura máxima que deban resistir. El
teflón se emplea para temperaturas altas, entre 175 y 230 ºC. Las
condiciones mecánicas o químicas adversas pueden exigir otros materiales.
El nylon tiene una excelente resistencia a la abrasión, y el neopreno, la goma
de silicona, los poliésteres de epoxy y los poliuretanos pueden proteger
contra los productos químicos y la humedad.
Aislantes térmicos
Los materiales de aislamiento térmico se emplean para reducir el flujo de
calor entre zonas calientes y frías. Por ejemplo, el revestimiento que se
coloca frecuentemente alrededor de las tuberías de vapor o de agua caliente
reduce las pérdidas de calor, y el aislamiento de las paredes de una nevera o
refrigerador reduce el flujo de calor hacia el aparato y permite que se
mantenga frío.
El aislamiento térmico puede cumplir una o más de estas tres funciones:
reducir la conducción térmica en el material, que corresponde a la
transferencia de calor mediante electrones; reducir las corrientes de
convección térmica que pueden establecerse en espacios llenos de aire o de
líquido, y reducir la transferencia de calor por radiación, que corresponde al
transporte de energía térmica por ondas electromagnéticas. La conducción y
la convección no tienen lugar en el vacío, donde el único método de transferir
calor es la radiación. Si se emplean superficies de alta reflectividad, también
se puede reducir la radiación. Por ejemplo, puede emplearse papel de
aluminio en las paredes de los edificios. Igualmente, el uso de metal
reflectante en los tejados reduce el calentamiento por el sol. Los termos o
frascos Dewar impiden el paso de calor al tener dos paredes separadas por
un vacío y recubiertas por una capa reflectante de plata o aluminio.
El aire presenta unas 15.000 veces más resistencia al flujo de calor que un
buen conductor térmico como la plata, y unas 30 veces más que el vidrio. Por
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 13
eso, los materiales aislantes típicos suelen fabricarse con materiales no
metálicos y están llenos de pequeños espacios de aire. Algunos de estos
materiales son el carbonato de magnesio, el corcho, el fieltro, la guata, la fibra
mineral o de vidrio y la arena de diatomeas. El amianto se empleó mucho
como aislante en el pasado, pero se ha comprobado que es peligroso para la
salud y ha sido prohibido en los edificios de nueva construcción de muchos
países.
En los materiales de construcción, los espacios de aire proporcionan un
aislamiento adicional; así ocurre en los ladrillos de vidrio huecos, las ventanas
con doble vidrio (formadas por dos o tres paneles de vidrio con una pequeña
cámara de aire entre los mismos) y las tejas de hormigón (concreto)
parcialmente huecas. Las propiedades aislantes empeoran si el espacio de
aire es suficientemente grande para permitir la convección térmica, o si
penetra humedad en ellas, ya que las partículas de agua actúan como
conductores. Por ejemplo, la propiedad aislante de la ropa seca es el
resultado del aire atrapado entre las fibras; esta capacidad aislante puede
reducirse significativamente con la humedad.
Los costes de calefacción y aire acondicionado en las viviendas pueden
reducirse con un buen aislamiento del edificio. En los climas fríos se
recomiendan unos 8 cm de aislamiento en las paredes y entre 15 y 20 cm de
aislamiento en el techo.
Recientemente se han desarrollado los llamados superaislantes, sobre
todo para su empleo en el espacio, donde se necesita protección frente a
unas temperaturas externas cercanas al cero absoluto. Los tejidos
superaislantes están formados por capas múltiples de mylar aluminizado,
cada una de unos 0,005 cm de espesor, separadas por pequeños
espaciadores, de forma que haya entre 20 y 40 capas por centímetro.
nergía Es la capacidad de un sistema físico para realizar trabajo. La
materia posee energía como resultado de su movimiento o de su
posición en relación con las fuerzas que actúan sobre ella. La radiación
electromagnética posee energía que depende de su frecuencia y, por tanto,
de su longitud de onda. Esta energía se comunica a la materia cuando
absorbe radiación y se recibe de la materia cuando emite radiación. La
energía asociada al movimiento se conoce como energía cinética, mientras
que la relacionada con la posición es la energía potencial. Por ejemplo, un
péndulo que oscila tiene una energía potencial máxima en los extremos de su
recorrido; en todas las posiciones intermedias tiene energía cinética y
potencial en proporciones diversas. La energía se manifiesta en varias
formas, entre ellas la energía mecánica, térmica, química, eléctrica, radiante
o atómica. Todas las formas de energía pueden convertirse en otras formas
mediante los procesos adecuados. En el proceso de transformación puede
perderse o ganarse una forma de energía, pero la suma total permanece
constante.
E
Un peso suspendido de una cuerda tiene energía potencial debido a su
posición, puesto que puede realizar trabajo al caer. Una batería eléctrica tiene
energía potencial en forma química. Un trozo de magnesio también tiene
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 14
energía potencial en forma química, que se transforma en calor y luz si se
inflama. Al disparar un fusil, la energía potencial de la pólvora se transforma
en la energía cinética del proyectil. La energía cinética del rotor de una
dinamo o alternador se convierte en energía eléctrica mediante la inducción
electromagnética. Esta energía eléctrica puede a su vez almacenarse como
energía potencial de las cargas eléctricas en un condensador o una batería,
disiparse en forma de calor o emplearse para realizar trabajo en un
dispositivo eléctrico. Todas las formas de energía tienden a transformarse en
calor, que es la forma más degradada de la energía. En los dispositivos
mecánicos la energía no empleada para realizar trabajo útil se disipa como
calor de rozamiento, y las pérdidas de los circuitos eléctricos se producen
fundamentalmente en forma de calor.
Las observaciones empíricas del siglo XIX llevaron a la conclusión de que
aunque la energía puede transformarse no se puede crear ni destruir. Este
concepto, conocido como principio de conservación de la energía, constituye
uno de los principios básicos de la mecánica clásica. Al igual que el principio
de conservación de la materia, sólo se cumple en fenómenos que implican
velocidades bajas en comparación con la velocidad de la luz. Cuando las
velocidades se empiezan a aproximar a la de la luz, como ocurre en las
reacciones nucleares, la materia puede transformarse en energía y viceversa.
En la física moderna se unifican ambos conceptos, la conservación de la
energía y de la masa.
Bioenergética
Es el estudio de los procesos mediante los cuales las células vivas utilizan,
almacenan y liberan energía. El componente principal de la bioenergética es
la transformación de energía, es decir, la conversión de una forma de energía
en otra.
Todas las células transforman energía. Por ejemplo, las células vegetales
utilizan la luz solar para obtener carbohidratos (azúcares y almidón) a partir
de principios químicos inorgánicos simples. En este proceso, denominado
fotosíntesis, la energía solar se convierte en energía química de reserva. Si
los carbohidratos de estas plantas son ingeridos por un animal, se produce su
ruptura y su energía química se transforma en movimiento, calor corporal o
enlaces químicos nuevos.
En toda esta serie de transformaciones, existe una pérdida de energía
hacia el medio ambiente, generalmente en forma de energía térmica (calor).
Esta energía no puede generar trabajo útil debido a que se ha liberado. La
segunda ley de la termodinámica establece que, con el tiempo, cualquier
sistema tiende a un desorden mayor; es decir, incrementa su entropía. La
constante afluencia de energía solar es necesaria para la supervivencia de
todas las plantas y animales de la Tierra.
Energía nuclear
Llamamos así a la energía liberada durante la fisión o fusión de núcleos
atómicos. Las cantidades de energía que pueden obtenerse mediante
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 15
procesos nucleares superan con mucho a las que pueden lograrse mediante
procesos químicos, que sólo implican las regiones externas del átomo.
La energía de cualquier sistema, ya sea físico, químico o nuclear, se
manifiesta por su capacidad de realizar trabajo o liberar calor o radiación. La
energía total de un sistema siempre se conserva, pero puede transferirse a
otro sistema o convertirse de una forma a otra.
Hasta el siglo XIX, el principal combustible era la leña, cuya energía
procede de la energía solar acumulada por las plantas. Desde la Revolución
Industrial, los seres humanos dependen de los combustibles fósiles —carbón
o petróleo—, que también constituyen energía solar almacenada. Cuando se
quema un combustible fósil como el carbón, los átomos de hidrógeno y
carbono que lo constituyen se combinan con los átomos de oxígeno del aire;
se produce agua y dióxido de carbono y se libera calor, unos 1,6 kilovatios
hora por kilogramo de carbón, o unos 10 electrovoltios (eV) por átomo de
carbono. Esta cantidad de energía es típica de las reacciones químicas que
corresponden a cambios en la estructura electrónica de los átomos. Parte de
la energía liberada como calor mantiene el combustible adyacente a una
temperatura suficientemente alta para que la reacción continúe.
PAÍS
PRODUCCIÓN EN 1995*
(TWh**)
Estados Unidos
705,7
Francia
377,3
Japón
287,8
Alemania
154,1
Canadá
100,3
Rusia
98,7
Reino Unido (1994)
89,5
Ucrania
70,5
Suecia
69,9
Corea del Sur
64,0
España
55,4
Bélgica
41,4
Taiwan
35,3
Suiza
24,8
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 16
* Sólo se recogen las producciones superiores a 20
TWh
** 1 teravatio hora (TWh) = 1012 Wh = 109 kWh
Fuente: Comisariado para la Energía Atómica (CEA)
El átomo
El átomo está formado por un pequeño núcleo, cargado positivamente,
rodeado de electrones. El núcleo, que contiene la mayor parte de la masa del
átomo, está compuesto a su vez de neutrones y protones, unidos por fuerzas
nucleares muy intensas, mucho mayores que las fuerzas eléctricas que ligan
los electrones al núcleo. El número másico A de un núcleo expresa el número
de nucleones (neutrones y protones) que contiene; el número atómico Z es el
número de protones, partículas con carga positiva. Los núcleos se designan
como
235.
La energía de enlace de un núcleo mide la intensidad con que las fuerzas
nucleares mantienen ligados a los protones y neutrones. La energía de
enlace por nucleón, es decir, la energía necesaria para separar del núcleo un
neutrón o un protón, depende del número másico. La curva de las energías
de enlace (ver tabla Energía de enlace nuclear) implica que si dos núcleos
ligeros, que ocupan posiciones muy bajas en la tabla, se fusionan para formar
un núcleo de mayor peso (o si un núcleo pesado, que ocupa posiciones muy
altas en la tabla, se divide en dos de menor peso), los núcleos resultantes
están ligados con más fuerza, por lo que se libera energía.
La fusión de dos núcleos ligeros libera millones de electronvoltios (MeV),
combinan según la reacción
para producir un núcleo de helio
MeV, o
5,1 × 10-13 julios (J). También se libera energía nuclear cuando se induce la
como en la reacción
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 17
que produce cesio 140, rubidio 93, tres neutrones y 200 MeV, o 3,2 × 1011 J. Una reacción de fisión nuclear libera una energía 10 millones de veces
mayor que una reacción química típica.
Energía nuclear de fisión
Las dos características fundamentales de la fisión nuclear en cuanto a la
producción práctica de energía nuclear resultan evidentes en la ecuación (2)
expuesta anteriormente. En primer lugar, la energía liberada por la fisión es
muy grande. La fisión de 1 kg de uranio 235 libera 18,7 millones de kilovatios
hora en forma de calor. En segundo lugar, el proceso de fisión iniciado por la
absorción de un neutrón en el uranio 235 libera un promedio de 2,5 neutrones
en los núcleos fisionados. Estos neutrones provocan rápidamente la fisión de
varios núcleos más, con lo que liberan otros cuatro o más neutrones
adicionales e inician una serie de fisiones nucleares automantenidas, una
reacción en cadena que lleva a la liberación continuada de energía nuclear.
El uranio presente en la naturaleza sólo contiene un 0,71% de uranio 235;
el resto corresponde al isótopo no fisionable uranio 238. Una masa de uranio
natural, por muy grande que sea, no puede mantener una reacción en
cadena, porque sólo el uranio 235 es fácil de fisionar. Es muy improbable que
un neutrón producido por fisión, con una energía inicial elevada de
aproximadamente 1 MeV, inicie otra fisión, pero esta probabilidad puede
aumentarse cientos de veces si se frena el neutrón a través de una serie de
colisiones elásticas con núcleos ligeros como hidrógeno, deuterio o carbono.
En ello se basa el diseño de los reactores de fisión empleados para producir
energía.
En diciembre de 1942, en la Universidad de Chicago (EEUU), el físico
italiano Enrico Fermi logró producir la primera reacción nuclear en cadena.
Para ello empleó un conjunto de bloques de uranio natural distribuidos dentro
de una gran masa de grafito puro (una forma de carbono). En la ‘pila’ o
reactor nuclear de Fermi, el ‘moderador’ de grafito frenaba los neutrones y
hacía posible la reacción en cadena.
Reactores de energía nuclear
Los primeros reactores nucleares a gran escala se construyeron en 1944
en Hanford, en el estado de Washington (EEUU), para la producción de
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 18
material para armas nucleares. El combustible era uranio natural; el
moderador, grafito. Estas plantas producían plutonio mediante la absorción
de neutrones por parte del uranio 238; el calor generado no se aprovechaba.
Reactores de agua ligera y pesada
En todo el mundo se han construido diferentes tipos de reactores
(caracterizados por el combustible, moderador y refrigerante empleados) para
la producción de energía eléctrica. Por ejemplo, en Estados Unidos, con
pocas excepciones, los reactores para la producción de energía emplean
como combustible nuclear óxido de uranio isotópicamente enriquecido, con
un 3% de uranio 235. Como moderador y refrigerante se emplea agua normal
muy purificada. Un reactor de este tipo se denomina reactor de agua ligera
(RAL).
En el reactor de agua a presión (RAP), una versión del sistema RAL, el
refrigerante es agua a una presión de unas 150 atmósferas. El agua se
bombea a través del núcleo del reactor, donde se calienta hasta unos 325 °C.
El agua sobrecalentada se bombea a su vez hasta un generador de vapor,
donde a través de intercambiadores de calor calienta un circuito secundario
de agua, que se convierte en vapor. Este vapor propulsa uno o más
generadores de turbinas que producen energía eléctrica, se condensa, y es
bombeado de nuevo al generador de vapor. El circuito secundario está
aislado del agua del núcleo del reactor, por lo que no es radiactivo. Para
condensar el vapor se emplea un tercer circuito de agua, procedente de un
lago, un río o una torre de refrigeración. La vasija presurizada de un reactor
típico tiene unos 15 m de altura y 5 m de diámetro, con paredes de 25 cm de
espesor. El núcleo alberga unas 80 toneladas de óxido de uranio, contenidas
en tubos delgados resistentes a la corrosión y agrupados en un haz de
combustible.
En el reactor de agua en ebullición (RAE), otro tipo de RAL, el agua de
refrigeración se mantiene a una presión algo menor, por lo que hierve dentro
del núcleo. El vapor producido en la vasija presurizada del reactor se dirige
directamente al generador de turbinas, se condensa y se bombea de vuelta al
reactor. Aunque el vapor es radiactivo, no existe un intercambiador de calor
entre el reactor y la turbina, con el fin de aumentar la eficiencia. Igual que en
el RAP, el agua de refrigeración del condensador procede de una fuente
independiente, como un lago o un río.
El nivel de potencia de un reactor en funcionamiento se mide
constantemente con una serie de instrumentos térmicos, nucleares y de flujo.
La producción de energía se controla insertando o retirando del núcleo un
grupo de barras de control que absorben neutrones. La posición de estas
barras determina el nivel de potencia en el que la reacción en cadena se
limita a auto mantenerse.
Durante el funcionamiento, e incluso después de su desconexión, un
reactor grande de 1.000 megavatios (MW) contiene una radiactividad de miles
de millones de curios. La radiación emitida por el reactor durante su
funcionamiento y por los productos de la fisión después de la desconexión se
absorbe mediante blindajes de hormigón de gran espesor situados alrededor
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 19
del reactor y del sistema primario de refrigeración. Otros sistemas de
seguridad son los sistemas de emergencia para refrigeración de este último,
que impiden el sobrecalentamiento del núcleo en caso de que no funcionen
los sistemas de refrigeración principales. En la mayoría de los países también
existe un gran edificio de contención de acero y hormigón para impedir la
salida al exterior de elementos radiactivos que pudieran escapar en caso de
una fuga.
Aunque al principio de la década de 1980 había 100 centrales nucleares en
funcionamiento o en construcción en Estados Unidos, tras el accidente de
Three Mile Island (ver más adelante) la preocupación por la seguridad y los
factores económicos se combinaron para bloquear el crecimiento de la
energía nuclear. Desde 1979, no se han encargado nuevas centrales
nucleares en Estados Unidos y no se ha permitido el funcionamiento de
algunas centrales ya terminadas. En 1990, alrededor del 20% de la energía
eléctrica generada en Estados Unidos procedía de centrales nucleares,
mientras que este porcentaje es casi del 75% en Francia.
En el periodo inicial del desarrollo de la energía nuclear, en los primeros
años de la década de 1950, sólo disponían de uranio enriquecido Estados
Unidos y la Unión de Repúblicas Socialistas Soviéticas (URSS). Por ello, los
programas de energía nuclear de Canadá, Francia y Gran Bretaña se
centraron en reactores de uranio natural, donde no puede emplearse como
moderador agua normal porque absorbe demasiados neutrones. Esta
limitación llevó a los ingenieros canadienses a desarrollar un reactor enfriado
y moderado por óxido de deuterio (D2O), también llamado agua pesada. El
sistema de reactores canadienses de deuterio-uranio (CANDU), empleado en
20 reactores, ha funcionado satisfactoriamente, y se han construido centrales
similares en la India, Argentina y otros países.
En Gran Bretaña y Francia, los primeros reactores de generación de
energía a gran escala utilizaban como combustible barras de metal de uranio
natural, moderadas por grafito y refrigeradas por dióxido de carbono (CO 2)
gaseoso a presión. En Gran Bretaña, este diseño inicial fue sustituido por un
sistema que emplea como combustible uranio enriquecido. Más tarde se
introdujo un diseño mejorado de reactor, el llamado reactor avanzado
refrigerado por gas (RAG). En la actualidad, la energía nuclear representa
casi una cuarta parte de la generación de electricidad en el Reino Unido. En
Francia, el tipo inicial de reactor se reemplazó por el RAP de diseño
estadounidense cuando las plantas francesas de enriquecimiento isotópico
empezaron a proporcionar uranio enriquecido. Rusia y los otros Estados de la
antigua URSS tienen un amplio programa nuclear, con sistemas moderados
por grafito y RAP. A principios de la década de 1990, estaban en construcción
en todo el mundo más de 120 nuevas centrales nucleares.
En España, la tecnología adoptada en los reactores de las centrales
nucleares es del tipo de agua ligera; sólo la central de Vandellòs tiene reactor
de grafito refrigerado con CO2.
Reactores de propulsión
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 20
Para la propulsión de grandes buques de superficie, como el portaaviones
estadounidense Nimitz, se emplean reactores nucleares similares al RAP. La
tecnología básica del sistema RAP fue desarrollada por primera vez en el
programa estadounidense de reactores navales dirigido por el almirante
Hyman George Rickover. Los reactores para propulsión de submarinos
suelen ser más pequeños y emplean uranio muy enriquecido para que el
núcleo pueda ser más compacto. Estados Unidos, Gran Bretaña, Rusia y
Francia disponen de submarinos nucleares equipados con este tipo de
reactores.
Estados Unidos, Alemania y Japón utilizaron durante periodos limitados
tres cargueros oceánicos experimentales con propulsión nuclear. Aunque
tuvieron éxito desde el punto de vista técnico, las condiciones económicas y
las estrictas normas portuarias obligaron a suspender dichos proyectos. Los
soviéticos construyeron el primer rompehielos nuclear, el Lenin, para
emplearlo en la limpieza de los pasos navegables del Ártico.
Reactores de investigación
En muchos países se han construido diversos reactores nucleares de
pequeño tamaño para su empleo en formación, investigación o producción de
isótopos radiactivos. Estos reactores suelen funcionar con niveles de potencia
del orden de 1 MW, y es más fácil conectarlos y desconectarlos que los
reactores más grandes utilizados para la producción de energía.
Una variedad muy empleada es el llamado reactor de piscina. El núcleo
está formado por material parcial o totalmente enriquecido en uranio 235,
contenido en placas de aleación de aluminio y sumergido en una gran piscina
de agua que sirve al mismo tiempo de refrigerante y de moderador. Pueden
colocarse sustancias directamente en el núcleo del reactor o cerca de éste
para ser irradiadas con neutrones. Con este reactor pueden producirse
diversos isótopos radiactivos para su empleo en medicina, investigación e
industria. También pueden extraerse neutrones del núcleo del reactor
mediante tubos de haces, para utilizarlos en experimentos.
Reactores autorregenerativos
Existen yacimientos de uranio, la materia prima en la que se basa la
energía nuclear, en diversas regiones del mundo. No se conoce con exactitud
sus reservas totales, pero podrían ser limitadas a no ser que se empleen
fuentes de muy baja concentración, como granitos y esquistos. Un sistema
ordinario de energía nuclear tiene un periodo de vida relativamente breve
debido a su muy baja eficiencia en el uso del uranio: sólo aprovecha
aproximadamente el 1% del contenido energético del uranio.
La característica fundamental de un ‘reactor autorregenerativo’ es que
produce más combustible del que consume. Lo consigue fomentando la
absorción de los neutrones sobrantes por un llamado material fértil. Existen
varios sistemas de reactor autorregenerativo técnicamente factibles. El que
más interés ha suscitado en todo el mundo emplea uranio 238 como material
fértil. Cuando el uranio 238 absorbe neutrones en el reactor, se convierte en
un nuevo material fisionable, el plutonio, a través de un proceso nuclear
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 21
conocido como desintegración
nucleares es la siguiente:
(beta). La secuencia de las reacciones
En la desintegración beta, un neutrón del núcleo se desintegra para dar
lugar a un protón y una partícula beta.
Cuando el plutonio 239 absorbe un neutrón, puede producirse su fisión, y
se libera un promedio de unos 2,8 neutrones. En un reactor en
funcionamiento, uno de esos neutrones se necesita para producir la siguiente
fisión y mantener en marcha la reacción en cadena. Una media o promedio
de 0,5 neutrones se pierden por absorción en la estructura del reactor o el
refrigerante. Los restantes 1,3 neutrones pueden ser absorbidos por el
uranio 238 para producir más plutonio a través de las reacciones indicadas en
la ecuación (3).
El sistema autorregenerativo a cuyo desarrollo se ha dedicado más
esfuerzo es el llamado reactor autorregenerativo rápido de metal líquido
(RARML). Para maximizar la producción de plutonio 239, la velocidad de los
neutrones que causan la fisión debe mantenerse alta, con una energía igual o
muy poco menor que la que tenían al ser liberados. El reactor no puede
contener ningún material moderador, como el agua, que pueda frenar los
neutrones. El líquido refrigerante preferido es un metal fundido como el sodio
líquido. El sodio tiene muy buenas propiedades de transferencia de calor,
funde a unos 100 °C y no hierve hasta unos 900 °C. Sus principales
desventajas son su reactividad química con el aire y el agua y el elevado nivel
de radiactividad que se induce en el sodio dentro del reactor.
En Estados Unidos, el desarrollo del sistema RARML comenzó antes de
1950, con la construcción del primer reactor autorregenerativo experimental,
el llamado EBR-1. Un programa estadounidense más amplio en el río Clinch
fue cancelado en 1983, y sólo se ha continuado el trabajo experimental. En
Gran Bretaña, Francia, Rusia y otros Estados de la antigua URSS funcionan
reactores autorregenerativos, y en Alemania y Japón prosiguen los trabajos
experimentales.
En uno de los diseños para una central RARML de gran tamaño, el núcleo
del reactor está formado por miles de tubos delgados de acero inoxidable que
contienen un combustible compuesto por una mezcla de óxido de plutonio y
uranio: un 15 o un 20% de plutonio 239 y el resto uranio. El núcleo está
rodeado por una zona llamada capa fértil, que contiene barras similares llenas
exclusivamente de óxido de uranio. Todo el conjunto de núcleo y capa fértil
mide unos 3 m de alto por unos 5 m de diámetro, y está montado en una gran
vasija que contiene sodio líquido que sale del reactor a unos 500 °C. Esta
vasija también contiene las bombas y los intercambiadores de calor que
ayudan a eliminar calor del núcleo. El vapor se genera en un circuito
secundario de sodio, separado del circuito de refrigeración del reactor
(radiactivo) por los intercambiadores de calor intermedios de la vasija del
reactor. Todo el sistema del reactor nuclear está situado dentro de un gran
edificio de contención de acero y hormigón.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 22
La primera central a gran escala de este tipo empleada para la generación
de electricidad, la llamada Super-Phénix, comenzó a funcionar en Francia en
1984. En las costas del mar Caspio se ha construido una central de escala
media, la BN-600, para producción de energía y desalinización de agua. En
Escocia existe un prototipo de gran tamaño con 250 megavatios.
El RARML produce aproximadamente un 20% más de combustible del que
consume. En un reactor grande, a lo largo de 20 años se produce suficiente
combustible para cargar otro reactor de energía similar. En el sistema RARML
se aprovecha aproximadamente el 75% de la energía contenida en el uranio
natural, frente al 1% del RAL.
Combustibles y residuos nucleares
Los combustibles peligrosos empleados en los reactores nucleares
presentan problemas para su manejo, sobre todo en el caso de los
combustibles agotados, que deben ser almacenados o eliminados de alguna
forma.
El ciclo del combustible nuclear
Cualquier central de producción de energía eléctrica es sólo parte de un
ciclo energético global. El ciclo del combustible de uranio empleado en los
sistemas RAL es actualmente el más importante en la producción mundial de
energía nuclear, y conlleva muchas etapas. El uranio, con un contenido de
aproximadamente el 0,7% de uranio 235, se obtiene en minas subterráneas o
a cielo abierto. El mineral se concentra mediante trituración y se transporta a
una planta de conversión, donde el uranio se transforma en el gas
hexafluoruro de uranio (UF6). En una planta de enriquecimiento isotópico por
difusión, el gas se hace pasar a presión por una barrera porosa. Las
moléculas que contienen uranio 235, más ligeras, atraviesan la barrera con
más facilidad que las que contienen uranio 238. Este proceso enriquece el
uranio hasta alcanzar un 3% de uranio 235. Los residuos, o uranio agotado,
contienen aproximadamente el 0,3% de uranio 235. El producto enriquecido
se lleva a una planta de fabricación de combustible, donde el gas UF 6 se
convierte en óxido de uranio en polvo y posteriormente en bloques de
cerámica que se cargan en barras de combustible resistentes a la corrosión.
Estas barras se agrupan en elementos de combustible y se transportan a la
central nuclear.
Un reactor de agua a presión típico de 1.000 MW tiene unos 200
elementos de combustible, de los que una tercera parte se sustituye cada año
debido al agotamiento del uranio 235 y a la acumulación de productos de
fisión que absorben neutrones. Al final de su vida, el combustible es
enormemente radiactivo debido a los productos de fisión que contiene, por lo
que sigue desprendiendo una cantidad de energía considerable. El
combustible extraído se coloca en piscinas de almacenamiento llenas de
agua situadas en las instalaciones de la central, donde permanece un año o
más.
Al final del periodo de enfriamiento, los elementos de combustible
agotados se envían en contenedores blindados a una instalación de
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 23
almacenamiento permanente o a una planta de reprocesamiento químico,
donde se recuperan el uranio no empleado y el plutonio 239 producido en el
reactor, y se concentran los residuos radiactivos.
El combustible agotado todavía contiene casi todo el uranio 238 original,
aproximadamente un tercio del uranio 235 y parte del plutonio 239 producido
en el reactor. Cuando el combustible agotado se almacena de forma
permanente, se desperdicia todo este contenido potencial de energía.
Cuando el combustible se reprocesa, el uranio se recicla en la planta de
difusión, y el plutonio 239 recuperado puede sustituir parcialmente al
uranio 235 en los nuevos elementos de combustible.
En el ciclo de combustible del RARML, el plutonio generado en el reactor
siempre se recicla para emplearlo como nuevo combustible. Los materiales
utilizados en la planta de fabricación de elementos de combustible son
uranio 238 reciclado, uranio agotado procedente de la planta de separación
isotópica y parte del plutonio 239 recuperado. No es necesario extraer uranio
adicional en las minas, puesto que las existencias actuales de las plantas de
separación podrían suministrar durante siglos a los reactores
autorregenerativos. Como estos reactores producen más plutonio 239 del que
necesitan para renovar su propio combustible, aproximadamente el 20% del
plutonio recuperado se almacena para su uso posterior en el arranque de
nuevos reactores autorregenerativos.
El paso final en cualquiera de los ciclos de combustible es el
almacenamiento a largo plazo de los residuos altamente radiactivos, que
continúan presentando peligro para los seres vivos durante miles de años.
Varias tecnologías parecen satisfactorias para el almacenamiento seguro de
los residuos, pero no se han construido instalaciones a gran escala para
demostrar el proceso. Los elementos de combustible pueden almacenarse en
depósitos blindados y vigilados hasta que se tome una decisión definitiva
sobre su destino, o pueden ser transformados en compuestos estables,
fijados en material cerámico o vidrio, encapsulados en bidones de acero
inoxidable y enterrados a gran profundidad en formaciones geológicas muy
estables.
Seguridad nuclear
La preocupación de la opinión pública en torno a la aceptabilidad de la
energía nuclear procedente de la fisión se debe a dos características básicas
del sistema. La primera es el elevado nivel de radiactividad que existe en
diferentes fases del ciclo nuclear, incluida la eliminación de residuos. La
segunda es el hecho de que los combustibles nucleares uranio 235 y
plutonio 239 son los materiales con que se fabrican las armas nucleares.
En la década de 1950 se pensó que la energía nuclear podía ofrecer un
futuro de energía barata y abundante. La industria energética confiaba en que
la energía nuclear sustituyera a los combustibles fósiles, cada vez más
escasos, y disminuyera el coste de la electricidad. Los grupos preocupados
por la conservación de los recursos naturales preveían una reducción de la
contaminación atmosférica y de la minería a cielo abierto. La opinión pública
era en general favorable a esta nueva fuente de energía, y esperaba que el
uso de la energía nuclear pasara del terreno militar al civil. Sin embargo,
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 24
después de esta euforia inicial, crecieron las reservas en torno a la energía
nuclear a medida que se estudiaban más profundamente las cuestiones de
seguridad nuclear y proliferación de armamento. En todos los países del
mundo existen grupos opuestos a la energía nuclear, y las normas estatales
se han hecho complejas y estrictas. Suecia, por ejemplo, pretende limitar su
programa a unos 10 reactores. Austria ha cancelado su programa. En
cambio, Gran Bretaña, Francia, Alemania y Japón siguen avanzando en este
terreno.
El Consejo de Seguridad Nuclear (CSN) es el organismo encargado de
velar en España por la seguridad nuclear y la protección radiológica. Informa
sobre la concesión o retirada de autorizaciones, inspecciona la construcción,
puesta en marcha y explotación de instalaciones nucleares o radiactivas,
participa en la confección de planes de emergencia y promociona la
realización de trabajos de investigación.
Riesgos radiológicos
Los materiales radiactivos emiten radiación ionizante penetrante que
puede dañar los tejidos vivos. La unidad que suele emplearse para medir la
dosis de radiación equivalente en los seres humanos es el milisievert. La
dosis de radiación equivalente mide la cantidad de radiación absorbida por el
organismo, corregida según la naturaleza de la radiación puesto que los
diferentes tipos de radiación son más o menos nocivos. En el caso del Reino
Unido, por ejemplo, cada individuo está expuesto a unos 2,5 milisieverts
anuales por la radiación de fondo procedente de fuentes naturales. Los
trabajadores de la industria nuclear están expuestos a unos 4,5 milisieverts
(aproximadamente igual que las tripulaciones aéreas, sometidas a una
exposición adicional a los rayos cósmicos). La exposición de un individuo a 5
sieverts suele causar la muerte. Una gran población expuesta a bajos niveles
de radiación experimenta aproximadamente un caso de cáncer adicional por
cada 10 sieverts de dosis equivalente total. Por ejemplo, si una población de
10.000 personas está expuesta a una dosis de 10 milisieverts por individuo, la
dosis total será de 100 sieverts, por lo que habrá 10 casos de cáncer debidos
a la radiación (además de los cánceres producidos por otras causas).
En la mayoría de las fases del ciclo de combustible nuclear pueden existir
riesgos radiológicos. El gas radón, radiactivo, es un contaminante frecuente
en las minas subterráneas de uranio. Las operaciones de extracción y
trituración del mineral producen grandes cantidades de material que contiene
bajas concentraciones de uranio. Estos residuos tienen que ser conservados
en fosas impermeables y cubiertos por una capa de tierra de gran espesor
para evitar su liberación indiscriminada en la biosfera.
Las plantas de enriquecimiento de uranio y de fabricación de combustible
contienen grandes cantidades de hexafluoruro de uranio (UF6), un gas
corrosivo. Sin embargo, el riesgo radiológico es menor, y las precauciones
habituales que se toman con las sustancias químicas peligrosas bastan para
garantizar la seguridad.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 25
Sistemas de seguridad de los reactores
Se ha dedicado una enorme atención a la seguridad de los reactores. En
un reactor en funcionamiento, la mayor fuente de radiactividad, con
diferencia, son los elementos de combustible. Una serie de barreras impide
que los productos de fisión pasen a la biosfera durante el funcionamiento
normal. El combustible está en el interior de tubos resistentes a la corrosión.
Las gruesas paredes de acero del sistema de refrigeración primario del RAP
forman una segunda barrera. El propio agua de refrigeración absorbe parte
de los isótopos biológicamente importantes, como el yodo. El edificio de acero
y hormigón supone una tercera barrera.
Durante el funcionamiento de una central nuclear, es inevitable que se
liberen algunos materiales radiactivos. La exposición total de las personas
que viven en sus proximidades suele representar un porcentaje muy bajo de
la radiación natural de fondo. Sin embargo, las principales preocupaciones se
centran en la liberación de productos radiactivos causada por accidentes en
los que se ve afectado el combustible y fallan los dispositivos de seguridad. El
principal peligro para la integridad del combustible es un accidente de pérdida
de refrigerante, en el que el combustible resulta dañado o incluso se funde.
Los productos de fisión pasan al refrigerante, y si se rompe el sistema de
refrigeración, los productos de fisión penetran en el edificio del reactor.
Los sistemas de los reactores emplean una compleja instrumentación para
vigilar constantemente su situación y controlar los sistemas de seguridad
empleados para desconectar el reactor en circunstancias anómalas. El diseño
de los RAP incluye sistemas de seguridad de refuerzo que inyectan boro en el
refrigerante para absorber neutrones y detener la reacción en cadena, con lo
que la desconexión está aún más garantizada. En los reactores de agua
ligera, el refrigerante está sometido a una presión elevada. En caso de que se
produjera una rotura importante en una tubería, gran parte del refrigerante se
convertiría en vapor, y el núcleo dejaría de estar refrigerado. Para evitar una
pérdida total de refrigeración del núcleo, los reactores están dotados con
sistemas de emergencia para refrigeración del núcleo, que empiezan a
funcionar automáticamente en cuanto se pierde presión en el circuito primario
de refrigeración. En caso de que se produzca una fuga de vapor al edificio de
contención desde una tubería rota del circuito primario de refrigeración, se
ponen en marcha refrigeradores por aspersión para condensar el vapor y
evitar un peligroso aumento de la presión en el edificio.
Accidentes en centrales nucleares
A pesar de las numerosas medidas de seguridad, en 1979 llegó a
producirse un accidente en el RAP de Three Mile Island, cerca de Harrisburg
(Pennsylvania, EEUU). Un error de mantenimiento y una válvula defectuosa
llevaron a una pérdida de refrigerante. Cuando comenzó el accidente, el
sistema de seguridad desconectó el reactor, y el sistema de emergencia para
enfriamiento del núcleo empezó a funcionar poco tiempo después según lo
prescrito. Pero entonces, como resultado de un error humano, el sistema de
refrigeración de emergencia se desconectó, lo que provocó graves daños en
el núcleo e hizo que se liberaran productos de fisión volátiles procedentes de
la vasija del reactor. Aunque sólo una pequeña cantidad de gas radiactivo
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 26
salió del edificio de contención (lo que llevó a un ligero aumento de los
niveles de exposición en los seres humanos), los daños materiales en la
instalación fueron muy grandes, de unos 1.000 millones de dólares o más, y
la tensión psicológica a la que se vio sometida la población, especialmente
las personas que vivían cerca de la central nuclear, llegó a ser muy grave en
algunos casos.
La investigación oficial sobre el accidente citó como causas principales del
mismo un error de manejo y un diseño inadecuado de la sala de control, y no
un simple fallo del equipo. Esto llevó a la entrada en vigor de leyes que
exigían a la Comisión de Regulación Nuclear de Estados Unidos que
adoptara normas mucho más estrictas para el diseño y la construcción de
centrales nucleares, y obligaban a las compañías eléctricas a ayudar a las
administraciones de los estados y los condados a preparar planes de
emergencia para proteger a la población en caso de que se produjera otro
accidente semejante.
Desde 1981, las cargas financieras impuestas por estas exigencias han
hecho tan difícil la construcción y el funcionamiento de nuevas centrales
nucleares que las compañías eléctricas de los estados de Washington, Ohio,
New Hampshire e Indiana se vieron obligadas a abandonar centrales
parcialmente terminadas después de gastar en ellas miles de millones de
dólares. En 1988, se calculaba que el coste acumulado para la economía
estadounidense por el cierre de esas centrales, sumado a la finalización de
centrales con unos costes muy superiores a los inicialmente previstos,
ascendía nada menos que a 100.000 millones de dólares.
El 26 de abril de 1986, otro grave accidente alarmó al mundo. Uno de los
cuatro reactores nucleares soviéticos de Chernobil, a unos 130 km al norte de
Kíev (en Ucrania), explotó y ardió. Según el informe oficial emitido en agosto,
el accidente se debió a que los operadores del reactor realizaron unas
pruebas no autorizadas. El reactor quedó fuera de control; se produjeron dos
explosiones, la tapa del reactor saltó por los aires y el núcleo se inflamó y
ardió a una temperatura de 1.500 °C. Las personas más próximas al reactor
recibieron una radiación unas 50 veces superior a la de Three Mile Island, y
una nube de lluvia radiactiva se dirigió hacia el Oeste. La nube radiactiva se
extendió por Escandinavia y el norte de Europa, según descubrieron
observadores suecos el 28 de abril. A diferencia de la mayoría de los
reactores de los países occidentales, el reactor de Chernobil carecía de
edificio de contención. Una estructura semejante podría haber impedido que
el material saliera del reactor. Murieron más de 30 personas y unas 135.000
fueron evacuadas en un radio de 1.600 kilómetros. La central fue sellada con
hormigón; en 1988, sin embargo, los otros tres reactores de Chernobil ya
estaban funcionando de nuevo.
En la central de Vandellòs I, situada en la provincia de Tarragona
(España), y con un reactor de tipo grafito-gas, se produjo, el 19 de octubre de
1989, un accidente que se inició por un incendio en un edificio convencional
de la central, que generó una serie sucesiva de fallos de sistemas. Pese a
todo, se consiguió llevar la central a la situación de parada segura. No se
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 27
produjo eliminación de CO2 del circuito de refrigeración, ni se produjo daño
alguno a las personas que intervinieron en el control de la central.
Reprocesamiento del combustible
La fase de reprocesamiento del combustible plantea diversos riesgos
radiológicos. Uno de ellos es la emisión accidental de productos de fisión en
caso de que se produzca una fuga en las instalaciones químicas y los
edificios que las albergan. Otro podría ser la emisión rutinaria de niveles bajos
de gases radiactivos inertes como el xenón o el criptón. Una planta de
reprocesamiento llamada THORP (acrónimo inglés de Planta Térmica de
Reprocesamiento de Óxido) ha empezado a funcionar en Sellafield, en la
región de Cumbria (Gran Bretaña). Esta planta reprocesará combustible
agotado de centrales británicas y extranjeras. En Francia también se lleva a
cabo este proceso, y Japón está desarrollando sus propias plantas de
reprocesamiento.
Una gran preocupación en relación con el reprocesamiento químico es la
separación de plutonio 239, un material utilizado en la fabricación de armas
nucleares. En Estados Unidos por ejemplo, no se reprocesa en la actualidad
ningún combustible por temor al uso ilegal de este producto. El empleo de
medios no tanto técnicos como políticos parece ser la mejor forma de
controlar los peligros de su desviación subrepticia —o su producción
secreta— para fabricar armas. La mejora de las medidas de seguridad en los
puntos sensibles del ciclo del combustible y el aumento de la inspección
internacional por parte de la Agencia Internacional de la Energía Atómica
(AIEA) parecen las medidas más apropiadas para controlar los peligros de la
desviación del plutonio.
Almacenamiento de residuos
El último paso del ciclo del combustible nuclear, el almacenamiento de
residuos, sigue siendo uno de los más polémicos. La cuestión principal no es
tanto el peligro actual como el peligro para las generaciones futuras. Muchos
residuos nucleares mantienen su radiactividad durante miles de años, más
allá de la duración de cualquier institución humana. La tecnología para
almacenar los residuos de forma que no planteen ningún riesgo inmediato es
relativamente simple. La dificultad estriba por una parte en tener una
confianza suficiente en que las generaciones futuras estén bien protegidas y
por otra en la decisión política sobre la forma y el lugar para almacenar estos
residuos. La mejor solución parece estar en un almacenamiento permanente,
pero con posibilidad de recuperación, en formaciones geológicas a gran
profundidad. En 1988, el gobierno de Estados Unidos eligió un lugar en el
desierto de Nevada con una gruesa sección de rocas volcánicas porosas
como el primer depósito subterráneo permanente de residuos nucleares del
país. En el Reino Unido no se ha escogido ningún lugar, aunque las
investigaciones geológicas se centran en Sellafield.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 28
Fusión nuclear
La liberación de energía nuclear puede producirse en el extremo bajo de la
curva de energías de enlace (ver tabla adjunta) a través de la fusión de dos
núcleos ligeros en uno más pesado. La energía irradiada por el Sol se debe a
reacciones de fusión de esta clase que se producen en su interior a gran
profundidad. A las enormes presiones y temperaturas que existen allí, los
núcleos de hidrógeno se combinan a través de una serie de reacciones que
equivalen a la ecuación (1) y producen casi toda la energía liberada por el
Sol. En estrellas más masivas que el Sol, otras reacciones llevan al mismo
resultado.
La fusión nuclear artificial se consiguió por primera vez a principios de la
década de 1930, bombardeando un blanco que contenía deuterio (el isótopo
de hidrógeno de masa 2) con deuterones (núcleos de deuterio) de alta
energía mediante un ciclotrón. Para acelerar el haz de deuterones se
necesitaba una gran cantidad de energía, de la que la mayoría aparecía
como calor en el blanco. Eso hacía que no se produjera una energía útil neta.
En la década de 1950 se produjo la primera liberación a gran escala de
energía de fusión, aunque incontrolada, en las pruebas de armas
termonucleares realizadas por Estados Unidos, la URSS, Gran Bretaña y
Francia. Una liberación tan breve e incontrolada no puede emplearse para la
producción de energía eléctrica.
En las reacciones de fisión estudiadas anteriormente, el neutrón, que no
tiene carga eléctrica, puede acercarse fácilmente a un núcleo fisionable (por
ejemplo, uranio 235) y reaccionar con él. En una reacción de fusión típica, en
cambio, cada uno de los dos núcleos que reaccionan tiene una carga
eléctrica positiva, y antes de que puedan unirse hay que superar la repulsión
natural que ejercen entre sí, llamada repulsión de Coulomb. Esto ocurre
cuando la temperatura del gas es suficientemente alta, entre 50 y 100
millones de grados centígrados. En un gas formado por los isótopos pesados
del hidrógeno, deuterio y tritio, a esa temperatura se produce la reacción de
fusión
que libera unos 17,6 MeV por cada fusión. La energía aparece en un primer
momento como energía cinética del núcleo de helio 4 y el neutrón, pero
pronto se convierte en calor en el gas y los materiales próximos.
Si la densidad del gas es suficiente —a esas temperaturas basta una
densidad de sólo 10-5 atmósferas, casi un vacío— el núcleo de helio 4 puede
transferir su energía al gas hidrógeno circundante, con lo que mantiene la
temperatura elevada y permite que se produzca una reacción de fusión en
cadena. En esas condiciones se dice que se ha producido la ‘ignición
nuclear’.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 29
Los problemas básicos para alcanzar las condiciones para la fusión
nuclear útil son: 1) calentar el gas a temperaturas tan altas; 2) confinar una
cantidad suficiente de núcleos durante un tiempo lo bastante largo para
permitir la liberación de una energía mayor que la necesaria para calentar y
confinar el gas. Un problema importante que surge después es la captura de
esta energía y su conversión en electricidad.
A temperaturas superiores a los 100.000 °C, todos los átomos de
hidrógeno están ionizados. El gas está formado por un conjunto
eléctricamente neutro de núcleos con carga positiva y electrones libres con
carga negativa. Este estado de la materia se denomina plasma.
Los materiales ordinarios no pueden contener un plasma lo
suficientemente caliente para que se produzca la fusión. El plasma se
enfriaría muy rápidamente, y las paredes del recipiente se destruirían por las
altas temperaturas. Sin embargo, como el plasma está formado por núcleos y
electrones cargados, que se mueven en espiral alrededor de líneas de campo
magnético intensas, el plasma puede contenerse en una zona de campo
magnético de la forma apropiada.
Para que un dispositivo de fusión resulte útil, la energía producida debe ser
mayor que la energía necesaria para confinar y calentar el plasma. Para que
esta condición se cumpla, el producto del tiempo de confinamiento,
y la
14
densidad del plasma, n, debe superar el valor 10 . La relación n 1014
se denomina criterio de Lawson.
Desde 1950 se han llevado a cabo numerosos proyectos para la
confinación magnética de plasma en Estados Unidos, la antigua Unión
Soviética, Gran Bretaña, Japón y otros países. Se han observado reacciones
termonucleares, pero el número de Lawson fue pocas veces superior a 10 12.
Sin embargo, uno de los dispositivos —el tokamak, sugerido originalmente en
la URSS por Ígor Tamm y Andréi Sajárov— comenzó a arrojar resultados
prometedores a principios de la década de 1960.
La cámara de confinamiento de un tokamak tiene forma toroidal, con un
diámetro interior de aproximadamente 1 m y un diámetro exterior de alrededor
de 3 m. En esta cámara se establece un campo magnético toroidal de unos 5
teslas mediante grandes electroimanes. La intensidad de este campo es unas
100.000 veces mayor que la del campo magnético de la Tierra en la superficie
del planeta. Las bobinas que rodean la cámara inducen en el plasma una
corriente longitudinal de varios millones de amperios. Las líneas de campo
magnético resultantes son espirales dentro de la cámara, que confinan el
plasma.
Después de que en varios laboratorios funcionaran con éxito tokamaks
pequeños, a principios de la década de 1980 se construyeron dos dispositivos
de gran tamaño, uno en la Universidad de Princeton, en Estados Unidos, y
otro en la URSS. En el tokamak, el plasma alcanza una temperatura elevada
por el calentamiento resistivo producido por la inmensa corriente toroidal, y en
los nuevos aparatos grandes, un calentamiento adicional mediante la
inyección de haces neutrales debería producir condiciones de ignición.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 30
Otra posible vía para obtener energía de la fusión es el confinamiento
inercial. En esta técnica, el combustible (tritio o deuterio) está contenido en
una pequeña bolita que se bombardea desde distintas direcciones con un haz
láser de pulsos. Esto provoca la implosión de la bolita y desencadena una
reacción termonuclear que causa la ignición del combustible. Los avances en
la investigación de la fusión son prometedores, pero probablemente hagan
falta décadas para desarrollar sistemas prácticos que produzcan más energía
de la que consumen. Además, las investigaciones son sumamente costosas.
Sin embargo, en los primeros años de la década de 1990 se realizaron
algunos avances. En 1991, se generó por primera vez en la historia una
potencia significativa (unos 1,7 MW) a partir de la fusión nuclear controlada,
en el laboratorio de la Cámara Toroidal Conjunta Europea (JET, siglas en
inglés), en Gran Bretaña. En diciembre de 1993, los investigadores de la
Universidad de Princeton emplearon el Reactor Experimental de Fusión
Tokamak para producir una reacción de fusión controlada que generó 5,6
megavatios. No obstante, tanto el JET como el Reactor Experimental de
Fusión Tokamak consumieron más energía de la que produjeron durante su
funcionamiento.
Si la energía de fusión llega a ser practicable, ofrecería las siguientes
ventajas: 1) una fuente ilimitada de combustible, el deuterio procedente de los
océanos; 2) imposibilidad de un accidente en el reactor, ya que la cantidad de
combustible en el sistema es muy pequeña, y 3) residuos mucho menos
radiactivos y más sencillos de manejar que los procedentes de sistemas de
fisión.
Energía eólica, energía producida por el viento. La primera utilización de
la capacidad energética del viento la constituye la navegación a vela. En ella,
la fuerza del viento se utiliza para impulsar un barco. Barcos con velas
aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los
egipcios, los fenicios y más tarde los romanos tenían que utilizar también los
remos para contrarrestar una característica esencial de la energía eólica, su
discontinuidad. Efectivamente, el viento cambia de intensidad y de dirección
de manera impredecible, por lo que había que utilizar los remos en los
periodos de calma o cuando no soplaba en la dirección deseada. Hoy,
cuando se utilizan molinos para generar electricidad, se usan los
acumuladores para producir electricidad durante un tiempo cuando el viento
no sopla.
Otra característica de la energía producida por el viento es su infinita
disponibilidad en función lineal a la superficie expuesta a su incidencia. En los
barcos, a mayor superficie vélica mayor velocidad. En los parques eólicos,
cuantos más molinos haya, más potencia en bornes de la central. En los
veleros, el aumento de superficie vélica tiene limitaciones mecánicas (se
rompe el mástil o vuelca el barco). En los parques eólicos las únicas
limitaciones al aumento del número de molinos son las urbanísticas.
Energía hidráulica, energía que se obtiene de la caída del agua desde
cierta altura a un nivel inferior lo que provoca el movimiento de ruedas
hidráulicas o turbinas. La hidroelectricidad es un recurso natural disponible en
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 31
las zonas que presentan suficiente cantidad de agua. Su desarrollo requiere
construir pantanos, presas, canales de derivación, y la instalación de grandes
turbinas y equipamiento para generar electricidad. Todo ello implica la
inversión de grandes sumas de dinero, por lo que no resulta competitiva en
regiones donde el carbón o el petróleo son baratos, aunque el coste de
mantenimiento de una central térmica, debido al combustible, sea más caro
que el de una central hidroeléctrica. Sin embargo, el peso de las
consideraciones medioambientales centra la atención en estas fuentes de
energía renovables.
Historia
Los antiguos romanos y griegos aprovechaban ya la energía del agua;
utilizaban ruedas hidráulicas para moler trigo. Sin embargo, la posibilidad de
emplear esclavos y animales de carga retrasó su aplicación generalizada
hasta el siglo XII. Durante la edad media, las grandes ruedas hidráulicas de
madera desarrollaban una potencia máxima de cincuenta caballos. La
energía hidroeléctrica debe su mayor desarrollo al ingeniero civil británico
John Smeaton, que construyó por vez primera grandes ruedas hidráulicas de
hierro colado.
La hidroelectricidad tuvo mucha importancia durante la Revolución
Industrial. Impulsó las industrias textil y del cuero y los talleres de
construcción de máquinas a principios del siglo XIX. Aunque las máquinas de
vapor ya estaban perfeccionadas, el carbón era escaso y la madera poco
satisfactoria como combustible. La energía hidráulica ayudó al crecimiento de
las nuevas ciudades industriales que se crearon en Europa y América hasta
la construcción de canales a mediados del siglo XIX, que proporcionaron
carbón a bajo precio.
Las presas y los canales eran necesarios para la instalación de ruedas
hidráulicas sucesivas cuando el desnivel era mayor de cinco metros. La
construcción de grandes presas de contención todavía no era posible; el bajo
caudal de agua durante el verano y el otoño, unido a las heladas en invierno,
obligaron a sustituir las ruedas hidráulicas por máquinas de vapor en cuanto
se pudo disponer de carbón.
Desarrollo de la energía hidroeléctrica
La primera central hidroeléctrica se construyó en 1880 en Northumberland,
Gran Bretaña. El renacimiento de la energía hidráulica se produjo por el
desarrollo del generador eléctrico, seguido del perfeccionamiento de la
turbina hidráulica y debido al aumento de la demanda de electricidad a
principios del siglo XX. En 1920 las centrales hidroeléctricas generaban ya
una parte importante de la producción total de electricidad.
La tecnología de las principales instalaciones se ha mantenido igual
durante el siglo XX. Las centrales dependen de un gran embalse de agua
contenido por una presa. El caudal de agua se controla y se puede mantener
casi constante. El agua se transporta por unos conductos o tuberías forzadas,
controlados con válvulas y turbinas para adecuar el flujo de agua con
respecto a la demanda de electricidad. El agua que entra en la turbina sale
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 32
por los canales de descarga. Los generadores están situados justo encima de
las turbinas y conectados con árboles verticales. El diseño de las turbinas
depende del caudal de agua; las turbinas Francis se utilizan para caudales
grandes y saltos medios y bajos, y las turninas Pelton para grandes saltos y
pequeños caudales.
Además de las centrales situadas en presas de contención, que dependen
del embalse de grandes cantidades de agua, existen algunas centrales que
se basan en la caída natural del agua, cuando el caudal es uniforme. Estas
instalaciones se llaman de agua fluente. Una de ellas es la de las cataratas
del Niágara, situada en la frontera entre Estados Unidos y Canadá.
A principios de la década de los noventa, las primeras potencias
productoras de hidroelectricidad eran Canadá y Estados Unidos. Canadá
obtiene un 60% de su electricidad de centrales hidráulicas. En todo el mundo,
la hidroelectricidad representa aproximadamente la cuarta parte de la
producción total de electricidad, y su importancia sigue en aumento. Los
países en los que constituye fuente de electricidad más importante son
Noruega (99%), República Democrática del Congo (97%) y Brasil (96%). La
central de Itaipú, en el río Paraná, está situada entre Brasil y Paraguay; se
inauguró en 1982 y tiene la mayor capacidad generadora del mundo. Como
referencia, la presa Grand Coulee, en Estados Unidos, genera unos 6.500
MW y es una de las más grandes.
En algunos países se han instalado centrales pequeñas, con capacidad
para generar entre un kilovatio y un megavatio. En muchas regiones de
China, por ejemplo, estas pequeñas presas son la principal fuente de
electricidad. Otras naciones en vías de desarrollo están utilizando este
sistema con buenos resultados.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 33
Energía solar, energía radiante producida en el Sol como resultado de
reacciones nucleares de fusión. Llega a la Tierra a través del espacio en
cuantos de energía llamados fotones, que interactúan con la atmósfera y la
superficie terrestres. La intensidad de la radiación solar en el borde exterior
de la atmósfera, si se considera que la Tierra está a su distancia promedio del
Sol, se llama constante solar, y su valor medio es 1,37 × 106 erg/s/cm2, o
unas 2 cal/min/cm2. Sin embargo, esta cantidad no es constante, ya que
parece ser que varía un 0,2% en un periodo de 30 años. La intensidad de
energía real disponible en la superficie terrestre es menor que la constante
solar debido a la absorción y a la dispersión de la radiación que origina la
interacción de los fotones con la atmósfera.
La intensidad de energía solar disponible en un punto determinado de la
Tierra depende, de forma complicada pero predecible, del día del año, de la
hora y de la latitud. Además, la cantidad de energía solar que puede
recogerse depende de la orientación del dispositivo receptor.
Transformación natural de la energía solar
La recogida natural de energía solar se produce en la atmósfera, los
océanos y las plantas de la Tierra. Las interacciones de la energía del Sol, los
océanos y la atmósfera, por ejemplo, producen vientos, utilizados durante
siglos para hacer girar los molinos. Los sistemas modernos de energía eólica
utilizan hélices fuertes, ligeras, resistentes a la intemperie y con diseño
aerodinámico que, cuando se unen a generadores, producen electricidad
para usos locales y especializados o para alimentar la red eléctrica de una
región o comunidad.
Casi el 30% de la energía solar que alcanza el borde exterior de la
atmósfera se consume en el ciclo del agua, que produce la lluvia y la energía
potencial de las corrientes de montaña y de los ríos. La energía que generan
estas aguas en movimiento al pasar por las turbinas modernas se llama
energía hidroeléctrica.
Gracias al proceso de fotosíntesis, la energía solar contribuye al
crecimiento de la vida vegetal (biomasa) que, junto con la madera y los
combustibles fósiles que desde el punto de vista geológico derivan de plantas
antiguas, puede ser utilizada como combustible. Otros combustibles como el
alcohol y el metano también pueden extraerse de la biomasa.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 34
Asimismo, los océanos representan un tipo natural de recogida de energía
solar. Como resultado de su absorción por los océanos y por las corrientes
oceánicas, se producen gradientes de temperatura. En algunos lugares, estas
variaciones verticales alcanzan 20 °C en distancias de algunos cientos de
metros. Cuando hay grandes masas a distintas temperaturas, los principios
termodinámicos predicen que se puede crear un ciclo generador de energía
que extrae energía de la masa con mayor temperatura y transferir una
cantidad a la masa con temperatura menor. La diferencia entre estas
energías se manifiesta como energía mecánica (para mover una turbina, por
ejemplo), que puede conectarse a un generador, para producir electricidad.
Estos sistemas, llamados sistemas de conversión de energía térmica
oceánica (CETO), requieren enormes intercambiadores de energía y otros
aparatos en el océano para producir potencias del orden de megavatios.
Recogida directa de energía solar
La recogida directa de energía solar requiere dispositivos artificiales
llamados colectores solares, diseñados para recoger energía, a veces
después de concentrar los rayos del Sol. La energía, una vez recogida, se
emplea en procesos térmicos o fotoeléctricos, o fotovoltaicos. En los procesos
térmicos, la energía solar se utiliza para calentar un gas o un líquido que
luego se almacena o se distribuye. En los procesos fotovoltaicos, la energía
solar se convierte en energía eléctrica sin ningún dispositivo mecánico
intermedio. Los colectores solares pueden ser de dos tipos principales: los de
placa plana y los de concentración.
Colectores de placa plana
En los procesos térmicos los colectores de placa plana interceptan la
radiación solar en una placa de absorción por la que pasa el llamado fluido
portador. Éste, en estado líquido o gaseoso, se calienta al atravesar los
canales por transferencia de calor desde la placa de absorción. La energía
transferida por el fluido portador, dividida entre la energía solar que incide
sobre el colector y expresada en porcentaje, se llama eficiencia instantánea
del colector. Los colectores de placa plana tienen, en general, una o más
placas cobertoras transparentes para intentar minimizar las pérdidas de calor
de la placa de absorción en un esfuerzo para maximizar la eficiencia. Son
capaces de calentar fluidos portadores hasta 82 °C y obtener entre el 40 y el
80% de eficiencia.
Los colectores de placa plana se han usado de forma eficaz para calentar
agua y para calefacción. Los sistemas típicos para casa-habitación emplean
colectores fijos, montados sobre el tejado. En el hemisferio norte se orientan
hacia el Sur y en el hemisferio sur hacia el Norte. El ángulo de inclinación
óptimo para montar los colectores depende de la latitud. En general, para
sistemas que se usan durante todo el año, como los que producen agua
caliente, los colectores se inclinan (respecto al plano horizontal) un ángulo
igual a los 15° de latitud y se orientan unos 20° latitud S o 20° de latitud N.
Además de los colectores de placa plana, los sistemas típicos de agua
caliente y calefacción están constituidos por bombas de circulación, sensores
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 35
de temperatura, controladores automáticos para activar el bombeo y un
dispositivo de almacenamiento. El fluido puede ser tanto el aire como un
líquido (agua o agua mezclada con anticongelante), mientras que un lecho de
roca o un tanque aislado sirven como medio de almacenamiento de energía.
Colectores de concentración
Para aplicaciones como el aire acondicionado y la generación central de
energía y de calor para cubrir las grandes necesidades industriales, los
colectores de placa plana no suministran, en términos generales, fluidos con
temperaturas bastante elevadas como para ser eficaces. Se pueden usar en
una primera fase, y después el fluido se trata con medios convencionales de
calentamiento. Como alternativa, se pueden utilizar colectores de
concentración más complejos y costosos. Son dispositivos que reflejan y
concentran la energía solar incidente sobre un zona receptora pequeña.
Como resultado de esta concentración, la intensidad de la energía solar se
incrementa y las temperaturas del receptor (llamado ‘blanco’) pueden
acercarse a varios cientos, o incluso miles, de grados Celsius. Los
concentradores deben moverse para seguir al Sol si se quiere que actúen con
eficacia; los dispositivos utilizados para ello se llaman heliostatos.
Hornos solares
Los hornos solares son una aplicación importante de los concentradores
de alta temperatura. El mayor, situado en Odeillo, en la parte francesa de los
Pirineos, tiene 9.600 reflectores con una superficie total de unos 1.900 m2
para producir temperaturas de hasta 4.000 °C. Estos hornos son ideales para
investigaciones, por ejemplo, en la investigación de materiales, que requieren
temperaturas altas en entornos libres de contaminantes.
Receptores centrales
La generación centralizada de electricidad a partir de energía solar está en
desarrollo. En el concepto de receptor central, o de torre de potencia, una
matriz de reflectores montados sobre heliostatos controlados por
computadora reflejan y concentran los rayos del Sol sobre una caldera de
agua situada sobre la torre. El vapor generado puede usarse en los ciclos
convencionales de las plantas de energía y generar electricidad.
Enfriamiento solar
Se puede producir frío con el uso de energía solar como fuente de calor en
un ciclo de enfriamiento por absorción. Uno de los componentes de los
sistemas estándar de enfriamiento por absorción, llamado generador,
necesita una fuente de calor. Puesto que, en general, se requieren
temperaturas superiores a 150 °C para que los dispositivos de absorción
trabajen con eficacia, los colectores de concentración son más apropiados
que los de placa plana.
Electricidad fotovoltaica
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 36
Las células solares hechas con obleas finas de silicio, arseniuro de galio u
otro material semiconductor en estado cristalino, convierten la radiación en
electricidad de forma directa. Ahora se dispone de células con eficiencias de
conversión superiores al 30%. Por medio de la conexión de muchas de estas
células en módulos, el coste de la electricidad fotovoltaica se ha reducido
mucho. El uso actual de las células solares se limita a dispositivos de baja
potencia, remotos y sin mantenimiento, como boyas y equipamiento de naves
espaciales.
Energía solar en el espacio
Un proyecto futurista propuesto para producir energía a gran escala
propone situar módulos solares en órbita alrededor de la Tierra. En ellos la
energía concentrada de la luz solar se convertiría en microondas que se
emitirían hacia antenas terrestres para su conversión en energía eléctrica.
Para producir tanta potencia como cinco plantas grandes de energía nuclear
(de mil millones de vatios cada una), tendrían que ser ensamblados en órbita
varios kilómetros cuadrados de colectores, con un peso de más de 4000 t; se
necesitaría una antena en tierra de 8 m de diámetro. Se podrían construir
sistemas más pequeños para islas remotas, pero la economía de escala
supone ventajas para un único sistema de gran capacidad (Astronáutica).
Dispositivos de almacenamiento de energía solar
Debido a la naturaleza intermitente de la radiación solar como fuente
energética durante los periodos de baja demanda debe almacenarse el
sobrante de energía solar para cubrir las necesidades cuando la
disponibilidad sea insuficiente. Además de los sistemas sencillos de
almacenamiento como el agua y la roca, se pueden usar, en particular en las
aplicaciones de refrigeración, dispositivos más compactos que se basan en
los cambios de fase característicos de las sales eutécticas (sales que se
funden a bajas temperaturas). Los acumuladores pueden servir para
almacenar el excedente de energía eléctrica producida por dispositivos
eólicos o fotovoltaicos (Batería). Un concepto más global es la entrega del
excedente de energía eléctrica a las redes existentes y el uso de éstas como
fuentes suplementarias si la disponibilidad solar es insuficiente. Sin embargo,
la economía y la fiabilidad de este proyecto plantea límites a esta alternativa.
Energía renovable, también llamada energía alternativa o blanda, este
término engloba una serie de fuentes energéticas que en teoría no se
agotarían con el paso del tiempo. Estas fuentes serían una alternativa a otras
tradicionales y producirían un impacto ambiental mínimo, pero que en sentido
estricto ni son renovables, como es el caso de la geotermia, ni se utilizan de
forma blanda. Las energías renovables comprenden: la energía solar, la
hidroeléctrica (se genera haciendo pasar una corriente de agua a través de
una turbina), la eólica (derivada de la solar, ya que se produce por un
calentamiento diferencial del aire y de las irregularidades del relieve terrestre),
la geotérmica (producida por el gradiente térmico entre la temperatura del
centro de la Tierra y la de la superficie), la hidráulica (derivada de la
evaporación del agua) y la procedente de la biomasa (se genera a partir del
tratamiento de la materia orgánica).
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 37
Biomasa, abreviatura de masa biológica, cantidad de materia viva
producida en un área determinada de la superficie terrestre, o por organismos
de un tipo específico. El término es utilizado con mayor frecuencia en las
discusiones relativas a la energía de biomasa, es decir, al combustible
energético que se obtiene directa o indirectamente de recursos biológicos. La
energía de biomasa que procede de la madera, residuos agrícolas y estiércol,
continúa siendo la fuente principal de energía de las zonas en desarrollo. En
algunos casos también es el recurso económico más importante, como en
Brasil, donde la caña de azúcar se transforma en etanol, y en la provincia de
Sichuan, en China, donde se obtiene gas a partir de estiércol. Existen varios
proyectos de investigación que pretenden conseguir un desarrollo mayor de
la energía de biomasa, sin embargo, la rivalidad económica que plantea con
el petróleo es responsable de que dichos esfuerzos se hallen aún en una fase
temprana de desarrollo.
Suministro de energía; Combustible sintético; Gasohol.
Este fragmento resalta la importancia de las nuevas tecnologías en la
generación de energía, así como la limitación principal de estas tecnologías,
impuesta por las leyes físicas.
Fragmento de La energía.
De Antonio Moreno González.
Capítulo 2.
El desarrollo tecnológico ha sido el elemento básico que ha permitido al
hombre utilizar nuevas fuentes de energía de manera cada vez más eficiente.
Pero este progreso también tiene sus límites.
Todos los procesos de aprovechamiento energético recurren en un
momento al intercambio de energía térmica. La utilización de combustibles
fósiles o de la biomasa obtiene la energía a partir de recursos de combustión
que liberan la energía térmica que se utiliza para calentar un fluido. La energía
nuclear genera una energía cinética que se transforma en energía térmica. El
aprovechamiento de la energía hidráulica ha requerido una evaporación previa
de agua por la acción térmica solar. La energía eólica es consecuencia de las
variaciones térmicas en la atmósfera.
La limitación principal de las tecnologías de generación de energía viene
impuesta por la propia naturaleza. La termodinámica es la parte de la física
que trata de los fenómenos relacionados con la energía térmica y de las leyes
que rigen su transformación en otro tipo de energía. La variación de energía
térmica acumulada en un medio en un proceso de calentamiento o de
enfriamiento se obtiene como el producto de la masa del medio, por su calor
específico y por el salto térmico. Pero no toda la energía térmica almacenada
en un medio es utilizable.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 38
El siglo pasado se enunció el primer principio de la termodinámica o
principio de conservación de la energía. Puede enunciarse así: «La energía
puede transformarse de calor en trabajo o de trabajo en calor, siendo
constante su relación de equivalencia». Es la conocida relación de 4 185 julios
por caloría.
El segundo principio, enunciado en 1851 por lord Kelvin, afirma que «es
imposible realizar una transformación cuyo único resultado sea la conversión
en trabajo del calor extraído de una sola fuente a temperatura uniforme». El
principio puede exponerse de diferentes formas. Pero la limitación que impone
es que la transformación sólo es posible si se toma energía de un foco caliente
y parte de ella se devuelve a un foco más frío. La diferencia entre la energía
tomada y la devuelta es la energía térmica que se ha transformado en trabajo.
Es decir, sólo es aprovechable una parte de la energía tomada del foco
caliente.
Se introduce así un concepto conocido como rendimiento del ciclo
termodinámico, que es la relación entre el trabajo conseguido y la energía
térmica puesta en juego en el foco de mayor temperatura. La energía no
aprovechada, que no ha podido ser transformada en trabajo, se libera en forma
de calor, pero a una temperatura más baja que la original. Este segundo
principio es la manifestación de que en un ciclo termodinámico no es posible
volver al estado inicial. Los procesos termodinámicos naturales son
irreversibles. Para recuperar la energía térmica original a la temperatura
original sería necesario aportar energía desde fuera del sistema. No es posible
elevar la temperatura del foco frío sin un aporte de energía exterior. Esta
observación se enuncia como el teorema de Clausius, según el cual existe una
función de estado, que depende sólo de la situación y no del camino como se
ha llegado a él, que crece en todo proceso termodinámico irreversible. Esta
función se llama entropía y es una medida de la irreversibilidad acumulada en
el proceso.
El tercer principio de la termodinámica se enuncia como «la variación de
entropía asociada a cualquier proceso termodinámico tiende a cero cuando la
temperatura tiende al cero absoluto». Es decir, siempre que la temperatura sea
superior al cero absoluto (-273 ºC) se producirán procesos termodinámicos
irreversibles con crecimiento de entropía.
Las consecuencias de estas limitaciones son claras: todos los procesos
termodinámicos enfrían el universo. La energía térmica es una energía más
degradada cuanto menor es la temperatura del medio que la sustenta. A
menor temperatura, su potencial de ser transformada en trabajo es menor. Por
otro lado, a menor temperatura, la energía acumulada en una cierta cantidad
de masa es menor. Se requiere más masa para acumular una cierta cantidad
de energía.
Los sistemas desarrollados por el hombre para aprovechar la energía
térmica de los combustibles se basan en calentar un fluido a 200 o 300 ºC a
una elevada presión, de 80 a 150 kg/cm2, para que al expandirse en una
turbina la haga girar. A su vez, esta turbina hace girar el rotor de un generador
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 39
eléctrico. El rendimiento de este ciclo varía entre el 35 % y el 45 %.
Actualmente, utilizando turbinas de gas se alcanzan rendimientos del 50 %.
Con la energía nuclear el proceso es semejante, pero los rendimientos se
quedan en el 35 %. En la actualidad se están desarrollando múltiples
tecnologías que pretenden aumentar los recursos y los rendimientos,
reduciendo al mismo tiempo el impacto ambiental.
En las tecnologías convencionales de conversión térmica la temperatura del
foco caliente es de varios cientos de grados; la temperatura del foco último
más frío del conjunto de procesos apenas llega a unas decenas de grados. El
salto térmico ha sido de unos centenares de grados. La energía se devuelve al
entorno a una temperatura ligeramente superior a la del ambiente. Para
aumentar el rendimiento del proceso se ha maximizado la degradación de la
energía no transformada.
Las energías renovables son energías degradadas. Energías de baja
temperatura y difusas, de baja densidad. Los posibles rendimientos son muy
inferiores a los indicados más arriba. Su ventaja es que su cuantificación global
supone unos recursos muy elevados.
La dispersión, o baja densidad espacial, de estas energías limitan sus
posibilidades de aprovechamiento. Se requieren extensiones muy grandes de
terreno para recolectar cantidades significativas de energía. Ello implica
perturbaciones en el entorno que no son despreciables. Las perturbaciones
serían más tolerables en lugares alejados de las áreas habitadas. Por ejemplo,
los círculos polares, donde podría aprovecharse la acción del viento; los
desiertos, donde la insolación media es más elevada. Aun así, dado nuestro
escaso conocimiento del funcionamiento de nuestra atmósfera, podría suceder
que la perturbación de los vientos polares o la absorción solar en el desierto,
por la absorción de cantidades significativas de energía, podría perturbar el
régimen de vientos en el casquete polar o el régimen de lluvias en el desierto.
No hay que olvidar que una central térmica perturba el microclima del área
donde está instalada. Lo mismo sucede con la creación de embalses. El grado
de perturbación es función del tamaño de la explotación.
Las tecnologías desempeñan un papel fundamental en la seguridad del
abastecimiento, la eficiencia energética y la protección del medio ambiente.
Son un factor de desarrollo y de posicionamiento de las industrias energéticas
en el mercado mundial. Tanto en las técnicas de producción como en las de
utilización y consumo de energía. Además fomentan el desarrollo de
tecnologías conexas en otros campos tales como protección medioambiental, y
tecnologías de control y de información.
Descontando los desarrollos tecnológicos asociados a la fusión nuclear, el
futuro tecnológico estará asociado al perfeccionamiento de los procedimientos
existentes de producción y utilización de la energía. Este avance tecnológico
estará supeditado a la mejora de la eficacia, a la reducción de costes y a la
reducción del impacto ambiental. La energía se utilizará más eficientemente
mediante las tecnologías de control y de automatización.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 40
Fuente: La energía. © Antonio Moreno / © Acento Editorial, 1997.
Ahorro de Energía, esfuerzo por reducir la cantidad de energía para usos
industriales y domésticos, en especial en el mundo desarrollado.
En otros tiempos, la energía disponible en relación a la demanda de
consumo humano era abundante. La madera y el carbón vegetal eran el
principal combustible hasta la aparición, en el siglo XVIII, del combustible de
carbón mineral con la Revolución Industrial. Todavía hoy la madera constituye
el 13% de la energía mundial, y la mayor parte se quema de modo poco
eficaz para cocinar y calentar los hogares en los países menos desarrollados.
Un típico aldeano de la India gasta cinco veces más energía que un europeo
para preparar la cena sobre el fuego o utilizando la madera para quemar. La
consecuencia de ello es que la madera como combustible está empezando a
escasear en África y el Sureste asiático.
En Europa, y en particular en Gran Bretaña, los suministros de madera
empezaron a disminuir en la mitad del siglo XVIII, pero el carbón disponible
iba aumentando. El carbón se utilizaba para usos domésticos y para las
máquinas de vapor necesarias para bombear el agua de las minas de carbón
y, de este modo, aumentar la producción de este valioso combustible. La
máquina de vapor de caldera de carbón también hizo posible el transporte por
ferrocarril, al inventar George Stephenson la locomotora (Locomotion,
construida de 1825), que resultó una forma de propulsión más segura y eficaz
que muchas otras. No es necesario recalcar la gran eficacia de este invento;
la conversión de la energía química del carbón en energía mecánica de la
máquina alcanzaba un rendimiento inferior al 1%.
Rendimiento de la energía
Los esfuerzos de los ingenieros para mejorar el rendimiento de las
máquinas llevaron a Nicolas Carnot a la formulación de las leyes de la
termodinámica en 1824. Éstas son leyes basadas en la experiencia pero con
una importante base teórica, y son fundamentales para incrementar el
rendimiento del uso que hacemos de las cada día más escasas reservas de
energía de combustibles fósiles. El descubrimiento de que la energía no se
crea ni se destruye debería disuadir a los inventores de máquinas de
movimiento perpetuo, pero la segunda ley de la termodinámica supone un
límite más complejo al rendimiento de cualquier motor de calor, ya sea una
turbina o el motor de un automóvil. Por ejemplo, si en una turbina de vapor la
temperatura del vapor de admisión tiene un valor Tcaliente, y la temperatura
de salida de la turbina a la que ha hecho girar tiene un valor Tfrío, el
rendimiento de la conversión teóricamente posible de la máquina sería muy
simple:
donde T se mide en kelvins (K).
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 41
Por esta razón, en la práctica el rendimiento de la conversión de las
grandes centrales eléctricas de vapor que funcionan con carbón o petróleo es
de menos del 40%, y el de los motores de gasolina de automóviles es de
menos del 20%. El resto de la energía se disipa en forma de calor, aunque en
el caso de los motores de automóviles dicho calor puede emplearse para la
calefacción de la cabina.
El bajo rendimiento con el que generamos nuestra energía o propulsamos
nuestros automóviles, una consecuencia de las leyes físicas más que de la
negligencia, hace pensar que los futuros adelantos en el rendimiento de la
energía serán el resultado tanto de nuevos avances tecnológicos como de la
reducción consciente del consumo de energía.
Factores que mejoran el rendimiento
Todo el sistema energético del mundo desarrollado se vio seriamente
afectado en 1973, cuando los productores de petróleo árabes, en respuesta a
las presiones de la guerra del Yom Kippur, cuatriplicaron el precio del petróleo
hasta alcanzar 12 dólares por barril, y redujeron en un 5% el suministro a los
grandes importadores de petróleo como la Comunidad Europea y Estados
Unidos (como medida de presión para que retiraran su apoyo a Israel). Más
tarde, en 1979, los precios subieron aún más, y en 1980 se pagaban 40
dólares por barril.
La Comunidad Europea reaccionó poniendo en práctica una política
conocida en inglés como CoCoNuke, iniciales de carbón, conservación y
nuclear. Se dio prioridad a la reducción del consumo de combustibles, en
especial del petróleo. Estimulada por el aumento de los precios, la gente
comenzó a ahorrar energía y utilizarla de un modo más económico,
consiguiéndose a lo largo de la década de 1980 un espectacular avance en el
rendimiento de la energía. Al deshacerse el cártel árabe y bajar los precios
del petróleo, llegando en algunos casos a menos de diez dólares por barril,
han aparecido nuevas razones para el rendimiento de la energía: motivos
medioambientales, de contaminación y en especial de calentamiento global.
Contaminación medioambiental
El químico sueco Svante Arrhenius ya descubrió en 1896 que el equilibrio
radiactivo de la Tierra dependía en gran medida de la capa protectora de
dióxido de carbono. Durante 150.000 años el contenido de dióxido de
carbono (CO2) en la atmósfera se ha mantenido en un valor constante de
unas 270 partes por millón (ppm). El dióxido de carbono atrapa los rayos
infrarrojos que salen de la Tierra y es el responsable de que la temperatura
de la superficie terrestre sea unos 31 grados más cálida que si no existiera.
Esto ha tenido un efecto crucial en el desarrollo de la vida misma, ya que sin
este efecto invernadero natural, la mayoría del agua terrestre sería hielo. Sin
embargo el contenido de dióxido de carbono en la atmósfera se ha
incrementado desde 1850 hasta alcanzar 360 ppm. El mayor motivo de este
aumento es el incremento progresivo de la combustión de carbón, petróleo y
gas para obtener la energía necesaria a fin de mantener nuestro estilo de
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 42
vida. Los habitantes del oeste de Europa gastan tres toneladas de petróleo, o
su equivalente en gas o carbón, por persona y año, mientras que en Estados
Unidos el gasto es de ocho toneladas por persona y año. En el mundo se
consumen 8.000 millones de toneladas de petróleo u otros combustibles
fósiles al año, y se espera que en el año 2020 el consumo alcance los 14.000
millones de toneladas anuales. Gran parte de este aumento de la demanda
proviene del mundo en vías de desarrollo. En China se queman 1.000
millones de toneladas de carbón y se calcula que en cinco años esta cifra se
incrementará a 1.500 millones de toneladas, ya que su economía está
creciendo a un ritmo del 10% anual. (Como media, en un país en vías de
desarrollo un crecimiento anual del 1% viene a suponer un incremento en el
consumo de energía del 1,5%). El rápido aumento de la población de los
países en vías de desarrollo acentúa el problema. Las Naciones Unidas
estiman que en el año 2040 el crecimiento será de 10.000 millones de
personas de las que 8.000 millones pertenecerán a países en vías de
desarrollo, muchos de ellos con economías en fuerte expansión, con lo que
su demanda de energía aumentará de forma considerable.
El efecto de la quema masiva de combustibles fósiles es el aumento de la
cantidad de dióxido de carbono. Su concentración en el aire habrá duplicado
en el año 2030 los valores medios del siglo XIX, que se situaban en 270 ppm,
lo que provocará el aumento en 2 ºC de la temperatura de la superficie
terrestre así como una subida de unos 4 cm del nivel del mar, según las
estimaciones de la Conferencia Intergubernamental sobre el Cambio
Climático de las Naciones Unidas.
Las posibles consecuencias del calentamiento global son impredecibles a
largo plazo y han provocado la alarma en todo el mundo. La posibilidad de
ver masas de agua inundando los países ribereños y cambios en el clima
provocando el aumento de las lluvias en partes del hemisferio norte, así como
la extensión de la desertización en algunas regiones ecuatoriales en las
próximas décadas resulta inquietante. En mayo de 1992, 154 países
(incluidos los de la Unión Europea) firmaron el Tratado de las Naciones
Unidas para el Cambio Climático (ratificado en marzo de 1994). Los países
signatarios se comprometieron a estabilizar, para el final de siglo, los niveles
de las emisiones de dióxido de carbono en los valores de 1990.
Los científicos participantes de la Conferencia Intergubernamental sobre el
Cambio Climático, encargados de vigilar e investigar el fenómeno del
calentamiento, advirtieron que con las propuestas de reducción aprobadas
difícilmente se logrará evitar los posibles daños futuros que puede causar el
cambio en el clima. La estabilización del nivel de las emisiones de dióxido de
carbono va a requerir una considerable voluntad política. El Consejo Mundial
de la Energía afirma que para alcanzar la pretendida estabilización sería
necesaria una reducción anual de al menos un 60% de las emisiones anuales
de dióxido de carbono a partir de ahora.
¿Cómo lograr esta reducción?
Ahorro de energía y efecto invernadero
Hay diversos métodos pero el más efectivo es quemar menos
combustibles fósiles y en especial, combustibles ricos en carbono como el
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 43
carbón y petróleo. Estos combustibles también tienen un alto contenido de
azufre, que junto con nitrógeno provocan emisiones ácidas durante la
combustión y causan la lluvia ácida. De ello se desprende que la protección
del medio ambiente es hoy el mayor incentivo para el ahorro de energía. A
largo plazo, también es importante el agotamiento de los recursos de
combustibles fósiles no renovables. Al ritmo de consumo actual se calcula
que las reservas de petróleo y gas durarán unos cincuenta años y las de
carbón unos doscientos años.
La demanda creciente de combustibles fósiles y los daños por la
contaminación derivados de su utilización han motivado llamadas de atención
por parte de la Comisión Brutland (1987), entre otras, para ir avanzando hacia
un desarrollo sostenible, un concepto que apoyan políticos de muchos
países. La enorme dificultad para conseguir esta meta ha sido menospreciada
a menudo. El Consejo Mundial de la Energía estima que las fuentes de
energía renovables sólo podrán aportar un 30% de la demanda mundial en el
año 2020 (aunque la cifra podría llegar a un 60% para el año 2100).
Por esta razón, la Unión Europea ha llevado a cabo numerosas iniciativas
para estimular el ahorro de energía, estimando posible lograr un ahorro del
20%. El Consejo Mundial de la Energía ha aconsejado una reducción de la
intensidad de la energía para el futuro en distintas zonas, teniendo en cuenta
la cantidad de energía necesaria para producir una unidad del producto
interior bruto (PIB). En un informe de 1993, el Consejo Mundial de la Energía
publicó sus estimaciones para un uso eficaz de la energía, situándolo en un 3
o 3,5% para los países medios, un 4-5% para Europa occidental y Japón, y
sólo un 2% para Estados Unidos.
Métodos para un ahorro de energía eficaz
El ahorro de energía mediante el aumento de la eficacia en su manipulado
puede lograrse, por lo que respecta a la parte del suministro, a través de
avances tecnológicos en la producción de electricidad, mejora de los
procesos en la refinerías y otros. En cambio, por lo que respecta a la parte de
la demanda (la energía empleada para calefacción de edificios, aparatos
eléctricos, iluminación…), se ha descuidado en relación con la parte del
suministro, existiendo un margen amplio para su mejora. En Europa
occidental el 40% del consumo final de energía se destina al sector
doméstico, un 25% a la industria y un 30% al transporte.
Sector de edificios domésticos y comerciales
Más o menos la mitad de la energía consumida en Europa occidental se
destina a edificios. Con la tecnología moderna para ahorro de energía, el
consumo puede llegar a reducirse un 20% en un periodo de cinco años. Se
debe estimular la construcción de diseños con buen aislamiento, el uso eficaz
de la energía en la iluminación, la instalación de sistemas de control de
energía y la de aparatos modernos y eficaces para calefacción, aire
acondicionado, cocinas y refrigeración. Las etiquetas en los aparatos con
información sobre la eficacia de su funcionamiento ayudan a elegir el sistema
más adecuado.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 44
Los progresos en el sector doméstico son lentos al mejorar las técnicas de
ahorro de energía en el periodo de construcción. Debe alentarse la
instalación de sistemas eficaces de iluminación y aislamiento. Cada vez
tienen lugar más renovaciones de edificios comerciales e industriales que
deberían incluir medidas de ahorro de energía.
Sector industrial
El ahorro de electricidad puede conseguirse mediante sistemas avanzados
de control de potencia, la instalación de motores eléctricos modernos para
ventiladores, bombas, mecanismos de transmisión…, y la instalación de
equipos de iluminación de alta eficacia; se debe evitar la penalización que
supone el uso de energía en momentos de máximo coste, utilizando las
tarifas reducidas para ahorrar dinero (aunque no necesariamente energía).
El rendimiento de las calderas y hornos puede mejorarse en gran medida
mediante un ajuste y control cuidadosos de los niveles de combustión de aire
en exceso. La recuperación del calor desechado a través de
intercambiadores, bombas de calor y ruedas térmicas es un buen método
para mejorar el ahorro energético. Las innovaciones en los sistemas de vapor
y condensación pueden aportar también un ahorro sustancial.
La conservación de la energía sólo puede conseguirse si se introduce un
plan de gestión de la energía con un seguimiento riguroso y metas de
progreso. La motivación de la mano de obra es esencial y sólo es posible si
existe un compromiso abierto al más alto nivel. La mejora en la conservación
de la energía es un problema tanto psicológico como técnico y financiero.
Generación de electricidad
El rendimiento en la generación de electricidad depende en última
instancia de las leyes de la termodinámica. Al incrementar la temperatura de
entrada en las turbinas de gas mediante la introducción de nuevos materiales
y técnicas de diseño, el rendimiento de las últimas turbinas se ha
incrementado en un 42%. Si el gas caliente de salida se usa para aumentar el
vapor a fin de alimentar una turbina de vapor, se forma un llamado ciclo
combinado, con un rendimiento generalizado de la conversión del calor en
electricidad de cerca del 60%. Las plantas de ciclo combinado que funcionan
con gas están sustituyendo con rapidez a las de carbón y petróleo en todo el
mundo. Un incentivo para su construcción es el menor impacto
medioambiental y la reducción de la emisión de dióxido de carbono que
suponen.
Un modo aún más eficaz de utilizar la energía de combustibles fósiles
primarios es la construcción de sistemas de Cogeneración o de Energía y
Calor Combinados (ECC). En este caso, el calor de salida de la turbina de
gas o vapor e incluso de los motores diesel se emplea para alimentar los
generadores de electricidad y suministrar vapor y calor a los distintos
elementos de la fábrica. Estos sistemas tienen un rendimiento global en el
uso de la energía de más del 80%. (Este sistema se ilustra en el diagrama).
Son muchas circunstancias comerciales en las que los sistemas ECC son
ideales para el equilibrio electricidad/calor necesario, y su instalación supone
un adelanto en costes y ahorro de energía.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 45
Transporte
El transporte es el sector más contaminante de todos, ocasionando más
dióxido de carbono que la generación de electricidad o la destrucción de los
bosques. En la actualidad hay en el mundo 500 millones de vehículos y en
Europa occidental se calcula que su número se duplicará en el año 2020. En
los países en desarrollo el crecimiento será incluso más rápido. A pesar de
que el rendimiento de los motores de los vehículos se ha mejorado mucho
mediante sistemas de control de la ignición y el uso de motores diesel, la
tendencia sigue siendo la fabricación de vehículos con prestaciones muy
superiores a las que permiten las carreteras. La congestión y la
contaminación están estimulando la aparición de movimientos en favor de la
tracción eléctrica y de la extensión del transporte público.
Políticas energéticas
La desregularización y privatización de los sistemas de suministro de
energía, junto con la introducción de políticas energéticas en manos de las
leyes del mercado, alientan a los productores a aumentar sus beneficios,
vendiendo más y más cantidad de energía y disminuyendo su disposición a la
conservación de la misma. El único límite son las leyes sobre contaminación.
Por lo que respecta a la demanda, los usuarios parecen reacios a instalar
sistemas de ahorro de energía, a pesar del ahorro que les supondría durante
tres o cuatro años. Un ejemplo son la lámparas de alto rendimiento
energético.
No hay duda de que se debe hacer un uso más eficaz de los recursos
energéticos del mundo en el futuro, si queremos satisfacer la demanda
creciente de energía de una población en rápido aumento e industrialización.
La presión sobre los recursos limitados de combustible y los niveles
crecientes de la población requieren una respuesta urgente.
Superconductividad, fenómeno que presentan algunos conductores que
no ofrecen resistencia al flujo de corriente eléctrica (Electricidad). Los
superconductores también presentan un acusado diamagnetismo, es decir,
son repelidos por los campos magnéticos. La superconductividad sólo se
manifiesta por debajo de una determinada temperatura crítica Tc y un campo
magnético crítico Hc, que dependen del material utilizado. Antes de 1986, el
valor más elevado de Tc que se conocía era de 23,2 K (-249,95 °C), en
determinados compuestos de niobio-germanio. Para alcanzar temperaturas
tan bajas se empleaba helio líquido, un refrigerante caro y poco eficaz. La
necesidad de temperaturas tan reducidas limita mucho la eficiencia global de
una máquina con elementos superconductores, por lo que no se consideraba
práctico el funcionamiento a gran escala de estas máquinas. Sin embargo, en
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 46
1986, los descubrimientos llevados a cabo en varias universidades y centros
de investigación comenzaron a cambiar radicalmente la situación. Se
descubrió que algunos compuestos cerámicos de óxidos metálicos que
contenían lantánidos eran superconductores a temperaturas suficientemente
elevadas como para poder usar nitrógeno líquido como refrigerante. Como el
nitrógeno líquido, cuya temperatura es de 77 K (-196 °C), enfría con una
eficacia 20 veces mayor que el helio líquido y un precio 10 veces menor,
muchas aplicaciones potenciales empezaron a parecer económicamente
viables. En 1987 se reveló que la fórmula de uno de estos compuestos
superconductores, con una Tc de 94 K (-179 °C), era (Y0,6Ba0,4)2CuO4.
Desde entonces se ha demostrado que los lantánidos no son un componente
esencial, ya que en 1988 se descubrió un óxido de cobre y talio-bario-calcio
con una Tc de 125 K (-148 °C).
Historia
La superconductividad fue descubierta en 1911 por el físico holandés
Heike Kamerlingh Onnes, que observó que el mercurio no presentaba
resistencia eléctrica por debajo de 4,2 K (-269 °C). El fenómeno no se
empezó a entender hasta que, en 1933, los alemanes Karl W. Meissner y R.
Ochsenfeld detectaron un acusado diamagnetismo en un superconductor. Sin
embargo, los principios físicos de la superconductividad no se comprendieron
hasta 1957, cuando los físicos estadounidenses John Bardeen, Leon N.
Cooper y John R. Schrieffer propusieron una teoría que ahora se conoce
como teoría BCS por las iniciales de sus apellidos, y por la que sus autores
recibieron el Premio Nobel de Física en 1972. La teoría BCS describe la
superconductividad como un fenómeno cuántico, en el que los electrones de
conducción se desplazan en pares, que no muestran resistencia eléctrica.
Esta teoría explicaba satisfactoriamente la superconducción a altas
temperaturas en los metales, pero no en los materiales cerámicos. En 1962,
el físico británico Brian Josephson estudió la naturaleza cuántica de la
superconductividad y predijo la existencia de oscilaciones en la corriente
eléctrica que fluye a través de dos superconductores separados por una
delgada capa aislante en un campo eléctrico o magnético. Este fenómeno,
conocido como efecto Josephson, fue posteriormente confirmado
experimentalmente.
Aplicaciones
Por su ausencia de resistencia, los superconductores se han utilizado para
fabricar electroimanes que generan campos magnéticos intensos sin pérdidas
de energía. Los imanes superconductores se han utilizado en estudios de
materiales y en la construcción de potentes aceleradores de partículas.
Aprovechando los efectos cuánticos de la superconductividad se han
desarrollado dispositivos que miden la corriente eléctrica, la tensión y el
campo magnético con una sensibilidad sin precedentes.
El descubrimiento de mejores compuestos semiconductores es un paso
significativo hacia una gama mayor de aplicaciones, entre ellas computadoras
más rápidas y con mayor capacidad de memoria, reactores de fusión nuclear
en los que el plasma se mantenga confinado por campos magnéticos, trenes
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 47
de levitación magnética de alta velocidad y, tal vez lo más importante, una
generación y transmisión más eficiente de la energía eléctrica. El Premio
Nobel de Física de 1987 se concedió al físico alemán J. Georg Bednorz y al
físico suizo K. Alex Mueller por su trabajo sobre la superconductividad a altas
temperaturas.
En este artículo se describen los distintos modelos que tratan de explicar el
fenómeno de la superconductividad a altas temperaturas. Se reproduce la
introducción del artículo, en la que se recoge la explicación más extendida de
la superconductividad clásica.
Fragmento de Superconductividad a altas temperaturas.
De John R. Kirtley y Chang C. Tsuei.
Pocas sesiones habrá habido más memorables en la historia de la física que
la celebrada el 18 de marzo de 1987 durante una reunión de la Sociedad
Norteamericana de Física. Se organizó de prisa y corriendo para dar cabida a
las muchísimas comunicaciones que habían llegado fuera de plazo. Dos mil
físicos acudieron al hotel Hilton de Nueva York. Apiñados en un salón de baile,
desbordado hasta el vestíbulo, se las veían y deseaban para ofrecer y
escuchar los cinco minutos de disertación sobre las últimas ideas e
investigaciones.
La causa de tanta conmoción académica fue el anuncio de la
superconductividad a altas temperaturas. A finales de 1986 J. Georg Bednorz y
K. Alexander Müller, del Laboratorio de Investigaciones de IBM en Zurich,
comunicaron que una cerámica, el óxido de lantano, bario y cobre, perdía toda
resistencia eléctrica enfriada sólo a -238 grados centígrados, o 35 kelvins
(grados sobre el cero absoluto). Aunque es una temperatura muy baja, estaba
diez grados por encima de la mejor a la que se hubiese conseguido hasta
entonces la superconductividad, siempre con metales o aleaciones. Enseguida
se anunciaron y confirmaron temperaturas críticas de más de 90 kelvins, y
abundaron los rumores de superconductividades a 130 y 240 kelvins. Si algún
día se hallase un material que supercondujese a la temperatura ambiente
(unos 300 kelvins), la sociedad entraría en una nueva era.
En la reunión de marzo se presentaron artículos sobre la teoría y la
medición de los nuevos superconductores. El frenesí de la sesión no se debió
sólo al sueño de la superconductividad a temperatura ambiente sino también,
en parte, al miedo. A algunos les preocupaba que se conociesen bien estos
materiales de óxido de cobre, a menudo llamados cupratos, antes de haber
elaborado ellos la teoría correcta que les valiera el Nobel.
Nueve años después, tal nerviosismo se nos antoja injustificado. Miles de
científicos de todo el mundo han dedicado millones de horas a la búsqueda,
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 48
hasta hoy infructuosa, de por qué y cómo superconducen los cupratos a
temperaturas tan altas. Pese a todo, se ha progresado bastante. Experimentos
recientes han mostrado que los cupratos difieren de los superconductores al
uso y, además, han delimitado las lindes entre teorías competidoras. De sus
resultados se desprende un mecanismo radical: las fluctuaciones magnéticas
de los átomos que constituyen el medio.
Que el secreto se esconda en el magnetismo contrasta de plano con las
ideas, bien asentadas, acerca de la superconducción a bajas temperaturas. A
tenor de la descripción más extendida, la superconductividad se produce
cuando los electrones se combinan y forman pares de Cooper (en honor de
Leon N. Cooper, padre del concepto). A diferencia de lo que ocurre con los
electrones sueltos, los pares de Cooper no chocan entre sí, ni se dispersan por
las imperfecciones del medio conductor; no hay, por tanto, resistencia que se
oponga a su avance. La corriente eléctrica fluye en los superconductores sin
voltaje; si lo hace por un camino cerrado, seguirá haciéndolo para siempre
mientras la sustancia permanezca enfriada por debajo de su temperatura
crítica.
Resulta llamativo que los electrones de los metales puedan emparejarse:
todos tienen carga negativa y, por ende, tienden a repelerse. En los años
cincuenta, Cooper, John Bardeen y J. Robert Schrieffer encontraron una
explicación. La teoría BCS, denominada así por las iniciales de sus creadores,
afirma que los electrones de los superconductores clásicos superan de dos
formas su repulsión mutua. En la primera se bloquea parte de la carga
negativa. Este efecto de “apantallamiento”, causado por los movimientos de los
otros electrones, reduce la fuerza de repulsión entre los del par de Cooper.
En la segunda, la más importante, es un mediador el que junta a los
electrones que mutuamente se repelen. Esta función casamentera la
desempeñan los iones positivos que forman el metal. (Los átomos neutros se
vuelven iones positivos al donar electrones para la conducción.) Un electrón
que se mueva desplazará un poco las posiciones de los iones a su paso por la
vecindad de los mismos. Estas distorsiones, o fonones, crean pequeñas zonas
positivas que atraen a otros electrones. Se compara ese comportamiento con
el de las bolas de una bolera sobre una cama elástica. Una distorsiona los
muelles del colchón y la distorsión atrae a otra.
Pero la analogía se acaba ahí, pues los electrones se repelen mutuamente
con fuerza. Bardeen encontró una metáfora más ajustada: el barullo de los
jugadores en una cancha de fútbol americano. Los pares de Cooper son las
parejas que, en la melé, intentan desesperadamente seguir juntas. Una vez
iniciado el apelotonamiento, se hace muy difícil detenerlo, porque, para parar a
un sujeto, hay que parar a muchos. Los apelotonados se desplazarán
alrededor de los obstáculos, los postes por ejemplo, sin apenas
modificaciones.
Al decir de los físicos, los electrones se mantienen emparejados porque
intercambian fonones, lo mismo que los jugadores de rugby se emparejan
pasándose la pelota para que no los derriben mientras corren campo adelante.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 49
Incorporado en la teoría BCS, el mecanismo fonónico de emparejamiento
explica cabalmente la superconductividad de los materiales comunes.
Pero el modelo BCS no puede explicar por sí solo la superconductividad de
los óxidos de cobre. Los electrones y los fonones de unos superconductores
BCS que tuviesen una temperatura crítica alta interaccionarían entre sí con
violencia. En ese caso, la estructura de los materiales acabaría por
distorsionarse de tal forma que dejarían de ser superconductores y, en
muchísimas ocasiones, incluso conductores.
Fuente: Kirtley, John R. y Tsuei, Chang C. Superconductividad a altas
temperaturas. Investigación y Ciencia. Octubre, 1996. Barcelona. Prensa
Científica.
Electricidad, Generación y transporte de, conjunto de instalaciones que
se utilizan para transformar otros tipos de energía en electricidad y
transportarla hasta los lugares donde se consume. La generación y transporte
de energía en forma de electricidad tiene importantes ventajas económicas
debido al coste por unidad generada. Las instalaciones eléctricas también
permiten utilizar la energía hidroeléctrica a mucha distancia del lugar donde
se genera. Estas instalaciones suelen utilizar corriente alterna, ya que es fácil
reducir o elevar el voltaje con transformadores. De esta manera, cada parte
del sistema puede funcionar con el voltaje apropiado. Las instalaciones
eléctricas tienen seis elementos principales: la central eléctrica, los
transformadores que elevan el voltaje de la energía eléctrica generada a las
altas tensiones utilizadas en las líneas de transmisión, las líneas de
transmisión, las subestaciones donde la señal baja su voltaje para adecuarse
a las líneas de distribución, las líneas de distribución y los transformadores
que bajan el voltaje al valor utilizado por los consumidores.
En una instalación normal, los generadores de la central eléctrica
suministran voltajes de 26.000 voltios; voltajes superiores no son adecuados
por las dificultades que presenta su aislamiento y por el riesgo de
cortocircuitos y sus consecuencias. Este voltaje se eleva mediante
transformadores a tensiones entre 138.000 y 765.000 voltios para la línea de
transmisión primaria (cuanto más alta es la tensión en la línea, menor es la
corriente y menores son las pérdidas, ya que éstas son proporcionales al
cuadrado de la intensidad de corriente). En la subestación, el voltaje se
transforma en tensiones entre 69.000 y 138.000 voltios para que sea posible
transferir la electricidad al sistema de distribución. La tensión se baja de
nuevo con transformadores en cada punto de distribución. La industria
pesada suele trabajar a 33.000 voltios (33 kilovoltios), y los trenes eléctricos
requieren de 15 a 25 kilovoltios. Para su suministro a los consumidores se
baja más la tensión: la industria suele trabajar a tensiones entre 380 y 415
voltios, y las viviendas reciben entre 220 y 240 voltios en algunos países y
entre 110 y 125 en otros.
El desarrollo actual de los rectificadores de estado sólido para alta tensión
hace posible una conversión económica de alta tensión de corriente alterna a
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 50
alta tensión de corriente continua para la distribución de electricidad. Esto
evita las pérdidas inductivas y capacitivas que se producen en la transmisión
de corriente alterna.
La estación central de una instalación eléctrica consta de una máquina
motriz, como una turbina de combustión, que mueve un generador eléctrico.
La mayor parte de la energía eléctrica del mundo se genera en centrales
térmicas alimentadas con carbón, aceite, energía nuclear o gas; una pequeña
parte se genera en centrales hidroeléctricas, diesel o provistas de otros
sistemas de combustión interna.
Las líneas de transmisión de alta tensión suelen estar formadas por cables
de cobre, aluminio o acero recubierto de aluminio o cobre. Estos cables están
suspendidos de postes o pilones, altas torres de acero, mediante una
sucesión de aislantes de porcelana. Gracias a la utilización de cables de
acero recubierto y altas torres, la distancia entre éstas puede ser mayor, lo
que reduce el coste del tendido de las líneas de transmisión; las más
modernas, con tendido en línea recta, se construyen con menos de cuatro
torres por kilómetro. En algunas zonas, las líneas de alta tensión se cuelgan
de postes de madera. Las líneas de distribución a menor tensión suelen ser
postes de madera, más adecuados que las torres de acero. En las ciudades y
otras áreas donde los cables aéreos son peligrosos se utilizan cables aislados
subterráneos. Algunos cables tienen el centro hueco para que circule aceite a
baja presión. El aceite proporciona una protección temporal contra el agua,
que podría producir fugas en el cable. Se utilizan con frecuencia tubos
rellenos con muchos cables y aceite a alta presión (unas 15 atmósferas) para
la transmisión de tensiones de hasta 345 kV.
Cualquier sistema de distribución de electricidad requiere una serie de
equipos suplementarios para proteger los generadores, transformadores y las
propias líneas de transmisión. Suelen incluir dispositivos diseñados para
regular la tensión que se proporciona a los usuarios y corregir el factor de
potencia del sistema.
Los cortacircuitos se utilizan para proteger todos los elementos de la
instalación contra cortocircuitos y sobrecargas y para realizar las operaciones
de conmutación ordinarias. Estos cortacircuitos son grandes interruptores que
se activan de modo automático cuando ocurre un cortocircuito o cuando una
circunstancia anómala produce una subida repentina de la corriente. En el
momento en el que este dispositivo interrumpe la corriente se forma un arco
eléctrico entre sus terminales. Para evitar este arco, los grandes
cortacircuitos, como los utilizados para proteger los generadores y las
secciones de las líneas de transmisión primarias, están sumergidos en un
líquido aislante, por lo general aceite. También se utilizan campos magnéticos
para romper el arco. En tiendas, fábricas y viviendas se utilizan pequeños
cortacircuitos diferenciales. Los aparatos eléctricos también incorporan unos
cortacircuitos llamados fusibles, consistentes en un alambre de una aleación
de bajo punto de fusión; el fusible se introduce en el circuito y se funde si la
corriente aumenta por encima de un valor predeterminado.
Fallos del sistema
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 51
En muchas zonas del mundo las instalaciones locales o nacionales están
conectadas formando una red. Esta red de conexiones permite que la
electricidad generada en un área se comparta con otras zonas. Cada
empresa aumenta su capacidad de reserva y comparte el riesgo de
apagones.
Estas redes son enormes y complejos sistemas compuestos y operados
por grupos diversos. Representan una ventaja económica pero aumentan el
riesgo de un apagón generalizado, ya que si un pequeño cortocircuito se
produce en una zona, por sobrecarga en las zonas cercanas puede
transmitirse en cadena a todo el país. Muchos hospitales, edificios públicos,
centros comerciales y otras instalaciones que dependen de la energía
eléctrica tienen sus propios generadores para eliminar el riesgo de apagones.
Regulación del voltaje
Las largas líneas de transmisión presentan inductancia, capacitancia y
resistencia al paso de la corriente eléctrica. El efecto de la inductancia y de la
capacitancia de la línea es la variación de la tensión si varía la corriente, por
lo que la tensión suministrada varía con la carga acoplada. Se utilizan
muchos tipos de dispositivos para regular esta variación no deseada. La
regulación de la tensión se consigue con reguladores de la inducción y
motores síncronos de tres fases, también llamados condensadores síncronos.
Ambos varían los valores eficaces de la inductancia y la capacitancia en el
circuito de transmisión. Ya que la inductancia y la capacitancia tienden a
anularse entre sí, cuando la carga del circuito tiene mayor reactancia
inductiva que capacitiva (lo que suele ocurrir en las grandes instalaciones) la
potencia suministrada para una tensión y corriente determinadas es menor
que si las dos son iguales. La relación entre esas dos cantidades de potencia
se llama factor de potencia. Como las pérdidas en las líneas de transmisión
son proporcionales a la intensidad de corriente, se aumenta la capacitancia
para que el factor de potencia tenga un valor lo más cercano posible a 1. Por
esta razón se suelen instalar grandes condensadores en los sistemas de
transmisión de electricidad.
Producción mundial de energía eléctrica
Durante el periodo comprendido entre 1959 y 1990, la producción y
consumo anual de electricidad aumentó de poco más de 1 billón de kWh a
más de 11,5 billones de kWh. También tuvo lugar un cambio en el tipo de
generación de energía. En 1950 las dos terceras partes de la energía
eléctrica se generaban en centrales térmicas y un tercio en centrales
hidroeléctricas. En 1990 las centrales térmicas siguen produciendo alrededor
del 60% de la electricidad, pero las centrales hidroeléctricas han descendido
hasta poco más del 20% y la energía nuclear genera el 15% de la producción
mundial. Sin embargo, el crecimiento de la energía nuclear ha descendido en
algunos países debido a consideraciones de seguridad. En Estados Unidos
las centrales nucleares generaron el 20% de la electricidad en 1990, mientras
que en Francia, líder mundial del uso de energía atómica, las centrales
nucleares proporcionan el 75% de su producción eléctrica.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 52
Motores y generadores eléctricos, grupo de aparatos que se utilizan
para convertir la energía mecánica en eléctrica, o a la inversa, con medios
electromagnéticos. A una máquina que convierte la energía mecánica en
eléctrica se le denomina generador, alternador o dínamo, y a una máquina
que convierte la energía eléctrica en mecánica se le denomina motor.
Dos principios físicos relacionados entre sí sirven de base al
funcionamiento de los generadores y de los motores. El primero es el
principio de la inducción descubierto por el científico e inventor británico
Michael Faraday en 1831. Si un conductor se mueve a través de un campo
magnético, o si está situado en las proximidades de un circuito de conducción
fijo cuya intensidad puede variar, se establece o se induce una corriente en el
conductor. El principio opuesto a éste fue observado en 1820 por el físico
francés André Marie Ampère. Si una corriente pasaba a través de un
conductor dentro de un campo magnético, éste ejercía una fuerza mecánica
sobre el conductor.
La máquina dinamoeléctrica más sencilla es la dinamo de disco
desarrollada por Faraday, que consiste en un disco de cobre que se monta de
tal forma que la parte del disco que se encuentra entre el centro y el borde
quede situada entre los polos de un imán de herradura. Cuando el disco gira,
se induce una corriente entre el centro del disco y su borde debido a la acción
del campo del imán. El disco puede fabricarse para funcionar como un motor
mediante la aplicación de un voltaje entre el borde y el centro del disco, lo
que hace que el disco gire gracias a la fuerza producida por la reacción
magnética.
El campo magnético de un imán permanente es lo suficientemente fuerte
como para hacer funcionar una sola dinamo pequeña o motor. Por ello, los
electroimanes se emplean en máquinas grandes. Tanto los motores como los
generadores tienen dos unidades básicas: el campo magnético, que es el
electroimán con sus bobinas, y la armadura, que es la estructura que sostiene
los conductores que cortan el campo magnético y transporta la corriente
inducida en un generador, o la corriente de excitación en el caso del motor.
La armadura es por lo general un núcleo de hierro dulce laminado, alrededor
del cual se enrollan en bobinas los cables conductores.
Generadores de corriente continua
Si una armadura gira entre dos polos de campo fijos, la corriente en la
armadura se mueve en una dirección durante la mitad de cada revolución, y
en la otra dirección durante la otra mitad. Para producir un flujo constante de
corriente en una dirección, o continua, en un aparato determinado, es
necesario disponer de un medio para invertir el flujo de corriente fuera del
generador una vez durante cada revolución. En las máquinas antiguas esta
inversión se llevaba a cabo mediante un conmutador, un anillo de metal
partido montado sobre el eje de una armadura. Las dos mitades del anillo se
aislaban entre sí y servían como bornes de la bobina. Las escobillas fijas de
metal o de carbón se mantenían en contra del conmutador, que al girar
conectaba eléctricamente la bobina a los cables externos. Cuando la
armadura giraba, cada escobilla estaba en contacto de forma alternativa con
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 53
las mitades del conmutador, cambiando la posición en el momento en el que
la corriente invertía su dirección dentro de la bobina de la armadura. Así se
producía un flujo de corriente de una dirección en el circuito exterior al que el
generador estaba conectado. Los generadores de corriente continua
funcionan normalmente a voltajes bastante bajos para evitar las chispas que
se producen entre las escobillas y el conmutador a voltajes altos. El potencial
más alto desarrollado para este tipo de generadores suele ser de 1.500 V. En
algunas máquinas más modernas esta inversión se realiza usando aparatos
de potencia electrónica, como por ejemplo rectificadores de diodo.
Los generadores modernos de corriente continua utilizan armaduras de
tambor, que suelen estar formadas por un gran número de bobinas
agrupadas en hendiduras longitudinales dentro del núcleo de la armadura y
conectadas a los segmentos adecuados de un conmutador múltiple. Si una
armadura tiene un solo circuito de cable, la corriente que se produce
aumentará y disminuirá dependiendo de la parte del campo magnético a
través del cual se esté moviendo el circuito. Un conmutador de varios
segmentos usado con una armadura de tambor conecta siempre el circuito
externo a uno de cable que se mueve a través de un área de alta intensidad
del campo, y como resultado la corriente que suministran las bobinas de la
armadura es prácticamente constante. Los campos de los generadores
modernos se equipan con cuatro o más polos electromagnéticos que
aumentan el tamaño y la resistencia del campo magnético. En algunos casos,
se añaden interpolos más pequeños para compensar las distorsiones que
causa el efecto magnético de la armadura en el flujo eléctrico del campo.
Los generadores de corriente continua se clasifican según el método que
usan para proporcionar corriente de campo que excite los imanes del mismo.
Un generador de excitado en serie tiene su campo en serie respecto a la
armadura. Un generador de excitado en derivación, tiene su campo
conectado en paralelo a la armadura. Un generador de excitado combinado
tiene parte de sus campos conectados en serie y parte en paralelo. Los dos
últimos tipos de generadores tienen la ventaja de suministrar un voltaje
relativamente constante, bajo cargas eléctricas variables. El de excitado en
serie se usa sobre todo para suministrar una corriente constante a voltaje
variable. Un magneto es un generador pequeño de corriente continua con un
campo magnético permanente.
Motores de corriente continua
En general, los motores de corriente continua son similares en su
construcción a los generadores. De hecho podrían describirse como
generadores que funcionan al revés. Cuando la corriente pasa a través de la
armadura de un motor de corriente continua, se genera un par de fuerzas por
la reacción magnética, y la armadura gira. La acción del conmutador y de las
conexiones de las bobinas del campo de los motores son exactamente las
mismas que usan los generadores. La revolución de la armadura induce un
voltaje en las bobinas de ésta. Este voltaje es opuesto en la dirección al
voltaje exterior que se aplica a la armadura, y de ahí que se conozca como
voltaje inducido o fuerza contraelectromotriz. Cuando el motor gira más
rápido, el voltaje inducido aumenta hasta que es casi igual al aplicado. La
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 54
corriente entonces es pequeña, y la velocidad del motor permanecerá
constante siempre que el motor no esté bajo carga y tenga que realizar otro
trabajo mecánico que no sea el requerido para mover la armadura. Bajo
carga, la armadura gira más lentamente, reduciendo el voltaje inducido y
permitiendo que fluya una corriente mayor en la armadura. El motor puede así
recibir más potencia eléctrica de la fuente, suministrándola y haciendo más
trabajo mecánico.
Debido a que la velocidad de rotación controla el flujo de la corriente en la
armadura, deben usarse aparatos especiales para arrancar los motores de
corriente continua. Cuando la armadura está parada, ésta no tiene realmente
resistencia, y si se aplica el voltaje de funcionamiento normal, se producirá
una gran corriente, que podría dañar el conmutador y las bobinas de la
armadura. El medio normal de prevenir estos daños es el uso de una
resistencia de encendido conectada en serie a la armadura, para disminuir la
corriente antes de que el motor consiga desarrollar el voltaje inducido
adecuado. Cuando el motor acelera, la resistencia se reduce gradualmente,
tanto de forma manual como automática.
La velocidad a la que funciona un motor depende de la intensidad del
campo magnético que actúa sobre la armadura, así como de la corriente de
ésta. Cuanto más fuerte es el campo, más bajo es el grado de rotación
necesario para generar un voltaje inducido lo bastante grande como para
contrarrestar el voltaje aplicado. Por esta razón, la velocidad de los motores
de corriente continua puede controlarse mediante la variación de la corriente
del campo.
Generadores de corriente alterna (alternadores)
Como se decía antes, un generador simple sin conmutador producirá una
corriente eléctrica que cambia de dirección a medida que gira la armadura.
Este tipo de corriente alterna es ventajosa para la transmisión de potencia
eléctrica, por lo que la mayoría de los generadores eléctricos son de este tipo.
En su forma más simple, un generador de corriente alterna se diferencia de
uno de corriente continua en sólo dos aspectos: los extremos de la bobina de
su armadura están sacados a los anillos colectores sólidos sin segmentos del
árbol del generador en lugar de los conmutadores, y las bobinas de campo se
excitan mediante una fuente externa de corriente continua más que con el
generador en sí. Los generadores de corriente alterna de baja velocidad se
fabrican con hasta 100 polos, para mejorar su eficiencia y para lograr con
más fácilidad la frecuencia deseada. Los alternadores accionados por
turbinas de alta velocidad, sin embargo, son a menudo máquinas de dos
polos. La frecuencia de la corriente que suministra un generador de corriente
alterna es igual a la mitad del producto del número de polos y el número de
revoluciones por segundo de la armadura.
A veces, es preferible generar un voltaje tan alto como sea posible. Las
armaduras rotatorias no son prácticas en este tipo de aplicaciones, debido a
que pueden producirse chispas entre las escobillas y los anillos colectores, y
a que pueden producirse fallos mecánicos que podrían causar cortocircuitos.
Por tanto, los alternadores se construyen con una armadura fija en la que gira
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 55
un rotor compuesto de un número de imanes de campo. El principio de
funcionamiento es el mismo que el del generador de corriente alterna descrito
con anterioridad, excepto en que el campo magnético (en lugar de los
conductores de la armadura) está en movimiento.
La corriente que se genera mediante los alternadores descritos más arriba,
aumenta hasta un pico, cae hasta cero, desciende hasta un pico negativo y
sube otra vez a cero varias veces por segundo, dependiendo de la frecuencia
para la que esté diseñada la máquina. Este tipo de corriente se conoce como
corriente alterna monofásica. Sin embargo, si la armadura la componen dos
bobinas, montadas a 90º una de otra, y con conexiones externas separadas,
se producirán dos ondas de corriente, una de las cuales estará en su máximo
cuando la otra sea cero. Este tipo de corriente se denomina corriente alterna
bifásica. Si se agrupan tres bobinas de armadura en ángulos de 120º, se
producirá corriente en forma de onda triple, conocida como corriente alterna
trifásica. Se puede obtener un número mayor de fases incrementando el
número de bobinas en la armadura, pero en la práctica de la ingeniería
eléctrica moderna se usa sobre todo la corriente alterna trifásica, con el
alternador trifásico, que es la máquina dinamoeléctrica que se emplea
normalmente para generar potencia eléctrica.
Motores de corriente alterna
Se diseñan dos tipos básicos de motores para funcionar con corriente
alterna polifásica: los motores síncronos y los motores de inducción. El motor
síncrono es en esencia un alternador trifásico que funciona a la inversa. Los
imanes del campo se montan sobre un rotor y se excitan mediante corriente
continua, y las bobinas de la armadura están divididas en tres partes y
alimentadas con corriente alterna trifásica. La variación de las tres ondas de
corriente en la armadura provoca una reacción magnética variable con los
polos de los imanes del campo, y hace que el campo gire a una velocidad
constante, que se determina por la frecuencia de la corriente en la línea de
potencia de corriente alterna.
La velocidad constante de un motor síncrono es ventajosa en ciertos
aparatos. Sin embargo, no pueden utilizarse este tipo de motores en
aplicaciones en las que la carga mecánica sobre el motor llega a ser muy
grande, ya que si el motor reduce su velocidad cuando está bajo carga puede
quedar fuera de fase con la frecuencia de la corriente y llegar a pararse. Los
motores síncronos pueden funcionar con una fuente de potencia monofásica
mediante la inclusión de los elementos de circuito adecuados para conseguir
un campo magnético rotatorio.
El más simple de todos los tipos de motores eléctricos es el motor de
inducción de caja de ardilla que se usa con alimentación trifásica. La
armadura de este tipo de motor consiste en tres bobinas fijas y es similar a la
del motor síncrono. El elemento rotatorio consiste en un núcleo, en el que se
incluyen una serie de conductores de gran capacidad colocados en círculo
alrededor del árbol y paralelos a él. Cuando no tienen núcleo, los conductores
del rotor se parecen en su forma a las jaulas cilíndricas que se usaban para
las ardillas. El flujo de la corriente trifásica dentro de las bobinas de la
armadura fija genera un campo magnético rotatorio, y éste induce una
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 56
corriente en los conductores de la jaula. La reacción magnética entre el
campo rotatorio y los conductores del rotor que transportan la corriente hace
que éste gire. Si el rotor da vueltas exactamente a la misma velocidad que el
campo magnético, no habrá en él corrientes inducidas, y, por tanto, el rotor no
debería girar a una velocidad síncrona. En funcionamiento, la velocidad de
rotación del rotor y la del campo difieren entre sí de un 2 a un 5%. Esta
diferencia de velocidad se conoce como caída.
Los motores con rotores del tipo jaula de ardilla se pueden usar con
corriente alterna monofásica utilizando varios dispositivos de inductancia y
capacitancia, que alteren las características del voltaje monofásico y lo hagan
parecido al bifásico. Este tipo de motores se denominan motores multifásicos
o motores de condensador (o de capacidad), según los dispositivos que usen.
Los motores de jaula de ardilla monofásicos no tienen un par de arranque
grande, y se utilizan motores de repulsión-inducción para las aplicaciones en
las que se requiere el par. Este tipo de motores pueden ser multifásicos o de
condensador, pero disponen de un interruptor manual o automático que
permite que fluya la corriente entre las escobillas del conmutador cuando se
arranca el motor, y los circuitos cortos de todos los segmentos del
conmutador, después de que el motor alcance una velocidad crítica. Los
motores de repulsión-inducción se denominan así debido a que su par de
arranque depende de la repulsión entre el rotor y el estátor, y su par, mientras
está en funcionamiento, depende de la inducción. Los motores de baterías en
serie con conmutadores, que funcionan tanto con corriente continua como
con corriente alterna, se denominan motores universales. Éstos se fabrican
en tamaños pequeños y se utilizan en aparatos domésticos.
Otros tipos de máquinas
En aplicaciones especiales se emplean algunos tipos de máquinas
dinamoeléctricas combinadas. Por lo general, es deseable cambiar de
corriente continua a alterna o a la inversa, o cambiar de voltaje de
alimentación de corriente continua, o la frecuencia o fase con alimentación de
corriente alterna. Una forma de realizar dichos cambios, es usar un motor que
funcione con el tipo disponible de alimentación eléctrica para que haga
funcionar un generador que proporcione a su vez la corriente y el voltaje
deseados. Los generadores de motor, que están compuestos de un motor
que se acopla mecánicamente a un generador adecuado, pueden realizar la
mayoría de las conversiones antes indicadas. Un transformador rotatorio es
una máquina que sirve para convertir corriente alterna en continua, usando
bobinas separadas en una armadura rotatoria común. El voltaje de
alimentación de corriente alterna se aplica a la armadura a través de los
anillos colectores, y el voltaje de la corriente continua se extrae de la máquina
con un conmutador independiente. Un dinamotor, que se usa por lo general
para convertir corriente continua de bajo voltaje en corriente de alto voltaje, es
una máquina parecida que tiene bobinas de armadura independientes.
Las máquinas de corriente continua conocidas como amplidinas o
rototroles, que tienen varias bobinas de campo, se usan como amplificadores
de potencia. Un pequeño cambio en la potencia suministrada a una bobina de
campo produce un gran cambio en la potencia de salida de la máquina. Estos
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 57
amplificadores electrodinámicos se utilizan a menudo en servomecanismos y
otros sistemas de control.
Servomecanismo, en ingeniería, dispositivo o conjunto de ellos que
permite la automatización del control de un mecanismo o de una fuente de
energía. Los servomecanismos pueden ser mecánicos, eléctricos, hidráulicos
y ópticos. Su característica principal es que se activa por la llamada señal de
error, que viene determinada por la diferencia entre la señal establecida como
salida para una determinada señal de entrada y la señal de salida real. Esta
señal de error se envía a la entrada para compensar ese error, de forma que
el mecanismo se autorregula. Esta técnica se llama realimentación.
La dirección de los automóviles es un ejemplo de servomecanismo. La
orientación de las ruedas delanteras se controla mediante el giro del volante.
Cuando soltamos el volante, un servomecanismo, que en este caso es un
sistema hidráulico y mecánico, obliga a las ruedas a volver a la posición
normal. Otro ejemplo de servomecanismo es el control automático que
efectúa un termostato del calor generado por un radiador doméstico. Otros
ejemplos son los pilotos automáticos utilizados en barcos, aviones y naves
espaciales, en los que el movimiento del vehículo está regido por las
instrucciones de la brújula. En las naves espaciales no tripuladas los
servomecanismos se encargan de orientar las cámaras, las antenas de radio
y los paneles solares. En este caso la señal de entrada es la que
proporcionan los sensores, que captan la situación del Sol y las estrellas, y la
señal de salida es la que se aplica a unos pequeños motores a reacción que
giran y orientan la nave.
Cibernética, ciencia interdisciplinar que trata de los sistemas de
comunicación y control en los organismos vivos, las máquinas y las
organizaciones. El término cibernética, que proviene del griego
(‘timonel’ o ‘gobernador’), fue aplicado por primera vez en 1948 por el
matemático estadounidense Norbert Wiener a la teoría de los mecanismos de
control.
La cibernética se desarrolló como investigación de las técnicas por las
cuales la información se transforma en la actuación deseada. Esta ciencia
surgió de los problemas planteados durante la II Guerra Mundial al desarrollar
los denominados cerebros electrónicos y los mecanismos de control
automático para los equipos militares como los visores de bombardeo.
Esta ciencia contempla de igual forma los sistemas de comunicación y
control de los organismos vivos que los de las máquinas. Para obtener la
respuesta deseada en un organismo humano o en un dispositivo mecánico,
habrá que proporcionarle, como guía para acciones futuras, la información
relativa a los resultados reales de la acción prevista. En el cuerpo humano, el
cerebro y el sistema nervioso coordinan dicha información, que sirve para
determinar una futura línea de conducta; los mecanismos de control y de
autocorrección en las máquinas sirven para lo mismo. El principio se conoce
como feedback (realimentación), y constituye el concepto fundamental de la
automatización.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 58
Según la teoría de la información, uno de los principios básicos de la
cibernética establece que la información es estadística por naturaleza y se
mide de acuerdo con las leyes de la probabilidad. En este sentido, la
información es concebida como una medida de la libertad de elección
implícita en la selección. A medida que aumenta la libertad de elección,
disminuye la probabilidad de que sea elegido un determinado mensaje. La
medida de la probabilidad se conoce como entropía. De acuerdo con la
segunda ley de la termodinámica, en los procesos naturales existe una
tendencia hacia un estado de desorganización, o caos, que se produce sin
ninguna intervención o control. En consecuencia, de acuerdo con los
principios de la cibernética, el orden (disminución de la entropía) es lo menos
probable, y el caos (aumento de la entropía) es lo más probable. La conducta
intencionada en las personas o en las máquinas exige mecanismos de control
que mantengan el orden, contrarrestando la tendencia natural hacia la
desorganización.
La cibernética también se aplica al estudio de la psicología, la inteligencia
artificial, los servomecanismos, la economía, la neurofisiología, la ingeniería
de sistemas y al de los sistemas sociales. La palabra cibernética ha dejado de
identificar un área independiente de estudio y la mayor parte de la actividad
investigadora se centra ahora en el estudio y diseño de redes neurales
artificiales.
Física, ciencia que se ocupa de los componentes fundamentales del
Universo, de las fuerzas que éstos ejercen entre sí y de los efectos de dichas
fuerzas. En ocasiones la física moderna incorpora elementos de los tres
aspectos mencionados, como ocurre con las leyes de simetría y conservación
de la energía, el momento, la carga o la paridad.
La física está estrechamente relacionada con las demás ciencias
naturales, y en cierto modo las engloba a todas. La química, por ejemplo, se
ocupa de la interacción de los átomos para formar moléculas; gran parte de la
geología moderna es en esencia un estudio de la física de la Tierra y se
conoce como geofísica; la astronomía trata de la física de las estrellas y del
espacio exterior. Incluso los sistemas vivos están constituidos por partículas
fundamentales que siguen el mismo tipo de leyes que las partículas más
sencillas estudiadas tradicionalmente por los físicos.
El hincapié que la física moderna hace en la interacción entre partículas (el
llamado planteamiento microscópico) necesita muchas veces como
complemento un enfoque macroscópico que se ocupe de elementos o
sistemas de partículas más extensos. Este planteamiento macroscópico es
indispensable en la aplicación de la física a numerosas tecnologías
modernas. Por ejemplo, la termodinámica, una rama de la física desarrollada
durante el siglo XIX, se ocupa de determinar y cuantificar las propiedades de
un sistema en su conjunto, y resulta útil en otros campos de la física; también
constituye la base de las ingenierías química y mecánica. Propiedades como
la temperatura, la presión o el volumen de un gas carecen de sentido para un
átomo o molécula individual: estos conceptos termodinámicos sólo pueden
aplicarse directamente a un sistema muy grande de estas partículas. No
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 59
obstante, hay un nexo entre los enfoques microscópico y macroscópico: otra
rama de la física, conocida como mecánica estadística, explica la forma de
relacionar desde un punto de vista estadístico la presión y la temperatura con
el movimiento de los átomos y las moléculas.
Hasta principios del siglo XIX, era frecuente que los físicos fueran al mismo
tiempo matemáticos, filósofos, químicos, biólogos o ingenieros. En la
actualidad el ámbito de la física ha crecido tanto que, con muy pocas
excepciones, los físicos modernos tienen que limitar su atención a una o dos
ramas de su ciencia. Una vez que se descubren y comprenden los aspectos
fundamentales de un nuevo campo, éste pasa a ser de interés para los
ingenieros y otros científicos. Por ejemplo, los descubrimientos del siglo XIX
en electricidad y magnetismo forman hoy parte del terreno de los ingenieros
eléctricos y de comunicaciones; las propiedades de la materia descubiertas a
comienzos del siglo XX han encontrado aplicación en la electrónica; los
descubrimientos de la física nuclear, muchos de ellos posteriores a 1950, son
la base de los trabajos de los ingenieros nucleares.
Comienzos de la física
Aunque las ideas sobre el mundo físico se remontan a la antigüedad, la
física no surgió como un campo de estudio bien definido hasta principios del
siglo XIX.
Antigüedad
Los chinos, los babilonios, los egipcios y los mayas observaron los
movimientos de los planetas y lograron predecir los eclipses, pero no
consiguieron encontrar un sistema subyacente que explicara el movimiento
planetario. Las especulaciones de los filósofos griegos introdujeron dos ideas
fundamentales sobre los componentes del Universo, opuestas entre sí: el
atomismo, propuesto por Leucipo en el siglo IV a.C., y la teoría de los
elementos, formulada en el siglo anterior.
En Alejandría, el centro científico de la civilización occidental durante el
periodo helenístico, hubo notables avances. Allí, el matemático e inventor
griego Arquímedes diseñó con palancas y tornillos varios aparatos mecánicos
prácticos y midió la densidad de objetos sólidos sumergiéndolos en un
líquido. Otros científicos griegos importantes de aquella época fueron el
astrónomo Aristarco de Samos, que halló la relación entre las distancias de la
Tierra al Sol y de la Tierra a la Luna, el matemático, astrónomo y geógrafo
Eratóstenes, que midió la circunferencia de la Tierra y elaboró un catálogo de
estrellas, y el astrónomo Hiparco de Nicea, que descubrió la precesión de los
equinoccios (Eclíptica). En el siglo II d.C. el astrónomo, matemático y
geógrafo Tolomeo propuso el sistema que lleva su nombre para explicar el
movimiento planetario. En el sistema de Tolomeo, la Tierra está en el centro y
el Sol, la Luna y las estrellas giran en torno a ella en órbitas circulares.
Edad media
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 60
Durante la edad media se produjeron pocos avances, tanto en la física
como en las demás ciencias. Sin embargo, sabios árabes como Averroes o
al-Qarashi (también conocido como Ibn al-Nafis) conservaron muchos
tratados científicos de la Grecia clásica. En general, las grandes
universidades medievales fundadas en Europa por las órdenes monásticas a
partir del siglo XIII no supusieron un gran avance para la física y otras
ciencias experimentales. El filósofo escolástico y teólogo italiano santo Tomás
de Aquino, por ejemplo, trató de demostrar que las obras de Platón y
Aristóteles eran compatibles con las Sagradas Escrituras. El filósofo
escolástico y científico británico Roger Bacon fue uno de los pocos filósofos
que defendió el método experimental como auténtica base del conocimiento
científico; también investigó en astronomía, química, óptica y diseño de
máquinas.
Siglos XVI y XVII
La ciencia moderna surgió tras el renacimiento, en el siglo XVI y
comienzos del XVII, cuando cuatro personajes sobresalientes lograron
interpretar de forma muy satisfactoria el comportamiento de los cuerpos
celestes. El astrónomo polaco Nicolás Copérnico, propuso un sistema
heliocéntrico, en el que los planetas giran alrededor del Sol. Sin embargo,
Copérnico estaba convencido de que las órbitas planetarias eran circulares,
por lo que su sistema requería unas elaboraciones casi tan complicadas
como el sistema de Tolomeo al que pretendía sustituir (Sistema de
Copérnico). El astrónomo danés Tycho Brahe adoptó un compromiso entre
los sistemas de Copérnico y Tolomeo; según él, los planetas giraban en torno
al Sol, mientras que el Sol giraba alrededor de la Tierra. Brahe era un gran
observador y realizó una serie de medidas increíblemente precisas. Esto
proporcionó a su ayudante Johannes Kepler los datos para atacar al sistema
de Tolomeo y enunciar tres leyes que se ajustaban a una teoría heliocéntrica
modificada. Galileo, que había oído hablar de la invención del telescopio,
construyó uno, y en 1609 pudo confirmar el sistema heliocéntrico observando
las fases del planeta Venus. También descubrió las irregularidades en la
superficie de la Luna, los cuatro satélites de Júpiter más brillantes, las
manchas solares y muchas estrellas de la Vía Láctea. Los intereses de
Galileo no se limitaban a la astronomía: empleando planos inclinados y un
reloj de agua perfeccionado ya había demostrado que los objetos tardan lo
mismo en caer, independientemente de su masa (lo que invalidaba los
postulados de Aristóteles), y que la velocidad de los mismos aumenta de
forma uniforme con el tiempo de caída. Los descubrimientos astronómicos de
Galileo y sus trabajos sobre mecánica precedieron la obra del matemático y
físico británico del siglo XVII Isaac Newton, uno de los científicos más
grandes de la historia.
La física a partir de Newton
A partir de 1665, cuando tenía 23 años, Newton desarrolló los principios de
la mecánica, formuló la ley de la gravitación universal, separó la luz blanca en
sus colores constituyentes e inventó el cálculo diferencial e integral. Las
contribuciones de Newton cubrieron una gama muy amplia de fenómenos
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 61
naturales. Por ejemplo, demostró que tanto las leyes de Kepler sobre el
movimiento planetario como los descubrimientos de Galileo sobre la caída de
los cuerpos se deducen de la segunda ley del movimiento (segunda ley de
Newton) combinada con la ley de la gravitación. Newton también logró
explicar el efecto de la Luna sobre las mareas, así como la precesión de los
equinoccios.
El desarrollo de la mecánica
El posterior desarrollo de la física debe mucho a las leyes del movimiento o
leyes de Newton (Mecánica), especialmente a la segunda, que afirma que la
fuerza necesaria para acelerar un objeto es igual a su masa multiplicada por
su aceleración. Si se conocen la posición y velocidad iniciales de un cuerpo,
así como la fuerza aplicada, es posible calcular las posiciones y velocidades
posteriores aunque la fuerza cambie con el tiempo o la posición; en esos
casos es necesario aplicar el cálculo infinitesimal de Newton. La segunda ley
del movimiento también contiene otro aspecto importante: todos los cuerpos
tienen una propiedad intrínseca, su masa inercial, que influye en su
movimiento. Cuanto mayor es esa masa, menor es la aceleración que
adquiere cuando se aplica una fuerza determinada sobre el cuerpo. Hoy
sabemos que esta ley es válida siempre que el cuerpo no sea
extremadamente pequeño, grande o rápido. La tercera ley de Newton, que
afirma que “a cada fuerza de acción corresponde una fuerza de reacción igual
y opuesta”, podría expresarse en términos modernos como que todas las
fuerzas entre partículas se producen en pares de sentido opuesto, aunque no
necesariamente situados a lo largo de la línea que une las partículas.
Gravedad
La contribución más específica de Newton a la descripción de las fuerzas
de la naturaleza fue la explicación de la fuerza de la gravedad. En la
actualidad los científicos saben que sólo hay otras tres fuerzas, además de la
gravedad, que originan todas las propiedades y actividades observadas en el
Universo: el electromagnetismo, la llamada interacción nuclear fuerte (que
mantiene unidos los protones y neutrones en los núcleos atómicos) y la
interacción nuclear débil (o interacción débil) entre algunas de las partículas
elementales, que explica el fenómeno de la radiactividad. La comprensión del
concepto de fuerza se remonta a la ley de la gravitación universal, que
reconocía que todas las partículas materiales, y los cuerpos formados por
estas partículas, tienen una propiedad denominada masa gravitacional. Esta
propiedad hace que dos partículas cualesquiera ejerzan entre sí una fuerza
atractiva (a lo largo de la línea que las une) directamente proporcional al
producto de sus masas e inversamente proporcional al cuadrado de la
distancia que las separa. Esta fuerza gravitatoria rige el movimiento de los
planetas alrededor del Sol y de los objetos en el campo gravitatorio terrestre;
también es responsable del colapso gravitacional que, según se cree,
constituye el estado final del ciclo vital de las estrellas masivas y es la causa
de muchos fenómenos astrofísicos.
Una de las observaciones más importantes de la física es que la masa
gravitacional de un cuerpo (que es el origen de la fuerza gravitatoria que
existe entre el cuerpo y otros cuerpos) es igual a su masa inercial, la
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 62
propiedad que determina el movimiento del cuerpo en respuesta a cualquier
fuerza ejercida sobre él (Inercia). Esta equivalencia, confirmada
experimentalmente con gran precisión (se ha demostrado que, en caso de
existir alguna diferencia entre ambas masas, es menor de una parte en 10 13),
lleva implícito el principio de proporcionalidad: cuando un cuerpo tiene una
masa gravitacional dos veces mayor que otro, su masa inercial también es
dos veces mayor. Esto explica la observación de Galileo —realizada con
anterioridad a la formulación de las leyes de Newton— de que todos los
cuerpos caen con la misma aceleración independientemente de su masa:
aunque los cuerpos más pesados experimentan una fuerza gravitatoria
mayor, su mayor masa inercial disminuye en un factor igual a la aceleración
por unidad de fuerza, por lo que la aceleración total es la misma que en un
cuerpo más ligero.
Sin embargo, el significado pleno de esta equivalencia entre las masas
gravitacional e inercial no se apreció hasta que Albert Einstein enunció la
teoría de la relatividad general. Einstein se dio cuenta de que esta
equivalencia tenía una implicación adicional: la equivalencia de un campo
gravitatorio y un sistema de referencia acelerado.
La fuerza gravitatoria es la más débil de las cuatro fuerzas de la
naturaleza. Por ejemplo, la fuerza gravitatoria entre dos protones (una de las
partículas elementales más pesadas) es 1036 veces menos intensa que la
fuerza electrostática entre ellos, sea cual sea la distancia que los separe. En
el caso de dos protones situados en el núcleo de un átomo, la fuerza
electrostática de repulsión es a su vez mucho menor que la interacción
nuclear fuerte. El que la gravedad sea la fuerza dominante a escala
macroscópica se debe a dos hechos: 1) según se sabe, sólo existe un tipo de
masa, por lo que sólo existe un tipo de fuerza gravitacional, siempre atractiva;
esto hace que las fuerzas gravitacionales de las numerosísimas partículas
elementales que componen un cuerpo como la Tierra se sumen, con lo que la
fuerza total resulta muy grande. 2) Las fuerzas gravitacionales actúan a
cualquier distancia, disminuyendo según el cuadrado de la separación entre
los cuerpos.
En cambio, las cargas eléctricas de las partículas elementales, que
originan las fuerzas electrostáticas y electromagnéticas, pueden ser positivas
o negativas. Las cargas iguales se repelen y las cargas opuestas se atraen.
Los cuerpos formados por muchas partículas tienden a ser eléctricamente
neutros, y las fuerzas eléctricas ejercidas por las partículas, aunque tienen un
alcance infinito al igual que la fuerza de gravedad, se cancelan mutuamente.
Por su parte, las interacciones nucleares, tanto la fuerte como la débil, tienen
un alcance extremadamente corto, y apenas son apreciables a distancias
mayores de una billonésima de centímetro.
A pesar de su importancia macroscópica, la fuerza de la gravedad es tan
débil que un cuerpo tiene que poseer una masa enorme para que su
influencia sobre otro cuerpo resulte apreciable. Por eso, la ley de la
gravitación universal se dedujo de las observaciones del movimiento de los
planetas mucho antes de que pudiera comprobarse de forma experimental.
Esto sucedió en 1771, cuando el físico y químico británico Henry Cavendish
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 63
confirmó la ley utilizando grandes esferas de plomo para atraer pequeñas
masas unidas a un péndulo de torsión. A partir de esas medidas, Cavendish
también dedujo la masa y la densidad de la Tierra.
En los dos siglos posteriores a Newton, aunque la mecánica se analizó, se
reformuló y se aplicó a sistemas complejos, no se aportaron nuevas ideas
físicas. El matemático suizo Leonhard Euler fue el primero en formular las
ecuaciones del movimiento para sólidos rígidos, mientras que Newton sólo se
había ocupado de masas que se podían considerar concentradas en un
punto. Diferentes físicos matemáticos, entre ellos Joseph Louis Lagrange y
William Hamilton, ampliaron la segunda ley de Newton con formulaciones
más complejas. A lo largo del mismo periodo, Euler, el científico Daniel
Bernoulli y otros investigadores también ampliaron la mecánica newtoniana y
sentaron las bases de la mecánica de fluidos.
Electricidad y magnetismo
Aunque los antiguos griegos conocían las propiedades electrostáticas del
ámbar, y los chinos ya fabricaban imanes con magnetita en el 2700 a.C., los
fenómenos eléctricos y magnéticos no empezaron a comprenderse hasta
finales del siglo XVIII, cuando comenzaron a realizarse experimentos en estos
campos. En 1785, el físico francés Charles de Coulomb confirmó por primera
vez de forma experimental que las cargas eléctricas se atraen o se repelen
con una intensidad inversamente proporcional al cuadrado de la distancia que
las separa (ley de Coulomb). Más tarde el matemático francés Siméon Denis
Poisson y su colega alemán Carl Friedrich Gauss desarrollaron una potente
teoría para calcular el efecto de un número indeterminado de cargas
eléctricas estáticas arbitrariamente distribuidas.
Dos partículas con cargas opuestas se atraen, por lo que tienden a
acelerarse una hacia la otra. Si el medio a través del cual se mueven ofrece
resistencia, pueden acabar moviéndose con velocidad constante (en lugar de
moverse con aceleración constante) a la vez que el medio se calienta y sufre
otras alteraciones. La posibilidad de mantener una fuerza electromotriz capaz
de impulsar de forma continuada partículas eléctricamente cargadas llegó con
el desarrollo de la pila química en 1800, debido al físico italiano Alessandro
Volta. La teoría clásica de un circuito eléctrico simple supone que los dos
polos de una pila se mantienen cargados positiva y negativamente debido a
las propiedades internas de la misma. Cuando los polos se conectan
mediante un conductor, las partículas cargadas negativamente son repelidas
por el polo negativo y atraídas por el positivo, con lo que se mueven hacia él y
calientan el conductor, ya que ofrece resistencia a dicho movimiento. Al llegar
al polo positivo las partículas son obligadas a desplazarse dentro de la pila
hasta el polo negativo, en contra de las fuerzas que se oponen a ello según la
ley de Coulomb. El físico alemán Georg Simon Ohm descubrió la existencia
de una constante de proporcionalidad sencilla entre la corriente que fluye por
el circuito y la fuerza electromotriz suministrada por la pila. Esta constante es
la resistencia eléctrica del circuito, R. La ley de Ohm, que afirma que la
resistencia es igual a la fuerza electromotriz, o tensión, dividida entre la
intensidad de corriente, no es una ley fundamental de la física de aplicación
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 64
universal, sino que describe el comportamiento de una clase limitada de
materiales sólidos.
Los conceptos elementales del magnetismo, basados en la existencia de
pares de polos opuestos, aparecieron en el siglo XVII y fueron desarrollados
en los trabajos de Coulomb. Sin embargo, la primera conexión entre el
magnetismo y la electricidad se encontró en los experimentos del físico y
químico danés Hans Christian Oersted, que en 1819 descubrió que un cable
conductor por el que fluía una corriente eléctrica desviaba una aguja
magnética situada en sus proximidades. A la semana de conocer el
descubrimiento de Oersted, el científico francés André Marie Ampère
demostró experimentalmente que dos cables por los que circula una corriente
ejercen una influencia mutua igual a la de los polos de un imán. En 1831, el
físico y químico británico Michael Faraday descubrió que podía inducirse el
flujo de una corriente eléctrica en un conductor en forma de espira no
conectado a una batería, moviendo un imán en sus proximidades o situando
cerca otro conductor por el que circulara una corriente variable. La forma más
fácil de enunciar la íntima relación entre la electricidad y el magnetismo,
perfectamente establecida en la actualidad, es a partir de los conceptos de
campo eléctrico y magnético. La intensidad, dirección y sentido del campo en
cada punto mide la fuerza que actuaría sobre una carga unidad (en el caso
del campo eléctrico) o una corriente unidad (en el caso del campo magnético)
situadas en ese punto. Las cargas eléctricas estacionarias producen campos
eléctricos; las corrientes —esto es, las cargas en movimiento— producen
campos eléctricos y magnéticos. Un campo eléctrico también puede ser
producido por un campo magnético variable, y viceversa. Los campos
eléctricos ejercen fuerzas sobre las partículas cargadas por el simple hecho
de tener carga, independientemente de su velocidad; los campos magnéticos
sólo ejercen fuerzas sobre partículas cargadas en movimiento.
Estos hallazgos cualitativos fueron expresados en una forma matemática
precisa por el físico británico James Clerk Maxwell, que desarrolló las
ecuaciones diferenciales en derivadas parciales que llevan su nombre. Las
ecuaciones de Maxwell relacionan los cambios espaciales y temporales de
los campos eléctrico y magnético en un punto con las densidades de carga y
de corriente en dicho punto. En principio, permiten calcular los campos en
cualquier momento y lugar a partir del conocimiento de las cargas y
corrientes. Un resultado inesperado que surgió al resolver las ecuaciones fue
la predicción de un nuevo tipo de campo electromagnético producido por
cargas eléctricas aceleradas. Este campo se propagaría por el espacio con la
velocidad de la luz en forma de onda electromagnética, y su intensidad
disminuiría de forma inversamente proporcional al cuadrado de la distancia de
la fuente. En 1887, el físico alemán Heinrich Hertz consiguió generar
físicamente esas ondas por medios eléctricos, con lo que sentó las bases
para la radio, el radar, la televisión y otras formas de telecomunicaciones.
El comportamiento de los campos eléctrico y magnético en estas ondas es
bastante similar al de una cuerda tensa muy larga cuyo extremo se hace
oscilar rápidamente hacia arriba y hacia abajo. Cualquier punto de la cuerda
se mueve hacia arriba y hacia abajo con la misma frecuencia que la fuente de
las ondas situada en el extremo de la cuerda. Los puntos de la cuerda
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 65
situados a diferentes distancias de la fuente alcanzan su máximo
desplazamiento vertical en momentos diferentes. Cada punto de la cuerda
hace lo mismo que su vecino, pero lo hace algo más tarde si está más lejos
de la fuente de vibración (Oscilación). La velocidad con que se transmite la
perturbación a lo largo de la cuerda, o la ‘orden’ de oscilar, se denomina
velocidad de onda (Movimiento ondulatorio). Esta velocidad es función de la
densidad lineal de la cuerda (masa por unidad de longitud) y de la tensión a la
que esté sometida. Una fotografía instantánea de la cuerda después de llevar
moviéndose cierto tiempo mostraría que los puntos que presentan el mismo
desplazamiento están separados por una distancia conocida como longitud
de onda, que es igual a la velocidad de onda dividida entre la frecuencia. En
el caso del campo electromagnético la intensidad del campo eléctrico se
puede asociar al movimiento vertical de cada punto de la cuerda, mientras
que el campo magnético se comporta del mismo modo pero formando un
ángulo recto con el campo eléctrico (y con la dirección de propagación). La
velocidad con que la onda electromagnética se aleja de la fuente es la
velocidad de la luz.
Luz
La aparente propagación lineal de la luz se conoce desde la antigüedad, y
los griegos creían que la luz estaba formada por un flujo de corpúsculos. Sin
embargo, había gran confusión sobre si estos corpúsculos procedían del ojo
o del objeto observado. Cualquier teoría satisfactoria de la luz debe explicar
su origen y desaparición y sus cambios de velocidad y dirección al atravesar
diferentes medios. En el siglo XVII, Newton ofreció respuestas parciales a
estas preguntas, basadas en una teoría corpuscular; el científico británico
Robert Hooke y el astrónomo, matemático y físico holandés Christiaan
Huygens propusieron teorías de tipo ondulatorio. No fue posible realizar
ningún experimento cuyo resultado confirmara una u otra teoría hasta que, a
principios del siglo XIX, el físico y médico británico Thomas Young demostró
el fenómeno de la interferencia en la luz. El físico francés Augustin Jean
Fresnel apoyó decisivamente la teoría ondulatoria.
La interferencia puede observarse colocando una rendija estrecha delante
de una fuente de luz, situando una doble rendija algo más lejos y observando
una pantalla colocada a cierta distancia de la doble rendija. En lugar de
aparecer una imagen de las rendijas uniformemente iluminada, se ve una
serie de bandas oscuras y claras equidistantes. Para explicar cómo las
hipotéticas partículas de luz procedentes de la misma fuente, que llegan a la
pantalla a través de las dos rendijas, pueden producir distintas intensidades
de luz en diferentes puntos —e incluso anularse unas a otras y producir
zonas oscuras— habría que considerar complejas suposiciones adicionales.
En cambio, las ondas de luz pueden producir fácilmente un efecto así. Si se
supone, como hizo Huygens, que cada una de las dos rendijas actúa como
una nueva fuente que emite luz en todas direcciones, los dos trenes de onda
que llegan a la pantalla en un mismo punto pueden no estar en fase aunque
lo estuvieran al salir de las rendijas (se dice que dos vibraciones están en
fase en un punto determinado cuando en cada momento se encuentran en la
misma etapa de la oscilación: sus máximos coinciden en un mismo momento,
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 66
y lo mismo ocurre con los mínimos). Según la diferencia de recorrido entre
ambos trenes en cada punto de la pantalla, puede ocurrir que un
desplazamiento ‘positivo’ de uno de ellos coincida con uno ‘negativo’ del otro
—con lo que se producirá una zona oscura— o que lleguen simultáneamente
dos desplazamientos positivos, o negativos, lo que provocará un refuerzo de
las intensidades, y por ende una zona brillante. En cada punto brillante, la
intensidad de la luz experimenta una variación temporal a medida que las
sucesivas ondas en fase van desde el máximo desplazamiento positivo hasta
el máximo negativo, pasando por cero, y vuelven de nuevo al máximo
desplazamiento positivo. Sin embargo, ni el ojo ni ningún instrumento clásico
puede determinar este rápido ‘parpadeo’, que en la zona de luz visible tiene
una frecuencia que va de 4 × 1014 a 7,5 × 1014 hercios (ciclos por segundo).
Aunque la frecuencia no puede medirse directamente, puede deducirse de las
medidas de longitud de onda y velocidad. La longitud de onda puede
determinarse midiendo la distancia entre ambas rendijas y la separación entre
dos franjas brillantes adyacentes en la pantalla. Las longitudes de onda van
desde 4 ×10-5 cm en la luz violeta hasta 7,5 ×10-5 cm en la luz roja; los
demás colores corresponden a longitudes de onda intermedias.
El astrónomo danés Olaus Roemer fue el primero en medir la velocidad de
la luz, en 1676. Roemer observó una aparente variación temporal entre los
eclipses sucesivos de los satélites de Júpiter, que atribuyó a los cambios en
la distancia entre la Tierra y Júpiter (según la posición de la primera en su
órbita) y las consiguientes diferencias en el tiempo empleado por la luz para
llegar a la Tierra. Sus medidas coincidían bastante con las observaciones
más precisas realizadas en el siglo XIX por el físico francés Armand Hippolyte
Louis Fizeau y con los trabajos del físico estadounidense Albert Michelson y
sus colaboradores, que se extendieron hasta el siglo XX. En la actualidad, la
velocidad de la luz en el vacío se considera que es 299.792,46 km/s. En la
materia, la velocidad es menor y varía con la frecuencia: este fenómeno se
denomina dispersión.
Los trabajos de Maxwell aportaron resultados importantes a la
comprensión de la naturaleza de la luz, al demostrar que su origen es
electromagnético: una onda luminosa corresponde a campos eléctricos y
magnéticos oscilantes. Sus trabajos predijeron la existencia de luz no visible,
y en la actualidad se sabe que las ondas o radiaciones electromagnéticas
cubren todo un espectro, que empieza en los rayos gamma (Radiactividad),
con longitudes de onda de 10-12 cm y aún menores, pasando por los rayos
X, la luz visible y las microondas, hasta las ondas de radio, con longitudes de
onda de hasta varios cientos de kilómetros. Maxwell también consiguió
relacionar la velocidad de la luz en el vacío y en los diferentes medios con
otras propiedades del espacio y la materia, de las que dependen los efectos
eléctricos y magnéticos. Sin embargo, los descubrimientos de Maxwell no
aportaron ningún conocimiento sobre el misterioso medio (que correspondería
a la cuerda del ejemplo mencionado antes en la sección Electricidad y
magnetismo de este artículo) por el que se pensaba que se propagaban la luz
y las ondas electromagnéticas. A partir de las experiencias con las olas, el
sonido y las ondas elásticas, los científicos suponían que existía un medio
similar, un ‘éter luminífero’, sin masa, que llenaba todo el espacio (puesto que
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 67
la luz puede desplazarse a través del vacío) y actuaba como un sólido (ya
que se sabía que las ondas electromagnéticas eran transversales, puesto que
las oscilaciones se producen en un plano perpendicular a la dirección de
propagación, y en los gases y líquidos sólo pueden propagarse ondas
longitudinales, como las ondas sonoras). La búsqueda de este misterioso éter
ocupó la atención de una gran parte de los físicos a lo largo de los últimos
años del siglo XIX.
El problema se complicaba por un aspecto adicional. Una persona que
camine a 5 km/h en un tren que se desplaza a 100 km/h tiene una velocidad
aparente de 105 km/h para un observador situado en el andén. La pregunta
que surgía en relación con la velocidad de la luz era la siguiente: si la luz se
desplaza a unos 300.000 km/s a través del éter, ¿a qué velocidad se
desplazará con respecto a un observador situado en la Tierra, puesto que la
Tierra también se mueve en relación al éter? ¿Cuál es la velocidad de la
Tierra con respecto al éter, indicada por sus efectos sobre las ondas
luminosas? El famoso experimento de Michelson-Morley, realizado en 1887
por Michelson y por el químico estadounidense Edward Williams Morley con
ayuda de un interferómetro, pretendía medir esta velocidad. Si la Tierra se
desplazara a través de un éter estacionario debería observarse una diferencia
en el tiempo empleado por la luz para recorrer una distancia determinada
según que se desplazase de forma paralela o perpendicular al movimiento de
la Tierra. El experimento era lo bastante sensible para detectar —a partir de
la interferencia entre dos haces de luz— una diferencia extremadamente
pequeña. Sin embargo, los resultados fueron negativos: esto planteó un
dilema para la física que no se resolvió hasta que Einstein formuló su teoría
de la relatividad en 1905.
Termodinámica
Una rama de la física que alcanzó pleno desarrollo en el siglo XIX fue la
termodinámica. En primer lugar aclaró los conceptos de calor y temperatura,
proporcionando definiciones coherentes y demostrando cómo podían
relacionarse éstas con los conceptos de trabajo y energía, que hasta
entonces tenían un carácter puramente mecánico.
Calor y temperatura
Cuando una persona toca un cuerpo caliente y otro frío experimenta
sensaciones diferentes: esto llevó al concepto cualitativo y subjetivo de
temperatura. La adición de calor a un cuerpo lleva a un aumento de su
temperatura (mientras no se produzca fusión o vaporización); cuando se
ponen en contacto dos cuerpos a temperaturas diferentes, se produce un flujo
de calor del más caliente al más frío hasta que se igualan sus temperaturas y
se alcanza el equilibrio térmico. Para llegar a una medida de la temperatura,
los científicos aprovecharon la observación de que la adición o sustracción de
calor produce un cambio en alguna propiedad bien definida del cuerpo. Por
ejemplo, la adición de calor a una columna de líquido mantenida a presión
constante aumenta la longitud de la columna, mientras que el calentamiento
de un gas confinado en un recipiente aumenta su presión. Esto hace que la
temperatura pueda medirse a partir de otra propiedad física (por ejemplo, la
longitud de la columna de mercurio en un termómetro) siempre que se
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 68
mantengan constantes las otras propiedades relevantes. La relación
matemática entre las propiedades físicas relevantes de un cuerpo o sistema y
su temperatura se conoce como ecuación de estado. Por ejemplo, en los
gases llamados ideales, hay una relación sencilla entre la presión p, el
volumen V, el número de moles n y la temperatura absoluta T, dada por la
ecuación pV = nRT, donde R es una constante igual para todos los gases. La
ley de Boyle-Mariotte, llamada así en honor al físico y químico británico
Robert Boyle y al físico francés Edme Mariotte, y la ley de Charles y GayLussac, llamada así en honor a los físicos y químicos franceses Joseph Louis
Gay-Lussac y Jacques Alexandre Cesar Charles, están contenidas en esa
ecuación de estado (Gas).
Hasta bien entrado el siglo XIX se consideraba que el calor era un fluido
sin masa, el llamado ‘calórico’, que estaba contenido en la materia y podía
introducirse en un cuerpo o extraerse del mismo. Aunque la teoría del calórico
explicaba las cuestiones básicas de termometría y calorimetría¸ no lograba
explicar satisfactoriamente muchas observaciones realizadas a principios del
siglo XIX. La primera relación cuantitativa entre el calor y otras formas de
energía fue observada en 1798 por el físico y estadista estadounidense de
origen inglés Benjamin Thompson, conde de Rumford, que observó que el
calor producido al taladrar el ánima de un cañón era aproximadamente
proporcional al trabajo empleado (en mecánica, el trabajo es el producto de la
fuerza que actúa sobre un cuerpo por la distancia recorrida por el cuerpo en
la dirección de esta fuerza durante su aplicación).
El primer principio de la termodinámica
A mediados del siglo XIX, el físico alemán Hermann Ludwig von Helmholtz
y el matemático y físico británico lord Kelvin explicaron la equivalencia entre
calor y trabajo. Esta equivalencia significa que la realización de trabajo sobre
un sistema puede producir el mismo efecto que la adición de calor. Por
ejemplo, puede lograrse el mismo aumento de temperatura en un líquido
contenido en un recipiente suministrándole calor o realizando la cantidad de
trabajo apropiada, haciendo girar una rueda de paletas dentro del recipiente.
El valor numérico de esta equivalencia, el llamado ‘equivalente mecánico del
calor’, fue determinado en experimentos realizados entre 1840 y 1849 por el
físico británico James Prescott Joule.
Con ello quedó establecido que la realización de trabajo sobre un sistema
y la adición de calor al mismo son formas equivalentes de transferir energía al
sistema. Por tanto, la cantidad de energía añadida como calor o trabajo debe
aumentar la energía interna del sistema, que a su vez determina la
temperatura. Si la energía interna no varía, la cantidad de trabajo realizado
sobre un sistema debe ser igual al calor desprendido por el mismo. Esto
constituye el primer principio de la termodinámica, que expresa la
conservación de la energía. Esta energía interna sólo pudo relacionarse con
la suma de las energías cinéticas de todas las partículas del sistema cuando
se comprendió mejor la actividad de los átomos y moléculas dentro de un
sistema.
El segundo principio de la termodinámica
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 69
El primer principio indica que la energía se conserva en cualquier
interacción entre un sistema y su entorno, pero no pone limitaciones a las
formas de intercambio de energía térmica y mecánica. El primero en formular
el principio de que los intercambios de energía se producen globalmente en
una dirección determinada fue el físico e ingeniero militar francés Sadi Carnot,
quien en 1824 mostró que una máquina térmica (un dispositivo que puede
producir trabajo de forma continua a partir del intercambio de calor con su
entorno) necesita un cuerpo caliente como fuente de calor y un cuerpo frío
para absorber el calor desprendido. Cuando la máquina realiza trabajo hay
que transferir calor del cuerpo caliente al cuerpo frío; para que ocurra lo
contrario hay que realizar trabajo mecánico (o eléctrico). Por ejemplo, en un
refrigerador que funciona de forma continua, la absorción de calor del cuerpo
de baja temperatura (el espacio que se quiere refrigerar) exige realizar trabajo
(por lo general en forma eléctrica) y desprender calor al entorno (a través de
aletas o rejillas de refrigeración situadas en la parte trasera del aparato).
Estas ideas, basadas en los conceptos de Carnot, fueron formuladas de
forma rigurosa como segundo principio de la termodinámica por el físico
matemático alemán Rudolf Emanuel Clausius y lord Kelvin en formas diversas
aunque equivalentes. Una de estas formulaciones es que el calor no puede
fluir de un cuerpo frío a un cuerpo caliente sin que se realice trabajo.
Del segundo principio se deduce que, en un sistema aislado (en el que no
existen interacciones con el entorno), las partes internas que se encuentran a
temperaturas distintas siempre tienden a igualar sus temperaturas y alcanzar
así el equilibrio. Este principio también puede aplicarse a otras propiedades
internas inicialmente no uniformes. Por ejemplo, si se vierte leche en una taza
de café, las dos sustancias se mezclan hasta hacerse inseparables e
indiferenciables. Por lo tanto, un estado inicial ordenado, con componentes
diferenciados, se convierte en un estado mezclado o desordenado. Estas
ideas se pueden expresar a partir de una propiedad termodinámica
denominada entropía (enunciada por primera vez por Clausius), que mide lo
cerca que está un sistema del equilibrio, es decir, del desorden interno
perfecto. La entropía de un sistema aislado, y del Universo en su conjunto,
sólo puede aumentar, y cuando se alcanza finalmente el equilibrio ya no son
posibles cambios internos de ninguna clase. Cuando se aplica al conjunto del
Universo, este principio sugiere que la temperatura de todo el cosmos
acabará siendo uniforme, con lo que se producirá la llamada ‘muerte térmica’
del Universo.
Sin embargo, la entropía puede disminuirse localmente mediante acciones
externas. Esto ocurre en las máquinas (por ejemplo un refrigerador, en el que
se reduce la entropía del espacio enfriado) y en los organismos vivos. Por
otra parte, este aumento local del orden sólo es posible mediante un
incremento de la entropía del entorno, donde necesariamente tiene que
aumentar el desorden.
Este aumento continuado de la entropía está relacionado con la
irreversibilidad que se observa en los procesos macroscópicos. Si un proceso
fuera reversible espontáneamente —es decir, si después de realizado el
proceso, tanto el sistema como el entorno pudieran regresar a su estado
inicial— la entropía permanecería constante, lo que violaría el segundo
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 70
principio. Aunque los procesos macroscópicos observados en la experiencia
cotidiana son irreversibles, no ocurre lo mismo con los procesos
microscópicos. Por ejemplo, las reacciones químicas entre moléculas
individuales no se rigen por el segundo principio de la termodinámica, que
sólo es válido para conjuntos macroscópicos.
A partir de la formulación del segundo principio se produjeron otros
avances en la termodinámica, cuyas aplicaciones se extendieron más allá de
la física y alcanzaron a la química y la ingeniería. La mayor parte de la
ingeniería química, toda la ingeniería energética, la tecnología de
acondicionamiento de aire y la física de bajas temperaturas son algunos de
los campos que deben su base teórica a la termodinámica y a los logros
posteriores de científicos como Maxwell, el físico estadounidense Willard
Gibbs, el químico físico alemán Walther Nernst o el químico estadounidense
de origen noruego Lars Onsager.
Teoría cinética y mecánica estadística
El concepto moderno de átomo fue propuesto por primera vez por el
químico y físico británico John Dalton en 1808, a partir de sus estudios que
mostraban que los elementos químicos se combinan en proporciones
constantes para formar compuestos. En 1811, el físico italiano Amedeo
Avogadro propuso el concepto de molécula, la partícula más pequeña de una
sustancia gaseosa que puede existir en estado libre y seguir teniendo las
mismas propiedades que una cantidad mayor de dicha sustancia. Este
concepto no tuvo una aceptación generalizada hasta unos 50 años después,
cuando sirvió de base a la teoría cinética de los gases. Esta teoría,
desarrollada por Maxwell, el físico austriaco Ludwig Boltzmann y otros,
permitió aplicar las leyes de la mecánica y del cálculo probabilístico al
comportamiento de las moléculas individuales, lo que llevó a deducciones
estadísticas sobre las propiedades del gas en su conjunto.
Un problema importante resuelto de esta forma fue la determinación del
rango de velocidades de las moléculas de un gas, y en consecuencia de la
energía cinética media de las moléculas. La energía cinética de un cuerpo es
mv2, donde m es la masa del cuerpo y v su velocidad. Uno de los logros de
la teoría cinética fue la demostración de que la temperatura —una propiedad
termodinámica macroscópica que describe el conjunto del sistema— está
directamente relacionada con la energía cinética media de las moléculas.
Otro logro consistió en identificar la entropía de un sistema con el logaritmo
de la probabilidad estadística de la distribución de energías. Esto llevó a
demostrar que el estado de equilibrio termodinámico de mayor probabilidad
es también el estado de máxima entropía. Después de su éxito en los gases,
la teoría cinética y la mecánica estadística se aplicaron a otros sistemas, algo
que continúa haciéndose en la actualidad.
Primeras teorías atómicas y moleculares
La teoría atómica de Dalton y la ley de Avogadro tuvieron una influencia
crucial en el desarrollo de la química, además de su importancia para la
física.
Ley de Avogadro
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 71
La ley de Avogadro, fácil de demostrar a partir de la teoría cinética, afirma
que a una presión y temperatura dadas un volumen determinado de un gas
siempre contiene el mismo número de moléculas, independientemente del
gas de que se trate. Sin embargo, los físicos no lograron determinar con
exactitud esa cifra (y por tanto averiguar la masa y tamaño de las moléculas)
hasta principios del siglo XX. Después del descubrimiento del electrón, el
físico estadounidense Robert Andrews Millikan determinó su carga. Esto
permitió finalmente calcular con precisión el número de Avogadro, es decir, el
número de partículas (átomos, moléculas, iones o cualquier otra partícula)
que hay en un mol de materia.
Además de la masa del átomo interesa conocer su tamaño. A finales del
siglo XIX se realizaron diversos intentos para determinar el tamaño del átomo,
que sólo tuvieron un éxito parcial. En uno de estos intentos se aplicaron los
resultados de la teoría cinética a los gases no ideales, es decir, gases cuyas
moléculas no se comportan como puntos sino como esferas de volumen
finito. Posteriores experimentos que estudiaban la forma en que los átomos
dispersaban rayos X, partículas alfa y otras partículas atómicas y
subatómicas permitieron medir con más precisión el tamaño de los átomos,
que resultaron tener un diámetro de entre 10-8 y 10-9 cm. Sin embargo, una
afirmación precisa sobre el tamaño de un átomo exige una definición explícita
de lo que se entiende por tamaño, puesto que la mayoría de los átomos no
son exactamente esféricos y pueden existir en diversos estados, con
diferentes distancias entre el núcleo y los electrones.
Espectroscopia
Uno de los avances más importantes que llevaron a la exploración del
interior del átomo y al abandono de las teorías clásicas de la física fue la
espectroscopia; otro avance fue el propio descubrimiento de las partículas
subatómicas.
Cuando se calienta una sustancia gaseosa ésta emite luz en una serie de
frecuencias determinadas; la distribución de estas frecuencias se denomina
espectro de emisión. En 1823 el astrónomo y químico británico John Herschel
sugirió que las sustancias químicas podían identificarse por su espectro. En
los años posteriores, dos alemanes, el químico Robert Wilhelm Bunsen y el
físico Gustav Robert Kirchhoff, catalogaron los espectros de numerosas
sustancias. El helio se descubrió después de que, en 1868, el astrónomo
británico Joseph Norman Lockyer observara una línea espectral desconocida
en el espectro solar. Sin embargo, las contribuciones más importantes desde
el punto de vista de la teoría atómica se debieron al estudio de los espectros
de átomos sencillos, como el del hidrógeno, que presenta pocas líneas
espectrales.
Los llamados espectros de líneas (formados por líneas individuales
correspondientes a diferentes frecuencias) son causados por sustancias
gaseosas en las que, según sabemos hoy, los electrones han sido excitados
por calentamiento o por bombardeo con partículas subatómicas. En cambio,
cuando se calienta un sólido aparece un espectro continuo que cubre toda la
zona visible y penetra en las regiones infrarroja y ultravioleta. La cantidad
total de energía emitida por el sólido depende mucho de la temperatura, así
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 72
como la intensidad relativa de las distintas longitudes de onda. Por ejemplo, si
se calienta un trozo de hierro la radiación emitida comienza en la región
infrarroja, y no puede verse; después la radiación se desplaza hacia el
espectro visible, primero con un brillo rojo y luego blanco, a medida que el
máximo del espectro de radiación avanza hacia la mitad de la zona visible. El
intento de explicar las características de la radiación de los sólidos con las
herramientas de la física teórica de finales del siglo XIX llevaba a la
predicción de que, a cualquier temperatura, la cantidad de radiación debía
aumentar de forma ilimitada a medida que disminuía la longitud de onda. Este
cálculo, en el que no se logró encontrar ningún error, estaba en desacuerdo
con los experimentos y además llevaba a una conclusión absurda, la de que
un cuerpo con temperatura finita pudiera radiar una cantidad infinita de
energía. Estas contradicciones exigían una nueva forma de considerar la
radiación e, indirectamente, el átomo.
La crisis de la física clásica
Hacia 1880 la física presentaba un panorama de calma: la mayoría de los
fenómenos podían explicarse mediante la mecánica de Newton, la teoría
electromagnética de Maxwell, la termodinámica y la mecánica estadística de
Boltzmann. Parecía que sólo quedaban por resolver unos pocos problemas,
como la determinación de las propiedades del éter y la explicación de los
espectros de emisión y absorción de sólidos y gases. Sin embargo, estos
fenómenos contenían las semillas de una revolución cuyo estallido se vio
acelerado por una serie de asombrosos descubrimientos realizados en la
última década del siglo XIX: en 1895, Wilhelm Conrad Roentgen descubrió los
rayos X; ese mismo año, Joseph John Thomson descubrió el electrón; en
1896, Antoine Henri Becquerel descubrió la radiactividad; entre 1887 y 1899,
Heinrich Hertz, Wilhelm Hallwachs y Philipp Lenard descubrieron diversos
fenómenos relacionados con el efecto fotoeléctrico. Los datos experimentales
de la física, unidos a los inquietantes resultados del experimento de
Michelson-Morley y al descubrimiento de los rayos catódicos, formados por
chorros de electrones, desafiaban a todas las teorías disponibles.
La física moderna
Dos importantes avances producidos durante el primer tercio del siglo XX
—la teoría cuántica y la teoría de la relatividad— explicaron estos hallazgos,
llevaron a nuevos descubrimientos y cambiaron el modo de comprender la
física.
Relatividad
Para ampliar el ejemplo de velocidad relativa introducido a propósito del
experimento de Michelson-Morley se pueden comparar dos situaciones. En
una de ellas, una persona A avanza hacia delante con una velocidad v en un
tren que se mueve a una velocidad u. La velocidad de A con respeto a un
observador B situado en el andén es V = u + v. Si el tren está parado en la
estación y A avanza hacia delante con una velocidad v mientras el
observador B camina en sentido opuesto con velocidad u, la velocidad
relativa de A respecto a B sería exactamente la misma que en el primer caso.
En términos más generales, si dos sistemas de referencia se mueven uno
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 73
respecto del otro a velocidad constante, las observaciones de cualquier
fenómeno realizadas por un observador en cualquiera de los sistemas son
físicamente equivalentes. Como ya se indicó, el experimento de MichelsonMorley no logró confirmar esta simple suma de velocidades en el caso de un
haz de luz: dos observadores, uno de los cuales estaba en reposo y el otro
avanzaba hacia una fuente de luz a velocidad u, midieron el mismo valor de la
velocidad de la luz, que suele simbolizarse con la letra c.
Einstein incorporó la invariancia de c a su teoría de la relatividad. La teoría
también exigió un cuidadoso replanteamiento de los conceptos de espacio y
tiempo, y puso de manifiesto la imperfección de las nociones intuitivas sobre
los mismos. De la teoría de Einstein se desprende que un reloj perfectamente
sincronizado con otro reloj situado en reposo en relación con él se retrasará o
adelantará con respecto al segundo reloj si ambos se mueven uno respecto
del otro. Igualmente, dos varillas que tengan igual longitud cuando están en
reposo tendrán longitudes distintas cuando una se mueva respecto a la otra.
Las diferencias sólo son significativas cuando las velocidades relativas son
comparables a c. El espacio y el tiempo están estrechamente ligados en un
continuo de cuatro dimensiones: las tres dimensiones espaciales habituales y
una cuarta dimensión temporal.
Dos consecuencias importantes de la teoría de la relatividad son la
equivalencia entre masa y energía y el límite máximo a la velocidad de los
objetos materiales dado por c. La mecánica relativista describe el movimiento
de objetos cuyas velocidades son fracciones apreciables de c, mientras que
la mecánica newtoniana sigue siendo útil para las velocidades propias de los
movimientos de los objetos macroscópicos en la Tierra. En cualquier caso,
ningún objeto material puede tener una velocidad igual o mayor a la velocidad
de la luz.
La masa m y la energía E están ligadas por la relación E = mc2. Como c es
muy grande, el equivalente energético de la masa es gigantesco. La
transformación de masa en energía resulta significativa en las reacciones
nucleares, como las que tienen lugar en una central nuclear o en una bomba
atómica, y en las estrellas, donde la liberación de cantidades ingentes de
energía se ve acompañada de una pérdida significativa de masa.
La teoría original de Einstein, formulada en 1905 y conocida como teoría
de la relatividad especial o restringida, se limitaba a sistemas de referencia
que se mueven a velocidad constante uno respecto del otro. En 1915,
Einstein generalizó su hipótesis y formuló la teoría de la relatividad general,
aplicable a sistemas que experimentan una aceleración uno con respecto al
otro. Esta extensión demostró que la gravitación era una consecuencia de la
geometría del espacio-tiempo, y predijo la desviación de la luz al pasar cerca
de un cuerpo de gran masa como una estrella, efecto que se observó por
primera vez en 1919. La teoría de la relatividad general, aunque no está tan
firmemente establecida como la relatividad restringida, tiene una importancia
decisiva para la comprensión de la estructura del Universo y su evolución.
Teoría cuántica
El primero en resolver el dilema planteado por los espectros de emisión de
los cuerpos sólidos fue el físico alemán Max Planck. Según la física clásica,
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 74
todas las moléculas de un sólido pueden vibrar, y la amplitud de sus
vibraciones está directamente relacionada con la temperatura. En principio
son posibles todas las energías de vibración, y la energía térmica del sólido
debería de poder convertirse de forma continua en radiación electromagnética
mientras se le suministre energía. Planck realizó una suposición radical al
postular que un oscilador molecular sólo puede emitir ondas
electromagnéticas en paquetes discretos, que llamó cuantos o fotones. Cada
fotón tiene una longitud de onda y una frecuencia características y una
energía E que viene dada por E =
donde es la frecuencia de la onda
luminosa y h es la denominada constante de Planck. La longitud de onda
está relacionada con la frecuencia según la ecuación
donde c es la
velocidad de la luz. Si la frecuencia se expresa en hercios (Hz), o ciclos por
segundo (1 Hz = 1 s-1), y la energía en julios, la constante de Planck es
extremadamente pequeña, y vale 6,626 × 10-34 julios·segundo. Con su
teoría, Planck introdujo una dualidad onda-corpúsculo en la naturaleza de la
luz, que durante un siglo había sido considerada como un fenómeno
exclusivamente ondulatorio.
Efecto fotoeléctrico
Cuando una radiación electromagnética de frecuencia apropiada incide
sobre determinados metales, de la superficie del metal se desprenden cargas
eléctricas negativas (hoy sabemos que se trata de electrones). Los aspectos
importantes de este fenómeno son los siguientes: 1) la energía de cada
electrón desprendido sólo depende de la frecuencia de la fuente luminosa, y
no de su intensidad; 2) la cantidad o el ritmo de emisión de electrones sólo
depende de la intensidad de iluminación, y no de la frecuencia (siempre que
se supere la frecuencia mínima o umbral capaz de provocar la emisión); 3) los
electrones se desprenden en cuanto se ilumina la superficie. Estas
observaciones, que no podían ser explicadas por la teoría electromagnética
de la luz desarrollada por Maxwell, llevaron a Einstein en 1905 a suponer que
la luz sólo puede absorberse en cuantos, o fotones, y que el fotón
desaparece por completo en el proceso de absorción y cede toda su energía
E (igual a hf) a un solo electrón del metal. Con esta sencilla suposición,
Einstein amplió la teoría cuántica de Planck a la absorción de radiación
electromagnética, lo que concedió una importancia aún mayor a la dualidad
onda-corpúsculo de la luz. Por este trabajo logró Einstein el Premio Nobel de
Física en 1912.
Rayos X
En 1912 el físico alemán Max von Laue y sus colaboradores demostraron
que estos rayos extremadamente penetrantes, descubiertos por Roentgen,
eran radiación electromagnética de longitud de onda muy corta, es decir, de
frecuencia elevada. Se comprobó que el mecanismo de producción de rayos
X correspondía a un fenómeno cuántico, y en 1914 el físico británico Henry
Gwyn Jeffreys Moseley empleó sus espectrogramas de rayos X para
demostrar que el número de protones de un átomo coincide con su número
atómico, que indica su posición en la tabla periódica. La teoría fotónica de la
radiación electromagnética se reforzó y desarrolló aún más cuando el físico
estadounidense Arthur Holly Compton predijo y observó en 1923 el llamado
efecto Compton.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 75
Física del electrón
En el siglo XIX ya se sospechaba que los portadores de las cargas
eléctricas eran partículas extremadamente pequeñas, y los experimentos
electroquímicos indicaban que la carga de esas partículas elementales era
una cantidad definida e invariante. Los experimentos sobre conducción de
electricidad en gases a baja presión llevaron al descubrimiento de dos clases
de rayos: los rayos catódicos, procedentes del electrodo negativo de un tubo
de descarga, y los rayos positivos o rayos canales, procedentes del electrodo
positivo. El experimento realizado por Joseph John Thomson en 1895 midió la
relación entre la carga q y la masa m de las partículas de los rayos catódicos.
En 1899 Lenard confirmó que esta relación era la misma en las partículas
emitidas en el efecto fotoeléctrico. Hacia 1911 Millikan determinó por fin que
la carga eléctrica siempre aparece en múltiplos de una unidad básica e, y
midió su valor, que es de 1,602 × 10-19 culombios. A partir del valor obtenido
para la relación q/m, se determinó que la masa del portador de carga,
denominado electrón, es de 9,109 × 10-31 kilogramos.
Posteriormente Thomson y otros demostraron que los rayos positivos
también estaban formados por partículas, pero con carga de signo positivo.
Estas partículas (en la actualidad se sabe que son iones positivos producidos
al eliminar electrones de un átomo neutro) tienen una masa muchísimo mayor
que la del electrón. La más pequeña, el ion hidrógeno, está formado por un
solo protón (con carga e pero de signo positivo) y tiene una masa de 1,673 ×
10-27 kg, unas 1.800 veces mayor que la del electrón. La naturaleza
‘cuantizada’ de la carga eléctrica había quedado firmemente establecida, y al
mismo tiempo se habían identificado dos de las partículas subatómicas
fundamentales.
Modelos atómicos
En 1913 el físico británico nacido en Nueva Zelanda Ernest Rutherford
comprobó que el anterior modelo atómico de Thomson, con partículas
positivas y negativas uniformemente distribuidas, era insostenible. Las
partículas alfa empleadas por Rutherford, muy rápidas y con carga positiva,
se desviaban con claridad al atravesar una capa muy fina de materia. Para
explicar este efecto era necesario un modelo atómico con un núcleo central
pesado y cargado positivamente que provocara la dispersión de las partículas
alfa. Rutherford sugirió que la carga positiva del átomo estaba concentrada
en un núcleo estacionario de gran masa, mientras que los electrones
negativos se movían en órbitas alrededor del núcleo, ligadas por la atracción
eléctrica entre cargas opuestas. Sin embargo, este modelo de ‘sistema solar’
no podía ser estable según la teoría de Maxwell ya que, al girar, los
electrones son acelerados y deberían emitir radiación electromagnética,
perder energía y como consecuencia caer en el núcleo en un tiempo muy
breve.
Esto exigió otra ruptura radical con la física clásica, que corrió a cargo del
físico danés Niels Bohr. Según Bohr en los átomos existían ciertas órbitas en
las que los electrones giran sin emitir radiación electromagnética. Estas
órbitas permitidas, los llamados estados estacionarios, están determinadas
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 76
por la condición de que el momento angular J del electrón de la órbita tiene
que ser un múltiplo entero positivo de la constante de Planck dividida entre
J = nh/
n puede tomar cualquier
valor entero positivo. Estas fórmulas extendieron la ‘cuantización’ a la
dinámica, fijaron las órbitas posibles y permitieron a Bohr calcular los radios
de las mismas y los niveles de energía correspondientes. En 1913, el año en
que apareció el primer trabajo de Bohr sobre este tema, el modelo fue
confirmado experimentalmente por el físico estadounidense nacido en
Alemania James Franck y su colega alemán Gustav Hertz.
Bohr desarrolló su modelo con mucha mayor profundidad. Explicó el
mecanismo por el que los átomos emiten luz y otras ondas electromagnéticas
y propuso la hipótesis de que un electrón ‘elevado’ por una perturbación
suficiente desde la órbita de menor radio y menor energía (el estado
fundamental) hasta otra órbita vuelve a ‘caer’ al estado fundamental al poco
tiempo. Esta caída está acompañada de la emisión de un único fotón con
energía E = hf, que corresponde a la diferencia de energía entre las órbitas
superior e inferior. Cada transición entre órbitas emite un fotón característico
cuya longitud de onda y frecuencia están exactamente definidas; por ejemplo,
en una transición directa desde la órbita de n = 3 hasta la de n = 1 se emite
un solo fotón, muy distinto de los dos fotones emitidos en una transición
secuencial desde la órbita de n = 3 hasta la de n = 2 y a continuación desde
ésta hasta la de n = 1. Este modelo permitió a Bohr explicar con gran
precisión el espectro atómico más sencillo, el del hidrógeno, que había
desafiado a la física clásica.
Aunque el modelo de Bohr se amplió y perfeccionó, no podía explicar los
fenómenos observados en átomos con más de un electrón. Ni siquiera podía
explicar la intensidad de las rayas espectrales del sencillo átomo de
hidrógeno. Como su capacidad de predicción de resultados experimentales
era limitada, no resultaba plenamente satisfactorio para los físicos teóricos.
Descargar